Supongo que te refieres a un sesgo invidioso El sesgo es esencial para el aprendizaje, pero debe ser un sesgo justificado y justo, como los perros tienen más probabilidades de ladrar que los gatos, en lugar de, por ejemplo, las personas de baja estatura no tienen ninguna razón para vivir.
En general no. Si toma categorías explícitas que no desea condicionar, como raza, sexo, estado civil, edad; lo que sea, fuera de la entrada, no eliminas el sesgo nocivo. Por un lado, hay muchos correlatos de estas cosas. Por otro lado, puede eliminar el obvio obvio sesgo simple, pero introducir un sesgo invidioso más astuto que puede ser peor. Además de eso, todo lo que hace que el modelo sea más estúpido es un mal diseño.
Un mejor enfoque es desenterrar los datos que demuestran la envidia del sesgo. Eso es un trabajo duro, pero conduce al mejor resultado.
- Elon Musk dijo que, si tuviera 22 años, estudiaría IA y enfermedades genéticas. ¿Hay una buena manera de comenzar a estudiar la inteligencia artificial?
- ¿Se consideran Furbys ejemplos de IA?
- ¿Cuánto tiempo llevará AI como DeepMind para reemplazar a los programadores?
- ¿En qué sitio web puedo aprender inteligencia artificial?
- ¿Cuál es el evento cataclísmico más probable para la humanidad, una toma de control de la IA o una calamidad política / nuclear / climática?
Si eso no es posible, es mejor ajustar la función objetivo que los datos de entrada. Deje que la IA haga sus mejores predicciones, pero tome medidas que se ajusten a los prejuicios.