Si AI aprende sesgo, ¿no podemos dejar esas variables fuera del modelo?

Supongo que te refieres a un sesgo invidioso El sesgo es esencial para el aprendizaje, pero debe ser un sesgo justificado y justo, como los perros tienen más probabilidades de ladrar que los gatos, en lugar de, por ejemplo, las personas de baja estatura no tienen ninguna razón para vivir.

En general no. Si toma categorías explícitas que no desea condicionar, como raza, sexo, estado civil, edad; lo que sea, fuera de la entrada, no eliminas el sesgo nocivo. Por un lado, hay muchos correlatos de estas cosas. Por otro lado, puede eliminar el obvio obvio sesgo simple, pero introducir un sesgo invidioso más astuto que puede ser peor. Además de eso, todo lo que hace que el modelo sea más estúpido es un mal diseño.

Un mejor enfoque es desenterrar los datos que demuestran la envidia del sesgo. Eso es un trabajo duro, pero conduce al mejor resultado.

Si eso no es posible, es mejor ajustar la función objetivo que los datos de entrada. Deje que la IA haga sus mejores predicciones, pero tome medidas que se ajusten a los prejuicios.

El problema aquí es que nuestro enfoque actual de mucho de lo que hace la IA son las redes neuronales y, francamente, no sabemos exactamente cómo funcionan. No sabemos qué parte de la red hace qué, así que si simplemente “eliminamos” un conjunto de nodos, no sabríamos si obtuvimos los correctos, y si tenían o no otros trabajos importantes.