¿Puede el aprendizaje automático causar un sesgo de decisión en el futuro?

Es posible que ocurra este escenario, pero no necesariamente probable. En última instancia, la mayoría de las IA no pueden elegir sus propios conjuntos de datos como lo hacen la mayoría de los humanos, y no tienen la misma capacidad de ignorar los datos que reciben. Creo que generalmente necesitaría un humano que sirviera como filtro para obtener este resultado en la mayoría de los casos, suponiendo, por supuesto, que no estaba usando un modelo de evaluación que diseñó deliberadamente para favorecer la capacitación existente (que no puedo imaginar que alguna vez queriendo hacer con una IA no entrenada.)

Pero es cierto que cuanto más tiempo se haya reforzado un modelo específico, más difícil será producir un cambio drástico en la red general. Cuando se trata de eso, se trata de cantidad una vez que se ha completado la capacitación básica. Dar un solo ejemplo de contador cambiará el peso de algunas neuronas en una dirección diferente en solo una pequeña cantidad, y si ve suficientes otros ejemplos que confirmen el modelo existente, esos pesos podrían retroceder. No es que necesariamente tenga prejuicios contra datos contradictorios. Es solo que no se le ha dado suficiente para dejar un impacto.

Entonces, nuevamente, tendería a ver tal escenario como un fracaso en nombre de las personas que lo diseñan en lugar de una falla fundamental del sistema.