¿Se puede usar AI para reducir el sesgo?

Si y no. Una IA puede ver los puntos de datos de una manera que los humanos no pueden, puede saber mejor si algo es más probable que sea casual o un patrón (algo en lo que los humanos somos realmente malos), y puede diseñarse para ignorar las señales que traen a la luz la humanidad. sesgos implícitos. Hecho con cuidado, la respuesta puede ser sí.

Sin embargo, existe una gran advertencia: los IA del programa de humanos, y los humanos, cada uno de ellos, tienen cerebros humanos que tienen una gran cantidad de prejuicios, desde las tendencias innatas que todos compartimos hasta el equipaje cultural que todos llevamos. ¿Qué sucede cuando inadvertidamente ponemos nuestros prejuicios en un algoritmo, luego aceptamos el análisis de la IA como “imparcial”? En este caso, terminamos tomando un prejuicio o un prejuicio que quizás ni siquiera hubiéramos sabido que teníamos y consagrándolo con la fría objetividad de matemática y ciencia.

De hecho, esto ya está sucediendo en el mundo que nos rodea; vea, por ejemplo, el libro Weapons of Math Destruction de Cathy O’Neil (puede encontrar un resumen aquí). Los libros muestran lugares donde los datos que se utilizan para tomar decisiones “objetivas” no cumplen su promesa o llegan a perpetuar algún sesgo o prejuicio actual. Los ejemplos van desde algoritmos para juzgar a los maestros que pueden dar malos resultados debido a la cantidad estadísticamente insignificante de estudiantes que cada maestro tiene, hasta un software automatizado de clasificación de currículums que puede descartar las aplicaciones de las personas por una variedad de razones. Los sistemas basados ​​en un algoritmo a menudo ofrecen poca o ninguna explicación para un resultado adverso y ninguna posibilidad de apelación.

No estoy afirmando, y tampoco O’Neil, que todos los usos de la IA y los grandes datos estén sesgados, pero algunos usos son, debido a datos sesgados, o programación, o el aprendizaje automático de la IA que aprende de nosotros humanos sesgados, o algún factor relacionado con los puntos ciegos de los programadores. Dado que los algoritmos se ejecutan en modelos, y un modelo por definición es incompleto, a menudo habrá algún tipo de sesgo. Solo digo que deberíamos evitar caer en la trampa de que nuestras computadoras son de alguna manera libres de sesgos y objetivas, y constantemente reevaluamos nuestra recopilación de datos y algoritmos para ver si los resultados son realmente objetivos (o al menos más cercanos al objetivo).

En la superficie, uno pensaría que sí, pero uno tiene que preguntarse si el sesgo inconsciente se transfiere a las bases de datos que una IA usaría para la determinación factoral. Con eso quiero decir: ¿hay patrones inclusivos o excluyentes incluso en los contenedores de codificación y datos sin procesar? No sé lo suficiente sobre los modelos actuales que se siguen en la investigación de IA para decirlo con certeza, pero sí sé que el sesgo inconsciente parece permear en todos los demás lugares donde los humanos se esfuerzan, hasta cierto punto, por lo que supongo que también existiría allí. Sin embargo, su pregunta no era ‘eliminar el sesgo’, por lo que supongo que, siempre que los materiales de referencia sobre los que se basa la IA tengan la menor mancha de sesgo posible, sí, habría un potencial para minimizar el sesgo. En cuanto a cuánto en comparación con cuánto podría lograr una persona es una pregunta diferente. Es muy probable que se cree un sesgo que sería únicamente el de las IA y ese sesgo es inherente a la perspectiva, independientemente de si es orgánico o artificial.

¿Parcialidad? ¿Qué es el sesgo? ¿Es el sesgo simplemente el efecto de la opinión subjetiva sobre un hecho? O es algo más? Hoy, la IA puede usarse para controlar el “sesgo”, pero mañana puede usarse para controlar las opiniones que se oponen a la nuestra.