¿Pueden los algoritmos de aprendizaje automático reforzar los estereotipos?

Los algoritmos de aprendizaje automático son herramientas utilizadas por los humanos, y como cualquier otra herramienta, pueden usarse para reforzar los estereotipos si las personas que los usan están tan inclinados. Por ejemplo, un banco puede capacitar a una Máquina de vectores de soporte para clasificar a las personas que desean pedir prestado dinero en personas que no pagarán o no. Para hacer esto, el banco necesita incluir en el algoritmo lo que significa ‘persona’. El banco, por razones computacionales y probablemente éticas, no puede representar a cada persona como sus moléculas constituyentes. En cambio, utiliza características para codificar a una persona: ¿cuánto dinero gana la persona? ¿Dónde vive la persona? ¿Cuántos años tiene la persona? O, si el banco estuviera tan inclinado: ¿de qué color es la piel de la persona? De esta manera, sí, los algoritmos de aprendizaje automático pueden usarse para reforzar los estereotipos. De hecho, todas las formas de aprendizaje supervisado pueden usarse para reforzar los estereotipos, porque el aprendizaje supervisado requiere que alguien supervise el algoritmo, y si el supervisor es racista, también lo será el algoritmo. El aprendizaje no supervisado también se puede utilizar para reforzar los estereotipos, aunque de una manera mucho más sutil. Ver, por ejemplo, ¿El hombre es para el programador de computadoras como la mujer para el ama de casa? Debiasing Word Embeddings .