Esto no es realmente IA, aunque es un término nebuloso …
Hubo un momento extremadamente incómodo cuando el software de subtítulos de fotos de Google capturó por error un retrato de una pareja de negros como “gorilas”.
- ¿La IA hará que el arte sea mejor que los humanos?
- ¿Cuál debería ser el futuro: IA aumentada o solo IA?
- ¿Qué idioma prefieren las empresas para la inteligencia artificial?
- ¿Debo inscribirme en una segunda licenciatura para comenzar una carrera en inteligencia artificial / aprendizaje automático?
- Con Google y Facebook arrojando tanto dinero al talento de IA, ¿es la verdadera preocupación de AI que la avaricia en el sector supere la verdadera paridad de innovación y nuevas ideas?
No se trataba de una persona racista, sino de un algoritmo que simplemente clasificó erróneamente algunos píxeles sin supervisión humana. Cuando se informó, la situación se manejó bien y el problema se solucionó de inmediato. ¡Por un humano!
Pero demuestra que incluso en una aplicación tan simple, conocer el contexto cultural es muy importante. Va a ser muy difícil enseñar a las computadoras por qué llamar a los negros “gorilas” es mucho más problemático que llamar a los blancos “focas” u otros casos. Requiere una comprensión competente de ética, lenguaje peyorativo y 400 años de historia.
Nuestros futuros señores de los robots seguramente culparán a los humanos por crear una situación tan complicada en primer lugar.
Google etiqueta erróneamente a las personas negras como ‘gorilas’, mostrando límites de algoritmos