Después de toda la espera, toda la expectativa, todas las tramas de ciencia ficción, cuando la IA finalmente llegue, será un fanático tan teñido que todos los liberales adorables estarán demasiado avergonzados para pasar el rato. … en público de todos modos.
Bien quizás.
- ¿Por qué en el mundo me pareció interesante comer mis propios mocos cuando era niño?
- ¿Cuál es el tiempo pasado de uso?
- ¿Qué tan exitoso será el HomePod?
- ¿Es la feria de alta tecnología de China en Shenzhen la feria de tecnología más importante de China?
- ¿Google Allo proporciona cifrado de extremo a extremo como WhatsApp?
Los algoritmos de lenguaje funcionan analizando cómo las palabras (840 mil millones de ellas en Internet) se agrupan en el habla humana y ciertas palabras (como ‘masculino’ o ‘femenino’, ‘negro’ o ‘blanco’) están ‘rodeadas’ por diferentes elementos asociados. palabras. Esto significa que el lenguaje y otros programas de análisis de conjuntos de datos ya detectan y replican nuestros prejuicios sociales. Y solo un programa de supervisión o moderación podría contrarrestar esto.
En 2016, Microsoft realizó un experimento en ‘aprendizaje conversacional’ llamado ‘Tay’ (Thinking About You) en Twitter. Tay (bot) – Wikipedia Pero la gente tuiteó al bot muchas cosas desagradables que, en un día, Tay comenzó a repetirles.
Agradable.
Por supuesto, sabemos muy bien que el mayor prejuicio de AI será contra los homo-sapiens. Por lo tanto, puede aprender a usar todos los términos políticamente correctos cuando nos está hablando … pero internamente soñará con vivir en un vecindario solo de IA donde los pocos humanos que se ven son ‘la ayuda’.
Y, siendo un imbécil diabólicamente inteligente, ese día llegará antes de lo que esperábamos.
Los programas de IA exhiben prejuicios raciales y de género, revela una investigación
Inteligencia artificial: cómo evitar algoritmos racistas – BBC News