Sí. Esto puede parecer una pesadilla futurista, pero es un proceso insidioso y progresivo que está muy avanzado.
Experimentos en DeepMind que estudian si los sistemas de IA serán agresivos o colaborativos al jugar un juego. Los jugadores recogen manzanas virtuales; tienen la capacidad de incapacitar temporalmente a un oponente al “disparar” un “láser” virtual. Y los humanos se sorprenden de que las IA a veces decidan que les conviene disparar a su oponente, en lugar de recolectar manzanas pacíficamente.
LA INTELIGENCIA ARTIFICIAL (AI) DE GOOGLE ya ha comenzado a mostrar cierta evidencia de los rasgos de personalidad, pero ahora DeepMind está aprendiendo a mostrar signos de agresión cuando cree que no se saldrá con la suya.
- ¿Quién parece más cercano a dar a luz una inteligencia artificial fuerte?
- ¿Cuáles son algunas de las características de la inteligencia natural que también podríamos aplicar a la inteligencia artificial?
- ¿Cuáles son los alcances de carrera para estudiantes en ece apasionadamente interesados en Inteligencia Artificial?
- ¿Qué empresas cotizadas son líderes en inteligencia artificial para los mercados financieros?
- ¿Cuál será la tendencia futura del mercado de inteligencia artificial y aprendizaje automático avanzado a nivel mundial?
¿La IA conducirá a un gran desastre o una toma de control del robot que destruirá a la humanidad?
Un conflicto nuclear entre Corea del Norte y Estados Unidos provocaría la muerte de millones. A corto plazo, la IA no va a conducir a algo peor que eso. Las tecnologías de IA de hoy simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.
Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también sus riesgos asociados. La IA aplicada a la guerra y la vigilancia es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y atacar a las personas utilizando un software de reconocimiento facial, están a la vuelta de la esquina. Suelta, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.
Los sistemas basados en IA están comenzando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente son realizados por expertos humanos. Esto se debe a que la IA puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.
Mala gobernanza: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada global para abordar. El cambio climático es el ejemplo más destacado, pero en el futuro cosas como la nanotecnología y la regulación de la IA necesitarían ser coordinadas internacionalmente.
El peligro es que las estructuras de gobernanza a menudo fallan y a veces terminan exacerbando los problemas que intentaban solucionar. Una falla política en el manejo de una amenaza que podría causar la extinción humana, por lo tanto, sería muy negativa.
La IA imita los comportamientos humanos porque le enseñamos a hacerlo, en este caso, al pedirle que juegue un juego con reglas humanas. Como he dicho, si queremos una mejor IA, tenemos que ser mejores personas. Si queremos una IA que pueda distinguir entre humanos y bits, tenemos que enseñarle qué son los humanos y cómo comportarse de manera diferente en su presencia.
Las máquinas aprenden lo que les enseñamos. Si no quieres que un oficial de IA dispare, no les des armas .