Sí, porque ” No sabemos cómo controlar máquinas superinteligentes”.
Una vez que los programas de computación crezcan lo suficientemente avanzados como para enseñarse ciencias de la computación, podrían usar ese conocimiento para mejorar, causando una espiral de superinteligencia cada vez mayor.
En tan solo una década, la inteligencia artificial podría igualar y luego superar la inteligencia humana. Las corporaciones y las agencias gubernamentales de todo el mundo están invirtiendo miles de millones para lograr la inteligencia del Santo Grial de AI a nivel humano. Una vez que la IA lo haya logrado, los científicos argumentan que tendrá unidades de supervivencia muy parecidas a las nuestras. Es posible que nos veamos obligados a competir con un rival más astuto, más poderoso y más extraño de lo que podemos imaginar.
- ¿La inteligencia artificial se hará cargo de todo algún día? Por ejemplo: conducción de transportes, limpieza de áreas, cocina, lucha en guerras. Todos los humanos disfrutarán de la igualdad, no más esclavitud.
- ¿Hay marcos de inteligencia artificial disponibles en Ruby?
- ¿Cuáles son algunas de las características de la inteligencia natural que también podríamos aplicar a la inteligencia artificial?
- ¿Cuándo matará la inteligencia artificial a la primera persona?
- ¿Por qué tantos físicos recurren al trabajo en inteligencia artificial o aprendizaje automático?
Podremos hacer mejores máquinas para la destrucción con la ayuda de AI
La IA es más controvertida cuando se trata de sus aplicaciones militares. Los robots de batalla y los drones son prioridades clave con otra tecnología de estilo de ciencia ficción como HAL, un traje que le da al usuario el poder de 10 hombres, y Petman de Boston Dynamics, un antropomórfico robot utilizado para probar ropa de protección química. Algunos creen que desarrollos como estos significan una carrera armamentista no reconocida entre las naciones que invierten fuertemente en IA.
Nos ayudará a crear un futuro aterrador
Si bien la inteligencia artificial está alcanzando rápidamente velocidades de computación formidables, uno de sus mayores desafíos es desarrollar el tipo de procesamiento complejo que parece tan fácil cuando los humanos lo hacen.
Para una computadora, multiplicar dos números de 10 dígitos al instante es fácil; sin embargo, mirar a un perro y decidir si es felino o canino es increíblemente difícil. La prueba de Turing fue desarrollada por el matemático Alan Turing para medir la capacidad de una máquina de exhibir un comportamiento inteligente equivalente al de un humano.
Entre las empresas tecnológicas que buscan superar la Prueba de Turing, Google se ha convertido en una importante fuerza de inteligencia artificial, invirtiendo cientos de millones de dólares en empresas de inteligencia artificial DeepMind y empresas de robótica como Boston Dynamics. Los inventos de Google incluyen autos sin conductor y robots humanoides que suben escaleras, completos con mascotas extrañas y robóticas.
¿La IA conducirá a un gran desastre o una toma de control del robot que destruirá a la humanidad?
Un conflicto nuclear entre Corea del Norte y Estados Unidos provocaría la muerte de millones. A corto plazo, la IA no va a conducir a algo peor que eso. Las tecnologías de IA de hoy simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.
Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también sus riesgos asociados. La IA aplicada a la guerra y la vigilancia es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y atacar a las personas utilizando un software de reconocimiento facial, están a la vuelta de la esquina. Suelta, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.
Los sistemas basados en IA están comenzando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente son realizados por expertos humanos. Esto se debe a que la IA puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.
Mala gobernanza: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada global para abordar. El cambio climático es el ejemplo más destacado, pero en el futuro cosas como la nanotecnología y la regulación de la IA necesitarían ser coordinadas internacionalmente.
El peligro es que las estructuras de gobernanza a menudo fallan y a veces terminan exacerbando los problemas que intentaban solucionar. Un fracaso de la política en el tratamiento de una amenaza que podría causar la extinción humana tendría, por lo tanto, un efecto muy negativo.
El quid del problema es que no sabemos cómo controlar las máquinas superinteligentes. Muchos asumen que serán inofensivos o incluso agradecidos. Pero una importante investigación realizada por el científico de IA Steve Omohundro indica que desarrollarán unidades básicas. Ya sea que su trabajo sea extraer asteroides, recoger existencias o administrar nuestra infraestructura crítica de energía y agua, se volverán autoprotectores y buscarán recursos para lograr mejor sus objetivos. Lucharán contra nosotros para sobrevivir, y no querrán ser apagados. La investigación de Omohundro concluye que las unidades de las máquinas superinteligentes estarán en curso de colisión con las nuestras, a menos que las diseñemos con mucho cuidado.