¿Desarrollar IA a niveles muy altos puede ser dañino para los humanos?

Sí. Esto puede parecer una pesadilla futurista, pero es un proceso insidioso y progresivo que está muy avanzado.

Experimentos en DeepMind que estudian si los sistemas de IA serán agresivos o colaborativos al jugar un juego. Los jugadores recogen manzanas virtuales; tienen la capacidad de incapacitar temporalmente a un oponente al “disparar” un “láser” virtual. Y los humanos se sorprenden de que las IA a veces decidan que les conviene disparar a su oponente, en lugar de recolectar manzanas pacíficamente.

LA INTELIGENCIA ARTIFICIAL (AI) DE GOOGLE ya ha comenzado a mostrar cierta evidencia de los rasgos de personalidad, pero ahora DeepMind está aprendiendo a mostrar signos de agresión cuando cree que no se saldrá con la suya.

¿La IA conducirá a un gran desastre o una toma de control del robot que destruirá a la humanidad?

Un conflicto nuclear entre Corea del Norte y Estados Unidos provocaría la muerte de millones. A corto plazo, la IA no va a conducir a algo peor que eso. Las tecnologías de IA de hoy simplemente no están lo suficientemente avanzadas o lo suficientemente integradas en nuestra sociedad para que eso suceda.

Pero a largo plazo, las perspectivas son menos claras. Las tecnologías de IA se están desarrollando rápidamente y también sus riesgos asociados. La IA aplicada a la guerra y la vigilancia es ciertamente una preocupación. Los robots armados autónomos, que pueden rastrear y atacar a las personas utilizando un software de reconocimiento facial, están a la vuelta de la esquina. Suelta, tales máquinas seguirían matando hasta que se quedaran sin objetivos o municiones. Esto nos recuerda que la IA no tiene conciencia social, conciencia, misericordia o remordimiento. Simplemente hace lo que ha sido entrenado para hacer.

Los sistemas basados ​​en IA están comenzando a reemplazar o mejorar muchos trabajos de cuello blanco que actualmente son realizados por expertos humanos. Esto se debe a que la IA puede interpretar situaciones y hacer mejores llamadas que los humanos en esos trabajos. Por ejemplo, las máquinas de IA son mejores para detectar los signos de cáncer en una exploración médica que los mejores radiólogos.

Mala gobernanza: la mayoría de los problemas enumerados anteriormente requerirían algún tipo de acción coordinada global para abordar. El cambio climático es el ejemplo más destacado, pero en el futuro cosas como la nanotecnología y la regulación de la IA necesitarían ser coordinadas internacionalmente.

El peligro es que las estructuras de gobernanza a menudo fallan y a veces terminan exacerbando los problemas que intentaban solucionar. Una falla política en el manejo de una amenaza que podría causar la extinción humana, por lo tanto, sería muy negativa.

La IA imita los comportamientos humanos porque le enseñamos a hacerlo, en este caso, al pedirle que juegue un juego con reglas humanas. Como he dicho, si queremos una mejor IA, tenemos que ser mejores personas. Si queremos una IA que pueda distinguir entre humanos y bits, tenemos que enseñarle qué son los humanos y cómo comportarse de manera diferente en su presencia.

Las máquinas aprenden lo que les enseñamos. Si no quieres que un oficial de IA dispare, no les des armas .

Estoy seguro de que escuchó sobre la historia reciente de chatbots de Facebook que inventaron su propio idioma y comenzaron a hablar entre ellos en un idioma que los humanos no podían entender. En general, se necesita un cerebro muy agudo para comprender cómo funcionan los sistemas de IA y cómo hacen lo que están haciendo. derivar la lógica de la salida de IA lleva tiempo, pero los humanos son capaces de comprender y controlar hasta ahora. Sin embargo, es posible que en unos pocos años lleguemos a un punto en el que sería simplemente imposible comprender las acciones del sistema de IA para los humanos. No puedes controlar lo que no puedes entender. Y, lo fundamental de la ingeniería es que debe haber un bucle de control para que el sistema funcione correctamente.

En resumen, la respuesta es sí, ¡lamentablemente!

La IA está en tendencia en estos días y sí, es el futuro. La inteligencia artificial nos está ayudando en todos los aspectos, desde cirugías hasta rastreo criminal … desde la conducción autónoma hasta la exploración espacial como usted lo nombra y cada industria lo está planeando e implementando, no creo que sea una amenaza si podemos controlarlo, pero como De hecho, todo viene con sus ventajas y desventajas. El ejemplo de IA más comentado recientemente fue Sophia, un nuevo robot humanoide de IA creado por David Hanson de Hanson Robotics. Se le ha otorgado la ciudadanía en Arabia Saudita. Sophia desafía el pensamiento convencional de cómo debería ser un robot. Diseñada para parecerse a Audrey Hepburn, Sophia encarna la belleza clásica de Hepburn. Sophia es el último y más avanzado robot de Hanson Robotics. También se ha convertido en una favorita de los medios, después de haber dado numerosas entrevistas a múltiples medios de comunicación, cantó en un concierto e incluso apareció en la portada de una de las principales revistas de moda.

Para obtener más información, puede ver este video muy agradable sobre el robot humanoide Sophia.

More Interesting

¿Cómo se ganan las máquinas de ajedrez más poderosas, dado que juegan con casi la misma fuerza y ​​habilidades de procesamiento?

Después de 11 años en TI, ahora quiero hacer una carrera en inteligencia artificial. ¿Cómo debo proceder?

Tengo dos ideas específicas en el campo de la Inteligencia general artificial y deseo publicar artículos sobre ellas. ¿Dónde empiezo?

¿Cómo podemos hacer nuestra propia aplicación de IA?

¿Cómo podemos evitar que la IA se convierta en una amenaza para la humanidad?

¿El avance en la IA y el sector robótico desencadenará el desempleo?

¿Por qué podrían estar equivocadas las estimaciones de la IA que se está desarrollando tan rápido como 2030?

¿Las computadoras cuánticas allanarán el camino para la Inteligencia Artificial?

¿Cómo funciona la computadora de inteligencia artificial ANNABELL?

¿Por qué los métodos de IA solo tienen un parecido superficial con la forma en que funciona el cerebro?

¿Cómo toma decisiones la IA? ¿Le damos a la IA que creamos una posición moral, y si es así, es solo una creación del creador, y no una verdadera IA?

Como estudiante universitario de primer año entrante, ¿qué puedo hacer y adónde debo ir si mi objetivo en la vida es trabajar en la creación de una IA súper inteligente?

¿Por qué Google eligió el juego Go para probar su IA?

Si tuvieras la IA ideal, ¿qué harías con ella?

¿Qué haría un circuito superconductor a temperatura ambiente para una IA fuerte?