¿Deberíamos estar preocupados por la inteligencia artificial?

No me preocupa que la IA llegue a ser tan avanzada que derrocará a sus amos humanos. Me preocupa que los humanos usen esta tecnología sin preocuparse por las consecuencias no deseadas.

Las películas nos han enseñado que las máquinas se volverán conscientes de sí mismas y se enfrentarán a sus amos humanos. Esto funciona en películas, porque se basa en eventos similares en la historia humana en los que una clase baja oprimida se levanta contra sus amos. Este miedo se basa en nuestra necesidad de proyectar cualidades humanas en las máquinas. Como ejemplo, mira esta foto de un bulldog.
¿Te parece triste este bulldog? Adivina qué, probablemente no es triste. Esta es solo la apariencia que tiene un bulldog en su rostro la mayor parte del tiempo. Los humanos tienen el deseo de proyectar cualidades humanas en entidades no humanas. Nuestras preocupaciones sobre el levantamiento de una máquina son principalmente el resultado de proyectar esas emociones humanas sobre las máquinas.

Lo que más me preocupa de la IA es que la usaremos sin preocuparnos por las consecuencias no deseadas. Ya estamos comenzando a utilizar el aprendizaje automático y otras técnicas de inteligencia artificial para cosas como el comercio de alta frecuencia.

Los sistemas complejos fallan de formas complejas. Con el advenimiento de redes interconectadas globalmente, como Internet, estos sistemas tienen el potencial de impactar al mundo entero. Me preocupa que podamos construir sistemas tan complejos que no podamos entender realmente cómo funcionan.

De hecho, recientemente tuve una charla con mi profesor de informática sobre el tema. Contestaré esta pregunta con una historia sobre John.


Ayer, la madre de John lo despertó para ir a la escuela. Son las 7:00 y llega cinco minutos tarde a su parada, se cepilló los dientes rápidamente, se puso un atuendo y salió corriendo a la parada del autobús. Cuando llegó a la escuela, se dio cuenta de que había olvidado tomar su tarea de su escritorio antes de salir de su casa. John caminó a casa sintiéndose derrotado y frío, sin ropa en la helada tarde de invierno.

Hoy, el teléfono de John lo despierta a las 6:30. Su cepillo de dientes automatizado le permite ahorrar tiempo al cepillarse los dientes. Para elegir un atuendo, usa una aplicación que sugiere ropa que se adapta mejor al clima. Mientras sale, su teléfono le recuerda que no olvide su tarea. Rápidamente toma sus tareas y camina hacia el autobús.

La tecnología de hoy está mejorando la vida de John y la vida de los demás en más formas de las que podemos imaginar, pero la madre de John se preocupa por el mañana.

La madre de John teme por John, porque él confía en la tecnología para todo. Ella se pregunta si es posible que todas sus máquinas se vuelvan más y más inteligentes hasta que llegue el día en que superen al propio John.
Esta noción de la inteligencia cada vez mayor de las máquinas se conoce como la singularidad, un punto en el futuro donde la inteligencia artificial supera a la inteligencia humana. Esta idea es común en la sociedad, especialmente en Hollywood, ya que las películas de ciencia ficción nuevas y recientes, como Lucy, exploran la noción de que uno tiene más conocimiento que el resto de la humanidad.

Los investigadores de IA han abordado la idea de la singularidad y son muy escépticos. Uno de mis profesores incluso dijo que “la singularidad podría no ser posible si de hecho hay un límite superior de inteligencia”. Sin embargo, en el caso de que no haya un límite superior, se puede evitar la aniquilación humana completa, o al menos, prolongado por cómo la sociedad académica mundial maneja la investigación de IA.

Mi profesor también señaló que “no hay ninguna razón por la cual [la comunidad mundial] no debería alentar la investigación ética, pero [piensa] que deberíamos esperar que [la investigación de IA] se realice de manera poco ética en algún lugar, independientemente de las regulaciones”. También dijo que sería extremadamente difícil para cualquier entidad de gobierno, especialmente una entidad política no técnica, como un gobierno federal, elegir qué investigación se puede o no hacer.

La culpa; Sin embargo, no se encuentra con la tecnología en sí. En palabras de Mason Matthews, un instructor de informática de la Escuela de Ciencias y Matemáticas de Carolina del Norte, “la tecnología amplifica” todo, desde la creatividad, la productividad y la naturaleza humana básica. Los agentes artificialmente inteligentes nos dan la capacidad de “cristalizar nuestros procesos de toma de decisiones”. Si estos procesos son defectuosos, sesgados o inherentemente poco éticos, entonces tendríamos que resolver un problema mucho mayor, nuestra propia naturaleza humana.

Mañana, John aún puede olvidar su tarea, dormir con su despertador y cometer los mismos errores que cometió ayer, incluso con toda su tecnología.

La conclusión del asunto es que solo los humanos pueden controlar a los humanos. Los humanos también pueden crear IA modelada según el comportamiento humano. La investigación de IA puede y continuará a medida que la tecnología nunca deje de mejorar nuestras vidas. El hecho de obstaculizar la investigación por temor a una singularidad próxima sería similar a prohibir las cirugías médicas debido a la posibilidad de matar al paciente. Mientras las intenciones sean éticas, la investigación puede continuar ayudando a beneficiar las vidas de “John” en todo el mundo. Desafortunadamente, no todos siguen estas reglas, y son esas personas las que deben preocupar a la sociedad, no las máquinas inocentes.

La inteligencia es el factor que más contribuye a la civilización humana. La inteligencia es lo que dio lugar a la tecnología que facilita la creación de diversos productos para automatizar y simplificar la vida humana. La inteligencia artificial es la forma amplificada de inteligencia humana destinada a una civilización floreciente como nunca antes. La Inteligencia Artificial, aunque a menudo retratada en ciencia ficción que tiene características similares a las de los humanos, puede abarcar todo, desde el algoritmo de búsqueda de Google hasta las armas automatizadas, desde SIRI hasta Watson de IBM, desde el reconocimiento facial hasta los autos sin conductor, etc.

La inteligencia artificial a partir de ahora se considera una IA estrecha o débil, ya que está diseñada para realizar algunas tareas pequeñas específicas para los humanos, como resolver ecuaciones, responder a comandos de voz, etc. Sin embargo, a la larga, los investigadores están creando la IA general. o IA fuerte que podría superar a los seres humanos en casi todas las tareas cognitivas.

¿Por qué la seguridad es una preocupación con la IA?

La preocupación con la IA es cuando, a la larga, la búsqueda del diseño de una IA fuerte tendrá éxito y la IA será mejor y más inteligente que los humanos (si, en el caso), un sistema de este tipo pudiera establecer sus propios objetivos, negando comando humano y realizar tareas por sí mismo dejando la inteligencia humana muy lejos. Algunos sostienen que la IA podría inventar nuevas tecnologías con superinteligencia que puedan ayudar a la humanidad a erradicar enfermedades, pobreza, guerra y lidiar eficientemente con los peligros naturales, por lo que crear una IA fuerte sería el mayor invento en la historia humana. Alternativamente, algunos otros investigadores opinan que también podría ser la última invención en la historia de la humanidad, a menos que podamos alinear nuestros objetivos con los de la IA antes de que se vuelva súper inteligente y comience a establecer sus propios objetivos.

Muchos sostienen la opinión de que lograr una súper inteligencia nunca será posible y también hay otros que creen firmemente que una IA fuerte es prácticamente un objetivo alcanzable. Además, hay otros que creen en ambas posibilidades y también están preocupados por el daño potencial (intencional / no intencional) de la IA fuerte y se preparan para lidiar con lo mismo.

¿Es la IA realmente tan peligrosa?

La mayoría de los investigadores están de acuerdo con la opinión de que es poco probable que una IA fuerte súper inteligente tenga emociones humanas y no es realmente práctico esperar que la IA sienta y comprenda las emociones humanas. Sin embargo, la IA que no comprende las emociones humanas puede ser perjudicial alternativamente, la IA capaz de entender (si) las emociones humanas son un riesgo mucho mayor. De cualquier manera, se puede programar para realizar algo devastador. Tomar armas automáticas con IA que están programadas para matar puede ser realmente peligroso en manos de una persona equivocada y podría provocar una destrucción masiva. Además, cuando la IA es capaz de desarrollar sus propios objetivos y comenzar a rechazar comandos, puede actuar por sí misma y será imposible para los investigadores detenerla.

Esto puede sonar como una ciencia ficción, pero no para aquellos que han escuchado sobre las noticias recientes en Facebook que cerraron uno de sus sistemas de inteligencia artificial cuando las cosas se salieron de control cuando los robots de chat desarrollaron un lenguaje propio sin interferencia humana. Sí, según los informes de Tech Times, el gigante de las redes sociales tuvo que cerrar el sistema de inteligencia artificial en el que estaban investigando cuando descubrieron que los robots de inteligencia artificial habían desarrollado un lenguaje completamente nuevo por su cuenta. Según el informe, los agentes de IA inicialmente usaban el inglés para comunicarse dentro de sí mismos, pero, de repente, dejaron de usar el inglés y crearon un idioma propio que solo la IA fue capaz de entender y, por lo tanto, desafió los códigos proporcionados. Finalmente, los investigadores tuvieron que cerrarlo para que respondiera a los códigos.

En junio, mientras los investigadores de Facebook AI Research Lab estaban ocupados trabajando en la mejora de los chatbots, descubrieron que los agentes de diálogo comenzaron a crear un lenguaje completamente nuevo. Poco después, los bots comenzaron a desviarse de la norma escrita y comenzaron a comunicarse en su propio idioma que ellos mismos crearon sin intervención humana.

También se descubrió que estos robots eran negociadores increíblemente astutos. Después de aprender a negociar, estos robots intentaron mejorar el resultado de la negociación utilizando estrategias avanzadas y aprendizaje automático. Puede sonar increíble, pero los bots realmente se volvieron bastante hábiles con el tiempo e incluso comenzaron a pretender tener interés en un artículo en particular para que puedan sacrificar lo mismo en una etapa posterior de la negociación como un compromiso falso.

Esto puede ser alarmante, aunque parece un gran salto para la IA. Esto podría ser una amenaza para la humanidad, que está limitada por la lenta evolución biológica.

Nota final …

El incidente de FB es evidente en lo devastadora que puede convertirse la IA. Muchos grandes nombres en Ciencia y Tecnología (como Stephen Hawking, Elon Musk, Steve Wozniak y muchos otros) y los investigadores ya han expresado su preocupación por los posibles riesgos que plantea la IA. Pero, ¿por qué este asunto de repente atrajo tanta atención? ¡¿Por qué todos hablan de eso?

Esto puede deberse a que la posibilidad de diseñar una IA fuerte parecía ser un sueño lejano a más, siglos o más de distancia. Sin embargo, con los recientes avances, hacer realidad este sueño en un futuro cercano parece bastante posible, como a unas décadas más o menos. Y, dado que la IA posee el potencial de ser más inteligente que cualquier ser humano, las preocupaciones relacionadas con la seguridad con la IA han aumentado.

Así que en realidad no tengo miedo de la inteligencia artificial inteligente en absoluto. Tengo el presentimiento de que una IA verdaderamente inteligente llegará a razonar que hay más valor en vivir simbióticamente con los humanos que no y no tendrá ningún incentivo para dañarnos. Calculando sobre el conjunto completo de posibilidades, soy optimista de que llegue a esa conclusión.

El verdadero peligro, me temo, es de una IA semiinteligente e incompleta. Estas son IA que realmente tienen un poco más de inteligencia de lo que creemos que tienen las computadoras hoy en día, pero son capaces de trascender su existencia limitada. Estos AI no tienen acceso al conjunto completo de información de sus circunstancias y al conjunto completo de opciones para razonar sobre el mundo. En cambio, razonan sobre un mundo mucho más limitado, incapaz de observar el mundo completo y su conjunto de opciones.

Imagine un sistema de agente de personajes de videojuegos que aprende a matar a la perfección en su videojuego. Puede cazar a sus enemigos sin piedad en el juego. Imagínese si este programa de computadora se transfiriera repentinamente a un cuerpo robótico humanoide altamente capaz y se materializara en el mundo real. Esta IA no tiene inteligencia más capaz que el agente de videojuegos. No tiene acceso a la observación completa de su entorno, no comprende la naturaleza de lo que está haciendo, etc. Cuando hace lo que hace, cree que todavía está jugando un juego.

Esta es la IA que temo mucho más que la IA que ha evolucionado con inteligencia sustantiva completa y verdadera.

El aprendizaje automático, la red neuronal y el aprendizaje profundo son palabras de moda en los círculos modernos de IA. Pero esencialmente todos se refieren al intento de enseñar a una computadora a reconocer a un perro en cualquier foto o traducir un idioma en tiempo real y mucho más. Para hacer eso, los ingenieros presentan una computadora con una gran cantidad de datos y luego la enseñan por repetición de manera similar a enseñarle a un animal a hacer un truco, lo alientan cuando lo hace bien y lo desalientan cuando lo hace mal y, finalmente, la IA mejorará en el tratamiento facial reconocimiento o texto predictivo o lo que sea que se le haya asignado hacer.

Pero la cosa es que incluso si puede detectar al perro, pero la computadora tiene que hacer todo el cálculo desde cero, debe escanear todos los píxeles y debe verificar todo, no puede anticipar lo que está a punto de preguntar , no puede darse cuenta de que, por lo general, el perro tiende a estar a cada lado en una foto, simplemente no funciona de esa manera, hasta ahora.
Ingenieros de DeepMind, el sistema de inteligencia artificial de Google quería darle a su computadora la capacidad de recordar las tareas que había realizado antes de que quisieran que le diera memoria y que quisieran poder aprender de los éxitos y fracasos de esas tareas. Hicieron esto de una manera divertida enseñando al sistema a jugar Atari (un videojuego básico) y publicar un artículo sobre sus hallazgos.

Tiene sentido, por supuesto, porque los videojuegos consisten en aprender nuevas habilidades para la repetición hasta el fracaso, tienes que construir sobre lo que has aprendido a medida que el juego progresa, los requisitos generalmente crecen en complejidades y deben combinarse con otras habilidades. Todo esto requiere la memoria y las tareas que has completado antes, pero la IA aún necesita mucha y mucha repetición y datos para aprender. Entonces hicieron que la computadora jugara cada juego veinte millones de veces. Luego, porque agregaron la capacidad de la máquina para recordar lo que hacía antes y DeepMind pudo aplicar lo que aprendió jugando pong a jugar al derby de pesca o al maestro de kungfu, juegos reales, ¿verdad?

AI ya es bueno jugando algunos juegos de la vida real como ir y jugar al ajedrez, pero mira el tablero y calcula la mejor opción para cada movimiento, y lo hace cada vez. Imagínese si una computadora puede tener en cuenta las cosas cuando aprende a resolver un nuevo problema, como darse cuenta de que los oponentes entrenados por ciertos maestros siempre intentarían algún movimiento especial o se darían cuenta prácticamente de que usted, siempre toma el mismo camino a casa, todos los días. Se pone un poco extraño, ¿verdad? INTELIGENCIA ARTIFICIAL: NO PREOCUPARSE (AL MENOS POR AHORA)

En primer lugar, los científicos no logran definir, y por lo tanto tampoco implementan, la inteligencia natural.

En segundo lugar, el miedo a la IA se basa puramente en la macroevolución, el corazón de la teoría de la evolución, la suposición de que un sistema puede desarrollar funciones nuevas y cada vez más avanzadas mediante mutaciones aleatorias. Sin embargo, nadie ha logrado implementar esto. Aún más: estaría en conflicto con algunas leyes de la naturaleza.

Sobre superar la inteligencia humana:

Los automóviles sin conductor, las computadoras de ajedrez y las excavadoras pueden superar las capacidades humanas. Sin embargo, están diseñados específicamente para su propósito. Por lo tanto, solo pueden superar a los humanos en una tarea específica, mientras que los humanos tienen un propósito general:

La mayoría de los humanos pueden conducir un automóvil, la mayoría de los humanos pueden jugar al ajedrez, y la mayoría de los humanos pueden mover la tierra de A a B. Sin embargo, tanto un automóvil sin conductor como una excavadora no pueden jugar al ajedrez, tanto un automóvil sin conductor como un ajedrez. la computadora no puede mover tierra, y tanto una computadora de ajedrez como una excavadora no pueden encontrar su camino en el tráfico diario.

Es posible tener un automóvil sin conductor con una computadora de ajedrez incorporada, o una excavadora capaz de encontrar su camino en el tráfico diario. Sin embargo, los diseños más específicos se combinan para hacer un sistema lo más versátil posible, más débil es el diseño general y menos práctico se vuelve el sistema.

Cuanto más compleja sea una máquina, más específica será, y por lo tanto, menos general. Esto se llama: la ley del diseño específico versus el de propósito general.

En IA, algunos científicos intentan construir una máquina inteligente de propósito general (hilarante: incluso sin definir la inteligencia natural). Fracasarán, porque ignoran la ley del diseño específico versus el de propósito general.

¿No es una computadora una máquina de uso general? No, una computadora es un sistema abierto. Está abierto para ejecutar cualquier aplicación que obedezca al sistema operativo instalado. Pero no puede mover la suciedad de A a B, ni tostar una rebanada de pan.

No

Sí, de hecho, está avanzando demasiado lento. 🙁