¿Para qué tareas, o en qué dimensiones, es la mayor diferencia entre la inteligencia humana y la inteligencia artificial?

Creo que es un aspecto fascinante que, hasta ahora, las computadoras han luchado más con tareas que son muy fáciles para nosotros como humanos, y han sobresalido en tareas que consideramos difíciles.

Una computadora es básicamente una gran calculadora. Cualquier cosa que pueda calcularse de una manera claramente definida es fácil para una computadora. Por ejemplo, las trayectorias de cohetes, que solían requerir un trabajo duro de un equipo de físicos y matemáticos de primer nivel. No hay forma de que SpaceX podría haber aterrizado un cohete en la Tierra sin el uso de computadoras.

Sin embargo, las computadoras luchan con tareas que son triviales para nosotros. Cosas como caminar, entender lo que la gente nos dice y reconocer objetos. Los niños que tienen un año realizan estas tareas mejor que un software de computadora de última generación.

Gran parte de la investigación en curso en informática ahora se dedica a traducir las tareas cotidianas en problemas computacionales que una computadora puede resolver. Los equipos de investigación de Google han producido algunos resultados especialmente espectaculares, como hacer que un programa de computadora reconozca a los gatos en los videos de YouTube sin decirles qué buscar, derrotar a un jugador humano superior en el juego increíblemente complejo de Go y poder generar un discurso que Es casi indistinguible del lenguaje humano.

Sin embargo, todavía tenemos un largo camino por recorrer. No está claro cómo podemos enseñar a las computadoras a comprender cosas que aún no les hemos dicho (aprendizaje no supervisado). Como humanos, combinamos nuestro conocimiento sobre diferentes temas para formar opiniones sobre cosas que nunca hemos encontrado antes. Esto requiere inteligencia general, que es el santo grial de la IA.

Hay muchas áreas en las que los humanos realizan máquinas o algoritmos informáticos. Actualmente, los algoritmos de aprendizaje profundo (DL) han reducido la brecha entre los humanos y los algoritmos en términos de rendimiento, como la clasificación de imágenes, el reconocimiento de voz y muchas otras tareas de tipo perceptivo.

Hay varios problemas con los algoritmos actuales de aprendizaje automático (ML), no lo hacen.

  1. Aprende cómo funciona el mundo.
  2. Tener una gran memoria para el almacenamiento de datos.
  3. Tener capacidades adecuadas de transferencia de conocimiento.
  4. Razón.
  5. Aprende poco a poco.

Permítanme centrarme en cada uno de los casos anteriores:

Caso # 1 : Aprenda cómo funciona el mundo.

Sí, tenemos aprendizaje de refuerzo (RL) que se está explorando para tareas similares. Actualmente, RL no se enfoca en dejar que los agentes construyan un modelo de sus entornos, sino que se enfoca en dejar que los agentes encuentren acciones que maximicen un respeto y minimicen un castigo. RL es principalmente efectivo en mundos sintéticos como los entornos de juego donde los métodos exploratorios aleatorios pueden eventualmente encontrar una solución de trabajo. En el mundo real, construir un modelo del entorno y cómo funciona es muy crítico para el aprendizaje.

La incapacidad de modelar el mundo, como descubrir hechos, como la gravedad (si saltas, caes hacia atrás) y trabajar para usar esos hechos para lograr un objetivo es algo muy difícil para las máquinas actualmente. Se ha demostrado que incluso los cerebros de insectos pequeños son bastante capaces en términos de capacidad para aprender nuevas tareas en el mundo real, mucho mejor que los sistemas RL actuales.

A los humanos les resulta muy fácil aprender las reglas, lo hacemos cada vez que tomamos un controlador y comenzamos a jugar videojuegos. Podemos aprender reglas específicas en una variedad de juegos como carreras, peleas o juegos de disparos, todos los cuales requieren diferentes conjuntos de habilidades como la velocidad y el tiempo.

Caso # 2: Tener una gran memoria para el almacenamiento de datos.

Para modelar el mundo, se requiere memoria y mucha. La inteligencia, artificial o no, requiere un gran sistema de memoria para el almacenamiento de datos. La memoria ayuda con muchas cosas, como cuando se resuelve una tarea particular, necesitamos mantener algunos pensamientos o procesos intermedios en un sistema de memoria temporal. Además, los hechos deben combinarse para formar hechos intermedios que pueden almacenarse temporalmente en la memoria.

Es por eso que siento que las redes neuronales con memoria aumentada tienen tanto potencial cuando se trata de tratar de resolver la inteligencia artificial para siempre. Sin memoria no hay inteligencia. Se puede argumentar que incluso las redes de alimentación actuales tienen alguna forma de memoria, en forma de parámetros de peso. Esa es una línea de pensamiento válida, pero no es el tipo de almacenamiento al que me refiero.

El tipo de memoria a la que me refiero es similar a la memoria de acceso aleatorio (RAM) de la computadora que ayuda a una CPU a realizar cálculos más sofisticados. Ha habido algunos esfuerzos en esta área desde DeepMind con las llamadas máquinas de tensión neural (NTM) y la computadora neural diferenciable (DNC). Aunque estamos muy lejos de aprender algoritmos que descubran hechos relevantes de los datos y los almacenen para usarlos para resolver problemas más complejos.

Caso # 3: Tener capacidades de transferencia de conocimiento adecuadas.

Imagine el sistema X que aprende a resolver la tarea A y luego se le enseña cómo resolver B. Ahora aprender a resolver la tarea B también da como resultado que el sistema mejore aún más en la tarea A, incluso cuando no se volvió a entrenar explícitamente en la tarea A. Lo que sucedió ? Bueno, la transferencia de conocimiento sucedió, podría ser que a medida que el sistema estaba aprendiendo la tarea B, algunos conocimientos de la tarea B se difundieron en el modelo para resolver la tarea A y viceversa, incluso si las dos tareas son diferentes, las vemos como diferentes, pero probablemente comparten algo conceptos latentes comunes, que el sistema X descubrió por sí mismo.

Ahora el sistema X aquí es hipotético, solo los humanos son capaces de tal hazaña por la cual aprender una nueva tarea mejora las tareas aprendidas previamente. Esta es la transferencia de conocimiento, no es lo mismo que el llamado aprendizaje de transferencia aplicado a los algoritmos de aprendizaje automático actuales. El aprendizaje de transferencia es una versión más débil de la transferencia de conocimiento.

Caso # 4: Razón.

El razonamiento es muy muy importante, puede ser un proceso lento especialmente para los humanos porque el razonamiento implica buscar a través de la memoria para recordar hechos, combinarlos y luego sacar conclusiones. Este es un proceso complejo porque el razonamiento es simplemente exclusivo de una tarea determinada. Por ejemplo, usemos nuestro hipotético sistema X que se enseña nuevamente en las tareas A y B.

El sistema X necesitará aprender un algoritmo y descubrir hechos para resolver los problemas de razonamiento A y B. Por lo tanto, necesita aprender un algoritmo de razonamiento [matemático] Z [/ matemático] que funcione en un conjunto de hechos [matemático] f [/ matemático] para cada tarea a la mano.

[matemáticas] y = Z (x, f) [/ matemáticas]

donde [math] Z [/ math] = algoritmo que funciona en hechos [math] f [/ math] para producir la salida [math] y [/ math].

Por lo tanto, para las tareas A y B se ve algo así como

[matemáticas] y_ {A} = Z_ {A} (x_ {A}, f_ {A}) [/ matemáticas]

[matemáticas] y_ {B} = Z_ {B} (x_ {B}, f_ {B}) [/ matemáticas]

Entonces, el algoritmo [math] Z [/ math] es como el algoritmo de razonamiento que es específico para diferentes tareas que se resuelven. Entonces, el sistema X aquí tenía que aprender [matemáticas] Z [/ matemáticas] y [matemáticas] f [/ matemáticas] de los datos de entrenamiento [matemáticas] x [/ matemáticas] de manera no supervisada o supervisada. El problema ahora es que encontrar el algoritmo de razonamiento [matemática] Z [/ matemática] no es trivial, ¿qué función de costo podemos usar? Encontrar el conjunto de hechos [matemáticas] f [/ matemáticas] también es complicado por derecho propio, ¿cómo podemos dejar que el sistema descubra hechos significativos a partir de los datos?

Los humanos hacen eso todos los días.

Caso # 5: Aprendizaje gradual.

Los humanos aprendemos todos los días a un nivel subconsciente o consciente. Estamos mejorando constantemente, a diferencia de nuestros algoritmos DL actuales que una vez entrenados se vuelven rígidos.

El aprendizaje gradual es el proceso de recoger nuevas experiencias con facilidad sin afectar las experiencias anteriores. Por supuesto, olvidamos cosas muy antiguas debido a esta necesidad de seguir aprendiendo experiencias más relevantes y nuevas. Los humanos son extremadamente buenos en tales tareas, pero no las máquinas.


Otra cosa que vale la pena señalar es que la mayoría de las aplicaciones de inteligencia artificial también son muy específicas de un área específica. Al menos DL es un poco más aplicable a una variedad de tareas perceptivas como la visión y el habla, pero sus capacidades aún están limitadas a tareas específicas, a diferencia de los humanos.

Sin embargo, la inteligencia artificial se está moviendo muy rápido, por lo que es posible que pronto haya un avance en uno de los casos discutidos anteriormente. La mayoría de los casos anteriores, como el razonamiento, están completos por IA, lo que significa que resolver solo uno de ellos significaría sistemas de IA fuertes.

Espero que esto ayude.

Editar: una respuesta mucho más razonada. Mi respuesta original, mantenida debajo de esta, tiene una lista de elementos para los que tanto la IA en el futuro (en caso de que exista IA general) y en este momento tenemos dificultades para entrenar a nuestra IA.

Esto suena como una broma, pero no lo es: la mayor diferencia entre la inteligencia humana y la “inteligencia” de la máquina es que solo el primero es capaz de encender la electricidad.

La razón por la que lo digo de esta manera es que incluso aquellos de nosotros que trabajamos en el campo a veces lo olvidamos (especialmente cuando vemos el trabajo de otros sin considerar la monstruosa cantidad de trabajo que se realizó), y definitivamente mirando ML e IA desde el afuera, por así decirlo, es que todo lo que la IA es hoy en día es un conjunto de herramientas , computacionales y matemáticas, que permiten que las computadoras nos ayuden a hacer cosas. Sin nosotros para entrenar modelos muy minuciosamente, no puede hacer nada.

Creo que esta pregunta se hizo en ese contexto, porque conozco (al menos un poco, virtualmente) a la persona que originalmente hizo esta pregunta. Estaba tratando de obtener una opinión sobre lo que podría ser el área general más difícil, creo, en la opinión de otros que trabajan en el espacio.

En términos del conjunto de problemas más difícil, bueno, la detección de sarcasmo es conocida como difícil en PNL. Eso es un libro de texto. En términos de lo que probablemente soy mejor conocido por ser bueno, pronosticar, cualquier cosa que implique elección humana es la ruina de los pronosticadores en todas partes. Especialmente en aquellos casos en que los efectos de los humanos individuales pueden tener un gran efecto, que es casi todo lo interesante en estos días. Los individuos son irracionales, pero en conjunto, la irracionalidad de uno equilibra la irracionalidad de otro. Sin embargo, cuando un solo tweet viral puede afectar a todo el mercado bursátil estadounidense, los pronosticadores de todo el mundo (sin mencionar a cualquiera que use dinero) están potencialmente en problemas. Puede ser agradable ver qué puede hacer una IA aquí para mitigar los efectos, pero es difícil predecirlo. Sin embargo, para mitigar los efectos, fingiendo que somos una empresa de inversión, tendríamos que darle a nuestra IA el control de nuestras tenencias, algo con lo que muchos banqueros de inversión tendrían dificultades.

Ahí es donde me dirigía con la respuesta original a continuación. Señalé la incapacidad potencial de cualquier IA general para entendernos como una broma, principalmente, aunque vale la pena pensar en ello eventualmente. Ni siquiera estamos cerca de tener una IA general. Toda nuestra IA se apaga una vez que hay un problema con la electricidad.

Respuesta original

Esto va a ser una puñalada casual en una respuesta, realmente no lo había pensado antes.

Sin embargo, supongo que tendría algo que ver con un contexto más amplio.

Que es un área lo suficientemente amplia que puedo dar varios ejemplos completamente diferentes.

Comprender los estados emocionales: incluso los humanos no lo hacen bien a veces. Para nosotros, aunque todos tenemos empatía (en mayor o menor grado) y una idea de lo que siente otra persona.

Comprender chistes.

Sarcasmo. (Este es uno grande en PNL).

Sin embargo, si una IA alcanza la conciencia, no creo que alguna vez comprenda (a menos que se lo enseñemos, de alguna manera) la irracionalidad inherente de la especie humana. Por lo tanto, comprender los estados emocionales seguirá siendo difícil, incluso si desarrollamos IA general.

Por supuesto, una IA que comprende la irracionalidad podría convertirse en Skynet o volverse irracional en sí misma. ¿Te imaginas una IA loca? Eso da un poco de miedo.

Hay tareas en las que los humanos son muy buenos, pero las computadoras no. Por ejemplo, podemos reconocer fácilmente personas / objetos, etc., pero las máquinas deben entrenarse durante mucho tiempo solo para distinguir entre gatos / perros.

Del mismo modo, entendemos los idiomas, que las máquinas todavía están intentando Por otro lado, no somos buenos para procesar una gran cantidad de tareas en serie. Por ejemplo, para operaciones matemáticas complejas, las computadoras son mucho más rápidas que los humanos.

Para obtener más ejemplos / detalles, lea el capítulo de introducción del libro de aprendizaje profundo: http://www.deeplearningbook.org/… .

¡Espero que esto ayude!

Generalización del conocimiento a través de disciplinas. Las máquinas aún no pueden hacer esto, pero incluso los bebés humanos lo hacen regularmente.