Hay muchas áreas en las que los humanos realizan máquinas o algoritmos informáticos. Actualmente, los algoritmos de aprendizaje profundo (DL) han reducido la brecha entre los humanos y los algoritmos en términos de rendimiento, como la clasificación de imágenes, el reconocimiento de voz y muchas otras tareas de tipo perceptivo.
Hay varios problemas con los algoritmos actuales de aprendizaje automático (ML), no lo hacen.
- Aprende cómo funciona el mundo.
- Tener una gran memoria para el almacenamiento de datos.
- Tener capacidades adecuadas de transferencia de conocimiento.
- Razón.
- Aprende poco a poco.
Permítanme centrarme en cada uno de los casos anteriores:
Caso # 1 : Aprenda cómo funciona el mundo.
Sí, tenemos aprendizaje de refuerzo (RL) que se está explorando para tareas similares. Actualmente, RL no se enfoca en dejar que los agentes construyan un modelo de sus entornos, sino que se enfoca en dejar que los agentes encuentren acciones que maximicen un respeto y minimicen un castigo. RL es principalmente efectivo en mundos sintéticos como los entornos de juego donde los métodos exploratorios aleatorios pueden eventualmente encontrar una solución de trabajo. En el mundo real, construir un modelo del entorno y cómo funciona es muy crítico para el aprendizaje.
La incapacidad de modelar el mundo, como descubrir hechos, como la gravedad (si saltas, caes hacia atrás) y trabajar para usar esos hechos para lograr un objetivo es algo muy difícil para las máquinas actualmente. Se ha demostrado que incluso los cerebros de insectos pequeños son bastante capaces en términos de capacidad para aprender nuevas tareas en el mundo real, mucho mejor que los sistemas RL actuales.
A los humanos les resulta muy fácil aprender las reglas, lo hacemos cada vez que tomamos un controlador y comenzamos a jugar videojuegos. Podemos aprender reglas específicas en una variedad de juegos como carreras, peleas o juegos de disparos, todos los cuales requieren diferentes conjuntos de habilidades como la velocidad y el tiempo.
Caso # 2: Tener una gran memoria para el almacenamiento de datos.
Para modelar el mundo, se requiere memoria y mucha. La inteligencia, artificial o no, requiere un gran sistema de memoria para el almacenamiento de datos. La memoria ayuda con muchas cosas, como cuando se resuelve una tarea particular, necesitamos mantener algunos pensamientos o procesos intermedios en un sistema de memoria temporal. Además, los hechos deben combinarse para formar hechos intermedios que pueden almacenarse temporalmente en la memoria.
Es por eso que siento que las redes neuronales con memoria aumentada tienen tanto potencial cuando se trata de tratar de resolver la inteligencia artificial para siempre. Sin memoria no hay inteligencia. Se puede argumentar que incluso las redes de alimentación actuales tienen alguna forma de memoria, en forma de parámetros de peso. Esa es una línea de pensamiento válida, pero no es el tipo de almacenamiento al que me refiero.
El tipo de memoria a la que me refiero es similar a la memoria de acceso aleatorio (RAM) de la computadora que ayuda a una CPU a realizar cálculos más sofisticados. Ha habido algunos esfuerzos en esta área desde DeepMind con las llamadas máquinas de tensión neural (NTM) y la computadora neural diferenciable (DNC). Aunque estamos muy lejos de aprender algoritmos que descubran hechos relevantes de los datos y los almacenen para usarlos para resolver problemas más complejos.
Caso # 3: Tener capacidades de transferencia de conocimiento adecuadas.
Imagine el sistema X que aprende a resolver la tarea A y luego se le enseña cómo resolver B. Ahora aprender a resolver la tarea B también da como resultado que el sistema mejore aún más en la tarea A, incluso cuando no se volvió a entrenar explícitamente en la tarea A. Lo que sucedió ? Bueno, la transferencia de conocimiento sucedió, podría ser que a medida que el sistema estaba aprendiendo la tarea B, algunos conocimientos de la tarea B se difundieron en el modelo para resolver la tarea A y viceversa, incluso si las dos tareas son diferentes, las vemos como diferentes, pero probablemente comparten algo conceptos latentes comunes, que el sistema X descubrió por sí mismo.
Ahora el sistema X aquí es hipotético, solo los humanos son capaces de tal hazaña por la cual aprender una nueva tarea mejora las tareas aprendidas previamente. Esta es la transferencia de conocimiento, no es lo mismo que el llamado aprendizaje de transferencia aplicado a los algoritmos de aprendizaje automático actuales. El aprendizaje de transferencia es una versión más débil de la transferencia de conocimiento.
Caso # 4: Razón.
El razonamiento es muy muy importante, puede ser un proceso lento especialmente para los humanos porque el razonamiento implica buscar a través de la memoria para recordar hechos, combinarlos y luego sacar conclusiones. Este es un proceso complejo porque el razonamiento es simplemente exclusivo de una tarea determinada. Por ejemplo, usemos nuestro hipotético sistema X que se enseña nuevamente en las tareas A y B.
El sistema X necesitará aprender un algoritmo y descubrir hechos para resolver los problemas de razonamiento A y B. Por lo tanto, necesita aprender un algoritmo de razonamiento [matemático] Z [/ matemático] que funcione en un conjunto de hechos [matemático] f [/ matemático] para cada tarea a la mano.
[matemáticas] y = Z (x, f) [/ matemáticas]
donde [math] Z [/ math] = algoritmo que funciona en hechos [math] f [/ math] para producir la salida [math] y [/ math].
Por lo tanto, para las tareas A y B se ve algo así como
[matemáticas] y_ {A} = Z_ {A} (x_ {A}, f_ {A}) [/ matemáticas]
[matemáticas] y_ {B} = Z_ {B} (x_ {B}, f_ {B}) [/ matemáticas]
Entonces, el algoritmo [math] Z [/ math] es como el algoritmo de razonamiento que es específico para diferentes tareas que se resuelven. Entonces, el sistema X aquí tenía que aprender [matemáticas] Z [/ matemáticas] y [matemáticas] f [/ matemáticas] de los datos de entrenamiento [matemáticas] x [/ matemáticas] de manera no supervisada o supervisada. El problema ahora es que encontrar el algoritmo de razonamiento [matemática] Z [/ matemática] no es trivial, ¿qué función de costo podemos usar? Encontrar el conjunto de hechos [matemáticas] f [/ matemáticas] también es complicado por derecho propio, ¿cómo podemos dejar que el sistema descubra hechos significativos a partir de los datos?
Los humanos hacen eso todos los días.
Caso # 5: Aprendizaje gradual.
Los humanos aprendemos todos los días a un nivel subconsciente o consciente. Estamos mejorando constantemente, a diferencia de nuestros algoritmos DL actuales que una vez entrenados se vuelven rígidos.
El aprendizaje gradual es el proceso de recoger nuevas experiencias con facilidad sin afectar las experiencias anteriores. Por supuesto, olvidamos cosas muy antiguas debido a esta necesidad de seguir aprendiendo experiencias más relevantes y nuevas. Los humanos son extremadamente buenos en tales tareas, pero no las máquinas.
Otra cosa que vale la pena señalar es que la mayoría de las aplicaciones de inteligencia artificial también son muy específicas de un área específica. Al menos DL es un poco más aplicable a una variedad de tareas perceptivas como la visión y el habla, pero sus capacidades aún están limitadas a tareas específicas, a diferencia de los humanos.
Sin embargo, la inteligencia artificial se está moviendo muy rápido, por lo que es posible que pronto haya un avance en uno de los casos discutidos anteriormente. La mayoría de los casos anteriores, como el razonamiento, están completos por IA, lo que significa que resolver solo uno de ellos significaría sistemas de IA fuertes.
Espero que esto ayude.