Es interesante que esté omitiendo a todos estos animales como ratas, cuervos e incluso insectos y solo apunte al rendimiento a nivel humano.
Pongamos las cosas en contexto aquí:
Una mosca de la fruta con aproximadamente 135K [1] neuronas es capaz de un comportamiento robusto dentro de un entorno dinámico complejo. El sistema de control de una mosca de la fruta es mucho más robusto que el que tenemos actualmente en robótica, pero actualmente es posible implementar literalmente una red neuronal artificial (ANN) con 135K nodos. Pero todavía no hemos hecho un robot de mosca de la fruta o un sistema de control que se acerque a las notables capacidades de procesamiento de movimiento de una mosca de la fruta. Tal sistema de control sería muy importante en aplicaciones militares como:
- Sistemas de control de misiles.
- Aviones de combate autónomos.
Y, por supuesto, también es importante en aplicaciones civiles como:
- Autos sin conductor que resultarían literalmente en cero accidentes.
- Aviones de vuelo propio.
A medida que nos movemos hacia los animales, el comportamiento se vuelve aún más sofisticado. Una rata es inteligente, no en el sentido de que puede jugar GO o ajedrez, sino en la forma en que se adapta e interactúa con el entorno, especialmente teniendo en cuenta que aprenden principalmente de manera no supervisada.
Mi opinión es que el mundo real es demasiado complejo para nuestros algoritmos actuales de aprendizaje automático (ML), es demasiado duro teniendo en cuenta lo fácil que es engañar a nuestros modelos de ML. Los modelos actuales de ML no coinciden en comparación con las redes neuronales biológicas. Una sola neurona biológica exhibe un comportamiento complejo que no podemos entender actualmente. Por lo tanto, es fácil decir que si no podemos entender completamente los componentes básicos de los cerebros biológicos, entonces no esperamos entender completamente todo.
Aunque podemos construir sistemas que son estrechamente inteligentes como en:
- Clasificación de la imagen
- Reconocimiento de voz
- Detección de objetos
Pero estos sistemas normalmente tienen problemas, ellos:
- No son muy robustos, estos sistemas pueden romperse fácilmente, especialmente cuando las condiciones se desvían dramáticamente de las condiciones de trabajo teóricas. También sufren lo que se conoce como ejemplos adversos [2].
- Requerir una gran cantidad de datos de entrenamiento para que puedan aprender tareas triviales. La mayoría de las entidades biológicas aprenden con muy pocos datos, por ejemplo, un bebé aprende muchas cosas muy rápido.
- No generalice tan bien como se supone que debe hacerlo a pesar de estar entrenado en muchos datos de entrenamiento.
- Requerir funciones objetivas diferenciables.
- Son principalmente modelos supervisados:
- No son aprendices graduales, por ejemplo, un sistema de clasificación de imágenes una vez entrenado en un conjunto de datos de entrenamiento se vuelve rígido y limitado a ese dominio. Mientras que los sistemas biológicos pueden aprender gradualmente más cosas, un proceso llamado aprendizaje gradual.
En contraste, los sistemas biológicos son:
- No se sabe que use el descenso de gradiente para aprender. Por lo tanto, no se limitan a objetivos diferenciables, sino que pueden aprender a modelar interacciones complejas no diferenciables en el entorno con bastante facilidad.
- Estudiantes graduales.
- Aprendices únicos, lo que significa que aprenden con muy pocos ejemplos. También son capaces de aprender a cero con solo transferir conocimiento puro de experiencias relacionadas.
- Aprendices generales capaces de aprender a generalizar muy bien, incluso cuando están entrenados en muy pocos ejemplos.
- Muy robusto y no se rompe fácilmente. Tenemos ilusiones visuales, pero no son tan malas como los ejemplos adversos que afectan a los modelos de ML.
Dicho esto, ahora sabemos que incluso la red neuronal biológica de una mosca de la fruta es mucho más capaz que una ANN de tamaño similar, entonces podemos extender con seguridad este razonamiento a nuestra red teórica de 100 mil millones de nodos frente al cerebro humano.
Como la mayoría de las respuestas ya han dicho, obviamente no esperas mucho de eso porque:
- Los datos de entrenamiento necesarios para entrenar tal modelo serían exponencialmente grandes en comparación con lo que tenemos ahora y sin mencionar que esos datos deben ser etiquetados por humanos. El proceso de etiquetado manual de dicho conjunto de datos sería tedioso y tomaría años de trabajo.
- El sistema puede sufrir problemas de sobreajuste debido a la gran cantidad de parámetros. Estamos hablando de billones de conexiones o parámetros para ajustar. Ni siquiera sabríamos si dicho sistema puede ser rescatado de los pozos de sobreajuste.
- El sistema es suave (diferenciable), pero sabemos que la mayoría de los problemas completos de IA no se pueden emitir fácilmente de una manera diferenciable. Esto significa que a pesar del enorme tamaño, esos 100 mil millones de nodos no podrían resolver la inteligencia tal como la conocemos.
- El cerebro tiene una estructura compleja más cableada a diferencia de nuestros ANN simples. Las ANN en comparación con el cerebro pueden considerarse monolíticas y rígidas. Usted argumentaría que después de entrenar una red de nodos de este tipo de 100 mil millones, los nodos eventualmente desarrollarían una estructura determinada por la fuerza de las conexiones. Sí, tienes razón, pero eso aún sería limitado:
- Teóricamente, una red neuronal recurrente (RNN) se está completando, por lo que uno esperaría que aprenda cualquier función computacional. Pero esto nos lleva de nuevo a la dependencia de objetivos diferenciables, a pesar de estar completos, los RNN como las redes de memoria a corto y largo plazo (LSTM) siguen siendo limitados en el sentido de que necesitan ser diferenciables.
Por lo tanto, desde cualquier ángulo que lo mire, la solución no es solo acerca de la escala, sino que es más compleja que eso.
La inteligencia es más sobre:
- Estructura : debe haber un marco de apoyo que permita la inteligencia. Una estructura que define cómo interactúan los módulos, como cómo almacenan y acceden a la memoria o si necesitamos memoria o no. Se supone que esta estructura es dura como la forma en que nace el cerebro con una determinada estructura que lo limita con antecedentes que lo ayudan a modelar mejor el mundo. Digamos que la estructura ayuda al sistema a lidiar con la maldición de la dimensionalidad. Del mismo modo que los modelos de aprendizaje profundo (DL) asumen la composicionalidad en el mundo como un fuerte prioritario, necesitamos más previos poderosos integrados en nuestros modelos para hacerlos más inteligentes, es decir, darles sentido común.
- Algoritmos : la estructura es rígida, pero los algoritmos pueden decidir qué almacenar o leer de la memoria, por ejemplo. Pueden cambiar la forma en que el sistema responde a varios estímulos, pero la estructura define y limita la variedad de respuestas para reducir el espacio de respuestas posibles, lo que hace que el proceso de aprendizaje sea manejable.
- Datos : por supuesto, necesitamos datos de entrenamiento, preferiblemente datos sin etiquetar, porque el mundo es rico en datos sin etiquetar. Necesitamos que nuestros modelos aprendan solos con la menor cantidad de datos posible. Los datos actúan como el combustible, por lo que es un aspecto importante de la inteligencia.
- Escala : obviamente necesitamos que todos estos sistemas sean escalables, como poder encontrar patrones en conjuntos de datos tanto grandes como pequeños. También necesitamos todo a gran escala, como la memoria, para resolver la inteligencia tal como la conocemos.
Entonces, tiene una parte correcta, la escala es importante, pero también lo es la estructura, el algoritmo y los datos.
Si tuviéramos que marcarlos, diría que carecemos de algoritmos y estructura, mientras que en este momento los mejores laboratorios como Google Brain, DeepMind, Microsoft research y Facebook AI research (FAIR) pueden construir ANN de gran escala al menos más grandes que las de insectos como moscas de la fruta y hormigas y tienen grandes conjuntos de datos disponibles para entrenar sistemas a gran escala.
Noticias de última hora :
También se ha encontrado que los insectos exhiben inteligencia [3].
Pero creo que una vez que obtengamos la estructura y los algoritmos correctos, tendremos lo que se llama inteligencia general artificial (AGI) y luego tendremos que escalar el AGI a la escala del cerebro humano y más allá y luego podremos tener un sistema tan inteligente como humano o más inteligente para el caso.
Espero que esto ayude.
Notas al pie
[1] Conectoma de Drosophila – Wikipedia
[2] Atacar el aprendizaje automático con ejemplos adversos
[3] Se descubre que los abejorros tienen un poder cerebral “impresionante” a medida que los científicos los entrenan para marcar “goles”