Si una red neuronal artificial tiene 100 mil millones de nodos, ¿podría ser tan inteligente como un ser humano?

Lo único común entre una red neuronal artificial y una red neuronal real (cerebro humano) es la estructura . Esperar que el primero se comporte como el segundo es como esperar ondas gravitacionales a escala planetaria a partir de esto:

Los nodos o capas generalmente se agregan a una red neuronal para adaptarse mejor a los datos de entrenamiento y revelar relaciones complejas. No imitan cómo nuestro cerebro aprende cosas. Y eso se debe principalmente a que nadie sabe cómo nuestro cerebro aprende cosas .

Las redes grandes también son propensas a sobreajustar cuando los datos son limitados. (¿Qué es el sobreajuste en términos simples?).

Y para entrenar una red que tenga 100 mil millones de nodos, idealmente necesitaría aproximadamente 2.5 mil millones de puntos de datos de entrenamiento. Yann LeCun (Director de Facebook AI Research), en su Reddit AMA, dice ” Haga que su red sea cada vez más grande hasta que la precisión deje de aumentar. Luego, regularizar el infierno fuera de él “.

Para resumir:

  • Las redes neuronales artificiales no imitan el cerebro humano de ninguna manera, excepto la estructura.
  • Aumentar el número de nodos no siempre aumenta la “inteligencia” de la red: el sobreajuste plantea un gran problema.
  • Una red neuronal artificial es solo una regresión logística con esteroides.

Es interesante que esté omitiendo a todos estos animales como ratas, cuervos e incluso insectos y solo apunte al rendimiento a nivel humano.

Pongamos las cosas en contexto aquí:

Una mosca de la fruta con aproximadamente 135K [1] neuronas es capaz de un comportamiento robusto dentro de un entorno dinámico complejo. El sistema de control de una mosca de la fruta es mucho más robusto que el que tenemos actualmente en robótica, pero actualmente es posible implementar literalmente una red neuronal artificial (ANN) con 135K nodos. Pero todavía no hemos hecho un robot de mosca de la fruta o un sistema de control que se acerque a las notables capacidades de procesamiento de movimiento de una mosca de la fruta. Tal sistema de control sería muy importante en aplicaciones militares como:

  • Sistemas de control de misiles.
  • Aviones de combate autónomos.

Y, por supuesto, también es importante en aplicaciones civiles como:

  • Autos sin conductor que resultarían literalmente en cero accidentes.
  • Aviones de vuelo propio.

A medida que nos movemos hacia los animales, el comportamiento se vuelve aún más sofisticado. Una rata es inteligente, no en el sentido de que puede jugar GO o ajedrez, sino en la forma en que se adapta e interactúa con el entorno, especialmente teniendo en cuenta que aprenden principalmente de manera no supervisada.

Mi opinión es que el mundo real es demasiado complejo para nuestros algoritmos actuales de aprendizaje automático (ML), es demasiado duro teniendo en cuenta lo fácil que es engañar a nuestros modelos de ML. Los modelos actuales de ML no coinciden en comparación con las redes neuronales biológicas. Una sola neurona biológica exhibe un comportamiento complejo que no podemos entender actualmente. Por lo tanto, es fácil decir que si no podemos entender completamente los componentes básicos de los cerebros biológicos, entonces no esperamos entender completamente todo.


Aunque podemos construir sistemas que son estrechamente inteligentes como en:

  • Clasificación de la imagen
  • Reconocimiento de voz
  • Detección de objetos

Pero estos sistemas normalmente tienen problemas, ellos:

  • No son muy robustos, estos sistemas pueden romperse fácilmente, especialmente cuando las condiciones se desvían dramáticamente de las condiciones de trabajo teóricas. También sufren lo que se conoce como ejemplos adversos [2].
  • Requerir una gran cantidad de datos de entrenamiento para que puedan aprender tareas triviales. La mayoría de las entidades biológicas aprenden con muy pocos datos, por ejemplo, un bebé aprende muchas cosas muy rápido.
  • No generalice tan bien como se supone que debe hacerlo a pesar de estar entrenado en muchos datos de entrenamiento.
  • Requerir funciones objetivas diferenciables.
  • Son principalmente modelos supervisados:
  • No son aprendices graduales, por ejemplo, un sistema de clasificación de imágenes una vez entrenado en un conjunto de datos de entrenamiento se vuelve rígido y limitado a ese dominio. Mientras que los sistemas biológicos pueden aprender gradualmente más cosas, un proceso llamado aprendizaje gradual.

En contraste, los sistemas biológicos son:

  • No se sabe que use el descenso de gradiente para aprender. Por lo tanto, no se limitan a objetivos diferenciables, sino que pueden aprender a modelar interacciones complejas no diferenciables en el entorno con bastante facilidad.
  • Estudiantes graduales.
  • Aprendices únicos, lo que significa que aprenden con muy pocos ejemplos. También son capaces de aprender a cero con solo transferir conocimiento puro de experiencias relacionadas.
  • Aprendices generales capaces de aprender a generalizar muy bien, incluso cuando están entrenados en muy pocos ejemplos.
  • Muy robusto y no se rompe fácilmente. Tenemos ilusiones visuales, pero no son tan malas como los ejemplos adversos que afectan a los modelos de ML.

Dicho esto, ahora sabemos que incluso la red neuronal biológica de una mosca de la fruta es mucho más capaz que una ANN de tamaño similar, entonces podemos extender con seguridad este razonamiento a nuestra red teórica de 100 mil millones de nodos frente al cerebro humano.

Como la mayoría de las respuestas ya han dicho, obviamente no esperas mucho de eso porque:

  • Los datos de entrenamiento necesarios para entrenar tal modelo serían exponencialmente grandes en comparación con lo que tenemos ahora y sin mencionar que esos datos deben ser etiquetados por humanos. El proceso de etiquetado manual de dicho conjunto de datos sería tedioso y tomaría años de trabajo.
  • El sistema puede sufrir problemas de sobreajuste debido a la gran cantidad de parámetros. Estamos hablando de billones de conexiones o parámetros para ajustar. Ni siquiera sabríamos si dicho sistema puede ser rescatado de los pozos de sobreajuste.
  • El sistema es suave (diferenciable), pero sabemos que la mayoría de los problemas completos de IA no se pueden emitir fácilmente de una manera diferenciable. Esto significa que a pesar del enorme tamaño, esos 100 mil millones de nodos no podrían resolver la inteligencia tal como la conocemos.
  • El cerebro tiene una estructura compleja más cableada a diferencia de nuestros ANN simples. Las ANN en comparación con el cerebro pueden considerarse monolíticas y rígidas. Usted argumentaría que después de entrenar una red de nodos de este tipo de 100 mil millones, los nodos eventualmente desarrollarían una estructura determinada por la fuerza de las conexiones. Sí, tienes razón, pero eso aún sería limitado:
  • Teóricamente, una red neuronal recurrente (RNN) se está completando, por lo que uno esperaría que aprenda cualquier función computacional. Pero esto nos lleva de nuevo a la dependencia de objetivos diferenciables, a pesar de estar completos, los RNN como las redes de memoria a corto y largo plazo (LSTM) siguen siendo limitados en el sentido de que necesitan ser diferenciables.

Por lo tanto, desde cualquier ángulo que lo mire, la solución no es solo acerca de la escala, sino que es más compleja que eso.

La inteligencia es más sobre:

  • Estructura : debe haber un marco de apoyo que permita la inteligencia. Una estructura que define cómo interactúan los módulos, como cómo almacenan y acceden a la memoria o si necesitamos memoria o no. Se supone que esta estructura es dura como la forma en que nace el cerebro con una determinada estructura que lo limita con antecedentes que lo ayudan a modelar mejor el mundo. Digamos que la estructura ayuda al sistema a lidiar con la maldición de la dimensionalidad. Del mismo modo que los modelos de aprendizaje profundo (DL) asumen la composicionalidad en el mundo como un fuerte prioritario, necesitamos más previos poderosos integrados en nuestros modelos para hacerlos más inteligentes, es decir, darles sentido común.
  • Algoritmos : la estructura es rígida, pero los algoritmos pueden decidir qué almacenar o leer de la memoria, por ejemplo. Pueden cambiar la forma en que el sistema responde a varios estímulos, pero la estructura define y limita la variedad de respuestas para reducir el espacio de respuestas posibles, lo que hace que el proceso de aprendizaje sea manejable.
  • Datos : por supuesto, necesitamos datos de entrenamiento, preferiblemente datos sin etiquetar, porque el mundo es rico en datos sin etiquetar. Necesitamos que nuestros modelos aprendan solos con la menor cantidad de datos posible. Los datos actúan como el combustible, por lo que es un aspecto importante de la inteligencia.
  • Escala : obviamente necesitamos que todos estos sistemas sean escalables, como poder encontrar patrones en conjuntos de datos tanto grandes como pequeños. También necesitamos todo a gran escala, como la memoria, para resolver la inteligencia tal como la conocemos.

Entonces, tiene una parte correcta, la escala es importante, pero también lo es la estructura, el algoritmo y los datos.

Si tuviéramos que marcarlos, diría que carecemos de algoritmos y estructura, mientras que en este momento los mejores laboratorios como Google Brain, DeepMind, Microsoft research y Facebook AI research (FAIR) pueden construir ANN de gran escala al menos más grandes que las de insectos como moscas de la fruta y hormigas y tienen grandes conjuntos de datos disponibles para entrenar sistemas a gran escala.

Noticias de última hora :

También se ha encontrado que los insectos exhiben inteligencia [3].


Pero creo que una vez que obtengamos la estructura y los algoritmos correctos, tendremos lo que se llama inteligencia general artificial (AGI) y luego tendremos que escalar el AGI a la escala del cerebro humano y más allá y luego podremos tener un sistema tan inteligente como humano o más inteligente para el caso.

Espero que esto ayude.

Notas al pie

[1] Conectoma de Drosophila – Wikipedia

[2] Atacar el aprendizaje automático con ejemplos adversos

[3] Se descubre que los abejorros tienen un poder cerebral “impresionante” a medida que los científicos los entrenan para marcar “goles”

Puede o no puede ser. El problema aquí no está en el número de neuronas, sino, esencialmente, en su conectividad y en su interacción. A través de la investigación en física estadística, matemáticas, aprendizaje automático e ingeniería de software, he llegado a ver la inteligencia como un fenómeno emergente (más aquí: Emergencia – Wikipedia). Veo la inteligencia como resultado de la mecánica estadística de las redes neuronales (nuestro cerebro, por ejemplo).

La complejidad de una red neuronal no está determinada solo por la cantidad de neuronas, sino también por cómo interactúan (y se conectan) entre sí. Por ejemplo, una red de cinco neuronas, dos para la capa de entrada, en la capa oculta y una salida, conectada e interactuando de alguna manera específica, puede aprender el XOR (exclusivo-o: Exclusivo o – Wikipedia) muy rápidamente ( muchos libros introductorios sobre redes neuronales tienen esto como ejemplo; por ejemplo, vea el Capítulo 6 en Aprendizaje profundo (serie de Computación adaptativa y Aprendizaje automático): Ian Goodfellow, Yoshua Bengio, Aaron Courville: 9780262035613: Amazon.com: Libros). Por otro lado, una red con cualquier número de neuronas en la que la entrada simplemente se propaga a través de la red hacia la salida sin alteraciones (es decir, cada neurona actúa como la función de identidad en sus entradas) es inútil.

Ahora, con esto en mente, le doy El debate de Connectome: ¿Vale la pena cartografiar la mente de un gusano? ¿Qué es? Bueno, es el gusano más pequeño cuyo sistema nervioso consta de poco menos de 400 neuronas. Todavía no entendemos completamente cómo funciona.