“ ¿Qué sucederá cuando la inteligencia artificial construya miles de millones de veces la red neuronal humana el poder de un cerebro humano? ”
Este tipo de pregunta tiene muchos supuestos detrás. La mayor suposición, por supuesto, es que tenemos alguna idea de cómo construir una red neuronal humana.
La segunda gran suposición es que la dirección en la que se dirige la Inteligencia Artificial será cómo se construiría dicha red.
- ¿Las inteligencias artificiales tendrán sentido del humor?
- Cómo hacer un robot básico (para un simposio de ciencias)
- ¿Cuál es la mejor máquina analizadora hematológica?
- ¿La IA será una amenaza para la humanidad mucho antes de lo previsto?
- ¿Las formas de vida artificial no estarían sujetas a la ley con respecto a crímenes como hurto y asesinato en primer grado?
La tercera gran suposición es que existe una medida unificada de la capacidad cerebral con la que se puede medir dicha red.
A pesar de toda la publicidad, AI está en su infancia. Puedo argumentar que aún no ha nacido. Hemos aprendido cómo construir redes “neuronales”, y al hacerlo hemos llegado a comprender su poder, pero las redes que construimos actualmente tienen poco que ver con el funcionamiento de los cerebros.
Las redes neuronales actuales, incluidas las profundas, en realidad solo están modeladas en la corteza sensorial, principalmente en la corteza visual. Además, se basan en una comprensión muy trivial de la corteza visual: la aparición de una red de avance, que proviene de una comprensión inteligente pero demasiado simplificada de V1 a VN en el lóbulo occipital.
Esta interpretación de las redes cerebrales ha sido exitosa, pero de maneras muy limitadas. Realmente debería llamarse Percepción Artificial, no AI. Se ha implementado para reemplazar actuadores y sensores simples en sistemas informáticos, pero no es inteligente de ninguna manera real, y tiene limitaciones severas, que incluyen:
- No se puede entender. (A pesar de las imágenes geniales en medio de redes profundas).
- No se puede explicar. Por supuesto, podemos decir que una red neuronal proporciona una bifurcación altamente compleja de un conjunto de puntos de datos en un espacio de muy alta dimensión. Eso no explica nada.
- Comete errores serios. Varios investigadores han demostrado que los errores no entrenados en el proceso de bifurcación permiten errores tanto positivos falsos como negativos falsos que son notorios. Y no hay forma de predecir o evitar los errores.
- Debe ser entrenado y reentrenado a un gran costo. Todos dependen de la capacitación que requiere una granja de servidores administrada por Hoover Dam (o una gran matriz solar). Y lleva tiempo.
- Las redes no aprenden de los errores. Cuando se nota un error. la red debe ser entrenada desde cero, a un costo significativo y con mucho retraso.
La “inteligencia artificial” solía ser implementada por sistemas expertos con sensores simples. Ahora hemos reemplazado los sensores con lo que yo llamo Perspectiva Artificial, y la calidad del resultado es mucho mayor. Pero las decisiones estratégicas aún se toman con código que no se ve muy diferente a los viejos sistemas expertos. Los sistemas resultantes solo se ven mejor.
¿Qué salió mal?
- Realmente no entendemos cómo funcionan las redes neuronales humanas. El rastreo de redes neuronales reales es difícil y expone estructuras que no entendemos.
- Específicamente, hay una gran cantidad de retroalimentación en los circuitos neuronales humanos. Aproximadamente la mitad de las neuronas que se conectan a la corteza visual transportan señales a la corteza visual, y las ignoramos. Más de la mitad de las neuronas que se conectan a los oídos son señales de salida al oído. Solo podemos adivinar lo que hacen. Más de la mitad de las neuronas en el cuerpo calloso son inhibitorias en lugar de excitadoras.
- No tenemos teorías útiles que expliquen cómo funciona la retroalimentación en los circuitos neuronales. La retroalimentación positiva es difícil de entender, y la retroalimentación negativa, que es más común, puede ser imposible de entender. Así que simplemente ignoramos a ambos.
Tenemos que dejar de hablar de IA como si fuera Inteligencia Artificial General. Ni siquiera está cerca. Preguntas como esta permiten discutir los problemas, pero no se pueden responder en nuestro nivel actual de comprensión.