AGI probablemente llegará en algún momento en la década de 2020 o 2030 debido a la Ley de Aceleración de Devoluciones.
Más allá de la ley de Moore
Algunos argumentan que la Ley de Moore está en sus límites. Pero ignoran la posibilidad de nuevas arquitecturas informáticas o métodos que eluden este límite. Por ejemplo, IBM ha estado trabajando en una nueva arquitectura llamada SyNAPSE que se inspira en el diseño del cerebro humano (fuente: Computación cognitiva: chips neurosinápticos). Su propósito es agregar reconocimiento de patrones de baja potencia y percepción sensorial a los dispositivos móviles.
- Tengo dos ideas específicas en el campo de la Inteligencia general artificial y deseo publicar artículos sobre ellas. ¿Dónde empiezo?
- ¿Cuáles son algunos campos relacionados con la IA que están orientados a los polímositos distintos de la ciencia de datos?
- ¿Alguien puede darme un ejemplo de IA simple?
- ¿Cuál es la diferencia entre el trabajo / investigación de IA en DeepMind, Vicarious y Numenta?
- ¿Cuáles son algunas aplicaciones no obvias de IA que serán enormes? La investigación médica y la conducción autónoma son ejemplos que obviamente crecerán. ¿Cuáles son algunos ejemplos que no notamos tanto?
El resultado de una computación más parecida al cerebro probablemente será una inteligencia más parecida al cerebro. Por supuesto, tales máquinas carecerán de experiencias similares a las de los humanos, pero eventualmente podrán compensar esa falta. Aplicarán las virtudes de la máquina de procesamiento de datos de alto volumen, cómputo de alta velocidad, diseño artificial y aprendizaje colaborativo masivo para superar las habilidades humanas.
De AGI a ASI
La siguiente pregunta es cuándo llegaría ASI. Me imagino que dentro de un año o dos después de la adopción popular, un AGI podría superar no solo la inteligencia humana promedio, sino la mejor inteligencia humana. Los millones o miles de millones de ASI que cooperan para lograr este objetivo en todos los dispositivos informáticos del mundo sin duda acelerarán ese evento.
Así que ciertamente no me imagino un solo AGI o ASI, que se llama singleton, que domina el mundo de la IA. Más bien, imagino multitudes de mentes artificiales independientes, cada una con sus propios objetivos y prioridades. Una civilización de máquinas, por así decirlo, en lugar de un dios cibernético.
Despegue duro
Tampoco imagino un “despegue duro” o una explosión de inteligencia. Para un poco de historia, recuerde la cita de IJ Good:
Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.
No me gusta especialmente este escenario, a pesar de que es ampliamente citado, porque:
- Parece centrarse en una máquina, en lugar de todo el mundo de las máquinas como actores independientes, un escenario más realista.
- Parece implicar que la inteligencia puede mejorar en un ciclo de retroalimentación infinita, sin la necesidad de observar el mundo y adaptarse a él.
- Parece implicar que todas las tareas pueden reducirse a la tarea de definir y construir mejores máquinas, lo cual es inverosímil.
- Parece un estudio de personajes en una supercomputadora divina, en lugar de una predicción sobria. Tal especulación pertenece a los cuentos de fantasía sobre genios mágicos, no a la literatura de IA.
Si bien esto plantea la idea de ASI de una manera que invita a la reflexión, sus detalles hacen que parezca más una suposición equivocada que una visión válida del futuro.
Velocidad de escape
Se puede hacer una analogía para escapar de la velocidad de la gravedad de la Tierra. La cantidad de velocidad requerida para escapar del pozo de gravedad de la Tierra en una nave espacial depende de la cantidad de gravedad.
Sería tonto pensar que:
- Tan pronto como supere las velocidades de caminar o correr, parecidas a las de los humanos, puede escapar de la atmósfera de la Tierra.
- Tan pronto como escapas de la atmósfera de la Tierra, puedes alcanzar la velocidad de la luz, o peor aún, la velocidad infinita.
Esos son supuestos absurdos e ignorantes.
Entonces, ¿por qué suponemos que el simple hecho de exceder la inteligencia humana nos envía inmediatamente a un despegue directo al infinito? Es más probable que ASI supere sin problemas y previsiblemente la inteligencia humana y continúe haciéndolo de manera exponencial mucho después. No hay razón para esperar un punto de inflexión, dejarse llevar por un despegue difícil.
En todo caso, el progreso de ASI sería aún más suave y más predecible que el progreso humano, ya que las máquinas son más regulares y disciplinadas para explorar espacios de solución. Por lo tanto, podemos esperar un progreso suave, no brusco o caótico, en los próximos años, en mi opinión.