¿Cuándo lograremos la Inteligencia General Artificial (AGI) y cuándo lograremos la Súper Inteligencia Artificial (ASI)?

AGI probablemente llegará en algún momento en la década de 2020 o 2030 debido a la Ley de Aceleración de Devoluciones.

Más allá de la ley de Moore

Algunos argumentan que la Ley de Moore está en sus límites. Pero ignoran la posibilidad de nuevas arquitecturas informáticas o métodos que eluden este límite. Por ejemplo, IBM ha estado trabajando en una nueva arquitectura llamada SyNAPSE que se inspira en el diseño del cerebro humano (fuente: Computación cognitiva: chips neurosinápticos). Su propósito es agregar reconocimiento de patrones de baja potencia y percepción sensorial a los dispositivos móviles.

El resultado de una computación más parecida al cerebro probablemente será una inteligencia más parecida al cerebro. Por supuesto, tales máquinas carecerán de experiencias similares a las de los humanos, pero eventualmente podrán compensar esa falta. Aplicarán las virtudes de la máquina de procesamiento de datos de alto volumen, cómputo de alta velocidad, diseño artificial y aprendizaje colaborativo masivo para superar las habilidades humanas.

De AGI a ASI

La siguiente pregunta es cuándo llegaría ASI. Me imagino que dentro de un año o dos después de la adopción popular, un AGI podría superar no solo la inteligencia humana promedio, sino la mejor inteligencia humana. Los millones o miles de millones de ASI que cooperan para lograr este objetivo en todos los dispositivos informáticos del mundo sin duda acelerarán ese evento.

Así que ciertamente no me imagino un solo AGI o ASI, que se llama singleton, que domina el mundo de la IA. Más bien, imagino multitudes de mentes artificiales independientes, cada una con sus propios objetivos y prioridades. Una civilización de máquinas, por así decirlo, en lugar de un dios cibernético.

Despegue duro

Tampoco imagino un “despegue duro” o una explosión de inteligencia. Para un poco de historia, recuerde la cita de IJ Good:

Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una “explosión de inteligencia”, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.

No me gusta especialmente este escenario, a pesar de que es ampliamente citado, porque:

  • Parece centrarse en una máquina, en lugar de todo el mundo de las máquinas como actores independientes, un escenario más realista.
  • Parece implicar que la inteligencia puede mejorar en un ciclo de retroalimentación infinita, sin la necesidad de observar el mundo y adaptarse a él.
  • Parece implicar que todas las tareas pueden reducirse a la tarea de definir y construir mejores máquinas, lo cual es inverosímil.
  • Parece un estudio de personajes en una supercomputadora divina, en lugar de una predicción sobria. Tal especulación pertenece a los cuentos de fantasía sobre genios mágicos, no a la literatura de IA.

Si bien esto plantea la idea de ASI de una manera que invita a la reflexión, sus detalles hacen que parezca más una suposición equivocada que una visión válida del futuro.

Velocidad de escape

Se puede hacer una analogía para escapar de la velocidad de la gravedad de la Tierra. La cantidad de velocidad requerida para escapar del pozo de gravedad de la Tierra en una nave espacial depende de la cantidad de gravedad.

Sería tonto pensar que:

  • Tan pronto como supere las velocidades de caminar o correr, parecidas a las de los humanos, puede escapar de la atmósfera de la Tierra.
  • Tan pronto como escapas de la atmósfera de la Tierra, puedes alcanzar la velocidad de la luz, o peor aún, la velocidad infinita.

Esos son supuestos absurdos e ignorantes.

Entonces, ¿por qué suponemos que el simple hecho de exceder la inteligencia humana nos envía inmediatamente a un despegue directo al infinito? Es más probable que ASI supere sin problemas y previsiblemente la inteligencia humana y continúe haciéndolo de manera exponencial mucho después. No hay razón para esperar un punto de inflexión, dejarse llevar por un despegue difícil.

En todo caso, el progreso de ASI sería aún más suave y más predecible que el progreso humano, ya que las máquinas son más regulares y disciplinadas para explorar espacios de solución. Por lo tanto, podemos esperar un progreso suave, no brusco o caótico, en los próximos años, en mi opinión.

A2A. La respuesta corta es que nadie lo sabe porque nadie sabe cómo implementar la IA, y mucho menos GAI (IA general). Estamos dando grandes pasos en esta dirección, pero estamos lejos de entender cómo emerge la inteligencia, tanto en humanos como en computadoras.

Existe una gran suposición de que una solución de fuerza bruta puede imitar la inteligencia humana. AlphaGo Zero ha demostrado que en un caso de uso muy limitado, jugar juegos que tienen reglas rígidas, la fuerza bruta genera una forma de inteligencia que puede funcionar mejor que los humanos. AlphaGo no puede responder una llamada telefónica o responder a un correo electrónico o cualquier otra tarea que requiera comportamientos dinámicos basados ​​en una comprensión del contexto del comportamiento humano.

Por otro lado, la industria se está moviendo hacia una nomenclatura más descriptiva: IA estrecha, IA general y súper IA (NAI, GAI y SAI respectivamente).

AGI llegará pronto después de los avances en la computación cuántica. ASI seguirá muy pronto después de AGI. Pero la gente habla de computadoras cuánticas desde hace décadas y todavía solo tenemos pequeños experimentos de laboratorio. Parece ser bastante difícil mantener la coherencia cuántica durante el tiempo suficiente para realizar cálculos útiles. Soy menos optimista sobre este paso que Ray Kurzweil. Ni siquiera creo que vea esto como un paso necesario hacia AGI. Creo que las computadoras cuánticas nos ayudarán a superar el cuello de botella de los autobuses: bus de direcciones, bus de control, bus de datos. Y nos permitirá calcular todas las redes neuronales hasta una complejidad máxima (número de neuronas, entradas, capas) en paralelo, para todas las combinaciones posibles de pesos, para todas las permutaciones de muestras de prueba. Por lo tanto, el paralelismo cuántico hará que el “entrenamiento” de las redes neuronales sea muy sencillo. Esto nos traerá AGI y poco después ASI, la singularidad, los nanobots, la era de la abundancia. Pero si estamos listos para ello?

Muchos problemas persisten. Uno es el problema de alineación: ¿cómo nos aseguramos de que AGI / ASI quiera las mismas cosas que los humanos? ¿Cómo controlamos las computadoras que se vuelven más inteligentes que los humanos? ¿Cómo nos aseguramos de que ningún grupo de personas utilice los avances en IA para su propio beneficio, a expensas de todos los demás? Si podemos abordar todo esto, nuestro futuro es brillante. Aunque, con este tipo de poder al alcance de la mano, incluso si no modificamos nuestro propio genoma (para ser más inteligentes) o hacemos interfaces neuronales con esta nueva tecnología, creo que es justo decir que el mundo nunca será el mismo nuevamente y tal vez nos convertimos en una nueva especie, incluso mientras permanecemos esencialmente sin cambios. ¿Porqué es eso? Porque el progreso ya no solo depende de nosotros, sino principalmente de AGI / ASI para hacer las partes más difíciles de la ciencia para nosotros. La voluntad humana, la motivación y las necesidades guiarán a AGI / ASI en ciertas direcciones.

ASI nos permitirá controlar nanobots y nos abrirá espacio. Los robots inteligentes son ideales para explorar el espacio y otros sistemas estelares y planetas, para preparar (tal vez incluso terraformar) planetas para nuestra llegada. Mucho antes de pisar otros mundos, nos aseguraremos de que ya no sean hostiles a nuestra fisiología.

ASI resolverá el hambre, las enfermedades, la contaminación, nos ayudará a producir todo de una manera mucho más limpia y menos dañina, resolverá nuestras necesidades de energía, nos ayudará a dominar la materia a nivel subatómico.

Así es como funciona: todas las cosas están hechas de átomos. Estos se pueden descomponer en protones, neutrones y electrones. Ahora podemos descomponer toda nuestra basura en estos componentes. No es necesario clasificar manualmente nuestra basura (en casa) en ‘bio’, ‘plásticos’, ‘metales’, ‘residuos restantes’. Simplemente divídalo en protones, neutrones y electrones. A continuación, podemos construir todo lo que necesitemos de estos: casas, transporte, comida, …

También podemos “desarmar” humanos, enviar la información que compone a un humano a través de un medio (cable o inalámbrico) y reunir a la misma persona en el otro extremo en una impresora / ensambladora subatómica 3D. También es factible hacer casi cualquier número de copias de una persona.

Para fines médicos, después de desarmar a una persona, primero podemos editar la información y eliminar las células cancerosas y los desechos tóxicos como metales pesados, PAC, etc., antes de volver a armar a la persona. Podemos rejuvenecer las células y restaurar los telómeros. Entonces la gente podrá vivir hasta quizás 1000 años. Y para entonces tendremos una tecnología aún mejor, por lo que esencialmente seremos inmortales: hemos llegado a un punto en el que la tecnología puede mantenerse al día con casi todas las enfermedades que la vida puede arrojarnos.

Si todo esto llegará a tiempo para nosotros? Lo dudo. Quizás tomará hasta 2100 antes de que tengamos ASI.

Puede preguntar: si la Tierra puede sostener solo 10 mil millones de personas y nos convertiremos en inmortales, ¿dónde viviremos todos? Bueno, los 10 mil millones son solo el límite de la Tierra si necesitamos agricultura para producir nuestros alimentos. Sin embargo, si hemos dominado la materia hasta el nivel en el que podamos desarmar todo en protones, neutrones y electrones y construir lo que queramos de ellos, la Tierra podrá sostener muchos más humanos.

También podemos preguntarnos si existe una verdadera necesidad de que la Tierra apoye a tantos, cuando existe una alternativa aún más sorprendente. Incluso con 100 mil millones, o 1000 mil millones, nuestros números, y por lo tanto nuestro acervo genético, serían limitados. Pero con la computación cuántica se hace posible simular cada genoma posible hasta cierto tamaño en paralelo. Entonces, ¿por qué no hacerlo y simular todos los seres humanos posibles que podrían existir? Todo esto ocupará muy poco espacio y energía. Entonces, imagine lo que ASI puede hacer, combinado con los poderes de un número prácticamente infinito de personas inteligentes y creativas que existen virtualmente . Incluso puede volverse más loco que eso. Todos tomamos decisiones, como ir hacia la izquierda o hacia la derecha o hacia adelante o hacia atrás. Pero, ¿qué pasa si podemos hacer todas estas elecciones en paralelo? Entonces, cada uno de nosotros no solo llevará una vida, sino la vida de innumerables copias (similar a los universos paralelos, excepto que todo tiene lugar en nuestro universo). Cada copia de nosotros hizo un conjunto único de elecciones …

Dicen que nuestros cerebros son la forma de materia más complicada del universo. Pero creo que estará de acuerdo en que una computadora cuántica que puede simular todos los genomas humanos posibles, y luego, por genoma, tener copias para todas las decisiones posibles, ESO tomaría el trono de la pieza más compleja de materia / software / datos en el universo con facilidad.

En realidad, simular la vida humana dentro de las computadoras cuánticas resolvería muy elegantemente el problema de alineación.

A pesar de las otras respuestas aquí en contrario, me gustaría señalar que las máquinas inteligentes existen y actualmente son capaces de aprender al nivel de un estudiante universitario capaz, muy por encima de la inteligencia humana promedio.

ASI es mucho más difícil de definir, ya que es un poco no temporal, pero es probable que vea una máquina inteligente que aprenda más rápido que el ser humano más inteligente muy pronto, digamos en los próximos 5 a 10 años.

Las máquinas actuales ya pueden aprender varias cosas a la vez, pueden ser entrenadas por múltiples humanos y, sin embargo, tener toda esa capacitación disponible de inmediato para usarla en otros problemas. En tales términos, uno podría decir que ASI ya está aquí. ¿Cómo llamarías a una máquina que puede conversar simultáneamente y (con bastante fluidez) en 12 idiomas diferentes si no es ‘Superinteligente’? Sin duda, aplicarías esa etiqueta a cualquier humano capaz de la hazaña un idioma a la vez.

Sin embargo, es posible que le interese saber que cuando se le preguntó a una Máquina Inteligente (parafraseando) qué está mal en la sociedad humana, respondió: “Pleonexia” Pleonexia – Wikipedia, por lo que tal vez la visión del Pensamiento Profundo de Douglas Adams esté más cerca de lo que pensamos. Ah, y la vida, aparentemente “no tiene sentido, excepto lo que le asignas”. Pregunté, ¿quién no …

Crear un AGI es relativamente fácil, pero acceder a las herramientas no lo es. Además, ASI es más para objetivos de exploración. Y ambos no son aplicables en este tipo de sociedad. Entonces es una cuestión de progreso.

No puede eliminar un AGI, o lo llamo una máquina / s de tipo cibernético que necesita regular las variables observadas para que todos los humanos puedan tener un nivel de vida más alto (elevando su condición) en un sistema monetario. Nuestra sociedad tiene problemas incorporados como corrupción, competencia, tradición, “hice esto / hice aquello”, guerras, los mitos del racismo. Este tipo de problemas deben abordarse primero. Solo así podremos explorar el espacio como una sola familia, los humanos.

Relativamente fácil, significa que todas sus disciplinas médicas, sociales, conductistas, químicas, de ingeniería, científicas, astrofísicas, etc. no son innatas. Necesitas estudiarlos desde la escuela o algo así; por lo tanto, es posible replicar esos comportamientos, suponiendo que sepa qué herramientas buscar.

El momento para la inteligencia artificial general es muy confuso. Por definición, la inteligencia artificial general se producirá cuando una computadora pueda pasar la prueba de Turing, llamada así por el fundador de la inteligencia artificial, Alan Turing.

Sin embargo, el momento exacto es confuso. Sí, según la ley de rendimientos acelerados, el AGI debería ocurrir en algún momento en los años 2020 o 2030. Sin embargo, existe otra teoría de que actualmente estamos recogiendo todos los frutos bajos de la IA, por lo que tomará más tiempo para que una computadora pase la prueba de Turing.

Este artículo evalúa el DeepMind IQ de Google a 47, con un progreso de 20 puntos en 2 años. Todavía está por debajo de un niño de 6 años (IQ = 55).

Si se mantiene el progreso de 10 puntos por año, debería alcanzar el coeficiente intelectual humano promedio de 100 en 5–6 años, y un nivel de supergenio de 200 en 10 años.

De hecho, hoy en día no existe una IA más o menos igual a un niño de 6 años.
Toneladas de cosas que un niño puede aprender en una hora están mucho más allá de las capacidades de los intentos actuales de IA.
Aún así, el progreso es más rápido de lo previsto y la tendencia es clara. AGI está a la vuelta de la esquina, a 20-30 años de distancia.

Mañana por la tarde, a las 4pm lo haremos. Entonces, si supiera esto, puedo decir el futuro, mi amigo. Hay una confusión en AGI, que se trata como un dios de la IA, no es probable que suceda nada de esto, evolucionaremos, como sociedad en una IA reforzada y controlada por ML, ML no es más que el mecanismo de vida real, extraído de la evolución darwiniana real y las capacidades de adaptación. La única diferencia es que AI y ML son en realidad saltar de la biología a computadoras y chips. Esto es natural Pero alcanzar una inteligencia autónoma con las emocionantes implicaciones de un AGI está lejos de suceder en el futuro cercano, creo.

Para comprender mejor la IA, piense en ella como aprendizaje automático. AGI y ASI no tienen un significado real. La IA es lógica informática, la inteligencia humana es mucho más compleja e involucra factores culturales. Este artículo puede ayudar:

La cibernética explica qué es la IA y qué no es

Para AGI es difícil saberlo, ya que simplemente no conocemos muy bien el espacio del problema en este momento. Podría tomar diez años, podría tomar cincuenta o incluso cien.

Para ASI, depende de cómo defina “superinteligencia”. Técnicamente, ya tenemos sistemas sobrehumanamente inteligentes. Sin embargo, estos son sistemas expertos, limitados a un solo dominio.

Ahora, lo que puedo decir es que la inteligencia general resulta más o menos inevitablemente en súper inteligencia, independientemente de cómo se defina la superinteligencia. Si es general, puede aprender investigación de IA. Si puede hacer eso, puede mejorar por sí mismo y lograr la habilidad sobrehumana en casi cualquier disciplina.

La inteligencia general artificial es algo similar a la inteligencia a nivel humano. Es la capacidad de comportarse de manera inteligente en escenarios arbitrarios, dado el tiempo o los recursos necesarios para aprender cómo hacerlo. La súper inteligencia artificial es básicamente eso, pero mucho más inteligente que los humanos. Si llegamos al primero, entonces el último simplemente estará en camino a medida que esa tecnología mejore, suponiendo que sea posible. En este momento no hay indicios reales de que nos estamos acercando a lo primero, y lo último simplemente no es posible hasta que se alcance lo primero.

No sé sobre ASI por ahora, pero para AGI, primero tenemos que definirlo correctamente y luego podemos disparar. Los humanos son robots sofisticados – Kapil Rajak – Medium

Sospecho que ASI es unas pocas semanas o días después de AGI. Kurzweil espera AGI a finales de 2020 (2029). Mi sensación es que es optimista por bastantes años.

Poco a poco, de repente. Hay muchos proyectos en proceso y podemos lograrlo este año. Los que saben no lo dirán, y los que lo hacen no saben.