¿Qué tan lejos estamos de alcanzar la inteligencia general artificial (AGI)?

Todavía muy lejos, en mi opinión. Dejame explicar.

Hace unos 50 años, se pensaba que la IA y los problemas relacionados eran fáciles y los científicos informáticos eran optimistas para resolverlos en unos pocos años. Incluso hubo un famoso profesor que dijo que la “visión por computadora” es un problema fácil, que puede ser resuelto por un estudiante graduado durante una pasantía de verano. En aquellos días, los informáticos estaban haciendo muchas promesas descabelladas, por ejemplo a la NASA y al ejército de los EE. UU. La investigación en los últimos 50 años nos mostró que estos problemas son en realidad más difíciles de lo que pensaban los científicos. Todas esas promesas incumplidas causaron desconfianza hacia el campo de la IA y los fondos disminuyeron durante un largo período, lo que se conoce como “invierno de la IA”.

Ahora tenemos “aprendizaje profundo” y ha surgido otro período de optimismo. El aprendizaje profundo realmente parece lograr muchas tareas difíciles y ya está causando cambios revolucionarios en muchas industrias diferentes. Han surgido miles de nuevas empresas que se basan en tecnologías de aprendizaje profundo y las grandes empresas han comenzado a invertir dinero en el campo. Algunos ya están obteniendo un rápido retorno de sus inversiones. La tecnología de reconocimiento facial es solo un ejemplo que ya funciona, pero hay muchos otros.

Pero creo que en los años siguientes ocurrirá un tipo similar de iluminación: entenderemos que el problema de la IA es aún más difícil de lo que pensamos que es hoy. En los años siguientes, espero que la gente empiece a reconocer que desarrollar una IA general es uno de los problemas más difíciles de la ciencia, junto con la comprensión del cerebro. Y entenderemos que algunas de las promesas actuales son exageradas.

Porque, si observa los problemas que el aprendizaje profundo (o en general el aprendizaje automático) está resolviendo, son todo tipo de problemas que el cerebro hace automáticamente. No sabemos cómo reconocemos caras, nuestros cerebros simplemente lo hacen automáticamente. Y esto es solo una parte de la función cerebral. Y es el más primitivo. El lado más interesante y más complicado de nuestra inteligencia es nuestro razonamiento. Las cosas que estamos haciendo conscientemente, no automáticamente. Nuestra capacidad de “pensar”. Solo un ejemplo: vemos una película y pensamos en ella, resolvemos las relaciones causales entre eventos, por lo que algún personaje se comportó así, sacamos conclusiones, etc. Todavía no hemos visto un gran progreso en esa parte del razonamiento en IA.

La evolución del cerebro animal tomó miles de millones de años, en un sinnúmero de ensayos y errores. Incluso entonces, los cerebros más avanzados de la naturaleza, como los perros o los gatos, tienen capacidades muy limitadas, como el razonamiento y el análisis. Solo los humanos han alcanzado ese nivel hasta ahora, y eso es con miles de años de evolución cultural añadidos a la evolución biológica. Ahora estamos tratando de imitar el resultado de todo este proceso de miles de millones de años, simplemente haciendo unas décadas de investigación. El hecho amargo es que el único ejemplo del nivel de inteligencia al que apuntamos es la inteligencia humana, y todavía estamos lejos de entender cómo funciona.

En resumen, pensamos que el problema de IA era fácil hace 50 años, y las cosas demostraron que estábamos equivocados. Ahora comenzamos a pensar “es difícil, pero puede resolverse pronto con más investigación”, lo que también se demostrará que está equivocado dentro de unos años. Pronto entenderemos que desarrollar una IA general es un problema extremadamente difícil, que requerirá al menos (de manera optimista) varias décadas de más investigación, y probablemente requerirá comprender el cerebro humano.

La estimación creíble más optimista que he escuchado es 2029. Eso lo propuso Ray Kurzweil. La mediana del año estimado entre los expertos es 2040. Los pesimistas no creen que sea posible en absoluto.

En realidad, estamos llegando al punto ahora como civilización de que tenemos el hardware capaz de rivalizar con el cerebro de muchas maneras. Dentro de la década, el hardware no debería ser un cuello de botella. El verdadero desafío es en realidad el software … el funcionamiento real del cerebro es tan complejo que nuestros modelos actuales de IA simplemente no se comparan. Si bien el aprendizaje profundo ha experimentado un aumento en el progreso en el último año o dos, aún es poco probable que sea la respuesta para una inteligencia similar a la humana. El problema es que, a menos que mapee y modele perfectamente el cerebro humano, realmente no estamos seguros de lo que se necesitará desde una perspectiva de software para llegar allí.

Se necesitan unos 40 minutos para simular 100,000 neuronas durante un segundo simulado. El cerebro tiene 87 mil millones de neuronas. La Ley de Amdahl se aplica porque, aunque las neuronas son, en su mayoría, vergonzosamente paralelas, debe simular más de 3.000 conexiones de entrada y 3.000 conexiones de salida, por lo que debe considerar sistemas de 6.001 núcleos para fines de sincronización y comunicación.

Debido a que sus redes son de complejidad casi arbitraria y debe minimizar la latencia, está buscando un gran número de conmutadores apilados para obtener un SDN que responda lo suficientemente rápido. También desea un tiempo real difícil en la red, ya que necesita absolutamente recibir señales relacionadas para recibirlas juntas, sin importar cuán físicamente distantes de su punto de origen.

Esto es un desafío.

Si usamos las supercomputadoras chinas como punto de partida, necesitará 8.700 de estas para obtener el tipo de rendimiento necesario. Y no son exactamente pequeños.

Inicio | Sitios de la supercomputadora TOP500

Centro Nacional de Supercomputación en Wuxi

Pero las distancias requeridas serían enormes, especialmente teniendo en cuenta los interruptores adicionales necesarios. No puedes hacerlo de esa manera.

Tendría que construir una planta que utilizara espectrometría de masa atómica para crear una gran reserva de Si27 ultra puro. Luego necesita una segunda planta para generar sistemas NN utilizando la integración a escala de oblea. Básicamente ponga el software Neuron ++ o Genesis3 en hardware. Un núcleo, una neurona. Totalmente dedicado 15,000 registros de propósito general (6,000 para E / S, 6,000 para ponderaciones en cada línea, 3,000 para especificar el destino de cada línea). En cada ciclo de reloj, las entradas se leen y procesan, se forman las siguientes salidas de ciclo, sin recuperación.

Esto reduciría el tamaño del edificio necesario, minimizaría la latencia y aceleraría el procesamiento. Necesitará quizás un edificio de media milla de radio, 100 ‘de altura, y probablemente podría acercarse a las velocidades humanas.

Supuestamente, y según la Ley de Moore, esto debería lograrse en unos 3.000 años.

Es posible que el control de calidad llegue más rápido. Ahora estamos en un centenar de qbits, así que solo quedan nueve órdenes de magnitud. Todavía necesita alrededor de cien mil millones de qbits porque cada uno tiene que lidiar con 2 ^ 6000 estados diferentes. Lo que puede hacer mediante superposición, pero está pidiendo mucho. No eliminas el problema de latencia. En todo caso, es peor, ya que las computadoras cuánticas son enormes debido al enfriamiento extremo y los potentes sistemas necesarios para obtener y establecer bits.

Entonces, aunque es viable, no es viable de esa manera con la tecnología existente. Necesitaremos un gran avance.

Los gobiernos están reduciendo la educación y eso limita el potencial de avance. Muchos también son hostiles a la atención universal, lo que también limita los avances. Necesitas habilidades adquiridas y conocimientos adquiridos para avanzar, no tenes baratos y algunos libros andrajosos. La comida debe ser de alta calidad, no basura, si quieres estimular el cerebro.

Esto hace que las posibilidades de superar los problemas próximos a cero hasta que las sociedades crezcan y traten a los intelectuales y a los jóvenes con decencia.

Tal como están las cosas, hay muchas posibilidades de una IA general a nivel humano en menos de 3.000 años. Se puede arreglar, pero no con esas actitudes, y no es obvio por cuánto.

Muy cerca. Los borradores están listos. El código está siendo creado.
La parte más difícil y desafiante es / fue resolver la Inteligencia antes de escribir una línea de código, luchar contra el deseo de participar en la carrera de comercialización de ratas y atajar un proceso de diseño saludable para sacar provecho de piezas fragmentadas. La solución ha estado ahí por algún tiempo, uno solo tenía que estar dispuesto a profundizar lo suficiente como para encontrarla. Hay muchas trampas en el camino que podrían sofocar el progreso. Siento que hay varios grupos notables que lo tenían en su punto de mira, pero el dinero / las adquisiciones y el reenfoque a la comercialización los dejaron completamente fuera de lugar.

Estaban cerca.

De hecho, puedo dar una respuesta algo sólida a esta pregunta, comparando la clase de estructuras matemáticas observadas en el aprendizaje automático de última generación, con el régimen de soluciones geométricas observables en el cerebro biológico:

  1. Ha habido una clara progresión de las ” geometrías de solución “, que van desde las del antiguo Perceptrón hasta las redes neuronales de valor complejo, las múltiples redes neuronales artificiales de Grassmann o las RNN unitarias. Estos modelos se pueden denotar por [math] \ phi (x, \ theta) ^ {\ top} w [/ math] parametrizado por [math] \ theta, [/ math] expresable como grupos geométricos que van desde un grupo unitario ortogonal a especial basado: [matemática] SO (n) [/ matemática] a [matemática] SU (n) [/ matemática] …, y mejoraron en la representación de datos de entrada, es decir, representando pesos más ricos , por lo que los modelos de aprendizaje generaron mejores hipótesis o conjeturas.
  2. Por ” geometría de solución ” me refiero simplemente a la clase de regiones donde los pesos de un algoritmo pueden estar, cuando se generan esos pesos para realizar alguna tarea.
  3. Como tal, si uno sigue la ciencia cognitiva , uno sabría que los cerebros biológicos pueden medirse en términos de operaciones supersimétricas . (Pérez et al, “Supersimetría a escala cerebral”)
  4. Estas representaciones cerebrales biológicas supersimétricas se pueden representar mediante una notación unitaria especial compatible con supercarga [matemática] SU (m | n) [/ matemática] o [matemática] \ phi (x, \ theta [/ matemática], [matemática] \ bar { {\ theta}}) ^ {\ top} w [/ math] parametrizado por [math] \ theta [/ math], [math] \ bar {{\ theta}} [/ math], que son direcciones supersimétricas, a diferencia de [math] \ theta [/ math] visto en el ítem (1). En particular, los valores supersimétricos pueden codificar o representar más información que las clases anteriores vistas en (1), en términos de señales de “potencial asociado”, por ejemplo.
  5. Entonces, el trabajo de aprendizaje automático de última generación que forma [matemática] U (n) [/ matemática] o [matemática] SU (n) [/ matemática] geometrías de solución basadas, aunque no son supersimétricas , ya están en la familia de soluciones supersimétricas geometrías que pueden observarse como ocurridas en el cerebro biológico o en la representación del supergrupo [matemático] SU (m | n) [/ matemático].

Nota al margen : personalmente comencé a trabajar en algo de la familia de funciones [matemáticas] SU (m | n) [/ matemáticas].

Aquí hay algo que llamo la ” red neuronal artificial supersimétrica “: Supermatemáticas-y-Inteligencia-Artificial-General

“Los famosos defensores de Singularity como Ray Kurzweil, director de ingeniería de Google, dijeron:” 2029 es la fecha constante que he predicho para cuando una IA pasará una prueba de Turing válida y, por lo tanto, alcanzará niveles de inteligencia humana. He establecido la fecha 2045 para la ‘Singularidad’, que es cuando multiplicaremos nuestra inteligencia efectiva mil millones de veces fusionándonos con la inteligencia que hemos creado ”.

Según Kurzweil, las tecnologías ahora se están volviendo más baratas y su poder de cómputo complejo aumenta a un ritmo extremo. Por lo tanto, la IA también aumenta exponencialmente su capacidad de imitar el cerebro, lo que nos permite crear una copia artificial de nuestra “alma”, para que podamos vivir para siempre en cuerpos robóticos que no envejecen ni mueren. –

Fuente: Inteligencia Artificial (IA) Singularidad: ¿Hemos alcanzado este estado? – SciVenue

Esto es como preguntar “¿qué tan lejos está en años luz del planeta más cercano a la Tierra que tiene vida inteligente?” Mi pregunta asume que (1) existe una planta así y (2) que sabemos dónde está.

Preguntar cuándo habrá una IA general supone que sabemos cómo hacer una y tener una hoja de ruta para hacer el trabajo. Hoy nadie tiene ni idea y no estamos progresando. Estamos haciendo mejores y mejores aplicaciones de inteligencia artificial, pero todas estas son aplicaciones de cálculo sin sentido que solo hacen lo que están programadas para hacer.

Es muy posible que simplemente no podamos construir una IA general utilizando ningún tipo de computadora programable. Puede requerir algo como una computadora cuántica o un posible componente biológico o incluso algún tipo de computadora molecular. La razón es que puede ser imposible escribir un programa que pueda hacer algo que no está en el programa. O dicho de otra manera, uno no puede escribir un programa de computadora no determinista. y hay un muy buen argumento de que cualquier algoritmo determinista nunca puede tener libre albedrío o pensamientos originales. No sabemos las respuestas porque carecemos por completo de una teoría de concisión. Lo que se necesita son avances fundamentales en psicología y filosofía antes de que alguien pueda pensar en construir una IA general. La gente ha estado haciendo estas preguntas durante miles de años, pero aún no tenemos respuestas. Necesitaremos saber MUCHO más sobre la mente humana antes de poder construir una desde cero.

En realidad, estamos en un nuevo campo emocionante donde todos los descubrimientos importantes aún no se han hecho. El campo de la IA tiene solo unos 60 años. Se ha hecho mucho pero tenemos siglos de trabajo por delante. Realmente no puede esperar que el objetivo final de un nuevo campo de estudio se encuentre tan pronto. Hemos estado en esto entonces un siglo

AGI está en el orden de años, tal vez una década, tal vez meses.

Los informes de finales de 2017 dicen que Google AI “no es más inteligente que un niño de 6 años”. (La IA de Google no es más inteligente que un estudiante de primer grado, según un estudio) Y “La IA de Google tenía un coeficiente intelectual de 47.28, mientras que la puntuación de Siri era 23.94 . “(La IA de Google tiene casi el doble del coeficiente intelectual de Siri, según un estudio, pero un niño de 6 años supera a ambos) Si asume que estos informes son (a) aproximadamente correctos, y (b) no hay tecnología o otra barrera entre AI con un coeficiente intelectual de 10 frente a uno con un coeficiente intelectual de 200 (aparte de usar más memoria, más capacidad de procesamiento, etc.) … entonces, básicamente, estamos a las puertas de AGI.

Tal vez antes de lo que pensamos. Nuestras interfaces con la computadora evolucionan rápidamente. En áreas donde la IA no es buena, es posible reemplazarla con información humana como MTurk.

La IA no perfecta puede utilizar el aporte humano para convertirse casi en un AGI. Es la inteligencia híbrida máquina humana.

Creo que la inteligencia híbrida es una alternativa mucho mejor a AGI. Porque también hace a los humanos más inteligentes y es más fácil observar y razonar sobre las decisiones de la IA.

Sin embargo, la inteligencia híbrida a gran escala y rápida puede acelerar el desarrollo de AGI.

Las interfaces pueden ser desde aplicaciones de chat, mturk, VR, hasta interfaces de computadora cerebral como Neuralink

También la estúpida IA ​​puede crear bots y hacer preguntas sobre Quora 🙂 Supongo que es la próxima prueba de Turing 🙂 La IA puede asignar tareas a los humanos y delegar algunos procesos de pensamiento a la red de cerebros humanos como Quora 🙂

Todavía no hemos arreglado la definición. Tampoco podríamos caracterizar procedimientos inteligentes. Entonces, si lo definimos y lo restringimos a un nivel manejable, entonces sí, es muy posible, pero puede necesitar el esfuerzo total de la humanidad colectivamente. Los humanos son robots sofisticados – Kapil Rajak – Medium

El primer AGI prototipo posible sería 2027. Esto se debe a que tomaría seis años construir el hardware y escribir el software de los sistemas (aproximadamente 6 veces el costo de Summit), pero esto no es posible hasta que se publique una teoría del plan. Esto significa que una teoría de la cognición general tendría que publicarse en 2021. Hay investigaciones en curso, pero debería completarse en agosto de 2019 para tener tiempo de escribir y corregir la teoría completa (que puede llegar a 700 páginas). Y no se publicará si Trump o alguien como él es elegido en 2020. Si eso sucede, entonces 2031 como muy pronto.

Stephen Wolfram habló recientemente en el MIT sobre cómo se logrará la inteligencia artificial general. Cuando tenga tiempo, recomendaría revisar la charla. Es un video largo, ¡pero analiza muchos temas interesantes que le darán una idea de cuán lejos (o cerca) estamos!

Charla de inteligencia artificial de Stephen Wolfram en el MIT

Nadie lo sabe realmente.

Y una de las razones por las que es difícil de adivinar es que probablemente necesitaremos algunos avances científicos para llegar allí, y pueden suceder en cualquier momento.

Sin embargo, podemos hacer una conjetura acerca de la complejidad necesaria al observar la cantidad de información almacenada en el ADN humano. Los 20,000 genes humanos contienen aproximadamente 1.5 GB de información que se utiliza para hacer crecer el cuerpo humano. Un tercio de estos genes se usa en el cerebro, por lo que serían aproximadamente 500 MB para un modelo de un dispositivo BiologicalGI que funciona, lo que no es mucho para los estándares actuales.

Esta es una estimación muy aproximada, por supuesto, y podría estar muy lejos, pero ayuda a mi intuición de que el cerebro en sí es muy complejo, pero los principios subyacentes que utiliza no lo son.

Además, tenga en cuenta que para simular la caída de una manzana a escala molecular necesitamos una gran supercomputadora, pero para tener lo real, solo necesitamos una manzana. Muchas estimaciones para AGI se basan en una simulación del cerebro, y podría ser mucho más fácil crear neuronas artificiales en hardware especializado y juntar muchas de ellas en una estructura similar al cerebro.

Mi libro, Building Minds with Patterns, describe una teoría del desarrollo humano y una arquitectura de sistema que considera esa teoría como especificaciones de requisitos. El libro también proporciona patrones de diseño para varios fenómenos en el desarrollo humano. Según el libro, creo que AGI está mucho más cerca de lo que la mayoría de la gente imagina.

No lo veré en mi vida. Los algoritmos que tenemos hoy son bastante limitados y, francamente, estúpidos. Les va bien en una tarea muy específica, pero fallan en la mayoría de los otros problemas. Lo pondría en 100 años a partir de ahora, con optimismo.