Teniendo en cuenta el último avance de DeepMind (AlphaGo Zero 2017), ¿qué tan probable es la creación de un AGI en los próximos 10 años?

DeepMind consideró que AGI esperaba cumpleaños …

En los próximos 10 años es muy probable que tengamos una dependencia cruzada entre las tecnologías clásicas: nano, info, bio, cogno.

Espere que realicemos estudios que aprovechen lo último en aprendizaje automático para segmentar y analizar circuitos neuronales, en particular los corticales en diferentes sujetos y sistemas, desde el mouse hasta el humano. Las nano y bio tecnologías también deberían ser capaces de darnos una idea de la dinámica de los circuitos a una escala similar a las reconstrucciones de nuestra red.

En muchos sentidos, en 10 años estaremos mejor preparados para tratar de descubrir lo que existe, si es que existe, que actúa como un principio organizador del procesamiento de la información en el cerebro. Si hay algún tipo de principio unificador detrás de la mecánica de este órgano, en unos 10 años, tendríamos suficientes datos para descubrir algo, incluso simplemente haciendo números, en mi opinión.

Sin embargo, no habremos resuelto la “experiencia subjetiva” o el rompecabezas de la conciencia para entonces. Y personalmente creo que algunos aspectos de AGI requerirán en última instancia algo similar a la conciencia para poder alcanzar la máxima flexibilidad en el pensamiento y un diálogo empático perfecto con los humanos.

El desarrollo de inteligencia no biológica se hará eco de lo que ha pasado en los últimos 10 años, pero se ejecuta en sistemas exponencialmente más rápidos. Esperaría una aceleración que sea aproximadamente 100 veces la potencia computacional actual con muchos sistemas modulares que están optimizados para que reunir a un trabajador inteligente para una tarea sea sencillo y, con suerte, accesible para todos los que quieran.

Creo que, según la mayoría de las definiciones razonables de AGI, no será soportado por otros 20 años más o menos. Y creo que será, en cierto sentido, consciente.

Eso fue AGZ, así que solo aparece con una letra, pero como un crucigrama …

Las encuestas anteriores tenían márgenes significativos en las opiniones de cualquier fecha y este siglo se consideró optimista, entonces cualquier cosa menos de cinco décadas lo hizo.

Una pregunta es cuáles son las condiciones que se llamarían AGI. Llamarlo a nivel humano plantea la pregunta, ya que es como un drama en el que cada avance también se encuentra con un revés que recuerda una historia más larga de lo que son las virtudes. ¿Es estructural, es decir, las fichas? ¿O es más parecido al cerebro? ¿O son los algoritmos como agregar una función de recompensa para que no requiera un aprendizaje estructurado? ¿O es eso demasiado dedicado y limitado para un puntaje en un juego en lugar de ser para todo uso? ¿Qué más puede aprender? ¿Cuánto tiempo lleva mostrar suficientes? ¿Tiene que soportar o subsumir todos los otros enfoques de la misma? ¿Tiene que ser mejor que la humanidad?

Otra es si tiene que ser una teoría, comprobable y falsificable. Saltando la conciencia por ahora. Por ejemplo, la robótica experimentó un giro en el que arrojó la representación durante un tiempo para lograr un gran progreso.

Luego hay esfuerzos para frenarlo. Los Principios de Asilomar establecen requisitos para la IA beneficiosa que los investigadores esperan observar. Sería bueno ser de dominio público y no acorralado por un solo monopolio, organización o soberano.

Entonces, si movió la aguja, como una probabilidad condicional, entonces podría no haber estado en el rango en un par de décadas para comenzar y todavía está ahí afuera. Sin embargo, si hay un dispositivo que puede mostrar el rendimiento a nivel humano lo suficientemente pronto, entonces se supone que puede arrancar el siguiente y están en la superinteligencia.

Es un paso notable en la dirección correcta, pero cada uno de estos puntos es discutible, ya que esto es como otro tipo de nuevo orden mundial, por lo que habrá dimensiones para la pregunta que inspirarán más conversación.

Un fragmento de una respuesta anterior mía para el contexto:

“El enfoque de Deepmind constituye la creación de algoritmos generales, y al igual que algunas otras compañías de inteligencia artificial, Deepmind no está presionado para producir algoritmos de inteligencia artificial a corto plazo, por lo que se enfoca en el objetivo a largo plazo de crear AGI.

Como resultado, los trabajos realizados por Deepmind o empresas similares, pueden observarse regularmente como avances no triviales en la dirección de AGI.

Por lo general, cada uno de dichos nuevos trabajos incrementales tiende a representar alguna habilidad no trivial que anteriormente no existía en medio de algoritmos, inteligencia general ”

Ahora en una nueva respuesta:

El mismo Demis Hassabis ha mencionado varias veces que AGI está “a varias décadas de distancia “, y varias significa más de dos pero no muchas . (Vea el video del minuto 15:19 a continuación):

El equipo de su compañía está a la vanguardia, como una de las primeras compañías que se ha aproximado a cierto grado de inteligencia general artificial, al abordar múltiples tareas en modelos únicos, una característica inherente a la inteligencia general biológica.

Los modelos de Deepmind se están volviendo cada vez más generales , y se escalan con el tiempo y el rendimiento por año.

Por lo tanto, cuando Demis menciona que está a varias décadas de distancia, está siendo razonable y está en su mayoría en línea con otros predictores, como Kurzweil, de acuerdo con las leyes de retorno acelerado, o medidas como la Ley de Moore.

Además, considere la respuesta a continuación, si no sabe por qué los juegos son problemas del mundo real, y bancos de pruebas cruciales para precursores de agi como Atari q o alpha go:

La respuesta de Jordan Bennett a ¿Por qué DeepMind eligió el juego AlphaGo en lugar de algún problema del mundo real?

Realmente no veo esta tecnología como acercándonos a un AGI.

No me malinterpreten, el método AlphaGo de crear su propio conjunto de entrenamiento es bastante brillante, pero en realidad no es un gran salto en términos de complejidad general. A fin de cuentas, esta sigue siendo en gran medida una solución de fuerza bruta que aprovecha las enormes cantidades de potencia computacional que está disponible para la IA.

Esencialmente, es un refinamiento al mismo tipo de enfoque de árbol de decisión utilizado para producir las IA de juego de ajedrez que simplemente calculan todos los resultados posibles de un movimiento y los califican para encontrar los que ofrecen la menor cantidad de opciones para el otro jugador. La única diferencia es que, en lugar de tratar de resolverlo rigurosamente, como lo hacen las IA de ajedrez, está usando ese proceso para entrenar la red neuronal para identificar qué es y qué no es un buen movimiento.

Y eso es un gran ahorro de tiempo, ya que desarrollar un conjunto de capacitación es algo impreciso y requiere mucho tiempo. Pero todavía se basa en un conjunto claro y bien definido de reglas para lo que constituye un movimiento válido en marcha. Como tal, realmente no puede esperar que esto funcione fuera de esos límites, lo que lo convierte en una utilidad limitada cuando se trata de intentar crear un sistema verdaderamente generalizado.

Depende completamente de su definición de AGI . Si está utilizando una definición estándar que requiere el desempeño humano para tareas arbitrarias en entornos arbitrarios, entonces es extremadamente improbable. AlphaGo Zero no es evidencia de progreso hacia este objetivo. DeepMind parece estar trabajando hacia una definición más débil de AGI relacionada con la capacidad de jugar ‘juegos’ estrechamente definidos.

[ Editar : enlace agregado para aclarar el significado de ‘juegos’ en este contexto.]

Teniendo en cuenta el último avance en salto con pértiga (6,16 m), ¿qué tan probable es la creación de un dispositivo de teletransportación en los próximos 10 años?

EDITAR: Cita de Yann Lecun, jefe de investigación de Facebook, que es relevante para el tema:

“Entonces, por ejemplo, y no quiero minimizar en absoluto el trabajo de ingeniería e investigación realizado en AlphaGo por nuestros amigos en DeepMind, pero cuando [las personas interpretan el desarrollo de AlphaGo] como un proceso significativo hacia la inteligencia general, está mal. Simplemente no lo es. no es porque haya una máquina que pueda vencer a la gente en Go, habrá robots inteligentes corriendo por las calles. Ni siquiera ayuda con ese problema, está completamente separado “.

El jefe de IA de Facebook quiere que dejemos de usar Terminator para hablar sobre IA

More Interesting

En este momento, ¿qué tan difícil es la competencia para conseguir un trabajo en aprendizaje automático o inteligencia artificial en el área de la bahía con un doctorado?

¿Es la conciencia artificial más compleja de crear que la inteligencia artificial?

¿Puede una entidad de Inteligencia Artificial ser omnipresente, omnisciente y omnipotente?

¿Cómo se usará la IA en el futuro?

¿Tendrían miedo las personas de la inteligencia artificial si la película Terminator nunca se creara?

¿Pusimos las bases teóricas para crear el software para IA súper inteligente o apenas tenemos idea de cómo lograrlo?

Si planea comenzar una empresa de inteligencia artificial, ¿es razonable estudiar neurociencia?

¿Cuál es el proceso para convertirse en un diseñador de inteligencia artificial?

¿Qué tan avanzada es la IA en FIFA 16?

¿Crear conciencia es el pico más alto de progreso en el campo de la Inteligencia artificial?

Si me faltan habilidades de programación pero tengo interés en la realidad aumentada y la inteligencia artificial, ¿debería seguir persiguiendo esto?

¿Qué compañías están empujando los límites reales de la inteligencia artificial? ¿Cómo puedo trabajar para ellos?

¿Qué puede hacer la inteligencia artificial para los automóviles o la industria automotriz?

¿Cómo toma decisiones la IA? ¿Le damos a la IA que creamos una posición moral, y si es así, es solo una creación del creador, y no una verdadera IA?

¿Qué nos falta para hacer la programación automática y cómo podemos superarla?