¿Cuál es el mayor problema no resuelto para la IA?

La mayoría de las respuestas le mostrarán que el problema es la falta de comprensión dentro de la IA. Las IA no entienden las cosas como nosotros. Puedes ver qué tan avanzadas son las IA si intentas algo como la búsqueda de imágenes de Google. Pero ese no es el verdadero problema. Puede estar seguro de que las grandes empresas tienen suficientes recursos para implementar la comprensión en inteligencia artificial si tenían la menor idea de cómo hacerlo.

El verdadero problema es la falta general de comprensión de lo que realmente es la inteligencia. El software puede emular casi cualquier cosa que pueda describir bien. Es extremadamente difícil crear algo si no sabes qué es lo que deberías estar creando. La mayoría de las definiciones comunes de inteligencia solo describen el comportamiento de una caja negra: la inteligencia humana. La definición “técnica” de IA, como la de Turing, simplemente transfiere con elegancia el pobre estado de conocimiento de la psicología al ámbito técnico: “La IA no debe distinguirse de la inteligencia humana”. ¡Tales definiciones no podrían ser menos útiles!

Puede pensar que, con todas las noticias sobre IA, este campo de investigación está progresando de todos modos. Eso es correcto, pero para la IA el progreso sigue siendo sorprendentemente lento. El progreso es impulsado principalmente por los avances en el poder de cómputo bruto. Los componentes básicos de las IA actuales, como las redes neuronales y los algoritmos heurísticos, tienen décadas de antigüedad y son limitados. La tecnología actual solo puede hacer conjeturas, millones de ellas, clasificarlas por reglas únicas, pero son solo conjeturas …

A veces funcionan como estas descripciones de imágenes generadas por IA …

… a veces no lo hacen.

Créditos de imagen: conjunto de datos COCO de Microsoft (arriba), TVBS Taiwan / Agence France-Presse (abajo). Créditos descriptivos: Karpathy y Li 2015 [1] (arriba), Lake, Ullman, Tenenbaum y Gershman 2016 [2] (abajo)

Entonces, ¿qué hay dentro del cerebro humano que falta en la IA?

La comprensión es parte integral de la inteligencia y significa tener un modelo de mundo interno que represente el mundo real exterior. Piénsalo. Cuando entiendes algo, significa que tienes un modelo funcional de ese algo en tu mente. Cada uno de nosotros tiene una copia del mundo entero dentro de nuestra cabeza con decenas de miles de objetos para jugar. Algunos los llaman conceptos.

Entender un concepto significa que sabemos qué hace ese concepto en nuestro modelo de mundo interno, en nuestra copia mental simplificada del mundo. Cuando pensamos, hacemos experimentos de pensamiento en el entorno de prueba de nuestra mente. Cuando los resultados del mundo real de la aplicación de conceptos coinciden con nuestros resultados del mundo mental, entonces sabemos que nuestros conceptos son correctos, al menos hasta cierto punto. Podemos reconocer qué descripciones de imágenes no se ajustan a nuestro modelo mundial. Este concepto de mente es muy antiguo, descrito por ejemplo como “criatura popperiana” hace 20 años en el libro Kinds of Minds de DC Dennett.

Créditos de imagen: DC Dennett [3] 1996

Las “IA” actuales no tienen este entorno de prueba. En cambio, se sustituye por funciones que son demasiado simples para evolucionar todo en algo interesante. La excusa común de los investigadores de IA es la falta de potencia computacional disponible en relación con el cerebro humano. Pero eso solo significa que no están utilizando el nivel apropiado de abstracción para sus creaciones. Nadie haría una mesa de cocina construyéndola a nivel molecular. Entendemos que los bloques de construcción de la mesa son sus patas y su parte superior. El problema de emular algo más poderoso se ha resuelto con éxito en los emuladores de consola y se conoce como emulación de alto nivel.

La forma inteligente de crear IA no es recrear neurona del cerebro humano por neurona, sino reconstruir su modelo, sus funciones, utilizando el nivel apropiado de abstracción, lo que implica una comprensión intrínseca y, en consecuencia, resulta en la capacidad de controlar con precisión el resultado.

Es mi opinión que actualmente tenemos todos los componentes básicos de una IA realmente fuerte: redes neuronales, mundos virtuales, bases de datos, entradas / salidas, motores de inferencia y análisis de lenguaje. Los investigadores han estado colocando IA dentro de mundos virtuales, pero de alguna manera no se han dado cuenta de que primero necesitan poner el mundo virtual dentro de IA. Así que ahora solo necesitamos que alguien conecte todos los bloques de construcción de manera adecuada. Para hacer esto, uno debe tener una comprensión básica de cómo deben conectarse los bloques de construcción y que realmente deben incluirse en una IA adecuada. La comprensión debe ser el punto de partida, la herramienta y el resultado final de la IA. Deberíamos construir IA no para potenciar nuestra ignorancia, sino para ayudarnos a entendernos a nosotros mismos . Ese es el mayor problema no resuelto para la IA.

Editar: reformuló algunas oraciones para mayor claridad. Gracias por los votos a favor.

Notas al pie

[1] https://cs.stanford.edu/people/k…

[2] https://arxiv.org/pdf/1604.00289…

[3] Servidor del curso universitario David Banach Saint Anselm

Aquí leo muchas opiniones sobre lo que es la IA, pero darme cuenta de la respuesta, el gran problema de la IA, es también el más obvio para nosotros los humanos: generar patrones de conocimiento y desaprenderlos cuando ya no es relevante para nuevos problemas. El aprendizaje profundo no es autocrítico sobre los patrones que ha construido hasta ahora, y por lo tanto no tiene una motivación natural de premio, recompensa o castigo por sus éxitos o fracasos … como resultado. El otro aspecto es que durante décadas siempre se han acercado a tecnologías muy segmentadas como las grandes alternativas para finalmente dar el santo grial de la inteligencia artificial (en algún momento eran chatbots, luego redes neuronales, luego eran sistemas expertos, y las redes Bayes también tenían su momento), ahora Para muchas personas consideró el aprendizaje profundo como el clímax tecnológico para resolver el problema. Creo que el gran problema de la IA no es tratar los problemas como lo hacemos los humanos, con diferentes herramientas mentales (o algoritmos). Debería ser un sistema híbrido de varias tecnologías para proporcionar soluciones a muchos problemas desde diferentes ángulos de enfoque.

Mis disculpas por mi inglés, pero esta fue una traducción generada por MIA Solutecia, nuestro sistema de inteligencia artificial.

AI no puede interpretar los datos por sí solo.

No puede entender lo que se le ha proporcionado para aprender. Tampoco conoce el ‘ significado ‘ de la salida. Simplemente le proporcionará una salida, que un humano tiene que interpretar y darle sentido.

Esta limitación de la inteligencia artificial se detectó cuando se utilizó el aprendizaje automático para detectar automáticamente los tanques enemigos camuflados:

Érase una vez, el ejército de los EE. UU. Quería usar redes neuronales para detectar automáticamente los tanques enemigos camuflados. Los investigadores entrenaron una red neuronal en 50 fotos de tanques camuflados en árboles y 50 fotos de árboles sin tanques. Utilizando técnicas estándar para el aprendizaje supervisado, los investigadores entrenaron la red neuronal a una ponderación que cargó correctamente el conjunto de entrenamiento: salida “sí” para las 50 fotos de tanques camuflados, y salida “no” para las 50 fotos del bosque. Esto no aseguró, ni siquiera implica, que los nuevos ejemplos se clasifiquen correctamente. La red neuronal podría haber “aprendido” 100 casos especiales que no se generalizarían a ningún problema nuevo. Sabiamente, los investigadores habían tomado originalmente 200 fotos, 100 fotos de tanques y 100 fotos de árboles. Habían usado solo 50 de cada uno para el conjunto de entrenamiento. Los investigadores corrieron la red neuronal en las 100 fotos restantes, y sin entrenamiento adicional la red neuronal clasificó todas las fotos restantes correctamente. ¡Éxito confirmado! Los investigadores entregaron el trabajo terminado al Pentágono, que pronto lo devolvió, quejándose de que, en sus propias pruebas, la red neuronal no tenía mejor oportunidad que discriminar fotos.

Resultó que en el conjunto de datos de los investigadores, se tomaron fotos de tanques camuflados en días nublados, mientras que se tomaron fotos de bosques en días soleados. La red neuronal había aprendido a distinguir los días nublados de los días soleados, en lugar de distinguir los tanques camuflados del bosque vacío.


Deja que eso se hunda …

Lo que esperábamos : una red neuronal que detecta tanques del ejército camuflados.
Lo que tenemos : una red neuronal que distingue entre días nublados y soleados

¡Puedes imaginar las consecuencias si esta red neuronal se hubiera aplicado para usar en una guerra real!

Fuente: LessWrong

No hay un solo problema mayor sin resolver. Si lo hubiera, entonces podríamos centrar toda nuestra atención en él y finalmente resolver el problema de tener que pagar a la gente USD $ 75 billones por año en todo el mundo para hacer el trabajo que las máquinas no son lo suficientemente inteligentes como para hacer.

Aquí hay tres: hardware, software y recopilación de conocimiento humano.

Hardware. Una red neuronal del tamaño del cerebro humano con sinapsis [matemática] 10 ^ {14} [/ matemática] y un tiempo de respuesta de 10 ms requiere 10 petaflops. Actualmente, estas supercomputadoras llenan una habitación y usan aproximadamente un megavatio de electricidad. No podemos hacer transistores más pequeños que los átomos, que es lo que tendríamos para reducir el consumo de energía a los 20 vatios que usa el cerebro humano. Resolver solo el problema de potencia requerirá computación moviendo átomos o moléculas en lugar de electrones. Esta tecnología a escala comercial todavía está a décadas de distancia.

Software Hacer el trabajo de los humanos requiere modelos tanto del cerebro humano como del cuerpo. Nuestro ADN se comprime a aproximadamente [matemática] 5 \ veces 10 ^ {9} [/ matemática] bits, equivalente a 300 millones de líneas de código. En la industria, una línea de código cuesta alrededor de $ 100. Y olvídate de automatizar el desarrollo de software utilizando algoritmos de búsqueda evolutivos. Tomó 3.500 millones de años en una computadora molecular del tamaño de un planeta para escribir nuestro propio ADN. Ese proceso requirió aproximadamente [math] 10 ^ {48} [/ math] operaciones de copia de base de ADN y [math] 10 ^ {50} [/ math] operaciones de transcripción de ARN y aminoácidos. Eso es aproximadamente [matemáticas] 10 ^ {21} [/ matemáticas] tantas veces más operaciones que se han realizado en este planeta desde la invención de las computadoras.

Recolección de conocimiento. Puedes comunicarte eficientemente con otras personas porque tienes un modelo de sus mentes. Puedes adivinar lo que saben y lo que no saben. Para que las máquinas se comuniquen con usted, deben saber lo que usted sabe. Alrededor del 99% de sus [matemáticas] 10 ^ {9} [/ matemáticas] bits de memoria a largo plazo (palabras, imágenes, música, etc.) se comparten con otras personas o se pueden encontrar en Internet. Aproximadamente el 1% o [matemática] 10 ^ {7} [/ matemática] bits es exclusivo para usted. Recopilar esta información personal de 7 mil millones de personas a través de canales lentos como el habla y escribir a una velocidad de 5 a 10 bits por segundo tendrá un costo del orden de $ 100 billones a una tasa salarial promedio global de $ 5 por hora.

Además de estos tres, hay muchos otros problemas menores. Por ejemplo, tenemos una comprensión bastante buena de cómo reconocer imágenes y lenguaje natural utilizando redes neuronales profundas implementadas en supercomputadoras. Pero casi no entendemos los problemas de billones de dólares, como lo que hace que un video sea divertido o lo que hace que una canción suene bien. Hazlo y automatizarás la industria del entretenimiento. Carecemos de modelos del cuerpo humano que nos permitan simular los efectos de nuevos medicamentos o procedimientos médicos, obligándonos a realizar ensayos clínicos que duran décadas. Haz eso y resolverás el envejecimiento.

Para obtener una derivación de los números que utilicé, vea M. Mahoney, The Cost of AI, en Philosophy of Mind: Contemporary Perspectives, editado por Manuel Curado y Steven Gouveia, 2017.

Uno puede tratar de minimizar la incapacidad de comprender por qué las redes neuronales profundas (“DNN”; lo que las personas tienen en mente al hablar de “AI”) pueden ser engañadas, pero las consecuencias de los clasificadores que dan respuestas seriamente incorrectas de las imágenes que se ven ” normal ‘podría ser catastrófico en aplicaciones reales. Los DNN capacitados cuentan con precisión a nivel humano para distinguir entre miles de objetos, pero ejemplos bien conocidos (Aprendizaje automático de ataque con ejemplos adversos) muestran que las diferencias imperceptibles en las imágenes, a menudo cambios que parecen solo la adición de motas aleatorias confunden por completo a estos clasificadores. Del mismo modo, se pueden crear imágenes sintéticas (Evolving AI Lab – University of Wyoming) que se clasifican con gran confianza pero sin ninguna semejanza visual con lo que el DNN dice que son. Por lo tanto, cualesquiera que sean las afirmaciones de precisión se basan en pruebas en imágenes invisibles, no se puede garantizar la precisión de tales clasificadores “en la naturaleza”. ¿Qué pasa si se puede hacer que un clasificador de imágenes genere cualquier respuesta posible a partir de cualquier imagen, a pesar de lo que parece para los humanos?

Este es un vívido ejemplo de la falta de explicabilidad en algunos sistemas de IA. Se puede suponer que el espacio de estado de los píxeles de la imagen es de tan alta dimensión que permite grandes regiones de falsos positivos. Irónicamente, los primeros sistemas de IA, antes de que los métodos basados ​​únicamente en datos se convirtieran en el estándar, se construyeron a partir de representaciones comprensibles, de modo que sus predicciones e inferencias a las causas de las predicciones fueran comprensibles.

Esta es una historia compartida por mi profesor de Machine Learning en LSU mientras estoy estudiando mi maestría.

Una pequeña guerra entre Rusia y Gran Bretaña (estoy un poco esquemática sobre los países) se intensificó cuando ambos países comenzaron a usar misiles entre sí. Sabiendo que habría uso de misiles, Gran Bretaña ya ha comenzado a desarrollar armamento antibalas que apuntará al misil entrante y disparará un misil contra él. Este contra misil destruiría el misil entrante. Para asegurarse de que estos misiles antibalas no apunten a sus propios salientes, Gran Bretaña colocó una exención, que leería un chip particular presente en el misil y solo dispararía un contra misil cuando no se encuentre dicho chip, solo al apuntar los misiles enemigos

Todo el sistema de armas estaba automatizado y, conociendo sus funciones algorítmicas avanzadas, el plan parecía infalible. Antes de que comenzara la guerra, colocaron este sistema antibalas en los frentes de la zona de guerra para un alcance más cercano.

La guerra comenzó y el primer misil estaba entrando en territorio británico. Después de algún tiempo, la posición de este misil entrante estaba por debajo del alcance del misil balístico. La posición estaba cerrada. El sistema antibalas tiene que disparar cuando dicho rango está bloqueado. Esperó El misil entrante se acercó aún más. No disparó el misil contador. En pocos segundos, el misil entrante destruyó toda el área anti balística mientras aún estaba esperando disparar.

Más tarde, los funcionarios comenzaron a descubrir cuál era el problema, por qué el sistema antibalas no disparó el misil, incluso cuando el misil enemigo estaba bajo ese alcance. Luego se dieron cuenta de que el misil entrante disparado por Rusia y los misiles que estaban usando, ambos fueron fabricados por los EE. UU. El sistema de armas antibalas no se disparó porque las armas de Rusia también tenían el mismo chip que debería buscar desde Estados Unidos proporcionó los mismos misiles a ambos países.

La IA, no importa cuán inteligente y avanzada pueda ser, sigue siendo un cerebro de cierta lógica. Ejecuta ciertos pasos cuando encuentra ciertas situaciones. Estas situaciones y pasos, sin importar cuán fuertemente acoplados, todavía son parte de la lógica que a veces puede no tener sentido. Y ese es un gran problema.

Es lo mismo que considerar a quién ahorraría una máquina de inteligencia artificial, cuando tiene la oportunidad de salvar solo a uno: ¿presidente de un país o un niño pequeño? Para ser más realistas, el desarrollo de automóviles autónomos está avanzando en nuevos grados. Aunque, la pregunta sigue siendo válida: en caso de un accidente inminente, ¿cómo debería reaccionar el automóvil? ¿Si tiene que sacrificar al dueño y salvar la vida de muchas personas o si debe sacrificar la vida de muchas personas para salvar al dueño? La lógica y el autoaprendizaje, no importa cuán avanzado pueda ser, nunca igualarían la lógica de un ser humano en la situación. Este es un caso clásico de problema de Trolley. Cuando un humano no puede responder esto adecuadamente, ¿cómo puede hacerlo una máquina?

Descargo de responsabilidad : sobre la historia de la guerra, la escuché en mi clase de aprendizaje automático según me contó mi profesor. No estoy seguro de su autenticidad o integridad ya que no pude encontrar una fuente para probarlo. Por favor use discreción. Si algún Quoran puede encontrar una fuente, proporciónela, actualizaré esta respuesta.

La capacidad de decidir / elegir su propio objetivo.

La inteligencia humana / natural se puede definir como la capacidad de detectar el orden en un sistema. El orden aquí es el inverso de la entropía. Necesitamos detectar el orden en los sistemas para poder navegar mejor la causalidad y doblar el entorno / sistema en beneficio de nuestra supervivencia. Gran parte de lo que se necesita para sobrevivir y propagarse se almacena en nuestro ADN, la fuente de la mente humana (o de cualquier otra mente). Lo que me sorprende es que el simple proceso de replicación imperfecta (alta fidelidad) ha llevado a la diversidad y complejidad de todas las especies y sus “cerebros”.

El punto que estoy tratando de aclarar es que gran parte de nuestro cerebro sucedió debido a un entorno siempre cambiante que continuamente aplicaba presión de supervivencia sobre nosotros, la mayoría de los cuales podrían considerarse aleatorios. En otras palabras, el ADN “aprendió” qué proteínas codificar, dado el entorno natural (al igual que los algoritmos de aprendizaje automático “aprenden” qué pesos calcular, dado un conjunto de datos de entrenamiento).

Sin embargo, cuando entrenamos un algoritmo de aprendizaje, proporcionamos el entorno (conjunto de entrenamiento) para que el algoritmo “converja”. Este conjunto de entrenamiento es muy específico para una tarea en particular. El conjunto de datos de entrenamiento para nuestro ADN es mucho más amplio en el sentido de que las demandas de rendimiento semi-caóticas, espontáneas y dinámicas de la naturaleza nos obligan no solo a “converger” a tareas particulares sino también a “divergir” o “elegir” entre las opciones según la situación. . Recuerde que es un ser humano, al final del día, quien etiqueta el objetivo para el aprendizaje supervisado. Las etiquetas “significativas” son, por lo tanto, subjetivas a la experiencia humana. Quizás, esto es lo que causa la mayor parte de la separación no lineal de clases y la razón por la cual necesitamos los modelos de Redes Neurales biológicamente inspirados para manejar los prejuicios en el aprendizaje supervisado etiquetado por humanos.

Los avances en RNN y CNN que se alimentan con datos de video, se están entrenando esencialmente en secuencias de información en lugar de imágenes estáticas. Si construimos un aprendizaje de refuerzo en un agente como ese, también podríamos aterrizar con un modelo que supere el entrenamiento previsto, tomando efectivamente su propia decisión para obtener la máxima recompensa posible. Dicho esto, todavía estaría restringido a un dominio específico y es posible que nunca podamos replicar el tipo de “aprendizaje” diverso que el ADN ha experimentado a lo largo de los siglos.

Por lo tanto, para concluir, los grandes datos no pueden superar a Big Bang en su búsqueda de un orden superior.

Algunos antecedentes.

Otros “tipos de inteligencia” en la naturaleza:

  • Los chimpancés vencieron a los humanos en la memoria de trabajo.
  • La IA moderna se cruza con la evolución a las 4:00 en esta demostración:
  • Limo moho inteligencia sin neuronas.

Aprendizaje de refuerzo en acción:

El algoritmo se entrena para cavar un túnel a través de ladrillos para maximizar su puntaje; quizás el comienzo de la “toma de decisiones en IA” que podría conducir a patrones “sorpresa”.

Si quiere decir AI, hacer máquinas tan inteligentes como los humanos, entonces no sabemos cuál es el mayor problema no resuelto. Esto se debe a que AI es una búsqueda de una respuesta. Nadie sabe todavía cómo construir IA de nivel humano, por lo que no podemos señalar nada y decir con certeza que es lo que falta.

Confieso que en 1901 le dije a mi hermano Orville que el hombre no volaría durante cincuenta años … Desde entonces, he desconfiado de mí mismo y he evitado todas las predicciones. – Wilbur Wright

En 1903, solo 2 años después de su comentario a su hermano, su avión tomó su vuelo histórico. Nadie sabe dónde estamos realmente en el camino de hacer máquinas tan inteligentes como los humanos, al igual que Wilbur Wright no sabía lo cerca que estaban de hacer máquinas que vuelan como pájaros. Duplicar la biología es un asunto complicado.

Estos problemas se resuelven mediante conjeturas educadas y mucho trabajo duro experimentando y buscando para encontrar lo que funciona y lo que no. Perseguimos callejones sin salida hasta que un camino funciona. La mayoría de las personas que dedican su tiempo y energía a trabajar en IA tienen grandes esperanzas y sueños de resolver el problema en el que están trabajando. Aquellos que no tienen esas expectativas no tienden a dedicar su tiempo a la IA.

Cuando solicitamos suposiciones educadas sobre cuán lejos estamos, obtenemos muchas respuestas muy positivas de un lado (casi lo hemos resuelto) y muchas respuestas negativas del otro (ni siquiera estamos cerca ) Puede preguntar a 100 personas conocedoras y obtener 100 respuestas diferentes, y todos, uno de ellos, están seguros de que su respuesta es la correcta.

Personalmente, soy una de las personas en el equipo muy positivo. Creo que estamos en el punto de 1901 en el camino hacia la IA a nivel humano. Pero mis creencias se basan honestamente en mis conjeturas educadas, no en hechos. Ninguno de nosotros sabe dónde está la línea de meta, al igual que Wilbur Wright no sabía que su línea de meta estaba a solo 2 años de distancia.

Creo que la línea de meta será una máquina de aprendizaje de refuerzo de propósito general fuerte que funciona bien en entornos complejos en tiempo real. Este es el tipo de algoritmo en el que el grupo de Google, Deep Mind en Londres, ha estado trabajando y que recibió el nombre de Deep Reinforcement Learning porque aprovecha las grandes redes neuronales de múltiples capas para resolver problemas de aprendizaje de refuerzo (aprender de las recompensas).

Si este tipo de máquina ES la respuesta al problema de IA que hemos estado persiguiendo, entonces puedo decir lo que falta. Lo que falta en los diseños actuales es que hacen un trabajo muy pobre para comprender cómo cambian las cosas con el tiempo. Los algoritmos actuales se han centrado más en problemas similares al reconocimiento de rostros en una fotografía fija y han logrado resultados que coinciden con los humanos para problemas que pueden desglosarse en paquetes de datos estáticos, como analizar una fotografía o analizar un tablero de juego estático y elegir el mejor siguiente movimiento.

Lo que los algoritmos actuales aún no hacen bien es analizar flujos de datos sensoriales de gran ancho de banda en tiempo real como datos de video que conducen el comportamiento en tiempo real, como un robot caminando.

Los algoritmos actuales funcionan muy bien con lo que llamamos datos espaciales (cómo se relacionan entre sí los píxeles de una imagen), pero muy mal con los datos temporales (cómo cambian los datos con el tiempo).

Arreglar estos algoritmos para manejar el tiempo no es un gran problema. Es por eso que creo que estamos en el punto de IA de 1901 (solo unos pocos años hasta la línea de meta).

Los algoritmos actuales nos dicen cómo responder a los datos (el mejor movimiento para esa posición en el tablero de juego es X), pero lo que necesitamos son algoritmos que nos digan CUÁNDO responder: levante el pie AHORA. Necesitamos versiones modificadas de los algoritmos que funcionen mejor en tiempo real; todavía no entienden TIME tan bien como lo necesitan.

Entonces, desde donde me siento, esa es la respuesta. El único gran problema sin resolver que queda para darle a nuestras máquinas inteligencia a nivel humano es modificar estos algoritmos de aprendizaje de refuerzo profundo espacial, para que funcionen tan bien con problemas basados ​​en el tiempo, como ya lo hacen, con problemas espaciales.

Espero ver estos algoritmos emergiendo de los laboratorios en solo unos pocos años.

Pero si mi suposición educada de que un algoritmo de aprendizaje de refuerzo profundo es todo lo que necesitamos para terminar este trabajo es incorrecta, entonces nos vemos obligados a regresar al tablero de búsqueda en busca de la siguiente respuesta. Pero no creo que me equivoque.

Hay muchos problemas de investigación no resueltos en el aprendizaje automático. Por ejemplo, todavía no sabemos por qué algunas configuraciones de redes neuronales profundas funcionan en algunos casos y no en otros, y mucho menos tener un enfoque más o menos automático para determinar las arquitecturas y los hiperparámetros.

Sin embargo, creo que hay un problema práctico aún más importante para el aprendizaje automático: no tenemos un catálogo bien documentado de patrones de diseño para sistemas ML. Tener una herramienta de este tipo permitiría a muchos profesionales de ML comenzar rápidamente y usar reglas generales al abordar problemas comunes. También creo que ayudaría al campo al establecer un punto de partida sólido sobre el cual construir.

Los humanos y los animales hacen algo extremadamente útil sobre la prosodia que no entendemos completamente. La forma en que generalizamos la experiencia explota inexactitudes gigantes en la percepción y la abstracción para crear modelos holísticos altamente confiables.

En resumen, proyectamos metáforas incompletas sobre el mundo que percibimos. Lo hacemos tan intensamente que constantemente percibimos mal nuestro entorno. Pero de alguna manera esto nos permite centrarnos en elementos con la mayor relevancia.

Esto difiere del tipo de cadena de estructuras previas que subyacen a los complacientes de la multitud, como Bayes, en que casi todos los datos que encontramos no desperdiciamos tiempo computando y nuestro modelo está construido principalmente a partir de distorsiones internas en lugar de datos externos.

Si queremos que la IA sea capaz de PENSAR, necesitamos resolver este problema. Pero, dado que la forma en que pensamos depende tanto de las distorsiones, probablemente deberíamos elegir no resolverla. Es bueno obtener información confiable rastreable a cosas reales en el mundo.

Con frecuencia recordamos las cosas de manera que socavan profundamente su utilidad. Estamos seguros de que la tienda de donas estaba en la esquina de la calle X e Y, pero lo que estamos recordando es una tienda de rosquillas en una ciudad diferente en una esquina con un nombre similar combinado con una almohada en una ventana con forma de dona. Pero cuando queremos una almohada con forma de dona después de no encontrar la tienda de donas, podemos encontrar la almohada porque nos lo recordamos cuando buscamos la tienda de donas y no eliminamos toda la rama de datos cuando no pudimos encontrar la tienda de donas.

Algo sobre estar enraizado en uno mismo permite que este descuidado mecanismo resuelva grandes problemas.

No quiero que una IA procese información como esa.

Específicamente, es la parte ‘I’ de AI que es el escollo. Realmente no podemos definir adecuadamente la inteligencia de una manera operativa. La prueba de Turing es linda y filosóficamente satisfactoria, pero combina ser “humano” con ser “inteligente” y, por lo tanto, es un poco autodestructivo. Ya sabemos cómo crear humanos. El objetivo es crear inteligencia sin el envoltorio humano.

En mi opinión, hay un obstáculo tecnológico que debemos superar y que es un “problema”, aunque no en el sentido en el que se pregunta:

El cuello de botella de von Neumann es un verdadero obstáculo que limita la forma en que construimos sistemas de inteligencia artificial.

Me gustaría ver una nueva arquitectura que combine memoria y procesamiento y respete la importancia del ancho de banda. Hay una variedad de cuellos de botella y otros elementos de diseño heredados que dificultan el progreso.

Socialmente, sería útil si pudiéramos lograr que todos se unieran para crear una infraestructura global segura con la capacidad de agrupar recursos de manera rápida y completa. Eso requeriría cambios en la arquitectura de la red para reducir la latencia y el ancho de banda radicalmente (por órdenes de magnitud).

Mientras estoy en ello, necesitamos comenzar a diseñar cosas ‘abiertas’. Tenemos nuestro problema con IPv4 debido a una limitación incorporada que era completamente innecesaria.

Cada vez que incorporamos una limitación, nos encontramos con lo inesperado que lo convierte en un problema. Todo lo inesperado es que no puedes esperarlo. La única forma de terminar el choque con un límite es prescindir del límite.

Creo que la mejor manera de entender todas las cosas que le falta a la IA es describir una situación de ejemplo único que reúna una variedad de habilidades cognitivas que los humanos suelen dar por sentado . Los métodos contemporáneos de IA y aprendizaje automático (ML) pueden abordar cada habilidad de forma aislada (en diversos grados de calidad), pero la integración de estas habilidades sigue siendo un objetivo difícil de alcanzar.

Imagine que usted y sus amigos acaban de comprar un nuevo juego de mesa , uno de esos complicados con un tablero elaborado, todo tipo de piezas, barajas de cartas y reglas complicadas. Nadie sabe cómo jugar, así que saca el folleto de instrucciones. Eventualmente comienzas a jugar. Algunos de ustedes pueden cometer algunos errores, pero después de algunas rondas, todos están en la misma página y al menos pueden intentar ganar el juego.

¿Qué implica el proceso de aprender a jugar este juego?

  1. Análisis del idioma: el jugador que lee el libro de reglas debe convertir los símbolos en lenguaje hablado. Los jugadores que escuchan las reglas que se leen en voz alta tienen que analizar el idioma hablado.
  2. Reconocimiento de patrones: los jugadores deben conectar las palabras que se leen en voz alta con los objetos del juego. El “dado de doce lados” y el “soldado rojo” deben identificarse en función de las claves lingüísticas. Si el folleto de instrucciones tiene ilustraciones, éstas deben coincidir con los objetos del mundo real. Durante el juego, los jugadores deben reconocer yuxtaposiciones de piezas y cartas, y secuencias clave de eventos. Los buenos jugadores también aprenden a reconocer patrones en el juego de los demás, creando efectivamente modelos de los estados mentales de otras personas .
  3. Control motor: los jugadores deben poder mover piezas y cartas a sus ubicaciones correctas en el tablero.
  4. Seguimiento de reglas e inferencia de reglas: los jugadores deben comprender las reglas y verificar si se han aplicado correctamente. Una vez que se han aprendido las reglas básicas, los buenos jugadores también deberían poder descubrir reglas o tendencias de nivel superior que les ayuden a ganar. Tales inferencias están fuertemente relacionadas con la capacidad de modelar las mentes de otras personas. (Esto se conoce en psicología como teoría de la mente).
  5. Etiqueta social: los jugadores, como amigos, deben ser amables entre sí, incluso si algunos jugadores cometen errores o interrumpen el proceso. (Por supuesto, sabemos que esto no siempre sucede).
  6. Manejo de interrupciones: si suena el timbre y llega la pizza, los jugadores deben poder retirarse del juego, tratar con el repartidor y luego volver al juego, recordando cosas como a quién le toca el turno.

Ha habido al menos algún progreso en todos estos subproblemas, pero la explosión actual de AI / ML es principalmente el resultado de avances en el reconocimiento de patrones. En algunos dominios específicos, el reconocimiento de patrones artificiales ahora supera a los humanos. Pero hay todo tipo de situaciones en las que incluso el reconocimiento de patrones falla. La capacidad de los métodos de IA para reconocer objetos y secuencias aún no es tan sólida como el reconocimiento de patrones humanos.

Los humanos tienen la capacidad de crear una variedad de representaciones invariables . Por ejemplo, los patrones visuales se pueden reconocer desde una variedad de ángulos de visión, en presencia de oclusiones y en situaciones de iluminación muy variables. Nuestras habilidades de reconocimiento de patrones auditivos pueden ser aún más impresionantes. Las frases musicales se pueden reconocer en presencia de ruido, así como grandes cambios en el tempo, tono, timbre y ritmo *.

Sin duda, la IA mejorará constantemente en este dominio, pero no sabemos si esta mejora irá acompañada de la capacidad de generalizar representaciones previamente aprendidas en contextos novedosos.

Ningún jugador de IA actualmente existente puede analizar una oración como “Este juego es como Settlers of Catan, pero en Space”. El análisis del lenguaje puede ser el aspecto más difícil de la IA. Los humanos pueden usar el lenguaje para adquirir nueva información y nuevas habilidades, en parte porque tenemos una gran cantidad de conocimientos básicos sobre el mundo. Además, podemos aplicar este conocimiento de fondo de maneras excepcionalmente flexibles y dependientes del contexto, de modo que tengamos una buena idea de lo que es relevante y lo que es irrelevante .

La generalización y la reutilización de los viejos conocimientos son aspectos de una capacidad más amplia: la integración de múltiples habilidades . Puede ser que nuestros enfoques actuales no se parezcan lo suficiente a la inteligencia biológica como para que la integración a gran escala ocurra fácilmente.

Un tipo conocido de desafío de integración se conoce con el nombre del problema de conexión a tierra del símbolo. Este es el problema de cómo los símbolos (como los símbolos matemáticos o las palabras en un idioma) se relacionan con los fenómenos perceptivos: imágenes, sonidos, texturas, etc. **.

En términos generales, los métodos artificiales son de dos tipos: simbólicos y sub-simbólicos . Los métodos simbólicos se utilizan en IA “clásica” o “buena pasada de moda”. Pueden ser muy útiles para situaciones deterministas basadas en reglas como el juego de ajedrez (pero generalmente tenemos que codificar las reglas de antemano). El procesamiento simbólico funciona bien cuando los humanos hacen la puesta a tierra del símbolo de antemano. No es tan bueno para tratar directamente con entradas ‘en bruto’ en forma de luz, sonido, textura y presión.

En el otro extremo tenemos métodos sub-simbólicos como las redes neuronales (de las cuales las redes de aprendizaje profundo son un tipo). Estos métodos funcionan con versiones digitalizadas de entradas sin formato: píxeles, archivos de sonido, etc. Los métodos sub-simbólicos son excelentes para muchas formas de reconocimiento y clasificación de patrones, pero no tenemos métodos confiables para pasar de las etiquetas de categoría a los símbolos que se manipulan de manera basada en reglas.

En resumen, la clave para comprender la magnitud del problema de inteligencia artificial requiere apreciar que la inteligencia consiste en mucho más que el reconocimiento de patrones. Lo que se necesita es la capacidad de vincular patrones de forma bidireccional con representaciones simbólicas, de modo que el pensamiento lingüístico y basado en reglas pueda ocurrir en agentes encarnados que interactúan con el mundo real en tiempo real.


Otras lecturas

* Para obtener más información sobre el concepto de representaciones invariantes, consulte lo siguiente:

La respuesta de Yohan John a ¿Cuáles son algunos de los problemas más importantes en la neurociencia computacional que podrían afectar drásticamente nuestra percepción del cerebro y su funcionamiento? ¿Tenemos una idea de cómo atacar tales problemas?

Este ensayo que escribí cubre el concepto general de invariancia, que también se conoce como simetría:

3quarksdaily: Science: the Quest for Symmetry

** Para más información sobre el concepto de conexión a tierra de símbolos, vea esta respuesta:

La respuesta de Yohan John a Con respecto a la cognición y la semiosis, ¿es la tierra una condición necesaria para el significado?


Fuente de la imagen: StarCraft: The Board Game – Brood War Expansion

Mientras que Deep Learning identifica a una persona en varias fotos, a lo que vinculamos el nombre de esta persona; y DL también identifica objetos y animales (a los que vinculamos un sustantivo), eventualmente, no solo los sustantivos comunes y los sustantivos propios necesitan estar vinculados a imágenes, sino también adjetivos, adverbios y verbos. Eso es lo que falta.

El formato que indica el conocimiento de un sustantivo podría ser:

SI (una imagen) ES IGUAL (un nombre propio o un nombre común) LUEGO PLACER X.

Del mismo modo para los adjetivos, necesitamos lo siguiente de DL y otras máquinas de detección. Muchos adjetivos que describen el color (negro, azul, amarillo, rojo, blanco, oscuro, pálido, pastel, etc.), tamaño (pequeño, pequeño, mediano, grande, enorme, etc.), forma (redondo, cuadrado, triangular, agudo , delgadas, gordas, etc.), texturas (duras, suaves, ásperas, lisas, pegajosas, resbaladizas, etc.), temperatura (frío, cálido, caliente, ardiente, etc.), peso (pesado, ligero, etc.) , la posición (horizontal, vertical, inclinada, flotante, etc.) debe estar vinculada a una imagen o una sensación táctil como esta:

SI (una imagen o una sensación de tacto) ES IGUAL (un adjetivo) LUEGO PLACER X.

Muchos adverbios como delante, detrás, derecha, izquierda, arriba, abajo, arriba, abajo, lejos, cerca, más grande, más pequeño, etc., deben estar vinculados a las imágenes y estar representados en el siguiente formato:

SI (una imagen de dos objetos) IGUAL (un adverbio) LUEGO PLACER X.

Muchos verbos como caminar, correr, trotar, saltar, deslizarse, rodar, golpear, trepar, etc., deben relacionarse con algunas imágenes de la siguiente manera:

SI (una imagen, pocas imágenes o un video de un objeto en movimiento en relación con otro objeto) ES IGUAL (un verbo) ENTONCES PLACER X.

Inicialmente, todas estas imágenes pueden ser simples y pequeñas, sin detalles, como en los dibujos animados para niños.

La máquina aprende un CONOCIMIENTO cuando crea una de las relaciones anteriores. Lo hace cuando ve una imagen y escucha un sonido al mismo tiempo. Además, fortalece un CONOCIMIENTO al aumentar la intensidad X cada vez que vive el mismo evento simultáneo de ver y escuchar las mismas dos piezas de información.

Cuando DL pueda lograr lo anterior en tiempo casi real, el modelo descrito en el libro de Andre Mainville (Creación de Inteligencia Artificial Emocional, 2017) ayudará a construir una máquina con IA general.

Hola

Sin embargo, tenga en cuenta que tales peligros potenciales pueden medirse bastante lejos de los EE. UU. Sin demora. Ha habido una inclinación dentro de la prensa para hacer explotar esto fuera de proporción para llamar la atención. Puede dañar el análisis de IA. En cambio, siempre debemos alentar el análisis hacia una mayor comprensión de estos problemas, para crear una comprensión AN que, si llega el momento en que se convierta en una cosa más concreta para agitar, preparar a EE. UU. Más alto y proporcionarle una IA más segura que respete los valores humanos.

Hablando de eso, creo que es importante cambiar la atención de los medios del susto a largo plazo de la ciencia ficción a los problemas sociales, económicos y políticos concretos y a corto plazo adicionales que el progreso en la IA puede despertar. sin embargo, nos gustaría considerar estos problemas antes de tiempo, no esperar hasta que la mayoría de los humanos sufra (por ejemplo, pierda su trabajo) mientras que algunos afortunados se vuelven súper ricos y poderosos.

La pregunta ciertamente está en el aire, pero un poco antes. La IA recibió un fuerte impulso en los últimos 5 años, por ejemplo, y mucha gente está intentando muchas cosas, especialmente ahora que la GPU impulsa una carrera hacia un nuevo mundo de posibilidades.

En realidad, es difícil mantenerse al día con la cantidad de artículos que se publican, solo sobre el aprendizaje profundo, que es un subtema, por lo que veo el período actual como floreciente con varios experimentos que luego convergerán en algunas cosas realmente nuevas (ya sea IA más general, conciencia artificial o nuevos tipos de robots como se describe en otras respuestas).

Para establecer un paralelismo, mire la lista de “mayores problemas no resueltos en matemáticas” Lista de problemas no resueltos en matemáticas – Wikipedia.

Observará que después de la explosión de nuevos métodos matemáticos hacia 1880 +/- 20, la pregunta se hace unos 10-20 años después, y que la pregunta vuelve a surgir alrededor del año 2000.

¡Todavía hay tiempo para resolver su propio mayor problema no resuelto de IA!

Emulación real del cerebro humano, es decir, la inteligencia natural.

La mayor parte de la IA actual que nos rodea, como los autos autónomos o los sistemas de reconocimiento de rostros, se basan en su totalidad en las variaciones de diferentes algoritmos de descenso de gradiente. En un lenguaje simple, durante el entrenamiento, el sistema inicialmente asumiría ciertas creencias y arrojaría un resultado y luego lo compararía con la respuesta esperada. De acuerdo con lo lejos que le falta la salida, volvería y actualizaría sus creencias en consecuencia y repetiría el proceso una cantidad loca de veces a menos y hasta que se aproxime a la salida.

Intuitivamente en lo que respecta a todas las decisiones macroscópicas de la vida, esto tiene sentido. Como pasamos por la vida, intentamos algo y vemos si funciona. Si fallamos, actualizamos nuestras creencias y probamos las cosas de manera diferente la próxima vez que enfrentemos un problema similar. Este sería un caso típico de aprender de las experiencias. Pero este enfoque podría no ser la solución para toda la inteligencia humana. Hay un nivel completamente nuevo de complejidad cuando consideramos actividades como la adquisición de habilidades, avances creativos o simplemente el poderoso subconsciente humano. Nuestra IA actual podría ser el primer paso humilde en la búsqueda de comprender la inteligencia y la inteligencia humana natural podría ser el tipo de problema que aún no hemos entendido completamente.

AI está actualmente en un estado primitivo. Todas las ciencias pasan por esto. Un gran ejemplo es la física. Antes de que Issac Newton publicara ” Principia ” en la física de 1680 tiene solo una colección de trucos, observaciones y reglas generales. Mucha gente inteligente descubría cosas interesantes sobre la naturaleza pero no había una teoría básica subyacente. La física era solo una colección desordenada.

Luego, una persona publicó un libro y de la noche a la mañana Movimiento y mecánica en la Tierra y en el sistema solar y la óptica y están unidos por la teoría y tenemos una forma matemática de llamar casi cualquier cosa. Con una teoría, Newton explicó por qué una roca pequeña y grande cae a la misma velocidad y por qué la luna gira alrededor de la Tierra. Convirtió la física en una ciencia unificada que se basa en la teoría y las matemáticas.

El problema con la IA es que es como la física pre-newtoniana. No tenemos ningún tipo de pista sobre una teoría básica, solo tenemos una solución de ingeniería creada por prueba, error e intuición. No hay una “Teoría de la inteligencia general” que carezca de todo lo que podemos hacer al escribir software que imite la inteligencia, es una forma débil. Sí, “débil” es el término que la mayoría de las personas usa para el tipo actual de IA que hacemos. Quiero decir que la IA solo está simulando inteligencia, en realidad no saben nada actual. Las suyas son solo máquinas estúpidas que usan trucos para realizar tareas que los humanos realizan por otros métodos.

Por ejemplo, un programa de juego de ajedrez no sabe nada sobre ajedrez, es simplemente hacer números y observar patrones y seguir un programa. Ese programa de ajedrez no puede jugar damas

Este es el principal problema sin resolver. Este problema NO se resolverá con un trabajo continuo en la misma línea que el trabajo actual. En otras palabras, no vemos ningún trabajo actual que conduzca a una solución. Lo que se necesita es una revolución que convierta todo el trabajo actual en su cabeza. Esto podría suceder en 20 años o podría llevar 200 años o más. Nadie lo sabe todo

Creo que hay una línea de trabajo que podría conducir a una teoría general de la inteligencia. Hay dos pistas Desearía ser lo suficientemente inteligente como para ver lo que significan:

  1. Mira la evolución. en un momento dado, los animales ni siquiera se acercaban a los inteligentes y tenían cero conciencias. Pero con el tiempo, un pequeño paso a la vez llegamos a mamíferos que en general son inteligentes y saben que son algo diferente del medio ambiente. Mi perro es incuestionablemente concienzudo y sabe que le gusta salir a pasear y tratar y odia a todos los repartidores. Si tuviéramos que aprender muy de cerca la secuencia de pasos de animales primitivos a mamíferos, podríamos emular ese proceso en software y,
  2. Cuando estamos vivos tenemos “ondas cerebrales”. Estos son probablemente el resultado de “osciladores” en el cerebro que funcionan como todos los osciladores. Se amplifican con la retroalimentación aplicada. Podemos ver que los bucles de retroalimentación son muy largos porque los períodos son largos. Hay MUCHOS de estos, tal vez parejas. Apuesto a que de estas ondas no eran 100% necesarias, el cerebro las crearía. De hecho, el término “muerte cerebral” significa que estas ondas se han detenido. Estos son tan importantes que definimos estar vivos si están presentes, pero sabemos muy poco sobre ellos.

Estudiar el n. ° 1 podría conducir a una comprensión del n. ° 2. Creo que la evolución primero crea estas ondas para hacer la locomoción. Los gusanos se mueven con movimientos rítmicos. Más tarde, este tipo de conducción se utilizó para el olfato, la visión y muchos otros fines. La IA actual no es nada como esto. Cuando comprendamos esto, podríamos parecer que la física fue después de Newton.

¡Creo que es la toma de decisiones!

No es que no podamos crear o no tengamos algoritmos capaces de manejar una situación simple como evitar matar al máximo número de personas en un choque. La cuestión es que la ética de la situación complica el asunto mucho más allá de nuestros sueños más salvajes.

Solo piense en una situación en la que la IA en un automóvil sin conductor debe elegir entre salvar al pasajero o a las personas en la calle. ¿A quién deberían salvar? ¿Deberían atropellar a más de 10 escolares cruzando la calle para salvarte o sacrificarte para salvarlos? No importa cómo resuelva este asunto, tarde o temprano se encontrará con el problema más grande.

¿Cuál es ese problema? Bueno, estamos tratando de construir AI de Propósito General que actualizará sus propios códigos. Eso agrega una capa adicional de problemas al algoritmo de toma de decisiones del que estábamos hablando anteriormente. La situación del accidente automovilístico es solo un caso muy insignificante para examinar dichos problemas. Considere los tipos de soluciones y sugerencias que podría plantear una IA para resolver los problemas que le pedimos que aborde.

En este momento, a menudo es controvertido hablar sobre algo como un primer ataque nuclear para la resolución de conflictos. ¿Qué sucede cuando nuestra estrategia y nuestra toma de decisiones se rigen por los aportes de las IA que nos aseguran que borrar el país X del mapa maximiza las probabilidades de supervivencia de la raza humana? ¿Deberíamos escucharlo? Si no es así, ¿por qué molestarse en construir una IA poderosa para consultas? Si confiamos en su poder de toma de decisiones, ¿estamos listos para ser tan despiadados como ellos quieran que seamos?

Para mí, este es uno de los mayores problemas de IA para resolver. El mayor problema aquí es que mucha gente comienza a decir cosas como ” Oh, no, pero haremos X / Y / Z para que la IA no haga o diga cosas así “. El problema con tal razonamiento está en dos pliegues:

  • Eso contradice la idea de tener una IA que explote su inteligencia superior para programarse. Si no está permitiendo que la IA maneje las actualizaciones, entonces la está paralizando. Eso derrota el propósito de tenerlo en primer lugar.
  • Si logras manipular la IA de una manera que solo responda preguntas dentro de una banda muy estrecha de respuestas aceptables para ti, ¿no la estás limitando en un sentido importante? Por favor considere lo siguiente:

Es un diseño de una IA optimizada para un vehículo automotor. Si bien todos los diseñadores humanos siguieron algunas reglas fijas y terminaron creando diseños muy similares, esta IA terminó resolviendo el problema utilizando una solución de diseño bastante extraña. ¡El punto es que funciona! No habría sido posible si le hubiéramos pedido a los diseñadores humanos que primero establecieran límites duros en la libertad de pensamiento de la IA. Eso habría resultado en una IA que intentaba adoptar las limitaciones humanas y, por lo tanto, la misión de sintetizar una mejor inteligencia era inútil.

En resumen, diría que la simple tarea de decidir entre las cosas es uno de los grandes problemas que enfrentan las IA. Imagine que enciende su inteligencia artificial súper inteligente y le pide que resuelva el problema del calentamiento global y le dice que la mejor solución, o incluso la única solución, es deshacerse del Homo Sapiens. ¿Que haces entonces?

Para mí, el problema central con la IA no está relacionado con la arquitectura, sino con el contenido. Teóricamente, podríamos crear una IA fuerte con solo aplicar un árbol binario muy (muy) extenso, si supiéramos lo que estábamos haciendo y si pudiera ser físicamente posible nuestra ingeniería actual, lo que no es así. Por lo tanto, el problema es: ¿cómo lleva millones de años de evolución, si no miles de millones, comprimir información dentro del cerebro humano, incluida la información proveniente de nuestra cultura, y convertirla a una forma algorítmica (sin importar la forma) y en un tiempo razonable?

Si la única solución es construir un modelo de realidad casi perfecto, o esperar una tecnología hipotética como el “escáner cerebral”, entonces las cosas pueden ser difíciles para nosotros. En cualquier caso, no creo que debamos crear un modelo perfecto del cerebro humano para lograr una IA fuerte, como tampoco necesitamos crear un modelo perfecto de un pájaro para construir un avión. Creo que hay un umbral crítico después del cual la IA podrá “caminar con sus propias piernas” y, finalmente, convertirse en una IA fuerte. En otras palabras, creo que el desarrollo de Super AI seguiría un progreso similar a este (ignore el lapso de tiempo, por supuesto, y recuerde que es demasiado simplista):

  1. IA primitiva (lo que tenemos hoy, centrado en la IA estrecha)
  2. Desarrollo de AGI (la arquitectura, que puede ser de cualquier tipo, no importa)
  3. AGI aprende a través del aprendizaje supervisado, a veces tan “supervisado” que no es diferente de “programación”; sacará provecho del progreso realizado en Narrow AI
  4. … algo sucede aquí (mucho tiempo o algún avance, por ejemplo) …
  5. AGI alcanza el nivel crítico de información y se vuelve capaz de comunicarse con los humanos de una manera eficiente, pero aún primitiva; ahora es capaz de “enseñarse” para muchas tareas simples e incluso algunas complejas
  6. El nivel de abstracción de AGI aumenta y ahora puede comunicarse con los humanos de una manera muy buena, aumentando aún más su capacidad para resolver problemas
  7. La información acumulada de AGI ahora es comparable a la cantidad presente en el cerebro humano; oficialmente se convierte en IA fuerte
  8. La IA fuerte continúa creciendo (y al crecer puede significar incluso físicamente, a través de la robótica, por ejemplo)
  9. La IA fuerte ahora es demasiado compleja e incluso las mejores mentes no pueden entender lo que está haciendo, pero en términos muy abstractos, como el cerebro humano.
  10. La IA fuerte aprende cada vez más rápido
  11. La IA fuerte se convierte en súper IA

Por lo tanto, en mi opinión, el problema de la IA no tiene nada que ver con el problema de la mente o las preguntas filosóficas como “¿cómo se resuelve la conciencia?”. Todo se reduce a información, imitación y problemas secundarios como las limitaciones del hardware. De esta manera, por lo tanto, el problema más difícil, según lo veo, es cómo desarrollar una estructura AGI eficiente y, más que esto, cómo ingresar suficiente conocimiento crítico en ella (sin posibilidad de ingeniería dura) hasta que sea lo suficientemente capaz de comunicarse con nosotros de manera eficiente, incluso en forma primitiva. Después de esta barrera, todos los demás problemas relacionados con la IA estrecha y los problemas secundarios podrían relegarse cada vez más al AGI (incluidos los problemas relacionados con las limitaciones del hardware), hasta el punto en que su complejidad supere lo que razonablemente podemos entender.

Creo que lo más difícil para AI es no resolver ningún problema sobre predicción, estadísticas, comparación, clasificación, jugar videojuegos o conducir automóviles.}

Creo que una IA real es aquella que aprenderá lo que es aprender y desarrollará su propia red neuronal en torno a este tema, en lugar de limitarse solo a lo que pretendían los programadores.

Por ejemplo, los humanos tienen la capacidad de tener temas preferidos, yo, por ejemplo, me encuentro mirando foros de automatización y foros militares, otras personas buscan recetas de comida, sugerencias de viaje, personas famosas, etc., si el objetivo de la IA es tener un comportamiento similar a los humanos, lo primero que debe hacer la IA es elegir su propio tema de aprendizaje.

Apuesto a que las redes neuronales se pueden construir / programar para resolver problemas muy específicos, sin importar si es una tarea fácil o la más difícil, pero se limitan a ese problema de especificidad.

More Interesting

Tengo dos ideas específicas en el campo de la Inteligencia general artificial y deseo publicar artículos sobre ellas. ¿Dónde empiezo?

Estoy interesado en aprender sobre los conceptos básicos de la inteligencia artificial, ¿hay algún lugar en particular en el que deba comenzar?

¿Tendremos inteligencia artificial y nanobots súper avanzados en el futuro?

¿Para qué problemas podría usarse la Inteligencia General Artificial (IA fuerte)?

Cómo hacer investigación de IA de forma independiente sin la universidad

¿Cuál es su punto de vista sobre el desastre como la inteligencia artificial?

¿Se creará inteligencia general artificial que rivalice con la inteligencia humana dentro de 50 años?

Sé que es solo una teoría en la actualidad, pero ¿qué tan poderosa sería una inteligencia artificial adecuada? ¿Sería capaz de tener emociones o se limita a los cócteles químicos en un cerebro físico?

¿Cuáles son los buenos dispositivos o aplicaciones de inteligencia artificial en India?

¿Hasta qué punto la inteligencia artificial depende de la neurociencia computacional hoy en día?

Para alguien completamente nuevo en el mundo de la programación, ¿sería Python un punto de acceso viable si la persona pretende sumergirse en la inteligencia artificial?

¿Quién es el líder en inteligencia artificial?

¿Cómo los sistemas generales de inteligencia artificial como los de Deepmind persisten 'recuerdos' a largo y corto plazo respectivamente?

¿Crees que la inteligencia en un entorno académico es igual o diferente de la inteligencia en un entorno de trabajo? ¿Diferiría la inteligencia para un estudiante universitario adulto joven en comparación con un adulto mayor que no está en la escuela?

¿Qué no puede hacer la inteligencia artificial?