¿Cuáles son los problemas de IA más difíciles que enfrentamos?

¿Cómo se elimina “Inteligencia” de “AI”? Al construir un modelo que pueda resolver solo un problema particular muy estrecho.

Entonces, lo difícil aquí es construir modelos que puedan generalizar.

Por ejemplo, si escribimos un programa de este tipo, podemos darle dos conjuntos de problemas de prueba: un conjunto de tareas para las que realmente fue entrenado para resolver y un conjunto de tareas un poco más abstractas, con algunos elementos que no han sido visto antes.

O podemos ir hacia otro lado, enseñándole varias cosas diferentes y asegurándonos de que puede diferenciar entre ellas y no olvida cómo resolver viejos problemas después de que aprende nuevos. Es una línea de base bastante débil, pero es un muy buen lugar para comenzar.

La inteligencia es la capacidad de lidiar con situaciones desconocidas utilizando la experiencia previa de la manera más efectiva. Cuando nos referimos a personas sanas con muy poca inteligencia, podemos esperar que memoricen operaciones simples, pero no dependamos de ellas para desarrollar estrategias complejas y construir teorías. La alta inteligencia implica que, incluso si nunca antes ha visto un problema matemático, puede resolverlo construyendo analogías en su mente, lo que requiere mucha abstracción. Y la abstracción es una generalización muy extrema, que es exactamente lo que queremos.

Los detalles de las preguntas contienen una palabra que me gusta mucho en el contexto de la IA: “punto de referencia”. Otra cosa muy importante es construir una métrica confiable de cuán inteligente es su sistema. Es mucho más difícil que evaluar los algoritmos tradicionales de ML, debido al rigor que requiere el investigador. Debería verse casi como un experimento genético moderno: debe esforzarse mucho para no “contaminar” su entorno de prueba con su conocimiento previo sobre cuáles son los problemas de prueba y cómo funciona todo el sistema de prueba.

Vemos algo similar en la educación humana cuando, en lugar de adquirir conocimiento, los estudiantes se preparan para los exámenes, que no es lo mismo.

Estos dos, con mucho, son los problemas más apremiantes y difíciles en IA que aún podrían resolverse en el futuro más cercano.

Con el reconocimiento facial y el reconocimiento de expresión / gesto bajo la lente, creo que nuestro próximo gran desafío es la empatía. No es la verdadera emoción o sentimiento, sino la capacidad de una máquina para leer emociones en gestos y expresiones, y para comprender lo que es significativo para los humanos, en lugar de simplemente significativo.

El ‘Watson’ de IBM ha progresado en esta área. De hecho, el thriller de terror de inteligencia artificial “Morgan” le preguntó a IBM si podían usar a Watson para analizar el metraje de la película para generar un avance de la película. Aunque el resultado final fue refinado por un humano, el programa hizo un trabajo notable al comprender qué escenas eran tiernas, qué escenas daban miedo y cómo se podían unir para tener sentido y evocar una respuesta de los humanos.

Realmente creo que el reconocimiento emocional, y por extensión, la simulación de la emoción, es el próximo gran hito. Confío en el progreso en esta área porque hay dinero en ella. Las cámaras en las carteleras electrónicas podrían orientar anuncios a personas que parecían estar de cierto humor, por ejemplo, mostrar anuncios de seguros a personas que parecen preocupadas.

Hablando con los asistentes a una conferencia de aprendizaje profundo en Londres el mes pasado, hubo un tema recurrente particularmente notable: la humildad, o al menos, la necesidad de ello.

Mientras que compañías como Google dicen con confianza que vivimos en una “primera edad de la IA”, con el aprendizaje automático abriendo nuevos caminos en áreas como el reconocimiento de voz y de imagen, quienes están en la primera línea de la investigación de IA están ansiosos por señalar que todavía hay un Mucho trabajo por hacer. El hecho de que tengamos asistentes digitales que suenen como las computadoras parlantes en las películas no significa que estemos mucho más cerca de crear verdadera inteligencia artificial.
Primero obtienes los datos, luego obtienes la IA
Todos sabemos que la inteligencia artificial necesita datos para aprender sobre el mundo, pero a menudo pasamos por alto la cantidad de datos involucrados. Estos sistemas no solo requieren más información que los humanos para comprender conceptos o reconocer características, sino que requieren cientos de miles de veces más, dice Neil Lawrence, profesor de aprendizaje automático en la Universidad de Sheffield y parte del equipo de inteligencia artificial de Amazon. “Y si observa todos los dominios de aplicaciones donde el aprendizaje profundo es exitoso, verá que son dominios en los que podemos adquirir una gran cantidad de datos”, dice Lawrence, que da el ejemplo del reconocimiento de voz e imagen. Aquí, las grandes empresas tecnológicas como Google y Facebook tienen acceso a montañas de datos (por ejemplo, sus búsquedas de voz en Android), lo que facilita mucho la creación de herramientas útiles.
LA ESPECIALIZACIÓN ES PARA LOS INSECTOS: LA AI NECESITA SER CAPAZ DE MULTITASCA
Hay otro problema clave con el aprendizaje profundo: el hecho de que todos nuestros sistemas actuales son, esencialmente, sabios idiotas. Una vez que han sido entrenados, pueden ser increíblemente eficientes en tareas como reconocer gatos o jugar juegos de Atari, dice la investigadora científica de Google DeepMind Raia Hadsell. Pero “no hay una red neuronal en el mundo, y no hay un método en este momento que pueda ser entrenado para identificar objetos e imágenes, reproducir Space Invaders y escuchar música”. (Las redes neuronales son los componentes básicos de los sistemas de aprendizaje profundo).
ES SOLO UNA INTELIGENCIA REAL SI PUEDES MOSTRAR TU TRABAJO
Otro desafío importante es comprender cómo la inteligencia artificial llega a sus conclusiones en primer lugar. Las redes neuronales suelen ser inescrutables para los observadores. Aunque sabemos cómo se unen y la información que contiene, las razones por las que toman ciertas decisiones generalmente no se explican.

Mi conjetura es el razonamiento en el dominio de la información que llamamos “sentido común”.

Los seres humanos tienen esta base de conocimiento; Un conjunto de principios comunes que piensan que todas las personas comparten. Por ejemplo…

  • La caída puede causar una lesión.
  • Las personas heridas van al hospital
  • Los árboles son a menudo mucho más altos que las personas.
  • La gente puede trepar en un árbol.

Este conocimiento parece infantil y obvio para todas las personas. Pero interactuamos con computadoras que no tienen la comprensión más superficial de estas cosas. Y cuando esas computadoras demuestran esta falta de conocimiento, parecen profundamente tontas.

Entonces, si bien podemos interactuar con una IA y puede decirnos el evento desencadenante de la Primera Guerra Mundial, no puede explicar por qué una persona va al hospital después de caerse de un árbol.

El siguiente paso en la secuencia Chess, Jeopardy and Go es, en mi opinión, Poker. Agrega tres desafíos a los anteriores: (1) lidiar con información imperfecta / incertidumbre (¿cuáles son las cartas de los oponentes?), (2) razonamiento de segundo orden y de orden superior (creo que él piensa que creo que está faroleando), (3 ) múltiples oponentes (p. ej., ¿cómo puedo detectar al jugador más débil en la mesa y aprovecharlo?). Pero, incluso desde el póker hasta el AGI, sigue siendo un gran paso. Quizás incluso uno que no se pueda tomar.

El autoaprendizaje, que supera todo lo demás, sin duda. Este es el paso requerido para que nos convirtamos en un creador de un dios.

Todo lo que tiene el ser humano se puede aprender, desde el amor hasta la empatía, la ira y la imaginación. Yo diría que el alma también se puede aprender si existe. Entonces, si una máquina puede comenzar a aprender por sí misma, será el momento sin retorno.