Inteligencia artificial: ¿Cuáles son algunas áreas prometedoras de la investigación de IA que no están orientadas al aprendizaje automático?

Los enfoques actuales de AI y ML son de naturaleza estadística y no pueden generar modelos o descubrir mecanismos causales a partir de datos (a veces los científicos ayudan con AI y ML pero nit AI o ML, y las personas se confunden creyendo que es AI o ML).

Las tendencias y los métodos, incluido el aprendizaje profundo, son enfoques de caja negra que funcionan increíblemente bien para describir datos pero proporcionan poca o ninguna comprensión de los mecanismos de generación. Como consecuencia, tampoco pueden ser escalables a dominios para los que no fueron entrenados, y requieren toneladas de datos para ser entrenados antes de hacer algo interesante, y necesitan capacitación cada vez que se les presentan (aunque sea ligeramente) datos diferentes .

Con suerte, AI y ML se incorporarán más a los enfoques basados ​​en modelos, dejando atrás las estadísticas tradicionales e incorporando los primeros principios universales algorítmicos. Esto significa impulsar la ciencia fundamental en lugar de simplemente lanzar más recursos computacionales para resolver todo como lo hacen la IA y el ML actuales.

Los ejemplos anteriores potentes de enfoques basados ​​en modelos incluyen el modelado de ecuaciones diferenciales, pero esos enfoques también han carecido de los mecanismos para explorar y actualizar (y por lo tanto mejorar y escalar) modelos y, por lo tanto, lo que se necesita son enfoques fuertes basados ​​en el ciclo de datos de modelo. Afortunadamente, estamos avanzando en esa dirección, aquí nuestro enfoque orientado a la causalidad basado en la inferencia computacional dinámica:

Un cálculo de información algorítmica para el descubrimiento causal y los sistemas de reprogramación

Y aquí un video explicando el método:

Al principio, los resultados pueden parecer menos impresionantes en comparación con las noticias sobre el aprendizaje profundo (DL) que golpea a los humanos en Go, etc. Y hay razones para estar entusiasmado con eso, ya que DL es una herramienta muy poderosa para extraer y analizar datos. El DL eventualmente se incorporará al conjunto de herramientas que los científicos de datos aplicarán por defecto, al igual que las personas hacen análisis de regresión lineal (DL es en realidad un análisis de regresión con esteroides). Sin embargo, los científicos fundamentales continúan empujando desde la dirección opuesta hacia el modelado y la comprensión en lugar de reducir los números de los datos.

Por ejemplo, el documento anterior muestra cómo un motor puede generar modelos casi óptimos a partir de observaciones naturales o inducidas para crear mecanismos generadores que reproduzcan el sistema que a su vez reproduzca los datos, proporcionando así una comprensión profunda de las causas y los medios de dirección para manipularlos. , algo que queremos hacer si queremos, por ejemplo, curar enfermedades en lugar de tratarlas, por mencionar solo un ejemplo. En este otro artículo, una aplicación del método anterior podría modelar aspectos de la evolución natural que han permanecido misteriosos (por ejemplo, explosiones de diversidad, la aparición de genes, etc.) y también pueden acelerar los algoritmos evolutivos naturales y artificiales:

[1709.00268] Las mutaciones algorítmicamente probables reproducen aspectos de la evolución, como la tasa de convergencia, la memoria genética, la modularidad, las explosiones de diversidad y la extinción en masa.

Este video también muestra cómo ha impactado la investigación sobre la cognición:

El aprendizaje automático como está presente actualmente en las noticias se centra principalmente en las redes neuronales. Este es solo un enfoque para el aprendizaje basado en casos principalmente supervisado. Con el advenimiento de computadoras poderosas ampliamente disponibles, memoria y almacenamiento económicos, comunicaciones de gran ancho de banda y grandes colecciones públicas de información, este enfoque se ha vuelto enormemente exitoso para resolver muchos problemas.

La inteligencia artificial es un campo amplio. Explora la reproducción computacional de cualquier capacidad que asociemos con seres inteligentes y conscientes. Con el tiempo, las exploraciones de algunas de estas capacidades se han convertido en campos completos de estudio propios, pero aún son parte y necesarias para la empresa de inteligencia artificial. Esta empresa tiene muchas versiones, tal vez tantas versiones como profesionales. La versión que encuentro más interesante y estimulante puede llamarse IA “fuerte”: en mi formulación, es la intención de demostrar una comprensión de lo que significa ser humano y vivo a través de sistemas computacionales que comprenden y exhiben estas características.

Algunas áreas que forman parte de esta exploración incluyen: lenguaje natural, diálogo, argumentación, razonamiento (especialmente con información parcial), emociones, comprensión de la historia, aprendizaje, creatividad en las artes y STEM, intuición, planificación, existencia física, conciencia, creencia, política, economía, interacción social y memoria.

El área de existencia física es mi taquigrafía para todas esas cosas con las que un ser inteligente trata como parte de tener cuerpo y sentir, actuar y reaccionar mediante la encarnación del mundo físico y otros seres encarnados. La robótica incluye muchas de estas preocupaciones, tales como: visión, tacto, audición, olor / olor, movimiento de las extremidades, locomoción, producción de sonido (habla, música, expresiones que no son del habla, como la risa y el llanto) y la comprensión de objetos (por ejemplo, reconocimiento facial , comprensión de la escena).

La empresa de inteligencia artificial nunca se completará; siempre habrá más para saber sobre lo que significa ser humano y cómo crear sistemas que reflejen a la humanidad.

Me encanta el aprendizaje automático, pero hay muchas otras áreas importantes en la IA.

Una de esas áreas es el razonamiento probabilístico en modelos gráficos y otras distribuciones. Un modelo gráfico probabilístico es una forma compacta y conveniente de definir una distribución de probabilidad sobre muchas variables aleatorias. Estos modelos son ampliamente utilizados en el aprendizaje automático, el procesamiento del lenguaje natural, la visión por computadora, la robótica, la bioinformática y más.

Desafortunadamente, calcular las probabilidades exactas en la mayoría de los modelos gráficos probabilísticos es # P-complete, una clase de complejidad más difícil que NP-complete. Hay mucha investigación activa sobre el desarrollo de mejores algoritmos de inferencia aproximada y la búsqueda de clases de modelos donde la inferencia exacta sea manejable. El progreso en el razonamiento probabilístico tendrá un gran impacto en los muchos campos que lo utilizan. (Algunos investigadores de aprendizaje profundo también están trabajando en esto, ya que las máquinas de Boltzmann profundas son modelos gráficos probabilísticos).

Otra área importante de la IA es la planificación . La planificación consiste en elegir acciones que conduzcan a buenos resultados. La planificación a menudo se usa en robótica, pero también tiene muchas otras aplicaciones. Por ejemplo, los investigadores en sostenibilidad computacional están utilizando la planificación para encontrar estrategias para reducir el riesgo de incendios forestales y especies invasoras.

Los sistemas de múltiples agentes exploran las interacciones entre múltiples agentes inteligentes. La investigación en esta área está conduciendo a una IA que puede jugar bien al póker, robots que cooperan y mejores estrategias de seguridad para defenderse contra el terrorismo.

¡También hay mucho más! Puede obtener más información sobre las diferentes áreas dentro de AI de AITopics.

Hay dos respuestas cortas.

1. Si no está aprendiendo, no es IA

2. Las únicas áreas de IA que están avanzando están todas en Machine Learning, más específicamente en Redes Neuronales Artificiales.

Para elaborar sobre esto: si queremos agregar conocimiento a una computadora sobre el mundo o sobre el comportamiento humano, o sobre cómo funcionan los idiomas, o cómo interpretar imágenes … la única alternativa al aprendizaje es la programación.

Y la programación no es AI. No importa cómo lo llames. Si observa el mundo (generalmente una pequeña parte de él) y analiza cómo funciona, y luego escribe un programa para hacer lo correcto en la mayoría de las situaciones en ese contexto … entonces ha hecho todo el trabajo de inteligencia: el “Reducción” completa. No queda nada inteligente que hacer por la computadora. Simplemente puede ejecutar el programa que escribió. Esto no es IA.

En la IA real, la computadora misma tiene que descubrir lo que importa y debe construir su propio modelo del mundo aprendiendo del mundo. Este “descifrar lo que importa” es el quid principal de la IA. También se conoce como “la capacidad de realizar una reducción autónoma”, una reducción “epistémica” de nuestra rica realidad a algo, un Modelo, que puede ser analizado por una computadora. Los humanos tratamos con nuestro rico mundo mundano todo el tiempo, pero las computadoras que no son de IA no pueden hacer esto. Este es el requisito mínimo para llamar a una computadora inteligente.

El mundo de la investigación de IA actualmente está abandonando el estilo de IA (programación) de creación de modelos de la vieja escuela y se está mudando a estas redes neuronales artificiales … porque de repente comenzaron a funcionar, en los últimos cuatro años. La razón de esto es triple:

– No teníamos computadoras lo suficientemente potentes antes, y el cerebro es grande por alguna razón; Necesitamos muchas neuronas para que las redes neuronales funcionen.

– No teníamos suficientes materiales de capacitación. Ahora lo hacemos Las páginas web, libros en línea, youtube y todos los sitios para compartir imágenes contienen millones de casos de capacitación. Las opiniones de los clientes de Amazon se utilizan para aprender el “análisis de sentimientos”, ya sea que una opinión sea buena o mala. Y dado que las personas etiquetan sus reseñas, es suficiente capacitarse en reseñas de 5 y 2 estrellas. (1-estrellas son a menudo despistadas e irrelevantes :-))

– Aprendimos algunos trucos, agrupados en el término “Aprendizaje profundo”. Estudia los trabajos de Geoff Hinton, Andrew Ng, Yann LeCun y Yoshua Bengio si quieres aprender sobre estos.

Para obtener más información sobre la reducción, vea los videos en la página de Syntience.com, especialmente el primero; Son 20 minutos. Y lea la página en syntience.com.

Todas las cosas que presento aquí tienen el sesgo de lo que sé debido a mi interés profesional. De ninguna manera es una lista completa.

Hoy en día hay mucho trabajo en torno a la semántica. Extraer y manipular información semántica que luego puede ser utilizada por los sistemas de inteligencia artificial para realizar tareas más flexibles. La tendencia general actual es a menudo tener esta información almacenada en la web y los sistemas pueden extraer información de ella. Puedo ser muy útil, por ejemplo, en el ámbito de los robots de servicios (un área muy activa en Europa) que evolucionan en el entorno semántico y rico de una casa. Por ejemplo, saber que una taza y un vaso se pueden usar aproximadamente para la misma tarea puede permitirle al agente descubrir cómo servirle una cerveza cuando todos los vasos están en el lavavajillas.

Otro aspecto, más un problema que se está explorando que una solución en este momento, es el problema del anclaje (Página en cmu.edu). De alguna manera se relaciona con la semántica anterior, pero va a un nivel inferior para tratar de ver cómo la entrada sensorial múltiple y ruidosa, que un agente situado percibe, puede anclarse en conceptos que luego pueden manipularse. Hay algo de ML allí, por supuesto, pero no se limita a eso, ya que tiene que estar relacionado con un conocimiento común de más alto nivel (nuevamente, la semántica que queremos que el robot comparta con nosotros).

La inferencia todavía está allí y activa también. Gran parte de la actividad actual gira en torno al modelo gráfico que está relacionado con el razonamiento probabilístico. La complejidad de los problemas de e a menudo crece muy rápidamente, lo que lo limita a problemas relativamente simples (por ejemplo, en 2006, un enfoque simple basado en la “planificación clásica” ganó la competencia que se supone que está reservada a modelos estocásticos: página en aaai.org ) Aprender la relación causal entre cada variable latente es posible (a menudo con alguna búsqueda local de EM), pero sigue siendo difícil debido a la complejidad del espacio también. Aún así, sigue siendo una herramienta muy poderosa que se usa y explora activamente con más y más avances.

Aún sobre la inferencia, se puede hacer en dominios continuos con un modelo que está lejos de ser complejo de producir: un mapa de su entorno y un conocimiento de su sistema es suficiente, el primero que podría construirse usando Localización y Mapeo Simultáneos (SLAM ) Y sea muy eficiente para encontrar soluciones que sean completas (al menos estadísticamente hablando) y óptimas (nuevamente estadísticamente). El Método de hoja de ruta probabilística (PRM) es algo que es muy activo específicamente para la planificación del movimiento del robot: ocupa un espacio continuo (su mapa, por ejemplo, pero puede ser mucho más complejo cuando se trata con el Espacio de configuración) y luego es aleatorio (aunque heurísticamente dirigido a menudo) muestreo de este espacio para buscar el camino hacia la meta. Este muestreo aleatorio permite que el espacio continuo se haga discreto y, por lo tanto, permite utilizar la teoría de grafos para encontrar “rápidamente” la solución. Es ampliamente utilizado para la navegación del robot, pero también para otros dominios inesperados como la química.

También puedo pensar en cuántas personas exploran la noción de ontología (ciencia de la información) y cómo se utiliza para proporcionar un metamodelo que luego se puede traducir en los modelos utilizados en los múltiples subcomponentes del sistema. Esto permite tener una base común para que estos componentes diversos (reconocimiento de patrones, planificación de movimiento, planificación de tareas, detección y recuperación de fallas) se comuniquen con esta ontología como un lenguaje común y, por lo tanto, eviten entrar en conflicto uno con el otro. Verá, a pesar de que muchas personas todavía prometen el “único sistema que los gobernará a todos” (aún más hoy en día, agente aunque la última vez que la gente prometió tal cosa que terminó en el invierno con IA), la cuestión es que tenemos técnicas que aparecen para trabajar mejor a diferentes dominios y utilizar diferentes formalismos (si se trata de ANN, modelos estocásticos, representación simbólica, inferencia de otro espacio continuo, …). Hacer que estos diferentes componentes funcionen juntos puede ser complicado con efectos secundarios inesperados si se observan individualmente. La esperanza es que la ontología podría ser un metamodelo que vincule estas cosas por completo. Y muestra cierta promesa hasta ahora.

a pesar de que mencioné el aprendizaje en esta lista, se trataba más de dónde lo ves como potencialmente utilizado que cualquier otra cosa. Todos estos dominios están muy activos y no dependen de ML en absoluto. El ML se puede utilizar para ayudar a construir el sistema de manera más rápida / fácil (y a menudo es con un grado variable de participación) o para permitir que se “auto-mejore” (nuevamente con diferentes niveles de éxito). Diablos, también hay mucho de eso que se relaciona con lo que la gente llama “buena vieja IA” (en realidad, la mayor parte se deriva de alguna forma). Sin embargo, estos son los ladrillos que muchas personas creen que son el camino a seguir para hacer que un robot actúe de forma autónoma (o para algunos, como los modelos gráficos, que Google usa en algunos de sus problemas). Presentan el resultado de que ninguna técnica de ML se acercó hasta ahora y, de hecho, muchos de ellos consideran el ML como una caja más para conectarse con otros para hacer que surja un sistema complejo que sea mejor que la suma de sus partes.

La IA se define ampliamente como la teoría y el desarrollo de sistemas que pueden hacer cosas que generalmente requieren inteligencia humana.

El aprendizaje automático está creando sistemas que hacen un conjunto particular de esas cosas a través del aprendizaje mediante el ejemplo (de ahí, el bit de aprendizaje).

Pero no es necesario que un sistema aprenda para que sea (o al menos parezca) inteligente. Las cosas pueden codificarse directamente, introduciendo la inteligencia humana directamente en el comportamiento de los sistemas informáticos sin que aprendan. Cosas como la visión artificial, el razonamiento, la búsqueda, la satisfacción de restricciones, la programación, etc., están tradicionalmente dominadas por los métodos de no aprendizaje en IA, y había muchos buenos métodos y teorías sobre cómo hacer estas cosas antes de que el aprendizaje automático fuera particularmente factible.

En términos más generales, cualquier cosa que le brinde a un sistema informático capacidades “similares a las humanas” sin que aprenda del ejemplo puede considerarse un aspecto de IA que no es de LD

A pesar de la exageración actual con ML, todavía hay mucho trabajo por hacer en métodos que no son de aprendizaje. Una de las propiedades clave que otras áreas de la IA han podido hacer que ML no ha hecho realmente bien todavía es el rendimiento garantizado. Se puede demostrar matemáticamente que muchos algoritmos en IA convergen, son óptimos, toman una cierta cantidad de tiempo, etc. La forma de demostrar estas cosas para los sistemas de ML sigue siendo un área de investigación abierta. Puede ser muy importante si, por ejemplo, desea garantizar que su automóvil autónomo esté seguro. Todavía no sabemos cómo hacer eso para los sistemas de aprendizaje automático (para ser justos, este tipo de problema también es muy difícil de tratar cuando se utilizan métodos que no son de aprendizaje con garantías).

Otro enfoque es el aprendizaje humano asistido por computadora. Mi enfoque consistía en desarrollar un lenguaje de patrones de comportamiento sobre cómo los sistemas naturales se desarrollan y cambian la organización.

Por lo tanto, es para ayudar a reconocer los patrones de comportamiento organizacional, como los sistemas dirigidos a expandirse organizacionalmente utilizando eficiencias, volviéndose inestables debido a una pérdida de resiliencia o “imprevisibilidad en los límites” que podría denominar ese patrón. Sin embargo, el cambio de paradigma sigue siendo un gran salto, de 1) pensar en el mundo como organizado numéricamente, en categorías que nuestra propia recopilación de datos define, a 2) pensar en la naturaleza como un comportamiento organizado, en categorías que define la propia organización de la naturaleza. Sin embargo, así es como comenzó el lenguaje natural, con palabras y categorías definidas por comportamientos reconocibles, que siguen siendo la base del lenguaje natural. Así que todavía es una forma de pensar allí para usar, si podemos encontrar cómo. Lo usamos para asuntos personales, para pensar en las relaciones y para anticipar eventos, generalmente en cualquier lugar donde aún no podemos confiar en la ciencia y la computación para explicar las cosas. Sin embargo, es necesario aprender una disciplina para usar el pensamiento conductual para reconocer y usar patrones de cambio sistémico natural.

La evidencia combinada y las pruebas de que el uso de energía requiere desarrollo organizacional es donde comencé, exponiendo el gran gran agujero en la física con respecto a la naturaleza organizacional de los fenómenos subyacentes. Quizás otras personas comiencen desde otros puntos, tal vez, pero eso condujo a un aprendizaje muy divertido para explorar las explosiones del desarrollo de sistemas emergentes que marcan el cambio en los sistemas que tienen continuidad en el tiempo.

Por lo tanto, es básicamente un nuevo campo de reconocimiento de patrones, más para el “aprendizaje humano” que para el “aprendizaje por computadora” hasta ahora. Lo que he usado computadoras hasta ahora es la “reconstrucción derivada”, para exponer las continuidades de los comportamientos de desarrollo del ruido en series de tiempo, para localizar los puntos de transformación organizacional. De esa manera, sirvió como una lupa de comportamiento para comprender lo que está sucediendo en su entorno, donde luego puede ir a recoger evidencia de confirmación.

Últimamente he estado cambiando a un enfoque de lenguaje de patrones “orientado a objetos” para describir los patrones de comportamiento que encontré para estudiar. El trabajo original fue ayudado por mi física y mi curiosidad acerca de por qué la naturaleza necesita formas de trabajo complejas y llenas de acontecimientos, bastante inconsistentes con la teoría, pero en realidad se convirtió en un método de mezclar física y diseño en la misma comunidad de diseño ambiental que surgió el lenguaje de patrones de Christopher Alexander. adentro, muy atrás entonces.

Uno de los resultados útiles es el teorema general de emergencia y continuidad en energía finita usando eventos, que puede usarse como un generador de preguntas muy fuerte para “cómo, dónde, cuándo y por qué” para los cambios importantes en el crecimiento y cambio organizacional que uno encuentra , como las bifurcaciones, que ocurren naturalmente en sistemas naturales complejos que cambian activamente. Ese teorema y las pruebas estadísticas y algoritmos para ubicar puntos de transformación organizacional en los flujos de eventos naturales fue un trabajo de los años 90.

Por lo tanto, en la actualidad todavía presenta una diversidad de experimentos, pero acumulando resultados sólidos, adoptando de alguna manera el enfoque opuesto de la IA, que uno podría llamar OI por enfocarse en mejorar la “Inteligencia Observacional”. Los dos ciertamente podrían funcionar en conjunto, por supuesto. Aun así, aunque no tiene ni la más mínima sofisticación ni disposición para implementar la IA, parece producir resultados tentadoramente útiles para comprender los sistemas naturales incontrolados y cambiantes que tienen poder sobre nuestras vidas. También podría ayudar a llenar parte de la brecha en lo que es capaz el modelado determinista. También se ve obstaculizado por el desafío de expandirse en formas informales de pensamiento para estudiar sistemáticamente patrones de comportamientos organizacionales emergentes. Eso es lo que podría llevar a las habilidades de observación humana a obtener el impulso real necesario, para que comprendamos cómo investigar en los sistemas y eventos dinámicos del mundo natural en el que ahora estamos tan centrados y en los que luchamos. Por lo tanto, necesitará algunas traducciones … pero mi antiguo trabajo se puede encontrar en línea, ya sea en 1) un archivo de investigaciones antiguas o 2) un diario de notas de investigaciones recientes, Reading Nature’s Signals.

1) Archivo: La física de los acontecimientos
2) Diario: Lectura de las señales de la naturaleza

Para ser justos, lo que hace ML no es inteligencia general. Entonces, la parte central de la IA ni siquiera se resuelve con ML. Puedo ser un poco dramático (y aún ser en gran medida exacto) al comentar que ML puede no ser parte de lo que se supone que AI debe resolver.

ML es un conjunto muy exitoso de herramientas matemáticas prácticas que pueden resolver problemas específicos con alguna noción de generalización. Pero casi no tiene poder para generalizar más allá de esos dominios problemáticos.

Para nombrar unos pocos :

Resolución de problemas (búsqueda, juegos, …)

Representación del conocimiento

Razonamiento (lógica)

Visión por computador

Modelos probabilísticos

Control de robots.