¿Por qué la mayoría de las investigaciones de inteligencia artificial abandonaron la inteligencia artificial basada en la lógica en favor de enfoques estadísticos?

Para los sistemas basados ​​en el conocimiento, le interesan principalmente dos cosas: representación e inferencia. Para la representación, está tratando de representar el conocimiento del agente en algún idioma que sea lo suficientemente expresivo para sus propósitos, y el lenguaje también debe ser computacionalmente factible. Esta tarea es más difícil de lo que parece, algunas cosas son silenciosamente difíciles de representar. Para inferencia, desea que sus algoritmos de inferencia sean sólidos, completos y eficientes. La solidez significa que no debería poder inferir algo que no sea una consecuencia lógica de su base de conocimiento. La integridad significa que si algo es una consecuencia lógica de su base de conocimiento, entonces debería poder inferirlo. Algunas lógicas dificultan la inferencia. Por ejemplo, la lógica de primer orden es semi-decidible, lo que significa que nunca puede detenerse en una inferencia. Las personas evitan estos problemas utilizando un subconjunto computacionalmente factible de la lógica, pero luego pierdes algo de expresividad si haces eso. Otro sacrificio es perder algo de solidez o integridad para que las cosas funcionen. También está el problema de la ingeniería del conocimiento, que puede ser muy difícil o incluso imposible en algunos dominios. Algunas personas han decidido abandonar por completo el enfoque basado en la lógica para las dificultades que dije, así como otras dificultades. Sin embargo, algunos sistemas hoy en día son híbridos, utilizan tanto el enfoque basado en la lógica como el enfoque estadístico, como IBM Watson.

Porque el llamado enfoque semántico no es escalable. Requiere expertos de dominio para cada aplicación y las técnicas utilizadas en una aplicación no se pueden traducir fácilmente a otra aplicación aparentemente similar. Eso no es lo que los investigadores e ingenieros quieren hacer a menos que tengan que hacerlo. Además, durante las últimas décadas, los avances en el aprendizaje automático estadístico han demostrado ser muy prometedores para la PNL y la traducción automática.

No significa que se abandone la lógica semántica. No es interesante desde la perspectiva de la investigación académica, pero el razonamiento semántico (en su conjunto, no una técnica en particular) se utiliza ampliamente en la práctica. La razón simple es que el aprendizaje automático no es lo suficientemente maduro como para reemplazar todo razonamiento humano. De hecho, hay toneladas de lógica semántica incrustada en Siri de Apple, Google Now, Cortana de Microsoft e IBM Watson.

He tenido una teoría sobre esto durante mucho tiempo, que trataré de expresar de la siguiente manera, y espero que lo entiendas:

1. Si algo es inteligente, es demasiado difícil para nosotros comprenderlo analíticamente.

2. Por lo tanto, para producir una máquina inteligente, debemos hacerlo de manera que lo que producimos no pueda entenderse analíticamente.

3. Si produjimos algo que PODEMOS entender analíticamente, no puede ser muy inteligente.

Es interesante que el enfoque de Google para la traducción de idiomas haya pasado a guiarse por lo que se ve en Internet en lugar de por conjuntos de reglas. (Recuerdo haber leído sobre esto. Alguien más puede querer corregirme si me equivoco). Significa que dejaron de entender y simplemente siguieron lo que es.

Mi opinión personal es porque es más fácil para la mayoría de los investigadores lidiar con ecuaciones en lugar de manejar los aspectos conceptuales muy difíciles del procesamiento semántico, y como he señalado en otras partes de Quora, creo que seguir la ruta de las ecuaciones se pierde mucho. necesario para verdaderos sistemas inteligentes. A la larga, la IA empleará tanto el aprendizaje automático estadístico basado en las matemáticas como el procesamiento semántico a través de arquitecturas complejas de procesamiento del conocimiento Y ciertos enfoques que no detallaré aquí. Sin embargo, voy a insinuar un aspecto. Actualmente, una búsqueda en Google no adapta muy bien los resultados a los antecedentes culturales y de conocimiento del usuario. No conoce la mente del usuario lo suficientemente bien como para tomar decisiones sobre lo que mejor se adapta a su consulta. Eventualmente, sin embargo, los sistemas podrán modelar mejor su mente y experiencia y luego dar forma a lo que ofrecen, para satisfacer sus necesidades. Pero construir ese tipo de sistemas requiere conocimiento y fusión de psicología, filosofía, informática y mucho más. La mayoría de los investigadores en IA no tienen esa amplitud, pero pueden manejar las matemáticas para el aprendizaje estadístico. Por lo tanto, toman la ruta fácil pero pueden perderse el bote.

Estoy de acuerdo con las respuestas de Pedro Domingos y Robert Stone. También agregaría que la investigación de IA tiende a oscilar entre enfoques simbólicos y estadísticos. En este punto, el péndulo ha entrado en la región de dominio estadístico, pero habrá problemas que las estadísticas por sí solas no pueden resolver, y será necesario revisar los enfoques simbólicos. Hubo valor en el razonamiento basado en casos y otros enfoques basados ​​en el conocimiento en que las soluciones de tareas eran rastreables y explicables. Un caso o regla era legible. Obtener explicaciones de las redes neuronales es difícil, si no imposible. Eventualmente, los sistemas verdaderamente inteligentes combinarán enfoques estadísticos, simbólicos y neuronales, en mi opinión.

Finalmente, hay una cuestión de arquitectura que tratar. Todos los problemas interesantes no se resuelven con un enfoque único, como las redes neuronales, sino con combinaciones de métodos. Por ejemplo, AlphaGo requirió redes neuronales combinadas con Monte Carlo Tree Search. DeepMinds ‘Deep Q-Learning (DQL) combinó el aprendizaje de refuerzo con redes neuronales. La arquitectura apropiada para la inteligencia general sin duda combinará varios métodos, no solo estadísticos, simbólicos o neuronales. Mi propio enfoque de AGI combina varios patrones de diseño en una arquitectura holística, Construyendo Mentes con Patrones.

La respuesta corta es que los enfoques estadísticos funcionan mejor en la práctica. Pero creo que la IA basada en la lógica también tiene mucho que aportar y, en última instancia, necesitamos una combinación de ambos. De hecho, hacer precisamente eso ha sido el foco de gran parte de mi investigación.

More Interesting

¿Cuáles son algunos temas candentes en la investigación en nanotecnología?

¿Quiénes son los mejores profesores de investigación en informática en la NYU?

¿Cuáles son algunos otros temas de investigación en inteligencia artificial además de la máquina / aprendizaje profundo?

¿Los programas de doctorado en informática valorarán las habilidades de investigación desarrolladas en un campo vecino, como la psicología?

¿Cuáles son algunas áreas inexploradas en el campo de la informática?

¿Por qué la gente dice que CS es más que programación o un lenguaje en particular?

¿Cuáles son buenos temas para un trabajo de investigación?

¿Qué problemas informáticos difíciles o sin resolver tienen más probabilidades de ser ignorados por aquellos nuevos en la programación?

¿Qué profesores de informática han tenido un impacto significativo en la industria? Por impacto, me refiero a cualquier otra cosa que no sea el escenario en el que un profesor publica artículos, y esos artículos nunca son leídos por personas de la industria o impactan prácticas industriales.

¿Qué problemas de visión por computadora son importantes para un equipo de mapas?

¿Es importante tener experiencia en investigación específica de CS para admisiones a escuelas de posgrado de CS?

¿Cuáles son los beneficios de aprender informática teórica?

¿El futuro del procesamiento del lenguaje natural parece brillante? ¿Hay muchas perspectivas para el próximo crecimiento (al menos una década)? ¿Hay mucha demanda de investigación en él?

Cómo comenzar el trabajo de investigación sobre aprendizaje automático y cómo puedo elegir un tema o problema en el aprendizaje automático

¿Cuál es la investigación informática más emocionante que se está llevando a cabo en Carnegie Mellon en 2016?