¿Cómo podrían las redes neuronales ser un ejemplo de IA simbólica?

Lo que impide que las redes neuronales (NN) aborden adecuadamente los problemas simbólicos de inteligencia artificial (IA) son:

  • La dependencia de la diferenciabilidad o “suavidad” de las funciones objetivas. Los algoritmos de descenso de gradiente de retropropagación + lote (estocástico) son los algoritmos de aprendizaje predeterminados para NN. Tal enfoque de aprendizaje necesita una superficie de error suave para buscar parámetros óptimos.
  • No interactúan bien con grandes depósitos de memoria. La memoria y el razonamiento simbólico van de la mano. Los humanos almacenamos conceptos discretos o hechos discretos en la memoria. Nuestros cerebros poseen la capacidad de razonar simbólicamente porque probablemente no aprenden a través de la definición de una superficie de error suave y diferenciable y usan la memoria para almacenar esos hechos para uso futuro. El uso de la memoria y el descubrimiento de los hechos necesarios para el razonamiento es un problema difícil que la investigación de NN ha enfrentado durante los últimos 30 años más o menos.
  • Principalmente son solo aproximadores de funciones de mapeo. Trae redes neuronales recurrentes (RNN) y tendrás sistemas completos. Sin embargo, las RNN aún están limitadas por el primer punto, la confianza en la diferenciabilidad o la suavidad. La IA simbólica no se trata solo de aprender a mapear la entrada a la salida, es más que eso.

Incluso cuando una gran cantidad de investigación no se centra en recuperar la IA simbólica, sigo creyendo que el razonamiento simbólico es vital para lograr la verdadera inteligencia artificial, es decir, la inteligencia artificial general (AGI).

La mejor forma en que las NN pueden manejar la IA simbólica es si:

  • Utilizaron un algoritmo de aprendizaje heurístico que no está limitado por objetivos diferenciables. El aprendizaje automático (ML) actualmente depende en gran medida de la teoría de optimización (y recientemente de la teoría de juegos). Eso es bueno y malo:
    • Es bueno porque la teoría de la optimización matemática es un tema maduro. Podemos tener pruebas como el teorema de aproximación universal si nos apegamos a formulaciones matemáticas sólidas.
    • Sin embargo, es algo malo porque terminamos con algoritmos de aprendizaje supervisados ​​principalmente y que solo pueden manejar, en el mejor de los casos, problemas que se emiten de manera diferente. Los verdaderos problemas de IA no son diferenciables. En la mayoría de los casos, los algoritmos de mejor rendimiento en IA tienen formulaciones matemáticas débiles *.
  • Usaron la memoria para almacenar hechos o conceptos “duros”. Por ejemplo, un niño construirá un concepto discreto de los objetos que encuentra en el entorno. Difícil aquí significa que los hechos concretos no diferenciables pueden considerarse simbólicos. Por ejemplo, un automóvil, un caballo o un elefante pueden representarse simbólicamente. No se sabe cómo el cerebro humano descubre hechos tan duros y cómo los almacena en la memoria. Pero creo que interactuar con grandes depósitos de memoria más el uso de un algoritmo de aprendizaje heurístico que no depende de la diferenciabilidad puede ayudar a descubrir y almacenar esos hechos.
  • Aprendieron algoritmos en lugar de funciones de mapeo. Hay una diferencia, por ejemplo, dados los ejemplos de multiplicación, el objetivo es aprender un algoritmo de multiplicación, este problema es diferente en el sentido de que el modelo ML necesita aprender el algoritmo de multiplicación y no solo un mapeo entre pares de entrada-salida. Aprender algoritmos o, más precisamente, aprender formas / métodos para resolver un problema es importante pero difícil para los algoritmos de ML actuales. El sistema que tiene que aprender un algoritmo de los datos de entrenamiento:
    • Necesita memoria para almacenar el “programa”, algoritmo o método aprendido.
    • Necesita incluir algún comportamiento exploratorio para buscar el mejor algoritmo (método). Esto significa alguna forma de enfoque de aprendizaje de refuerzo (RL).

* En su mayoría, AI y ML se basan en evidencia empírica u observaciones con motivos matemáticos débiles, la función de activación del rectificador, la deserción y muchos más enfoques donde solo se introdujeron en la comunidad de AI por un pensamiento principalmente intuitivo. Nadie sabe por qué y cómo funciona el aprendizaje profundo exactamente a nivel matemático. Solo los vemos trabajar y, wow, funcionó.


Mi opinión sobre esto es que el razonamiento simbólico es importante, especialmente en el procesamiento de alto nivel. El proceso de procesamiento temprano puede seguir el enfoque conexionista, mientras que el procesamiento abstracto de nivel superior debe ser más sobre el razonamiento simbólico.

Es decir, los dos campos, la IA simbólica y el enfoque conexionista son necesarios para resolver la IA en general.


Recordar:

Las NN y las RNN están actualmente limitadas cuando se trata de manejar el razonamiento basado en símbolos o la IA simbólica en general.

La razón principal de esa limitación se debe al hecho de que los algoritmos de ML actuales se basan en la teoría de optimización matemática, el uso de la regla delta / propagación hacia atrás para el aprendizaje necesita funciones objetivas diferenciables o superficies de error suaves para buscar los parámetros óptimos.

La IA simbólica no se puede resolver de esa manera.

La otra razón es que no hay mucho progreso en el aumento de NN con grandes depósitos de memoria. Además, no tenemos idea de si la memoria necesita almacenarse en bloques separados o si necesita distribuirse entre las neuronas mismas. Todavía no hemos descubierto cómo la memoria se puede aumentar adecuadamente a NN.

Todavía no sabemos cómo los modelos NN pueden modelar cosas simbólicas solo a partir de datos de entrenamiento y poder funcionar correctamente. A menos que también incluyamos algoritmos como árboles de búsqueda en la mezcla.

Creo que la mejor manera de tener una oportunidad de lograr un razonamiento simbólico con NN es si utilizamos:

  • Redes neuronales recurrentes, se están completando, por lo que solo necesitamos encontrar mejores algoritmos de aprendizaje para que puedan manejar problemas simbólicos de IA.
  • Un gran depósito de memoria,
  • Un enfoque de aprendizaje heurístico derivado del aprendizaje por refuerzo para entrenar los modelos no diferenciables.

Pero también es importante tener en cuenta la necesidad de conocimiento previo cuando un problema es difícil de resolver solo con datos de capacitación. Los modelos deben poder transferir sus representaciones de un problema a otro si tenemos que hacer que el problema sea un poco más fácil de abordar.

Gracias por el A2A.

Espero que esto ayude.

Como Abel Bernabeu ya está triste, en realidad no lo están. Históricamente hay dos enfoques para el desarrollo de IA, dos escuelas.

La primera basa la investigación de IA en algún sistema matemático formal (a menudo lógico, pero últimamente la teoría de probabilidad bayesiana es muy popular) y se llama “escuela ordenada”. La presunción fundamental es que debemos entender completamente las reglas del sistema de IA. Y en lógica realizamos transformaciones simbólicas (inferencia) de ahí el término “IA simbólica”.

La segunda investigación de base escolar sobre el modelado del comportamiento humano o (aspectos) del sistema nervioso y se llama “desaliñado”. El método más destacado son las redes neuronales artificiales, ya que modelan remotamente el sistema nervioso de los mamíferos, pero ahora diría que básicamente todos los métodos de Machine Learning se utilizan en esta escuela (que ahora domina la investigación de IA). La crítica principal es que entrenas tu red neuronal y funciona, pero nadie sabe exactamente cómo y por qué. Investigaciones recientes muestran que a menudo son inestables en el sentido de que una leve alteración en la entrada podría cambiar completamente la salida (clase).

Entonces, en el sentido de que los ANNs “limpios” versus “desaliñados” no son IA simbólica.

Pero si interpreta la IA “simbólica” (o el programa de computadora en general) como la manipulación de datos no numéricos o la realización de cálculos no numéricos (quiero decir que las computadoras siempre realizan cálculos numéricos, pero el punto y la interpretación del resultado no es un número sino algo más alto -nivel como imagen o alguna categoría, etc.) entonces sí, los ANN pueden trabajar con datos simbólicos o incluso imágenes, sonidos, etc. y convertirlos en “símbolos” – clases y similares.

El significado de los símbolos utilizados en informática es análogo al de las variables de estado. Los símbolos son variables de estado que están claramente definidas sin ambigüedad. Una forma simple de IA simbólica podría estar compuesta solo por declaraciones if-then que conectan todos los símbolos (estados) posibles válidos dentro del alcance del tema. Los árboles de decisión son un ejemplo algorítmico perfecto de IA simbólica

Por otro lado, las redes neuronales son un algoritmo diseñado para “definir” los datos más ambiguos que incluso los humanos no pueden interpretar. La famosa red neuronal convolucional habla por sí misma: “convolucional”. La mayoría de las redes neuronales que se usan comúnmente como tendencia, como el aprendizaje profundo, LSTM, NEAT e incluso las máquinas de Boltzmann restringidas, no funcionan mediante la alimentación de “símbolos” o variables de estado bien definidas. Están diseñados para buscar a través de las cadenas de datos más ambiguas, como pinturas, videos, juegos de Nintendo, discursos y más.

La respuesta es No. Las redes neuronales convencionales no son un gran ejemplo de IA simbólica.

Simplemente no lo son. Las técnicas de IA simbólica funcionan en dominios donde no hay mucha incertidumbre y uno puede tener una representación muy completa de los objetos sobre los que desea inferir.

Las redes neuronales, por otro lado, pueden verse como interporladores que llenan enormes brechas en una representación del conocimiento que está lejos de ser completa.

More Interesting

¿Se pueden clasificar Google Car y Google Glass como computadoras de quinta generación?

Si no podemos aceptar la aparición de IA y robots, ¿no deberíamos volver a la Edad de Piedra y dormir en cuevas?

¿Cómo se usa el aprendizaje automático en la extracción de información?

¿Se pueden utilizar los datos de comentarios de Facebook para crear un software que pase la prueba de Turing?

¿Cómo funcionan los programas de IA que aprenden a jugar solos?

¿Aprender el modelo de Tensor Flow con Python es realmente útil para mí en el futuro?

¿Cuánto de la inteligencia artificial (investigación, prototipos, etc.) ha encontrado su camino en la tecnología cotidiana?

¿Cómo se codifica la información en la actividad neuronal?

Quiero hacer un doctorado en áreas relacionadas con la inteligencia artificial en los Estados Unidos. ¿Es muy difícil obtener financiación completa?

¿Mentalese regresa en Inteligencia Artificial?

Cuando hacemos que la IA sea consciente y sienta que es un dolor de entrenamiento existente, ¿seremos torturadores?

Si hay un modelo perfecto para predecir el precio de una acción, ¿qué efectos se producirían en el precio en función del número de comerciantes que obtuvieron este modelo?

Si se puede programar una IA totalmente autorreprogramada y totalmente sensible, ¿hay alguna forma de evitar que tenga alguna posibilidad de ser maliciosa?

¿Por qué existe el temor de dominación de robots / IA cuando se pueden incorporar múltiples niveles de interruptores de muerte?

¿Se puede aprender Machine Learning sin conocer muchas matemáticas e informática?