¿Qué problemas en la inteligencia artificial no pueden abordarse utilizando redes neuronales artificiales y qué ocurre con las redes de creencias profundas?

Depende de lo que entiendas por ‘red neuronal’. Si incluye en esa categoría los algoritmos de aprendizaje aún por descubrir que explican las habilidades de aprendizaje de los cerebros humanos, entonces, obviamente, y por definición, no hay problemas de IA que las redes neuronales no podrán resolver.

Sin embargo, algunas de las principales limitaciones actuales de las redes neuronales * actuales * son las siguientes, en mi humilde opinión:

– probablemente todavía no tenemos algoritmos de aprendizaje lo suficientemente potentes como para entrenarlos adecuadamente cuando la red es ‘compleja’ (por ejemplo, profunda y capaz de representar abstracciones de alto nivel), es decir, los algoritmos actuales probablemente caen en mínimos locales aparentes subóptimos (donde Probablemente existan soluciones mucho mejores, y sabemos que esto a veces sucede, por ejemplo, vea mi artículo JMLR 2010 con Dumitru Erhan, http://www.jmlr.org/papers/volum…)

– también podríamos necesitar progreso en el frente de los algoritmos de refuerzo para redes neuronales (pero esta no es mi área)

– probablemente necesitemos progreso en el frente de algoritmos de inferencia rápida (en el caso de redes neuronales probabilísticas como Deep Boltzmann Machines, que pueden ser necesarias para capturar realmente interesantes efectos descendentes junto con el manejo de la incertidumbre en todos los niveles y no solo en La salida); el cerebro parece hacer inferencia en solo unos pocos ciclos, mientras que los algoritmos de inferencia aproximada actuales son 10 veces más lentos al menos y aún no son satisfactorios en muchos casos (pero vea algunas buenas ideas, por ejemplo, en el artículo de Larochelle y Salakhutdinov http: //www.dmi.usherb. ca / ~ laroch …)

Otros investigadores probablemente tengan otras ideas de cosas para agregar en sus ‘listas de deseos’ …

Además: en general, se cree que la capacidad de manipular símbolos y estructuras recursivas no está en el ámbito de las redes neuronales, pero esto no tiene en cuenta el hecho de que uno podría usar redes neuronales recurrentes o recursivas, que de hecho puede representar estructuras simbólicas y recursivas . Sin embargo, lo que es cierto es que el problema de optimización para tales redes es aún más difícil (son realmente muy profundos porque cada paso de tiempo cuenta como profundidad adicional) y su capacitación / optimización adecuada sigue siendo un problema abierto difícil.

Otra posible idea errónea que está relacionada es que se cree que las redes neuronales no pueden manejar estructuras de datos de tamaño variable. Esto se logra fácilmente al menos en principio al permitir representaciones dispersas. Ha habido mucho trabajo en el uso de la dispersión en arquitecturas profundas y redes neuronales en los últimos años. Cuando tiene un vector de estado muy largo (el cerebro tiene miles de millones de neuronas) que es escaso, puede codificar fácilmente estructuras de datos de ‘tamaño variable’ (piense en el tamaño de la estructura de datos como el número de ceros). La limitación del cerebro no es más una limitación a esto que la limitación de una memoria de computadora típica.

Una de las desventajas de las redes neuronales es que una red capacitada no le brinda mucha (si es que hay alguna) información sobre lo que sucede dentro de la red. La red asigna entradas a salidas, pero el proceso de asignación en sí es un cuadro negro: es difícil determinar las reglas que asignan las entradas a las salidas.

Uno de los problemas mencionados en el artículo de Wikipedia es el procesamiento del lenguaje natural. Se podría usar una red neuronal para el procesamiento del lenguaje natural y la red resultante puede funcionar bien, pero la red no proporcionaría ninguna idea de los procesos subyacentes del procesamiento del lenguaje natural. Esto no es un problema cuando el objetivo es tener un sistema en funcionamiento (que por supuesto es un objetivo muy legítimo). Sin embargo, en el campo de la inteligencia artificial, el objetivo también podría ser tener una mejor comprensión de los procesos subyacentes de un problema determinado. El enfoque de caja negra con una red neuronal no es muy útil. Relacionado con este punto es cuando un investigador está interesado en probar un modelo específico para un problema dado. Una red neuronal tampoco es útil cuando no es parte del modelo.

Los RNN están completos en Turing. Entonces, si un problema se puede resolver con un algoritmo no neuronal, también se puede resolver con un RNN (al menos).

Dicho esto, hay muchos problemas en los que los ANN todavía son malos:

  1. Generando imágenes de alta resolución
  2. Generando un discurso humano
  3. Análisis robusto de transmisiones de video
  4. Aprender estrategias complejas donde el estado no representa todos los pasos anteriores de manera eficiente
  5. Comprensión del lenguaje natural: la mayoría de la industria utiliza soluciones complejas para las tareas de PNL. consisten en varios algoritmos, no todos son ANN.
  6. La respuesta a las preguntas también es ineficaz: las arquitecturas profundas luchan por competir con los métodos de recuperación de información (el motor de búsqueda con indexación simple y una base de datos decente funciona sorprendentemente bien)

No hay tal problema que no puedas tratar de resolver con ANN. Obtener resultados útiles es la parte difícil.

También es importante definir expectativas claras de la IA. Cuanto más se acerque a las definiciones de la ciencia ficción o proyecte rasgos puramente humanos en las computadoras, más larga será esta lista.

More Interesting

La inteligencia artificial eliminará la mayoría de las ocupaciones. ¿Cómo funcionará el mundo cuando no haya nadie trabajando para obtener un ingreso?

Cómo contribuir al campo de la IA además de investigar

Cómo saber si alguien es realmente un experto en inteligencia artificial

Aparentemente, la IA puede escribir y reescribir su propio código. ¿Qué tan lejos estamos de la singularidad?

¿Cuáles serían las implicaciones de crear una inteligencia artificial con vicios o adicciones?

¿Cuál es el error más grande que la gente tiene sobre la IA?

¿Cómo se originó la conciencia? ¿Se puede crear la conciencia artificialmente?

¿Cómo podría la inteligencia artificial reemplazar al gobierno en los próximos 10 a 20 años?

¿Cómo puede la inteligencia artificial afectar los patrones de publicación en el futuro?

¿Qué necesitan saber los robots de inteligencia artificial para comprender el lenguaje a fin de interactuar con los humanos (características lingüísticas)?

¿Puede una inteligencia artificial despertar una conciencia?

¿Por qué vencer a Go es un hito importante para la IA?

¿Cuál es la diferencia entre más condición, aprendizaje automático e inteligencia artificial?

¿Es probable que el hardware de supercomputadora disponible actualmente sea suficiente para ejecutar una IA general a nivel humano si tuviéramos un gran avance sobre cómo programar tal cosa?

Inteligencia artificial: ¿cuándo podría automatizarse la traducción e interpretación de idiomas a través de la IA?