¿En qué situaciones, ha encontrado que el aprendizaje profundo no funciona bien?

Hay una historia que se transmite para ilustrar las formas en que el aprendizaje automático puede detectar características en su conjunto de datos que no esperaba.

“Érase una vez, el ejército de los EE. UU. Quería usar redes neuronales para detectar automáticamente tanques enemigos camuflados. Los investigadores entrenaron una red neuronal en 50 fotos de tanques camuflados en árboles y 50 fotos de árboles sin tanques. Utilizando técnicas estándar para el aprendizaje supervisado, los investigadores entrenaron a la red neuronal a una ponderación que cargó correctamente el conjunto de entrenamiento: emitió “sí” para las 50 fotos de tanques camuflados y “no” para las 50 fotos del bosque. Esto no aseguró, ni siquiera implica, que los nuevos ejemplos se clasifiquen correctamente. La red neuronal podría haber “aprendido” 100 casos especiales que no se generalizarían a ningún problema nuevo. Sabiamente, los investigadores habían tomado originalmente 200 fotos, 100 fotos de tanques y 100 fotos de árboles. Habían usado solo 50 de cada uno para el conjunto de entrenamiento. Los investigadores corrieron la red neuronal en las 100 fotos restantes, y sin entrenamiento adicional la red neuronal clasificó todas las fotos restantes correctamente. ¡Éxito confirmado! Los investigadores entregaron el trabajo terminado al Pentágono, que pronto lo devolvió, quejándose de que, en sus propias pruebas, la red neuronal no era mejor que la posibilidad de discriminar fotos.

Resultó que en el conjunto de datos de los investigadores, se tomaron fotos de tanques camuflados en días nublados, mientras que se tomaron fotos de bosques en días soleados. La red neuronal había aprendido a distinguir los días nublados de los días soleados, en lugar de distinguir los tanques camuflados del bosque vacío “.

fuente: Detección de tanques

Hemos descubierto que el aprendizaje profundo y los algos relacionados no funcionan para casos de uso basados ​​en el lenguaje natural.

  • El aprendizaje profundo necesita muchos datos “homogéneos”, que no están disponibles en la mayoría de las situaciones empresariales.
  • El aprendizaje profundo necesita que los datos se anoten. En situaciones empresariales, el costo de los expertos en la materia para anotar estos datos se vuelve prohibitivamente costoso.
  • Como resultado de estos onerosos requisitos, los científicos de datos que utilizan el aprendizaje profundo para el lenguaje natural a menudo no pueden repetir varias veces. Como saben, la iteración es a menudo la clave para la precisión de los sistemas de inteligencia artificial.

Tanto es así, que tuvimos que inventar nuestro propio algoritmo para lenguaje natural, llamado Calibrated Quantum Mesh.

Como alguien señaló, la falta de una cantidad adecuada y grande de datos es un problema en el aprendizaje profundo apropiado. La normalización de los datos de entrada es otro problema. Además, existen enormes casos de uso en los que el aprendizaje profundo no funciona bien.

Los enfoques actuales de AI y ML son de naturaleza estadística y no pueden generar modelos o descubrir mecanismos causales a partir de datos. El aprendizaje profundo funciona bien para describir los datos disponibles, pero proporciona poca o ninguna comprensión de los mecanismos de generación.

Cualquier cosa que requiera razonamiento, como la programación o la aplicación del método científico, la planificación a largo plazo y la manipulación de datos de tipo algorítmico, está fuera del alcance de los modelos de aprendizaje profundo, sin importar la cantidad de datos que les arroje. Incluso aprender un algoritmo de clasificación con una red neuronal profunda es tremendamente difícil.

¿Cuáles son las principales críticas y limitaciones del aprendizaje profundo?

Las limitaciones del aprendizaje profundo

El aprendizaje profundo no funciona bien con pequeñas cantidades de datos; necesita grandes cantidades (cientos o miles de ejemplos) para funcionar bien.

También descubrí que el aprendizaje profundo puede funcionar sorprendentemente mal cuando los datos no están normalizados.

More Interesting

¿Cuáles son algunos proyectos de investigación interesantes relacionados con el aprendizaje automático?

¿Qué es una explicación intuitiva del impulso en el entrenamiento de redes neuronales?

¿Cuál es la segunda generación de redes neuronales?

¿Cuál es el estado de la investigación sobre chatbots y la PNL en 2017?

¿Por qué es que los RNN con conexiones desde la salida al estado oculto pueden expresar menos máquinas de turing?

¿Cuáles son las formas en que el científico de datos indio que actualmente trabaja en una empresa de aprendizaje automático con sede en India inmigra a los Estados Unidos?

¿Cómo afectaría la homo / heteroscedasticidad al análisis de regresión?

¿Cuál es mejor para la manipulación de datos en python: Pandas o SFrame?

¿Las estadísticas necesitan un cambio de marca en respuesta a la ciencia de datos y el aprendizaje automático, que están superando las estadísticas en términos de relevancia? ¿Por qué o por qué no?

¿Cuál es la explicación detallada de Autoencoder apilado (Denoising)?

¿Qué debo aprender para el aprendizaje automático, C ++ o Python?

¿MATLAB es el software más conveniente para el aprendizaje automático?

¿Cuál es la diferencia entre el aprendizaje automático y la forma en que Kepler obtuvo las leyes de Kepler?

¿Es aconsejable automatizar el trabajo del presidente de la Fed con un software de aprendizaje automático dado que sus decisiones se basan principalmente en datos?

¿Es cierto que una vez que tenemos grandes conjuntos de datos, la selección del clasificador ML no tiene mucho efecto? ¿Qué significa 'grande' aquí?