¿Cuáles son las desventajas y desventajas de usar el aprendizaje profundo?

Algunas de las desventajas del aprendizaje profundo son:

  • Son inescrutables: no puedes entender por qué han llegado a un resultado particular sin tener años de experiencia trabajando con ellos e incluso entonces no siempre.
  • Entrenar y elegir la topología de red correcta es un arte negro: algunas cosas funcionan y otras no, pero no está claro que haya una buena metodología para diseñar la arquitectura de red “correcta”. Esto es especialmente cierto para algunas de las configuraciones más exóticas como Generative Adversarial Networks.
  • Toman una gran cantidad de datos (mucho más que otros algoritmos) para entrenar.
  • Toman mucho tiempo (mucho más que otros algoritmos) para entrenar.
  • Toman mucha memoria (mucho más que otros algoritmos) para ejecutarse. Este es un problema especialmente en dispositivos móviles.
  • Nunca se sabe cuando el entrenamiento de una red neuronal está “hecho”.
  • No hay una base teórica para la red neuronal.
  • No se generalizan bien (por ejemplo, si entrena una red para conducir un automóvil en días soleados y luego la prueba bajo la lluvia, espera que falle abismalmente).

Algunas desventajas del aprendizaje profundo de la experiencia personal

  • Se necesita demasiado trabajo duro para que un modelo funcione, si es que funciona 🙂
  • Se requiere mucho esfuerzo para cambiar esos ajustes y configuraciones de red triviales.
  • Conocimiento del ‘arte negro’ para ajustar / inicializar parámetros.
  • Se necesita mucho tiempo computacional y memoria, olvídese de ejecutar programas de aprendizaje profundo en una computadora portátil o PC, si sus datos son grandes.
  • Se necesita mucha contabilidad para analizar los resultados de múltiples modelos de aprendizaje profundo en los que está entrenando.
  • Los filtros producidos por la red profunda pueden ser difíciles de interpretar. Los “filtros” de póster que ve para la tarea de reconocimiento facial y los datos MNIST son muy difíciles de encontrar en “su” problema.
  • No tengo mucha idea de por qué ciertos entornos funcionaron y por qué los otros no.
  • Si sus datos son pequeños, no espere obtener una buena generalización.
  • Si sus datos son pequeños, puede hacer un aumento de datos [1], ¡pero tenga cuidado! Hay muchas opciones disponibles para aumentar la cantidad de datos, pero ¿las necesita todas? ¿Se requiere realmente un giro horizontal para su problema?
  • Si el problema no se formula adecuadamente y se utiliza un método de aprendizaje profundo tal como está, es probable que se sienta decepcionado.

Notas al pie

[1] La respuesta de Shehroz Khan a ¿Cómo exactamente las técnicas de aumento de datos como la duplicación y el recorte reducen el sobreajuste?

La mayor ventaja es que nos brinda una forma de abordar los problemas mundanos que no se pueden resolver mediante técnicas estructuradas (ya que existen numerosos casos para manejar y, por lo general, es humanamente imposible abarcarlos a todos en una solución). Sin embargo, la mayor desventaja es que requiere toneladas de datos, capacitación e intuición para lograr los objetivos deseados. Además, requiere una comprensión muy especializada de los datos y álgebra lineal para trabajar hacia la solución. Sin este conocimiento, se vuelve bastante difícil entender por qué está fallando o teniendo éxito.

Estas son desventajas, además:

  • No puede explicar exactamente por qué el modelo es correcto.
  • Necesita muchos datos para obtener un buen modelo, aunque no hay garantía de que esos datos puedan hacer un buen modelo.
  • Necesita obtener GPU para poder realizar la capacitación rápidamente.