Existen algunas limitaciones obvias de los NN que restringen el tipo de problemas a los que se pueden aplicar:
- Hambriento de datos : este es el obvio, mencionado por otros. Para entrenar NNs, necesita grandes cantidades de datos. ¿Qué haces cuando tienes muy pocos datos? Aquí hay un conjunto estándar de conjuntos de datos de referencia: UCI Machine Learning Repository: conjuntos de datos. Elija cualquier conjunto de datos de este conjunto con menos de 1000 ejemplos de entrenamiento e intente entrenar un NN que supere a SVM en esos datos por un amplio margen. Este es, con mucho, el punto más importante en mi opinión.
- Las CNN requieren propiedad espacial : la operación de convolución realiza una operación en un conjunto de píxeles o una secuencia de palabras / señales de audio cercanas. Mezclar los píxeles / palabras / señales de audio cambiará completamente la salida de la CNN. Es decir, el orden de las características es importante o, en otras palabras, la convolución es una operación “espacial”. Los métodos convencionales como SVM no se ven afectados por la combinación aleatoria de características. Por lo tanto, los problemas que no tienen la propiedad espacial no se beneficiarán de las CNN.
- Menos interpretable : muchas veces, tiene poca idea de lo que sucede dentro de la red, en particular, en las capas más cercanas a la salida. Esto nuevamente los hace más difíciles de mejorar, ya que no sabes mucho sobre lo que está mal. Entonces, con aplicaciones sensibles donde la vida humana o algo muy valioso está en juego, las personas no estarían dispuestas a usar redes neuronales profundas.
- Configuración más larga : a menos que esté haciendo algo muy similar a ImageNet, no encontrará un modelo previamente entrenado en la web. Por lo tanto, tendrá que escribir una cantidad significativa de código para capacitar y evaluar un modelo NN razonable, incluso cuando se base en los marcos de aprendizaje profundo estándar. Con métodos como SVM, solo descarga LibSVM y puede comenzar a entrenar sus modelos en unos minutos. Entonces, dependiendo de la aplicación, si no vale la pena gastar tanto tiempo para obtener ese pequeño aumento de rendimiento, los métodos convencionales podrían preferirse a las NN.
- Pequeña restricción de memoria : a menudo, los tamaños de los modelos de aprendizaje profundo se encuentran en decenas a cientos de MB. Entonces, si la predicción debe hacerse en dispositivos de memoria pequeños como teléfonos móviles, los métodos convencionales podrían preferirse debido a los tamaños de modelo más pequeños.
(Basado en la respuesta de Prasoon Goyal a ¿Por qué todavía se usa SVM en el aprendizaje automático cuando las redes neuronales son mucho más precisas?)
- ¿Cuál es la teoría detrás de ingresar una imagen en una red neuronal?
- ¿Cuál es la mejor manera de aprender el aprendizaje automático, en línea o sin conexión?
- ¿Cuáles son las aplicaciones del tensor en estadística y aprendizaje automático?
- ¿Hay ejemplos de organizaciones de ciencias de la vida que logren resultados en el descubrimiento de drogas a través del aprendizaje automático que no serían posibles sin el aprendizaje automático?
- ¿Cuáles son algunos ejemplos reales de modelos estadísticos que son pobres en la predicción pero útiles para la inferencia?