¿Qué problemas prácticos puede resolver el aprendizaje profundo que el aprendizaje automático no puede resolver?

A los efectos de esto, supondré que está utilizando Deep Learning para referirse a DNN, es decir, redes neuronales de última generación, y Machine Learning para referirse a trabajos seleccionados manualmente, por ejemplo, Spark, R, etc. La otra cosa a considerar es cuando define un problema como “resuelto”. Usemos el conjunto de datos MNIST como ejemplo.

El desafío típico es que cualquier imagen de entrada en ese conjunto de datos devuelva el valor numérico; un caso de reconocimiento de caracteres “simple”. No existe un mecanismo conocido para obtener una precisión del 100% (hasta el ser humano real, si observa estos excelentes ejemplos de números escritos a mano). Se han realizado muchas investigaciones sobre cómo clasificar estas imágenes; Si bien el poseedor del registro conocido es una CNN, notará que un método de tipo ML (Support Vector Machine) tiene una tasa de error del 0,56%. Esto es el doble de la tasa de error de la red neuronal, por lo que la red es claramente una mejora, pero no significa que el método ML sea incompetente.

Sin embargo, lo que sí destaca son los límites de los humanos para explicar el pensamiento a una computadora (o, en realidad, en absoluto). Los métodos de ML dependen de las personas que crean algoritmos inteligentes para producir los resultados que deseamos. Las redes neuronales tienen que ver con proporcionar a la red muestras de un concepto, por ejemplo, el número escrito a mano y su respuesta correcta, y luego permutar los valores hasta que encuentre una manera de darle respuestas correctas. No sabremos necesariamente por qué funciona, solo que lo hace.

Un ajuste natural para esto es, como menciona Junaid Effendi, clasificadores. El ejemplo de reconocimiento de imagen anterior es exactamente eso: un clasificador. Dado un conjunto de parámetros de entrada (imagen de un número) determina cuál de las 10 salidas posibles (0–9) representa mejor esa imagen, por lo tanto, la clasificación.

Los DNN también han demostrado una aptitud más allá del reconocimiento instantáneo. Por ejemplo, los DNN se han utilizado con éxito para construir oraciones (comúnmente usando un tipo de red llamada Memoria a corto plazo), comprender la semántica de las acciones (empaquetar y desempaquetar), e incluso se han ramificado en arte psicodélico o nombres de colores extraños. Sin embargo, el punto es que, más allá de la clasificación, los DNN también se pueden usar para la predicción .

Eso es algo completamente diferente. Si conoce la secuencia de comandos de zoom / mejora pegajosa que generalmente se presenta en CSI, sepa que Google está trabajando en eso, utilizando redes neuronales. O enseñarle a una computadora a predecir el movimiento basado en imágenes fijas. O colorear en imágenes en blanco y negro.

En primer lugar, el aprendizaje profundo es una rama del aprendizaje automático, por lo que si el aprendizaje profundo puede resolver abc, entonces simplemente significa que el aprendizaje automático está resolviendo abc. Pero creo que en su contexto, se introdujo el aprendizaje profundo para resolver problemas de clasificación complejos en video, audio y reconocimiento de imágenes. También es una gran herramienta para la traducción del lenguaje natural.

Ninguno, porque el aprendizaje profundo es solo un nombre dado a un tipo particular de aprendizaje automático. Son solo arquitecturas de redes neuronales de la década de 1960 construidas en tarjetas gráficas masivamente paralelas que permiten, por ejemplo, construir una red de ocho capas. Algunos de los resultados son interesantes, por ejemplo, el último motor de Google Translate, pero no existe una nueva técnica, solo más potencia de cálculo.