Si nos fijamos en la brecha de rendimiento que el aprendizaje profundo (DL) ha creado entre sí mismo y algunos otros algoritmos, es enorme. Esto no quiere decir que otros algoritmos ahora estén obsoletos, no se recuerda el teorema del almuerzo gratis, pero DL se ha demostrado, al menos de forma emperica. Si verifica los algoritmos de clasificación / reconocimiento de imágenes y de detección de objetos y el procesamiento del lenguaje natural (PNL), DL supera la mayoría de los algoritmos y, en su mayoría, por enormes brechas. En algunos conjuntos de datos, incluso rivaliza con los humanos, por eso es seguro decir que la mayoría de los expertos ahora están acudiendo a DL.
Pero no es como cuando te enfrentas a un problema de aprendizaje automático (ML), todo lo que tienes que hacer es arrojar DL y tomar café, no. A veces, DL puede ser una exageración, especialmente en problemas más pequeños con poca disponibilidad de datos y en algunos problemas de aprendizaje no supervisados, la agrupación aún funciona. En la mayoría de los casos complejos, es mejor tener una variedad de algoritmos o métodos de conjunto, como en AlphaGo, se demostró que los métodos de búsqueda de árboles están más o menos vivos. La búsqueda de árbol de Monte-Carlo (MCTS) + DL se utilizó en el sistema AlphaGo para buscar rápidamente movimientos ganadores.
Ahora, lo más atractivo de DL es que está motivado por la forma en que funciona el mundo, el mundo es compositivo, los átomos forman moléculas y las moléculas forman todo tipo de cosas y todo tipo de cosas forman todo tipo de otras cosas, etc.
- ¿Qué tan cierta es la cita, "el desarrollo de una IA que podría terminar con la vida humana puede requerir solo unos cientos de personas en un edificio de oficinas en cualquier parte del mundo, sin otro equipo que no sea una computadora portátil"?
- ¿Cómo se pueden visualizar las características extraídas en capas ocultas de una red neuronal?
- Cómo crear un avatar con IA
- Cómo ajustar mejor la tasa de aprendizaje de acuerdo con el conjunto de datos en una red neuronal profunda
- ¿Cuál es el futuro del aprendizaje profundo? ¿La mayoría de los expertos en aprendizaje automático están recurriendo al aprendizaje profundo?
En literatura tenemos:
letras-> palabras-> oraciones-> párrafo
Así como en visión tenemos:
píxeles-> bordes-> partes-> objetos
Encontrará que la mayoría de los algoritmos que se cree que no tienen nada que ver con DL son en realidad una forma de DL. Tal como el modelo de partes deformables (DPM), es en realidad una forma especial de redes neuronales convolucionales (convNet) con un mecanismo de agrupación basado en transformación de distancia. Por lo tanto, se pueden lanzar muchos algoritmos de esta manera jerárquica compositiva. Incluso hacemos esto al codificar, codificamos funciones de bajo nivel, luego funciones de nivel medio y luego de alto nivel.
Esta es toda la idea sobre DL, aprender cada vez más representaciones abstractas en cada capa. Esta idea es de alguna manera a prueba de futuro, por lo que incluso si es difícil decirlo con alta certeza, esta naturaleza compositiva de los algoritmos DL resistirá la prueba del tiempo. Podría ser que quizás no sea necesario tener más de 100 capas en el futuro o que algunas redes más anchas y poco profundas puedan comenzar a funcionar tan bien como redes más delgadas y más profundas a medida que se descubran mejores algoritmos de aprendizaje.
Entonces, ¿cuál es el futuro de DL? Bueno, está claro que DL está muy supervisada y requiere objetivos suaves y diferenciables. Por lo tanto, incluso si es menos probable que cambie el concepto de aprendizaje jerárquico en capas, los métodos de aprendizaje reales cambiarán de este deseo de proyectar todo de una manera simplificada y diferenciable.
Espero que esto ayude.