¿Cuál es el futuro del aprendizaje profundo? ¿La mayoría de los expertos en aprendizaje automático están recurriendo al aprendizaje profundo?

Si nos fijamos en la brecha de rendimiento que el aprendizaje profundo (DL) ha creado entre sí mismo y algunos otros algoritmos, es enorme. Esto no quiere decir que otros algoritmos ahora estén obsoletos, no se recuerda el teorema del almuerzo gratis, pero DL se ha demostrado, al menos de forma emperica. Si verifica los algoritmos de clasificación / reconocimiento de imágenes y de detección de objetos y el procesamiento del lenguaje natural (PNL), DL supera la mayoría de los algoritmos y, en su mayoría, por enormes brechas. En algunos conjuntos de datos, incluso rivaliza con los humanos, por eso es seguro decir que la mayoría de los expertos ahora están acudiendo a DL.

Pero no es como cuando te enfrentas a un problema de aprendizaje automático (ML), todo lo que tienes que hacer es arrojar DL y tomar café, no. A veces, DL puede ser una exageración, especialmente en problemas más pequeños con poca disponibilidad de datos y en algunos problemas de aprendizaje no supervisados, la agrupación aún funciona. En la mayoría de los casos complejos, es mejor tener una variedad de algoritmos o métodos de conjunto, como en AlphaGo, se demostró que los métodos de búsqueda de árboles están más o menos vivos. La búsqueda de árbol de Monte-Carlo (MCTS) + DL se utilizó en el sistema AlphaGo para buscar rápidamente movimientos ganadores.

Ahora, lo más atractivo de DL es que está motivado por la forma en que funciona el mundo, el mundo es compositivo, los átomos forman moléculas y las moléculas forman todo tipo de cosas y todo tipo de cosas forman todo tipo de otras cosas, etc.

En literatura tenemos:

letras-> palabras-> oraciones-> párrafo

Así como en visión tenemos:

píxeles-> bordes-> partes-> objetos

Encontrará que la mayoría de los algoritmos que se cree que no tienen nada que ver con DL son en realidad una forma de DL. Tal como el modelo de partes deformables (DPM), es en realidad una forma especial de redes neuronales convolucionales (convNet) con un mecanismo de agrupación basado en transformación de distancia. Por lo tanto, se pueden lanzar muchos algoritmos de esta manera jerárquica compositiva. Incluso hacemos esto al codificar, codificamos funciones de bajo nivel, luego funciones de nivel medio y luego de alto nivel.

Esta es toda la idea sobre DL, aprender cada vez más representaciones abstractas en cada capa. Esta idea es de alguna manera a prueba de futuro, por lo que incluso si es difícil decirlo con alta certeza, esta naturaleza compositiva de los algoritmos DL resistirá la prueba del tiempo. Podría ser que quizás no sea necesario tener más de 100 capas en el futuro o que algunas redes más anchas y poco profundas puedan comenzar a funcionar tan bien como redes más delgadas y más profundas a medida que se descubran mejores algoritmos de aprendizaje.

Entonces, ¿cuál es el futuro de DL? Bueno, está claro que DL está muy supervisada y requiere objetivos suaves y diferenciables. Por lo tanto, incluso si es menos probable que cambie el concepto de aprendizaje jerárquico en capas, los métodos de aprendizaje reales cambiarán de este deseo de proyectar todo de una manera simplificada y diferenciable.

Espero que esto ayude.

Voy a arriesgarme aquí y decir que el aprendizaje profundo probablemente no sea el futuro (al menos todavía no). Muchas empresas ahora están recurriendo a las soluciones de ML para obtener información valiosa; así que todavía estamos en el aumento de ML básico en el espectro en este momento. Hay algunas razones por las cuales:

  • Intentar implementar modelos DL en un sistema escalable es muy, muy difícil debido a la complejidad de configurar el número apropiado de capas, la optimización de hiperparámetros, etc., sigue siendo una gran carga para una empresa y, por lo general, no vale la pena el esfuerzo (o el dinero en efectivo ) Además, ¿qué pasa si la empresa necesita volver a entrenar el modelo? Esa es una bestia diferente en sí misma. Piénselo desde esta perspectiva: algunas compañías están utilizando Regresión logística sobre árboles de decisión y conjuntos porque encajan mucho mejor en su pila. Si algunas grandes empresas no pueden usar conjuntos en su pila, entonces los métodos DL están fuera de la cuestión en este momento.
  • El aprendizaje profundo, como otros mencionaron, todavía lleva mucho tiempo entrenar y probar. Tienes que tener un poder de GPU serio para hacer esto (¡y eso no es barato!). Los modelos ML básicos se pueden entrenar en una computadora portátil barata.
  • Los modelos básicos de ML aún resuelven la mayoría de los problemas comerciales. Hasta que podamos demostrar la viabilidad de DL como un generador de dinero para las empresas y facilitar la capacidad de integración en su arquitectura de software, no será lo “interno” en lo corporativo.
  • Los métodos básicos de ML son mucho más fáciles de explicar a un ejecutivo de negocios en lugar de tratar de usar analogías neurológicas para explicar las redes neuronales (créanme, lo he intentado).

Quiero enfatizar que me encanta DL y sus aplicaciones. Como señaló Zeeshan, ha logrado avances masivos a un ritmo mucho más rápido de lo que cualquiera podría haber imaginado. Pero sus aplicaciones en este momento son limitadas; y no veo que ML tradicional sea superada en los próximos años por DL.

En mi opinión, dos de las áreas en las que se encuentra el futuro del aprendizaje profundo son:

  1. Técnicas de interpretación para el aprendizaje profundo :

    El aprendizaje profundo no es muy interpretable, y esto lo hace indeseable en los casos en que es importante entender por qué un modelo de aprendizaje profundo está haciendo ciertas predicciones. Por ejemplo, si usted es un capitalista de riesgo que intenta utilizar el aprendizaje profundo para decidir en qué empresa nueva invertir, y un modelo de aprendizaje profundo le dice que invierta en una determinada empresa nueva de Blockchain, es posible que desee entender por qué recomienda ese inicio particular, para decidir si la predicción tiene sentido / si está de acuerdo con los criterios utilizados por el modelo.
    En general, también querrá asegurarse de que su modelo de aprendizaje profundo no se sobreajuste, y las buenas técnicas de interpretación pueden ayudar a revelar si su modelo también se sobreajusta (aunque no son la única forma de determinar esto, y en algunos casos puede que no incluso ser la mejor manera de determinar esto).
    Las técnicas de interpretación para el aprendizaje profundo son un área de investigación muy activa, y recientemente se han publicado algunas buenas técnicas (como la descomposición contextual). Si bien la descomposición contextual se limita actualmente a LSTM, espero que las técnicas de interpretación de calidad para otros modelos salgan en el futuro.

  2. Aprendizaje profundo bayesiano :
    A veces, puede ser útil tener una medida de incertidumbre sobre las predicciones de su modelo. Deep Learning actualmente no le brinda intervalos de confianza para las predicciones, y las técnicas bayesianas se pueden usar para obtener intervalos de confianza. Si bien se han realizado algunas investigaciones en esta área, todavía es un área de investigación relativamente incipiente.

    Los enfoques bayesianos también pueden ayudar a que el aprendizaje profundo sea menos dependiente de grandes conjuntos de datos para la capacitación. Un ejemplo relacionado de esto es el área de aprendizaje activo, que utiliza técnicas bayesianas para actualizar modelos utilizando pequeñas cantidades de datos. Una menor dependencia de grandes conjuntos de datos permitirá que las nuevas empresas implementen soluciones de aprendizaje profundo que no tienen muchos datos para empezar. Esto es muy deseable para las nuevas empresas, como una empresa de moda que busca proporcionar recomendaciones de ropa personalizadas de calidad, pero no tiene muchos datos para comenzar.

Los avances en estas dos áreas harán que el aprendizaje profundo sea más interpretable y le permita tener menos hambre de datos, mitigando así dos problemas principales en el aprendizaje profundo. Es posible que haya otros aspectos que no haya cubierto, ya que el aprendizaje profundo es un campo vasto, y espero que otras respuestas brinden información sobre los aspectos que faltan en mi respuesta.

Sí, la mayoría de los docentes, estudiantes de posgrado y muchos equipos de ingeniería en la industria ya han abandonado todo lo demás y han pasado al aprendizaje profundo. La mayoría de los nuevos estudiantes de posgrado en áreas aplicadas, como la visión por computadora que conozco, no saben nada sobre modelos gráficos probabilísticos, por ejemplo, y su solución propuesta a cualquier problema es un CNN / LSTM / GAN.

El siguiente es un artículo estilo blog publicado por el profesor líder de reconocimiento de patrones Rama Chellappa, y una de las mayores autoridades en cara y biometría, donde lamenta este estado de cosas:

La suerte cambiante del reconocimiento de patrones y la visión por computadora

Es un gran problema tener un algoritmo que pueda absorber grandes cantidades de datos, que es lo que permiten los métodos de aprendizaje profundo. El (re) descubrimiento de dicho algoritmo (entrenamiento de redes neuronales profundas) ha hecho posible muchas aplicaciones nuevas, que no eran posibles hace solo unos años. Por lo tanto, la emoción en torno al aprendizaje profundo no es sorprendente en absoluto. Sin embargo, esta emoción está destinada a desvanecerse a medida que disminuye el número de nuevas aplicaciones habilitadas por nuevo trimestre. ¿Qué tan emocionado estás hoy con la máquina de vapor?

Hay otros problemas importantes en el aprendizaje automático. Es muy deseable poder inyectar conocimiento de dominio en modelos de aprendizaje automático, que es algo que los métodos de aprendizaje profundo no pueden hacer. Ya sabemos bastante sobre la gramática y la construcción de oraciones en inglés, ¿por qué entonces no se puede garantizar que nuestro último y mejor modelo de lenguaje basado en el aprendizaje profundo obedezca esas reglas? ¿Por qué tiene que aprender cada maldita cosa solo de los datos? Del mismo modo, si realmente vamos a reemplazar a los tomadores de decisiones humanos por máquinas, necesitamos algoritmos que puedan realizar el pensamiento reflexivo. Como solía decir Marvin Minsky, ¡buena suerte al obtener un DNN para razonar que puedes tirar de una cuerda, pero no empujarla! Otro ejemplo de un problema abierto es la interpretabilidad. ¡Si está desatando un DNN para tomar decisiones de préstamo (por parte de un banco), es mejor que se asegure de que no aprenda a ser racista!

A medida que los incentivos económicos se desvanecen, y los líderes de investigación logran avances en problemas para los cuales el aprendizaje profundo por sí solo no es particularmente susceptible, el interés en otras técnicas, tal vez que pueda complementar los métodos de aprendizaje profundo, regrese. No veo el aprendizaje profundo como una máquina completamente oculta que está aprendiendo cinco años más adelante.

El potencial del aprendizaje profundo parece ilimitado, pero los desarrolladores aún están descubriendo cómo ponerlo en práctica. Estas tendencias a corto plazo ayudarán a avanzar.

El aprendizaje profundo es uno de los algoritmos de aprendizaje automático que utilizan muchas capas de unidades de procesamiento no lineal principalmente para la extracción y transformación de datos. Los algoritmos de aprendizaje profundo se basan básicamente en representaciones distribuidas.

Descargue el folleto en PDF para más información [correo electrónico protegido] HAGA CLIC AQUÍ

La creciente demanda de sistemas mejorados y la interacción humana actúa como un factor impulsor para el mercado. Los sistemas de aprendizaje profundo desarrollan principalmente un conocimiento profundo del dominio y transfieren la información requerida a los usuarios finales de manera utilizable.

Las 6 predicciones para el futuro del aprendizaje profundo son:

1. La industria del aprendizaje profundo adoptará un conjunto básico de herramientas estándar

2. El aprendizaje profundo obtendrá soporte nativo dentro de Spark

3. El aprendizaje profundo encontrará un nicho estable dentro del ecosistema de análisis abierto

4. Las herramientas de aprendizaje profundo incorporarán marcos de programación simplificados para una codificación rápida

5. Los kits de herramientas de aprendizaje profundo respaldarán el desarrollo visual de componentes reutilizables

6. Se incorporarán herramientas de aprendizaje profundo en cada superficie de diseño

El aprendizaje profundo es uno de los algoritmos de aprendizaje automático que utilizan muchas capas de unidades de procesamiento no lineal principalmente para la extracción y transformación de datos. Los algoritmos de aprendizaje profundo se basan básicamente en representaciones distribuidas. La creciente demanda de sistemas mejorados y la interacción humana actúa como un factor impulsor para el mercado.

Descargue el folleto en PDF para obtener más información sobre Deep Learning Market Future & Scope

Los sistemas de aprendizaje profundo desarrollan principalmente un conocimiento profundo del dominio y transfieren la información requerida a los usuarios finales de manera utilizable. Por ejemplo, el sistema de aprendizaje profundo tiene sus enormes aplicaciones en el sector bancario y financiero, ya que ayuda principalmente a los empleados bancarios a ampliar sus capacidades de trabajo y permite a las instituciones bancarias centrarse más en la interacción con el cliente que el enfoque convencional basado en transacciones.

Además, el software de aprendizaje profundo ofrece soluciones basadas en el análisis de los antecedentes e historia del cliente y proporciona evidencia y razonamiento contextual para cualquier problema. Con el aumento de las actividades de investigación y desarrollo, el área de uso final de los sistemas de aprendizaje profundo se está expandiendo, que incluye defensa y aeroespacial, atención médica, petróleo y gas, telecomunicaciones y tecnología de la información, comercio minorista, banca y sector financiero, automotriz, industrial, entre otros.

Intel Corporation (EE. UU.), Hewlett Packard Enterprise Company (EE. UU.), Google Inc. (EE. UU.), Microsoft Corporation (EE. UU.) E International Business Machines Corporation (EE. UU.), Entre otras, son algunas de las empresas clave que operan en el mercado de sistemas de aprendizaje profundo a nivel mundial.

Siento que el último recurso agregado al campo recientemente es bastante robusto y explica el futuro de DL en detalle. Aqui esta el link-

Aprendizaje profundo con aplicaciones que usan Python: Chatbots y reconocimiento de rostro, objetos y voz con TensorFlow y Keras: Navin Kumar Manaswi: 9781484235157: Amazon.com: Libros

Un experto:

“Dado que el mundo se está enfocando en la Inteligencia Artificial de una forma u otra, el Aprendizaje Profundo como el mejor componente de la Inteligencia Artificial tomará el centro del escenario. Deep Learning hace un trabajo maravilloso en el reconocimiento de patrones, especialmente en el contexto de imágenes, sonido, habla, lenguaje y datos de series de tiempo.

Cuando hablamos de Deep Learning, es probable que discutamos los mejores marcos para el desarrollo de Deep Learning. Afortunadamente, en noviembre de 2015, Google lanzó Tensorflow, marco de aprendizaje profundo, que se ha utilizado en la mayoría de los productos de Google, como la búsqueda de Google, la detección de spam, el reconocimiento de voz, Google Allo, Google Now y Google Photos.

Tensorflow permite el paralelismo de modelos y el paralelismo de datos. TensorFlow proporciona múltiples API. El API de nivel más bajo, TensorFlow Core, le proporciona un control de programación completo ”.

No, el aprendizaje profundo no reemplazará al aprendizaje automático tradicional, vivirán uno al lado del otro. Deep Learning solo agrega la capacidad de incorporar datos de baja calidad al pliegue: aprende por sí mismo las funciones ricas y convierte los datos de baja calidad, como píxeles y muestras de sonido, en funciones de alta calidad, que luego se incorporan al aprendizaje automático tradicional. (De hecho, Deep Learning en realidad tiene el aprendizaje automático normal como parte de su cartera. La última etapa es un clasificador tradicional, que normalmente es un NN de respaldo, pero puede ser SVM, forrest aleatorio o cualquier otro clasificador de aprendizaje automático). Los campos que ya tienen datos enriquecidos, como los datos comerciales, no obtienen ningún beneficio de Deep Learning. Por lo tanto, solo las personas de aprendizaje automático que intentaban aplicar el aprendizaje automático tradicional a datos de baja calidad, como imágenes, video y sonido, se han cambiado a Deep Learning. Los dos vivirán uno al lado del otro en el futuro.

El aprendizaje profundo es uno de los algoritmos de aprendizaje automático que utilizan muchas capas de unidades de procesamiento no lineal principalmente para la extracción y transformación de datos. Los algoritmos de aprendizaje profundo se basan básicamente en representaciones distribuidas. La creciente demanda de sistemas mejorados y la interacción humana actúa como un factor impulsor para el mercado.

Descargue el folleto para conocer información detallada sobre el aprendizaje profundo Análisis futuro de la industria y avances técnicos recientes

Además, el software de aprendizaje profundo ofrece soluciones basadas en el análisis de los antecedentes e historia del cliente y proporciona evidencia y razonamiento contextual para cualquier problema. Con el aumento de las actividades de investigación y desarrollo, el área de uso final de los sistemas de aprendizaje profundo se está expandiendo, que incluye defensa y aeroespacial, atención médica, petróleo y gas, telecomunicaciones y tecnología de la información, comercio minorista, banca y sector financiero, automotriz, industrial, entre otros.

Intel Corporation (EE. UU.), Hewlett Packard Enterprise Company (EE. UU.), Google Inc. (EE. UU.), Microsoft Corporation (EE. UU.) E International Business Machines Corporation (EE. UU.), Entre otras, son algunas de las empresas clave que operan en el mercado de sistemas de aprendizaje profundo a nivel mundial.

Depende. En mis áreas de aplicación (biotecnología / genómica / educación / psicología), muchos conjuntos de datos son pequeños (<1000 observaciones o incluso <100 observaciones), y el aprendizaje profundo no funcionará tan bien como otros algoritmos en este tipo de datos o puede fallar por completo (Aquí hay un documento que detalla algunos ejemplos: https://arxiv.org/ftp/arxiv/pape …).

Para problemas grandes, el aprendizaje profundo ofrece buenas propiedades de convergencia. Sin embargo, existen alternativas con bajo poder computacional, como máquinas de aprendizaje extremo y conjuntos paralelos de algoritmos de aprendizaje automático (bosque aleatorio, xgboost …).

ArXiv sugiere que últimamente se escriben muchos más trabajos académicos sobre aprendizaje profundo que otros algoritmos, particularmente para el análisis de imágenes y el procesamiento del lenguaje natural (generalmente más de 20 trabajos publicados por día).

Muchas compañías están comenzando a construir sus equipos de ciencia de datos y aprendizaje automático. Los algoritmos principales en uso son los modelos clásicos de estadística / aprendizaje automático. El aprendizaje profundo es excelente para datos de imagen / PNL a gran escala, pero muchos problemas empresariales no entran dentro de este ámbito.

Los modelos construidos a partir de fuentes de datos tradicionales para el análisis predictivo (principalmente tipos de datos numéricos / categóricos o mixtos) aún dependen en gran medida de los modelos de aprendizaje automático (si se usa ML). Por ejemplo, las compañías de tecnología publicitaria en línea todavía están utilizando la regresión logística para las predicciones de la tasa de clics, aunque el tamaño de los datos no es un problema allí.

No todo es un problema de aprendizaje automático, y no todos los problemas de aprendizaje automático son un problema de aprendizaje profundo. El uso del modelo más simple que cumpla con sus métricas de precisión / exactitud reducirá la complejidad de su sistema general.

Me recuerda a hace cinco o seis años cuando Hadoop estaba de moda, nadie lo cuestionaba. Entonces, de repente, todos notaron problemas. Ese es un problema computacional, por supuesto, no el aprendizaje automático, pero sospecho que la popularidad de DL disminuirá en algún momento en un futuro no muy lejano.

Ya me encuentro con personas que ponen los ojos en blanco cuando les pregunto su opinión sobre el “descubrimiento” de gatos de DL.

Con una gran cantidad de poder computacional, puede resolver estos problemas con otros métodos. Y como uno de los carteles aquí sabe, necesita una forma de incorporar el conocimiento del dominio, para el cual DL no es adecuado.

El aprendizaje profundo y la inteligencia artificial están interrelacionados. La Inteligencia Artificial ha estado en las noticias desde hace un tiempo, mientras que Deep Learning es la nueva palabra de moda. Uno puede ver que Deep Learning es noticia en más de una industria.

Al trabajar en el campo de la tecnología ed, definitivamente veo muchas oportunidades para el aprendizaje profundo en el sector educativo en términos de personalizar el aprendizaje, estructurar el flujo de trabajo, seguir el progreso, obtener comentarios, etc. Por ejemplo, Watson Content Analytics, NewClassrooms de IBM.

Mientras que los “expertos” están volcando su intento hacia redes neuronales profundas, el futuro del aprendizaje profundo depende de los dominios problemáticos en los que sobresale. Hay pocas razones para creer que una talla única se ajuste a todas las aplicaciones.

Llevamos más de una década realizando aplicaciones de aprendizaje profundo para aplicaciones comerciales muy estrechas. Gran parte de la tecnología no es exactamente nueva, pero está habilitada por CPU, memoria y marcos de bajo costo, lo que está expandiendo el espacio potencial de aplicaciones.

Cuando se trata de la pregunta sobre el futuro del aprendizaje profundo, la interpretaré como una pregunta sobre la dirección hacia donde irán las mejoras en los algoritmos. Uno de los escenarios muy posibles es la mejora en los algoritmos DL reforzados, probablemente como híbridos de métodos supervisados ​​+ reforzados.

En cuanto a la segunda pregunta, no tengo datos suficientes. Solo puedo suponer que en este momento la mayoría de los practicantes de ML son nuevos en el campo y probablemente tengan DL como punto de partida. Vivimos en tiempos dinámicos e interesantes cuando se trata de ML / AI y las personas involucradas ahora están dando forma al futuro.

Si. Creo que el aprendizaje profundo está demasiado lleno ahora. Parece que todas las personas están hablando de eso.

No tengo la visión de contar el futuro de un campo tan profundo de la informática. Sin embargo, creo que todo el poder del aprendizaje profundo aún está medio desatado. Necesitamos tiempo para ver una gran escala de aplicaciones basadas en el aprendizaje profundo.

Y como otros han mencionado, hay un límite para cualquier tipo de algoritmos. No hay una solución única para todos los problemas. Las personas están demasiado concentradas en el aprendizaje profundo. Creo que eso puede ralentizar la tasa de investigación de IA a largo plazo.

No sé cuál será el futuro de DL, pero estoy emocionado de ver cómo crece exponencialmente. En este momento diría que DL es solo un bebé. Y ni siquiera puedes pensar en lo que se convertiría en un adulto. #ifyouknowwhatimean :-p

Vi algunas charlas de TED sobre DL e IA. Dicen que dentro de 30 a 50 años las máquinas aprenderán a actualizarse y adaptarse a las nuevas condiciones adversas, dado que se les da plena libertad. También se supone que pueden recurrir a los humanos, pero no estoy de acuerdo.

Si comienzan a aprender por sí mismos, definitivamente aprenderán la importancia de la especie humana y su contribución en su desarrollo. Sin duda, nos superarán en inteligencia y para ellos podríamos parecer hormigas, al igual que si matamos a una hormiga no nos importa una mierda ni nos importa. No estoy seguro de cómo va a cambiar, pero presenciar el cambio será genial.

Así que mantente atento y aprieta.

Puedes echar un vistazo a la sesión de Yann LeCun: https://www.quora.com/session/Ya … ¡espero que te convenzas de un aprendizaje profundo!

El aprendizaje automático convencional no va a desaparecer.

Deep Learning solo funciona cuando hay garantía de una gran entrada de datos.