Tenemos Deep Learning en producción para algunos problemas, especialmente aquellos que involucran análisis de imágenes y videos. También hemos comenzado a invertir mucho en modelos de secuencia como LSTM y otras técnicas de inclusión como word2vec y sus variantes para datos de texto. Además del aprendizaje profundo, también hemos encontrado pruebas sólidas de que técnicas como GBDT capturan la no linealidad y las interacciones bastante bien en problemas de predicción que involucran predictores categóricos de alta dimensión. Algunos de estos están en producción, otros están en camino. Hay algunos productos que todavía están en la etapa de incubación, donde técnicas como Deep Learning desempeñarían un papel importante, pero no puedo hablar de eso ahora en público.
En general, consideramos seriamente los modelos de aprendizaje profundo, PNL, factor y otras técnicas que capturan bien la no linealidad. Pero el uso de estos depende de la aplicación. Como el equipo es una tienda completa (nos preocupamos tanto por la disponibilidad como por aumentar las tasas de clics), la capacitación modelo no es la única consideración. Consideramos seriamente el costo del servicio, por lo que una pequeña mejora con una técnica costosa no necesariamente llega a la producción.
- ¿Qué son los algoritmos recurrentes de redes neuronales?
- ¿Cómo funciona el algoritmo EM para un modelo mixto que factoriza según un modelo Naive-Bayes?
- ¿Quiénes son los profesores que trabajan en biología computacional utilizando el aprendizaje automático inspirado en bio como las redes neuronales?
- ¿Cómo debo comenzar si quiero ser parte de un proyecto de inteligencia artificial?
- ¿Cuántas horas le tomaría a un analista de datos profesional revisar los datos simples de la compañía y construir un modelo para predecir el desgaste?