Tenemos Deep Learning en producción para algunos problemas, especialmente aquellos que involucran análisis de imágenes y videos. También hemos comenzado a invertir mucho en modelos de secuencia como LSTM y otras técnicas de inclusión como word2vec y sus variantes para datos de texto. Además del aprendizaje profundo, también hemos encontrado pruebas sólidas de que técnicas como GBDT capturan la no linealidad y las interacciones bastante bien en problemas de predicción que involucran predictores categóricos de alta dimensión. Algunos de estos están en producción, otros están en camino. Hay algunos productos que todavía están en la etapa de incubación, donde técnicas como Deep Learning desempeñarían un papel importante, pero no puedo hablar de eso ahora en público.
En general, consideramos seriamente los modelos de aprendizaje profundo, PNL, factor y otras técnicas que capturan bien la no linealidad. Pero el uso de estos depende de la aplicación. Como el equipo es una tienda completa (nos preocupamos tanto por la disponibilidad como por aumentar las tasas de clics), la capacitación modelo no es la única consideración. Consideramos seriamente el costo del servicio, por lo que una pequeña mejora con una técnica costosa no necesariamente llega a la producción.
- ¿Existe alguna implementación del modelo de atención en el flujo tensorial?
- ¿Qué papel juega la intuición en las matemáticas y puede la IA reemplazar completamente a un matemático?
- ¿Qué es la factorización de bajo rango y cuáles son sus aplicaciones en el aprendizaje automático?
- Cómo cuantificar la cantidad de ruido en un conjunto de datos
- ¿Cuál es la diferencia entre tensorflow y CVX?