Según lo veo, hay algunos. La primera y más obvia es cómo aprovechar los datos no supervisados para mejorar el rendimiento en la tarea supervisada asociada.
Tomemos como ejemplo una tarea de clasificación binaria. Tienes N ejemplos de entrenamiento, de los cuales [matemáticas] n << N [/ matemáticas] están etiquetados, y el resto no. El enfoque más directo es simple entrenar a un clasificador en los ejemplos etiquetados [matemáticos] n [/ matemáticos], clasificar los ejemplos restantes (sin etiquetar) y luego capacitar a otro clasificador en los [matemáticos] N [/ matemáticos] ahora "etiquetados" puntos. Como puede imaginar, esto no funciona muy bien, aunque se ha ampliado y, en algunos casos, puede lograr un rendimiento notable.
Un enfoque más atractivo (en mi opinión) es aprovechar los datos no etiquetados para aprender una representación que pueda ser útil para la tarea supervisada. Este es el enfoque adoptado, por ejemplo, [1,2], y esto logra resultados muy prometedores. En este régimen, se convierte en un desafío interesante e importante: cómo orientar los modelos hacia representaciones que sean útiles para la tarea supervisada. Por ejemplo, una buena representación de imágenes podría ser significativamente diferente si estamos tratando de realizar un reconocimiento directo de objetos o si se está utilizando como parte de un sistema posterior como jugar juegos de Atari.
- ¿Cómo funciona la regresión lineal múltiple en variables categóricas?
- ¿Cuál es la principal diferencia entre la forma bayesiana de estimación de parámetros y la regresión lineal?
- ¿Qué es mejor para alguien que esté dispuesto a hacer un doctorado en visión artificial: conocer un método en profundidad y aplicaciones ampliamente, o lo contrario?
- ¿Por qué el 'modelo neuronal McCulloch-Pitts' también se conoce como puerta umbral lineal?
- ¿Cuál debería ser el primer paso para aprender IA y aprendizaje automático?
Otro reto interesante es la eficiencia de los datos. Esto se relaciona con un problema estrechamente relacionado llamado aprendizaje de K-shot, donde un modelo intenta aprovechar su capacitación para generalizar rápidamente a una nueva clase. Entonces, por ejemplo, digamos que has entrenado un modelo para clasificar perros y caballos usando un millón de imágenes. Ahora quieres que también distinga a los gatos. ¿Puedes aprovechar la capacitación previa para aprender esto rápidamente también? ¿Cuál es el número mínimo de imágenes que necesita para alimentarlo antes de que pueda obtener un buen rendimiento en esta nueva clase? Esta pregunta se relaciona con la eficiencia estadística de las representaciones internas del modelo y cómo las aprovechamos durante el entrenamiento.
Estas son todas las áreas de investigación abiertas y activas en ML en este momento, y estoy seguro de que hay otros desafíos en los que uno podría pensar.
[1] – [1406.5298] Aprendizaje semi-supervisado con modelos generativos profundos
[2] – [1602.05473] Modelos generativos profundos auxiliares