Como mencionó Justin Rising, es un problema de representación del conocimiento.
Para ampliar esto desde una perspectiva de LD: muchos métodos estadísticos más simples darían tan buenas predicciones de sistemas complejos de última generación si su entrada consiste en un conjunto “bueno” de las características. Ahora, bueno no significa entendible en el sentido del conocimiento de la palabra. Bueno significa adaptado para resultados de bajo error (alta utilidad).
Los sistemas DL modernos son aproximadores de recuadro negro: lo que significa que no se pueden dar buenas descripciones de nivel humano para las características construidas. El sistema final está aproximando una función compleja y usándola para elegir una acción de utilidad máxima. No tiene “conocimiento” del dominio en sentido humano.
- Visión por computadora: ¿cómo se asignan / extraen los atributos de las imágenes?
- ¿Cómo se compara la neuroevolución con el aprendizaje por refuerzo? ¿Hay algún problema en el que la neuroevolución resulte en una mejor solución?
- ¿Cómo cambiará la forma en que los usuarios interactúan con los algoritmos de aprendizaje automático en los próximos años?
- ¿Cuáles son los éxitos recientes en IA además del aprendizaje profundo?
- ¿Cómo resuelve RELU los gradientes que desaparecen y explotan en la red neuronal?
Puede compartir algo de apoyo estadístico entre tareas, y hay muchos documentos excelentes sobre eso, pero simplemente volcar todo lo que tenemos en un solo aproximador conducirá a malos resultados en todos los ámbitos, ya que estaría dando diferentes funciones generadas datos al sistema que está diseñado para procesar datos generados por una función única compleja en el sentido de modelado.