Cuando nos referimos a los modelos como recuadros negros, generalmente nos referimos a la dificultad de rastrear una predicción a partir de qué características son importantes. Aunque las matemáticas utilizadas para construir una red neuronal son sencillas, esto no es lo mismo que entender cómo se llegó a la salida. Si una multitud de neuronas ‘interactúan’ de formas complejas para producir el resultado final, a pesar de que la construcción de una sola neurona es obvia, no se puede saber exactamente cómo se desarrolló todo una vez que el algoritmo se soltó en los datos.
Esto no es solo para el aprendizaje profundo. Incluso las redes neuronales poco profundas se consideran cajas negras, ya que comprender cómo se llegó a la salida final es extremadamente difícil. Algunos practicantes intentarán mostrar el ‘camino’ que fue tomado por una red neuronal identificando todas las conexiones ponderadas entre los nodos, pero típicamente las redes neuronales se usan exclusivamente por su poder predictivo en lugar de sus débiles habilidades explicativas.
La verdad es que esto no es solo para modelos aprendidos por redes neuronales y SVM (otro enfoque de “caja negra”). Todo el aprendizaje automático opera en dimensiones superiores a las que la mente humana puede visualizar directamente , oscureciendo para siempre cómo la heurística de un algoritmo llegó a su destino final. También es muy difícil tratar de vincular la intuición a los parámetros de un modelo.
- ¿Qué sucede si hacemos que cada unidad de filtro o núcleo en una capa CNN dentro de una red neuronal profunda tenga diferentes tamaños de ventana pero el mismo número de parámetros de peso (lo que resulta en granulado grueso)? ¿Podría conducir a un efecto contextual?
- ¿El aprendizaje supervisado se usa más?
- ¿Alguien puede responder a estas preguntas relacionadas con la competencia de kaggle?
- Si la tasa de predicción de un algoritmo de aprendizaje automático mantiene porcentajes bajos (50% a 60%) en un conjunto de datos, ¿cómo puedo mejorar?
- ¿Cuáles son los fundamentos programáticos del procesamiento del lenguaje natural?
La discusión sobre las cajas negras en el aprendizaje automático se reduce a la interpretabilidad de un modelo y a cómo definir ese término. Recomiendo leer el artículo de Leo Brieman que compara los modelos de datos utilizados por los estadísticos y los modelos algorítmicos utilizados por los practicantes de aprendizaje automático. Brieman discute la relación entre predicción e interpretabilidad. Otra gran lectura es un artículo de Zachary Lipton llamado The Mythos of Model Interpretability, donde el autor habla sobre la definición del término interpretabilidad y lo que eso significa para los modelos considerados “caja negra”.
Recientemente resumí esos 2 artículos y discutí las implicaciones para Data Science en esta pregunta de Quora.