La interpretabilidad es realmente una pregunta súper complicada. Y tiene muchos matices. Estoy completamente de acuerdo en que tiene que comenzar con una función que sea significativa. Asumiendo que se cumpla esa condición, echemos un vistazo a los modelos.
En primer lugar, casi por definición, uno realmente no puede entender un buen modelo. Eso suena bastante deprimente, pero aquí está el argumento: si nuestra capacidad mental humana fuera equivalente a la de un buen modelo de aprendizaje automático, podríamos entenderlo. Pero, casi por definición, un modelo que es mejor para la predicción que los humanos (y podemos argumentar si hablo del humano promedio o el que se espera aquí …) no puede ser realmente entendido por un humano (nuevamente elija experto o promedio).
¿Alguna vez ha hablado con un matemático sobre matemáticas o en general con una persona que es mucho más inteligente (me pasa todo el tiempo)? Algunos pueden ser mejores para explicar algo que otros, pero en última instancia, no puedes entender lo que ellos entienden. Y si creo que sí, la explicación seguramente será una simplificación “no del todo cierta”. Lo mismo se aplica en principio a los modelos (para bien o para mal).
- ¿Es posible utilizar el aprendizaje automático para hacer un programa que pueda programar?
- ¿Cuáles son las aplicaciones más prometedoras de ML / AI en el cuidado de la salud, excluyendo la informática de imágenes?
- ¿Cómo se calcula el subconjunto de vocabulario en 'Al usar vocabulario de objetivos muy grandes para la traducción automática neuronal'?
- En la regresión cuadrática, ¿por qué tengo que mantener una variable y su aumento exponencial en el mismo modelo?
- Cómo cuantificar la cantidad de ruido en un conjunto de datos
Pero eso es absoluto. En el pariente podríamos ser capaces de entender / interpretar algo sobre lo que está sucediendo …
Y aquí es donde llegamos a algunos de los matices: ¿quieres entender el modelo o la predicción? Hay una diferencia notable. Comprender un modelo puede proporcionar algunas ideas sobre el proceso subyacente que está modelando; en el mejor de los casos, incluso puede identificar las causas de ciertos efectos. Pero esto es diferente de tener que explicar una predicción específica. Eso tiende a importar si quieres que un practicante ACTÚE con la predicción única.
A menudo he intercambiado explícitamente el rendimiento y (mi) comprensión. Al trabajar con profesionales de muchos dominios, he elegido en numerosas ocasiones uno de los PEORES modelos posibles: kNN básicamente nunca funciona bien. No puede porque no aprende … No puede decir que una dimensión / característica es más importante que otra (a menos que usted lo diga, por supuesto). Ese es el componente fundamental del aprendizaje: descubrir lo que realmente importa y lo que no. kNN no ‘aprende’, pero es muy fácil de explicar cuando se trata de predicciones: DEBE gustarle “Mrs Congeniality” porque bueno, aquí, vea a todas aquellas personas a las que les gustaron las mismas películas que le gustaron. Y adivina qué, ¡a todos les ENCANTÓ! No puedes discutir hechos … (bueno, podrías preguntar si demonios significa ‘me gustan las mismas películas que a ti’). Pero al menos en la superficie, funciona muy bien con nuestra mente. Así es como aprendemos: he visto una situación similar en el pasado y sé lo que sucedió después. Voila, puedo predecir que cuando toque una llama me lastimaré.
Buena suerte en comparación explicando que te debe gustar esa película porque bueno, la regresión logística te dio un puntaje de probabilidad de 0,9237, que de hecho es una transformación logarítmica de una combinación lineal de un grupo de variables indicadoras para tu gusto por las diferentes películas … Tenga en cuenta que puedes ‘entender’ perfectamente la respuesta con un poco de álgebra de nivel secundario; simplemente no significa nada. Y se pierde la pregunta obvia: ¿por qué en esa ecuación fue -0.348 veces mi calificación para ‘Alien’?
Pero aunque las predicciones de kNN son fáciles de comunicar, la ausencia de un modelo limita, por otro lado, la capacidad de aprender algo fundamental sobre el problema. Sin embargo, hay mucho que aprender y comprender de la regresión logística. Si de hecho estuvieras viendo indicadores binarios de películas que anteriormente le gustaban a una persona, los parámetros podrían ser buenos para identificar esas películas que en general son indicativas de que una persona está interesada en “Mrs. Congenialidad”.
Sin embargo, para este propósito, tiendo a preferir ser mucho más simple: Naive Bayes o alguna de sus variantes. Formalmente, las probabilidades de registro en los modelos logísticos pueden ser confusas, por decir lo menos. Hay colinealidad a considerar que arruinará las cosas y los signos pueden terminar siendo muy engañosos. De hecho, gustarle “Terminator I” puede tener un impacto negativo en la probabilidad de que le guste “Terminator III” dado “Terminator II” incluso si sin “Terminator II” en la mezcla hay una relación positiva. Si bien este matiz ayuda a la regresión logística a hacer mejores predicciones que Naive Bayes, los parámetros a menudo son contra-intuitivos. Entonces, a menudo prefiero calcular las razones entre las probabilidades condicionales para interpretar.
Una última palabra sobre los árboles de decisión. Se proclama que son interpretables. Bueno, tal vez algunos árboles lo son. Pero una vez que tiene suficientes datos, los árboles de mejor rendimiento (incluso podados) tienden a ser tan grandes que ni siquiera puede visualizarlos fácilmente, y mucho menos interpretar lo que está sucediendo. E incluso en un árbol más pequeño: Ciertamente, puede escribir la predicción como regla: debe gustarle la película porque tiene más de 23 años, le gusta un poco de drama, es mujer, etc. Pero como con la logística, realmente no ha explicado nada, no tienes idea de por qué el árbol se ve como se ve. De hecho, los árboles tienen el molesto hábito de cambiar con pequeños cambios de muestra, sin mencionar que debido a la naturaleza heurística del algoritmo, hay muchos árboles diferentes que crean exactamente la misma partición en el espacio.
¿Dónde nos deja esto? En primer lugar, debemos preguntar para qué queremos exactamente la interpretación. Para algunos es un problema de confianza, pero aquí prefiero ir con una evaluación sólida. Nuestro cerebro evolucionado puede ser fácilmente engañado para “entender” un modelo que de hecho está completamente equivocado. Para otros, se trata de una cuestión de transparencia: mi sensación es que para eso podría ser más útil simplemente pinchar el modelo como un cuadro negro variando las entradas para tener una idea de la sensibilidad. Digamos que le pregunto al modelo qué habría predicho si yo fuera 10 años mayor de lo que realmente soy. Esto no es exactamente consistente con las teorías de muestreo IID adecuadas, pero en mi opinión es una prueba justa.
En el último santo grial de usar un modelo para comprender un dominio, si no incluso las relaciones causales entre diferentes variables, se han desarrollado muchos enfoques específicos, pero la mayoría de ellos implican reglas mucho más estrictas sobre la generación de datos, la variabilidad y la observabilidad de todos los aspectos relevantes. información de lo que suele ser el caso de todos modos. De hecho, el campo de los métodos de observación (es decir, TMLE y otros estimadores robustos dobles) para estimar el impacto causal realmente no se preocupan mucho por la interpretabilidad de un modelo, porque la interpretación causal se deriva de las predicciones del modelo, no de su estructura.