¿Cuáles son los algoritmos de aprendizaje automático que se sabe que no son transparentes?

Las redes neuronales artificiales son notorias a este respecto, especialmente cuando son profundas.

¿Mira esta red y me dice si cree que alguien sabe cómo interpretar el significado de la neurona 7 en la capa oculta 2?

Las redes reales también son mucho más grandes, lo que lo hace aún peor. Sí, hay esfuerzos para visualizar lo que sucede dentro de las redes neuronales, como las espeluznantes imágenes de ensueño de DeepMind de Google, pero los ANN todavía son cuadros negros en su mayor parte.

También se sabe que las máquinas de vectores de soporte son difíciles de interpretar, ya que producen límites de decisión no lineales y no intuitivos, así:

En el extremo opuesto del espectro, tienes árboles de decisión .

Estos son excelentes para comprender lo que está sucediendo. Simplemente sigue la rama hasta llegar a la hoja y luego sabes exactamente por qué el modelo predijo lo que hizo.

Desafortunadamente, los árboles de decisión a menudo se implementan como conjuntos en la práctica para mejorar la precisión y reducir la varianza. Los bosques aleatorios y los árboles impulsados ​​por gradientes son modelos bastante simples conceptualmente, pero una vez que se agregan decenas o cientos de árboles, resulta poco práctico tratar de interpretar por qué el modelo hizo una cierta predicción.

Este es uno de los principales problemas del aprendizaje automático en la actualidad. Los algoritmos de mejor rendimiento también son los menos transparentes.

Neural netd, y por extensión el aprendizaje profundo, son extremadamente obtusos. Tienes un gran conjunto de pesas con significados desenterrados. Intentar revertir la ingeniería del jengibre lo que está haciendo una red neuronal es difícil.

Las máquinas de vectores de soporte son un poco más claras, ya que tiene un conjunto claro de pesos para cada característica, pero a menudo es difícil de interpretar más allá de qué características son positivas o negativas, y qué características son más relevantes.

Los árboles de decisión son los más claros, ya que puede seguir claramente las cadenas de razonamiento para cada resultado, pero los bosques aleatorios lo nublan, ya que está observando el promedio de muchos árboles de decisión. Algunas cosas pueden permanecer claras, otras no tanto.

El aprendizaje de refuerzo es a menudo vago de entender.

Los algoritmos genéticos pueden ser particularmente buenos para crear modelos no intuitivos.

t-SNE es menos interpretable que múltiples algos de aprendizaje como LLE / Isomap (algoritmos de reducción de dimensionalidad espectral).

Los cálculos de t-SNE son necesariamente iterativos ya que el problema de optimización que se resuelve no tiene una solución de forma cerrada. Las incorporaciones de LLE e Isomap , por otro lado, están dadas por la descomposición propia de algunas matrices que se construyen a partir de datos (de manera similar a PCA).