“Explicabilidad”, también conocido como “el problema de la caja negra” es un tema candente e incluye la verificación en mi opinión … pero aún es bastante confuso …
Muchas personas están trabajando en ello, a menudo impulsadas por los fondos de DARPA desde noviembre de 2016. Probablemente también los investigadores de verificación, lo único que recuerdo haber leído fue de Yoav Hollander. Pero la mayor parte del trabajo está en la explicación , no en la verificación.
El problema en sí sigue siendo confuso. ¿Esperamos que un modelo de aprendizaje profundo brinde una explicación , sea técnicamente rastreable , brinde confiabilidad paso a paso, que estará más cerca de la verificación, y sea confiable para los consumidores que se preocupan por el sesgo, o todo lo anterior? No son los mismos problemas.
- Cómo llamar a clasificadores y conjuntos de datos de WEKA a Netbeans IDE 7.1
- ¿Cuáles fueron algunos de los artículos de conferencias / revistas de investigación del discurso más interesantes / dignos de mención en 2012?
- ¿Aprender Python en lugar de C ++ es una buena introducción a los lenguajes de programación en medio de la teoría CS / AI?
- ¿Cuál es la mejor herramienta de aprendizaje automático para Mac OS?
- ¿De qué sirven los algoritmos de aprendizaje si no podemos pensar por nuestra cuenta?
Si necesitamos aceptación, la pseudo explicación está bien. Pero no es estabilidad técnica o verificación. “Este es un albatros debido a la barriga blanca, el pico típico, etc.” Ok, pero ¿cuáles de los 120M de peso se usaron para descubrir qué es una panza y qué es blanca?
Los investigadores de Deep Learning están más interesados en encontrar formas de depurar los modelos y evitar el uso adverso. Las empresas comerciales están de acuerdo con una pseudo explicación. ¡Pero los militares y los cirujanos probablemente no! … Parece que hay un largo camino por recorrer …