En cuanto al aprendizaje automático o el aprendizaje profundo, ¿existe el fenómeno de que el modelo funciona bien pero el diseñador no puede explicar la razón?

Bill lo captura completamente, comenzando con “cajas negras de red neuronal”. Ni siquiera tenemos un razonamiento matemático formal en muchos casos de por qué los modelos funcionan como lo hacen. Particularmente en los avances recientes que hemos visto, el razonamiento formal a menudo, si no siempre, va detrás de la avalancha de modelos de trabajo altamente exitosos, algunos de los cuales nos superan en su precisión al realizar ciertas tareas.

La tensión entre los diseñadores exitosos de modelos y el razonamiento matemático formal es evidente en un intercambio reciente entre Yann Le Cun y Ray Kurzweil (enero de 2017).

En resumen, los diseñadores de modelos juguetean y progresan ayudados en parte por la intuición desarrollada con el trabajo en el espacio del problema.

En cuanto a los programadores / ingenieros como yo que ni siquiera diseñan nuevos modelos, el razonamiento matemático más formal ( repleto de gimnasia de notación que puede hacer que incluso nuestros ágiles músculos sacádicos se cansen ) puede estar más allá del alcance de la comprensión de todos modos: simplemente elegimos / adaptamos Modelos existentes e hiperparámetros de ajuste.

  • Sin embargo, deseo creer que todavía hay una oportunidad para aquellos como yo de crear valor a menor escala, aunque uno inevitablemente debe renunciar al título de “buen programador” y aceptar la etiqueta “un primate bípedo que aprende a girar perillas”. – Todavía no soy experto …

Las redes neuronales son cajas negras, son una rendición casi total del razonamiento mecanicista a las estadísticas. Las explicaciones de por qué funcionan (o no) se basan en estadísticas, no en lógica aristotélica. Del video a continuación: “el conjunto de muestra es demasiado pequeño”. “El sesgo es demasiado grande”. “La variación es demasiado grande”. No “El sistema no comprende chihuahuas verdes bajo la lluvia”.

Como tal, sospecho que su pregunta no es sequitur, el diseñador -nunca- entendió la razón por la cual el modelo funcionó bien (o no) en primer lugar. Al menos, no en términos no estadísticos.

La red desarrolla su propia forma de responder la pregunta (Observe en particular el comentario del Dr. Ng “Los fonemas son una fantasía de lingüistas”). Un maravilloso ejemplo es de Detecting Tanks, donde Ed Fredkin vio una presentación que describe una red entrenada para detectar tanques, y comentó que la red realmente distinguía días nublados y no nublados.

Este video aparece aquí: la respuesta de Bill Paseman a ¿Cuáles son los algoritmos de aprendizaje profundo más importantes? ¿En qué orden debo aprenderlos?

Déjame ponerlo de esta manera. Digamos que queremos escribir un programa (o llamarlo AI si lo desea) que puede detectar perros en fotos en Instagram y etiquetar automáticamente la foto con “#Dog”. El proceso de detección de perros es difícil. Una computadora tiene que mirar una imagen e identificar un Shepard alemán y un Chihuahua como la misma cosa. ¿Qué pasa si el perro está de pie, sentado o corriendo? Todavía es un perro, pero su cerebro registra automáticamente todo esto como perro sin sudar. Sin embargo, ¿puede explicarme en detalle el proceso de detección de un perro? No puedo Para responder a este tipo de problemas, entramos asumiendo que no conocemos el proceso para resolver el problema, pero hacemos un modelo entrenándolo con un montón de imágenes de perros, así que cuando ve una nueva imagen, puede identificarlo como perro o no. En general, este es el objetivo del aprendizaje automático.

Sin embargo, hay algunas IA, como en los videojuegos, que están programadas explícitamente. Como si el enemigo está a 5 pies del jugador, dispara. Si la barrera se interpone en tu camino, salta sobre ella. Ese tipo de cosas.

Para responder a su pregunta, sí y no. Depende de cómo abordes el problema.