Hay muchos casos de uso de aprendizaje automático (ML) que pueden ser fácilmente revolucionarios, pero los algoritmos de ML más avanzados que hoy llamamos algoritmos de aprendizaje profundo (DL) no tienen un factor crucial, no son explicables. Por lo tanto, los algoritmos DL no pueden aplicarse en áreas sensibles por el hecho de que es difícil explicarlos y ni siquiera pueden justificar sus conclusiones.
Dados los datos de entrenamiento, estos modelos aprenden una función de mapeo compleja [matemática] g () [/ matemática] tal que:
[matemáticas] y \ aprox g (x) [/ matemáticas]
- ¿Qué debo aprender primero de aprendizaje automático o redes neuronales?
- ¿Existe un modelo más efectivo que Word2vec desde 2013?
- Cómo especificar si quiero ejecutar una función de paquete Caret para clasificación o regresión
- ¿Por qué los pesos hacia adelante y hacia atrás son iguales en la máquina de Boltzmann restringida?
- Cómo entrenar un clasificador SVM a partir de ejemplos de texto
Y dado que la función real es [math] f () [/ math] que está oculta y es extremadamente compleja:
[matemáticas] y = f (x) [/ matemáticas]
No hay garantías de que [math] g () [/ math] siempre se aproximará a [math] f () [/ math] en todas las condiciones imaginables. En algunas combinaciones raras de casos extremos, [matemática] g () [/ matemática] podría desviarse severamente de [matemática] f () [/ matemática]. Imagine que esto está en alguna aplicación de diagnóstico médico en un hospital de niños y [matemáticas] f () [/ matemáticas] es una función que asigna síntomas a la enfermedad. Esa desviación podría hacer que el sistema de diagnóstico basado en ML concluya erróneamente que un niño en particular tiene alguna forma rara de cáncer o algo peor. El sistema incluso podría concluir que el niño es un extraterrestre que está a punto de atacar la tierra.
Mira, puede ser terrible.
Entonces, si el sistema ML puede explicar su razonamiento al médico, las cosas pueden ser más claras. Según las explicaciones del sistema, el médico podría determinar si el sistema se volvió loco o no o si solo necesita algo de mantenimiento. Sin explicaciones puede ser muy difícil saber si la máquina es correcta o no, es por eso que la máquina necesita encontrar una manera de justificar sus conclusiones, por supuesto, el niño que es una parte extraña es fácil de descartar sin pensarlo dos veces.
Creo que hay mucho trabajo de investigación en esta área de aplicar el aprendizaje profundo al diagnóstico médico y dejar que el sistema proporcione alguna forma de explicaciones directamente. Tal sistema puede revolucionar la medicina. Tal vez, tal vez antes de finales de 2017, podamos comenzar a obtener sistemas tales como ideas de trabajo en la fase de investigación.
Las redes de memoria y las computadoras neuronales diferenciables (DNC) podrían ser las mejores técnicas para construir tales sistemas, ya que estos sistemas almacenan datos y de alguna manera pueden razonar. Puede ser posible conectar alguna otra red, digamos la red B, que se alimenta de algunos estados del DNC a medida que extrae datos de la memoria durante la inferencia. Esa red B podría ser una red neuronal recurrente (RNN) como la red de memoria a largo plazo (LSTM). Entonces, la red B podría sintetizar alguna explicación de alto nivel sobre el proceso de razonamiento que ocurre en el DNC u otras variantes de las redes de memoria, bueno, esto es solo una idea.
Así que optaría por un sistema de diagnóstico médico tan automatizado como el mayor caso de uso para el aprendizaje automático en 2017.
Espero que esto ayude.