Cuando intentas rastrear y derribar cohetes balísticos.
¿QUÉ?
Aquí está la historia.
- ¿Cuál es la mejor manera de crear un conjunto de redes neuronales?
- Al entrenar y probar conjuntos de datos, ¿es posible probar un conjunto de datos completamente diferente del conjunto de entrenamiento?
- Estoy aprendiendo aprendizaje profundo, ¿por qué es útil la matriz y qué es el cálculo?
- Cómo implementar la detección y clasificación de frutas de manzana usando MATLAB en una aplicación antroidea
- El aprendizaje profundo hará que los humanos sean innecesarios para qué trabajos.
MIM-104 Patriot es un sistema de misiles tierra-aire utilizado por el Ejército de EE. UU. El 25 de febrero de 1991, en Dhahran, un misil iraquí R-300 voló directamente a un cuartel estadounidense, matando a 28 e hiriendo a 96 porque Patriot había fallado.
Esto sucedió debido a un error de redondeo en el software, que utilizaba enteros de 24 bits para la hora del sistema, introduciendo un error de ~ 0.000000095 segundos cada 0.1 segundos. Después de 100 horas de trabajo, un Patriot tenía 0,34 segundos de error en el tiempo de su sistema.
R-300 vuela a una velocidad de 1676 metros por segundo, lo que le da 569.84 metros por 0.34 segundos; después de tal error de cálculo, el misil queda fuera del alcance efectivo de Patriot cuando decide disparar.
Este sistema no se basó en el aprendizaje profundo, por supuesto, fue escrito hace 15-20 años. Pero con las tendencias actuales en la automatización de todo, podríamos ver modelos de aprendizaje profundo utilizados incluso en la guerra moderna (¡mala, mala idea!).
Las fallas serían aún más drásticas dada la negligencia que las personas tienen hacia la precisión de la computación en el aprendizaje profundo (con razón, porque no hace absolutamente ninguna diferencia). Entonces, la respuesta obvia a la pregunta: en cualquier situación en la que los pequeños errores se acumulan en desastres con el tiempo.
Este ejemplo muestra el punto de fracaso en el que muy pocas personas piensan, porque de eso no se trata actualmente el aprendizaje profundo.
Para las tareas que se usa ahora el DL, incluso la precisión única es una exageración que ralentiza el proceso de entrenamiento y consume el doble de memoria donde la media precisión es más que suficiente. El día en que Nvidia publique soporte completo de float16 en CUDA será un feriado en toda la industria.