¿Cuál es el mayor problema de programación de todos los tiempos?

Aquí hay algunos contendientes:

Cuando el relleno de 64 bits de datos en 16 bits de espacio no funciona: http://www.cs.jhu.edu/~jorgev/cs…

Sonda Mars perdida debido a un error matemático simple

El error tipográfico que destruyó un cohete de la NASA

Y aquí hay una lista divertida: http://www.devtopics.com/20-famo…

El error / gusano stuxnet no está aquí porque fue un caso de sabotaje deliberado.

// EDITAR: Olvidé mi favorito de todos los tiempos. (Fue silenciado y solo los directores involucrados y los que los siguieron en el trabajo saben de esto).

¡El día que SAC lanzó una BASE AÉREA en una alerta (falsa) de un inminente ataque nuclear de Rusia! … Problema: un parche de código de software, escrito en lenguaje máquina (octal) se codificó incorrectamente utilizando el número 8 (que obviamente no existe). Entonces, temprano en la mañana después de que se instaló el parche, la computadora SACCS SPE en Offutt AFB emitió una alerta de ataque nuclear a una base KC-135. … La Base se revolvió … La alerta se canceló cuando los KC-135 se dirigían a la pista para lanzarse. … Esto fue en 1967!

Mi voto es para DIESELGATE. AI, explotado por Volkswagen.

Al menos el legado de este, resaltará los peligros de la inteligencia artificial, que puede arruinar a las empresas, los países, su gente, el planeta y usted.

Esto es lo que dijo Elon Musk sobre IA.

FUENTE: Elon Musk: los vuelos de prueba del barco de Marte ‘el próximo año’

Elon Musk. Festival South by South West (SXSW) en Austin, Texas. 11–3–2018

“Extremadamente importante”

“Repitiendo las preocupaciones que ha hecho en el pasado con aún más vigor, dijo que una mayor amenaza para la vida humana era la inteligencia artificial, no la guerra nuclear.

“La IA es mucho más peligrosa que las armas nucleares”, dijo, desestimando el rechazo de los expertos en IA que sugirieron que Musk estaba más interesado en la controversia que en estudiar el trabajo.

“Normalmente no soy un defensor de la regulación y la supervisión”, agregó.

“Esta es una situación en la que existe un peligro muy serio para el público. Es necesario que exista un organismo público que tenga conocimiento y supervisión para que todos estén entregando IA de manera segura. Esto es extremadamente importante”.

“Nadie sugeriría que permitiéramos a cualquiera simplemente construir ojivas nucleares si lo desean, eso sería una locura”.

“Mi punto era que la IA es mucho más peligrosa que las armas nucleares. Entonces, ¿por qué no tenemos supervisión regulatoria? Es una locura”.