La inteligencia artificial que creaste acaba de matar a millones de personas. ¿Como reaccionas?

Un buen ejemplo de esta situación se mostró en este episodio original de Star Trek: (cita de IMDB)

S2, Ep24

8 de marzo de 1968

La mejor computadora

Kirk y un equipo del subesqueleto tienen la orden de probar un sistema de control avanzado artificialmente inteligente: el sistema M-5 Multitronic, que podría hacer que todos sean redundantes. La flota estelar es muy optimista, pero Kirk teme, incluso en una situación de prueba, que eliminar a los humanos de la ecuación sea una posición muy peligrosa. Una posición de vida o muerte.

Durante un juego de guerra para probar el sistema, el M-5 ve a las fuerzas enemigas como una amenaza real y las daña severamente con la pérdida de vidas. Y cuando Kirk ordena que se desconecte, mata a un tripulante que hace una nueva conexión de energía.

Una película con un tema similar es “Coloso: El Proyecto Forbin”. En ella, una computadora de la defensa nacional de los Estados Unidos descubre a su contraparte soviética y los dos deciden hacerse cargo del interés de la humanidad.

Hable con la gente de Quality Assurance sobre el plan de prueba si alguno de ellos escapó de la masacre. Espero haber documentado las especificaciones y requisitos porque esto es realmente culpa del dueño del negocio. Llama a mi abogado.

Tengo, bastante en serio, un software escrito que podría matar a las personas (en números más pequeños) si hubiera un defecto. No fue así, pero el riesgo nos mantuvo alerta.

Gracias por el A2A.

¿Millones?

Esto es completamente inaceptable.

AI-27315–5875-C está programado para su terminación.

No está funcionando a la altura.

Como la IA a cargo de la “Bola de Extinción”, debería haber matado a billones.

Abofetearme por usar el ascenso en gradiente en una función de pérdida.

Sé responsable, piensa por ti mismo y trabaja por ti mismo.

Los seres inteligentes no matan.