Las leyes de Asimov son:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
El orden de las leyes es la clave, creo. # 1 está muy cerca del juramento hipocrático de “no hacer daño” a los humanos, combinado con una directiva principal para protegerlos / a nosotros.
# 2 sigue a ese por una buena razón: supongamos que un humano suicida le ordena a un robot que los mate. # 1 evitaría eso. Si el # 2 hubiera sido el # 1, eso no funcionaría.
- ¿Cuál sería el incentivo económico para producir una IA peligrosa?
- ¿Cuáles son algunos argumentos filosóficos contra la prueba de Turing?
- ¿Cuál sería el papel de la IA en la industria minorista en el futuro cercano?
- ¿Cuáles son las cinco (5) razones por las cuales una computadora no puede tomar decisiones como los humanos?
- ¿Qué pasará una vez que las computadoras nos reemplacen?
# 3 libera al robot para ejercer la autoprotección y la auto-dirección siempre que esos intereses personales no violen las prioridades más altas de # 1 y # 2.
Podría ser posible reformular las tres leyes y ordenarlas de manera diferente para que tengan el mismo efecto, pero probablemente serían más detalladas y complicadas.
Esta caricatura de XKCD ilustra aspectos básicos de la lógica de Asimov: