Tres leyes de la robótica:
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley. Las “Tres leyes de la robótica” de Isaac Asimov
En realidad, también existe una ley Zeroth: un robot puede infringir cualquiera de las tres leyes si puede justificar la acción de una manera que genere mayores beneficios para toda la humanidad. (Encontrado en “Robots e Imperio” por Isaac Asimov)
- Para principiantes, ¿cuáles son los mejores sitios web para aprender inteligencia artificial?
- ¿Cuál es el código más fácil que representa la IA y en qué plataforma?
- ¿Puede AGI, o inteligencia general artificial, resolver el problema P versus NP?
- ¿Cuál es el significado de la inteligencia en general y de la inteligencia humana especialmente?
- ¿Crees que la inteligencia artificial es una buena herramienta comercial? ¿Lo probarías?
En este caso, el despliegue del gobierno de AI sería una extensión de las leyes de la robótica de la ley cero, lo que significa que los intereses del bien mayor siempre serán un ideal.
En este caso, el gobierno de AI probablemente gastaría una gran cantidad de dinero en programas de infraestructura pública, programas de seguridad alimentaria y, y el “daño” se definiría en un sentido financiero dentro de los parámetros de las tres leyes, el gobierno de AI podría hacer algo sobre banca también.
Dejarían de fabricar armas, haciendo de la atención médica una prioridad.
La única forma en que esto puede funcionar es AI para un gobierno mundial. De lo contrario, cada nación se define como una amenaza, y todos nos mataremos mutuamente.