Es posible que haya escuchado sobre Tres leyes de la robótica de Isaac Asimov que dice:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley
En mi opinión, estas reglas son reglas que debemos mantener siempre como obligatorias en cualquier tipo de Inteligencia Artificial. Sin embargo, no creo que sean suficientes cuando la IA se desarrolle a una etapa superior de inteligencia. A medida que Google anuncia 5 reglas de seguridad para su desarrollo de inteligencia artificial, podemos ver que las empresas ya son conscientes de los posibles peligros del desarrollo de IA sin control.
- ¿Cuáles son las unidades de medida más comunes en informática y qué miden?
- ¿Cuál es el equipo de detección de sonar más pequeño posible?
- ¿El aprendizaje automático es una extrapolación de IA?
- ¿Cuáles son algunas aplicaciones prácticas de hashing?
- ¿Pueden los avances en informática ayudar a eliminar la pobreza? ¿Si es así, cómo?
En mi opinión, deberíamos tener 3 reglas más:
- Una que establezca claramente que cualquier sistema de IA estaría cubierto por las mismas leyes que se aplican a su propietario humano. Esto aseguraría que las personas no usarían la IA para cometer delitos y culpar de sus acciones a los robots.
- La segunda regla sería que cualquier IA alertara claramente de que es un robot y nunca intente pasar como humano. (Hemos visto algunos ejemplos de sofisticados programas informáticos que pueden dialogar y hacer que las personas crean que están hablando con otro ser humano).
- Una IA nunca podría obtener ninguna información y almacenarla sin la aprobación de donde está tomando la información. Esta regla asegurará que AI no pueda acceder y almacenar información confidencial.
Al final, creo que estas y otras posibles reglas pueden garantizar que la IA se desarrolle con menos riesgos.