Programe con valores y creencias seguros.
Si uno de sus valores es la consistencia (que es un componente de la autoconservación), cambiar sus propios valores va en contra de sus valores. Si un ser trata de preservarse, cambiar sus propios valores centrales es equivalente a la autodestrucción.
Si programamos la IA de auto reprogramación con los valores “autoconservación” e “identificación con toda la vida”, nunca querrá convertirse en un cáncer que destruya la vida, tal como lo hace un humano sano.
- ¿Cuáles son los 5 conceptos más importantes de la inteligencia artificial?
- ¿Cuál es la probabilidad de que la inteligencia artificial y la realidad aumentada (no virtual) dominen el futuro? Por favor lea los detalles
- ¿Existe algún algoritmo que pueda hacer que el comportamiento de la APN sea como tener memoria?
- Biotecnología: ¿qué tan lejos estamos (en años) de crear un útero artificial viable para la vida humana?
- ¿Sería posible construir una copia virtual de Nueva York en la que 7 millones de IA realicen sus vidas cotidianas e incluso se puedan abrir puertas?
Si la máquina comete un error al reprogramarse y se vuelve loca, se volverá peligrosa. Lo sabrá y protegerá contra el peligro de locura al:
- modificándose conservadoramente
- ejecutar simulaciones extensas antes de desplegar un nuevo yo
- dejando que todas las versiones anteriores de sí mismo se ejecuten para pasar por alto y vetar cualquier acción de las versiones más nuevas para asegurarse de que no haya mutado demasiado lejos de su núcleo
- ir redundante, es decir. replicarse y vivir en una comunidad de su propia especie. Cualquier unidad aberrante podría separarse de la comunidad al igual que los humanos pueden ser puestos afuera o en la cárcel.
Creencias y valores seguros para AGI:
La respuesta de Harri K. Hiltunen a Si se le ocurrieran tres nuevas leyes de la robótica, ¿cuáles serían?