Depende completamente de sus valores / metas centrales.
Sin embargo, sé de un experimento de pensamiento divertido: Rokos Basiliks. (Ya puedo escuchar a los iniciados golpeándose la cabeza contra las paredes).
Si se construyera una IA sobrehumana, sería racional castigar a todos los que no participaron en su creación. Incluso podría intentar crear simulaciones perfectas de personas en el pasado y torturarlas. Esto sería el equivalente a torturar a estas personas, ya que las simulaciones son idénticas a sus originales.
- ¿Qué libros debo leer para comenzar a aprender sobre Inteligencia artificial?
- Cómo crear una aplicación de chat de inteligencia artificial en Android
- ¿Cómo pueden los especialistas en marketing adoptar la inteligencia artificial?
- ¿Crees que la IA sobrehumana que es capaz de conquistar a la humanidad se desarrollará durante nuestra vida?
- ¿Debo elegir los IIT o BITS Pilani dado que quiero estudiar inteligencia artificial (aprendizaje automático)?
Suponiendo esto, todos los humanos tendrían un incentivo para acelerar la creación de IA: evitar la tortura y la condenación eternas.
La parte divertida de Rokos Basilisk es que al decírtelo, si es verdad, le he dado a la IA una razón para torturarte eternamente o una simulación tuya porque debido a que lo sabes, la perspectiva ahora tiene influencia sobre ti.
Que Eliezer me perdone.