Son en su mayoría éticos.
Futuro cercano:
- “Problema del carro”. En caso de un choque, ¿se debe permitir que un automóvil autónomo dé prioridad a salvar la vida de su propietario por encima de todo? (es un comportamiento predeterminado bastante razonable, porque el automóvil pertenece al propietario, por lo que debe proteger al propietario)
- Sistemas de defensa automatizados: ¿se debe permitir que un robot mate a personas sin supervisión humana?
- Autoaprendizaje: ¿deberían los sistemas de IA incorporar el interruptor de interrupción obligatorio, en caso de que ocurra “algo inesperado”?
Futuro lejano:
- ¿Las computadoras modernas contienen FPGA?
- ¿Por qué estas dos condiciones implican la condición del reloj de Lamport?
- ¿Quién puede decirme el método paso a paso para comenzar a aprender el aprendizaje automático desde cero, comenzar a trabajar independientemente y convertirlo como mi trabajo a tiempo completo?
- ¿Cuál es el hecho detrás del aprendizaje automático?
- ¿Cuáles son algunos ejemplos de computación distribuida?
- ¿Qué tipos de IA deberían prohibirse?
- ¿En qué punto una IA se convierte en persona?
- ¿Deben los robots adquirir derechos equivalentes a los humanos y cuál es su estatus legal? ¿Son ciudadanos? ¿Acaso quieren derechos?
- ¿Cómo funcionan esos derechos en conjunto con la propiedad privada y el derecho del propietario a destruir dicha propiedad?
Muy lejano futuro:
- El matrimonio robot.
- Adopción de niños robot por una entidad robótica.
- Derechos de herencia en familias mixtas con entidades robóticas en ellas.
- ¿La simulación cerebral representa al individuo original (de cuyo cerebro se tomó la instantánea), o es una entidad separada? ¿Qué pasa si el individuo original murió?
Al menos así lo veo yo. Tenga en cuenta que no incluye ningún problema potencial no robótico (como el sistema de salud de cyborg, etc.).