No se puede hacer para AGI, pero se puede (probablemente) hacer para AI. La inteligencia general artificial (AGI) probablemente no sucederá durante mucho tiempo (más de 2 décadas).
Primero para el escenario AGI (la pregunta formulada – “singularidad”):
R. He visto muchas películas de la prisión para ver que NO se puede hacer una prisión segura . Eso es lo que significa a prueba de fallas, estás bloqueando la IA (o incluso el robot). Posibles formas de hacerlo que no funcionarán:
- ¿Cuáles son los ejemplos de uso de aprendizaje automático en análisis minorista?
- ¿Cómo será el sistema operativo de la próxima generación?
- ¿Cuál es la diferencia entre un chatbot y un asistente personal inteligente?
- ¿Cuáles son las mejores API de sistema de diálogo para Internet de las cosas?
- ¿Cuáles son los pocos aspectos del cálculo que siempre ocurren en el aprendizaje automático?
Ninguna computadora en red es segura (a menos que tenga un código 100% seguro, demostrado que funciona, que no es humanamente posible, o al menos no lo ha hecho …). Es por eso que para máxima seguridad, se desconecta de las redes (como una prisión …). Si alguien está atendiendo a esta computadora, entonces la IA en ella puede manipular fácilmente a esa persona para ayudar a conectarla (obtenga un guardia de la prisión para ayudar a escapar).
Si su IA está en un robot, en el mundo (en red o no), entonces se sabe que los robots no son seguros. Se supone que la IA hace que el robot sea más seguro. No digo que AI tenga dependencia (o debe) ser un sociópata, pero ¿puedes descartarlo?
Una IA, para tener inteligencia tendrá que tener la capacidad de aprender. Al igual que los humanos. Creo que es inherente, que puedes aprender las cosas “incorrectas” y tal vez aprender a mentir.
¿Puedes garantizar que tu hijo no saldrá mal? ¿O incluso hacer algo incorrecto por accidente?
B. Para la variante “IA débil”. Como los autos sin conductor. El tipo que está decidido a hacer bien una cosa [y no puede hacer otras cosas, como la IA, no es “general”]. Este tipo puede ser seguro, o al menos más seguro que un humano.
Pero, cuando ocurran accidentes, queremos culpar a un humano. Entonces tienes un dilema con los autos sin conductor que matan …
Ahora, para la IA militar, ya discutida con el Departamento de Defensa, algunos piensan que podríamos tener “guerras más seguras” (o que la IA sería un elemento disuasorio, como la bomba nuclear …). Eso está equivocado, y la oposición quiere un humano en el circuito. Nuevamente, también porque queremos culpar a los humanos por la muerte, no a una máquina.
Mientras que la IA militar, se supone que mata (o defiende, amenazándola), mientras que un automóvil no lo es, y parecen ser opuestos, no lo son. Al menos no en todos los casos. Para un automóvil, podría encontrarse con una situación en la que necesita matarlo con una probabilidad probable en lugar de girar el volante y arriesgarse a un autobús escolar lleno de niños.