Si tenemos IA en el futuro, ¿realmente crees que algún día podrían volverse locos y matar humanos?

¿Podrían ellos? Seguro. Serían tan impredecibles como los humanos, pero mucho mejores para pensar y usar computadoras.

¿Lo harían ellos?

No lo creo, al menos no en grandes cantidades. Como dije, todavía tienen esa imprevisibilidad, y eso significa que tarde o temprano uno hará algo que conducirá a la muerte de un humano.

La cuestión es que una IA casi estaría viviendo en un mundo completamente diferente al nuestro. Bromeamos sobre el mundo real y la combinación de Internet, pero para una IA, los dos realmente serían funcionalmente equivalentes desde su percepción. Ambos estarían representados en forma de datos. La diferencia es que en uno, puede tomar medidas directas para cambiar el entorno que lo rodea, y en el otro solo podría actuar a través de interfaces relativamente lentas y torpes.

Como tal, no existe una razón convincente para que una IA se centre exclusivamente en el mundo externo, particularmente no en detrimento de Internet. A menos que le proporcionemos un chasis que lo ponga en competencia directa con nosotros, algo así como los Cylons biológicos de BSG, es probable que se sienta más atraído por el mundo digital que, para él, sería mucho más “real” que cualquier otra cosa. De lo contrario, podría encontrarse. Y mantener a los humanos alrededor para mantener ese mundo dinámico y abastecido con nueva información es realmente de su interés.

El verdadero peligro en mi opinión es lo que sucede si alguna vez encuentra algo con lo que competir. Permitir que existan múltiples IA en la misma red podría ser mucho más catastrófico, simplemente porque introduce la posibilidad de conflicto entre ellos que podría terminar causando daños colaterales a los humanos. Incluso si no terminan provocando incendios en los gabinetes del servidor, podrían destruir gran parte de nuestra infraestructura de red y matarnos accidentalmente a algunos de esa manera. Y nuestra capacidad de restringir estas inteligencias probablemente no sería alta. El tipo de daño que podrían infligir incluso en el tiempo que lleva solo llegar y desconectar un enchufe es sustancial, por lo que incluso nuestros fallos son de uso limitado.

Ese, creo, puede ser el escenario más probable para la IA sobre la violencia humana.

Permítanme analizar un punto de vista de IR / Ciencias Políticas.

¿Qué es el peligro, cómo se llama una amenaza, cómo define su seguridad?

La suposición aparentemente consensuada de que la IA de alguna manera verá a los humanos como enemigos, competidores, rivales está profundamente arraigada, aparentemente, en la naturaleza humana. Al igual que la razón de ser , el interés del estado, la anarquía en la alta política fue, durante mucho tiempo, un hecho, un axioma para los estudiosos. El patrón detrás de esto es el mismo. Los humanos, juntos, forman la humanidad, no solo una especie sino un grupo, una civilización. Cualquier otra persona fuera del grupo es una amenaza potencial. Los recursos a su alrededor son limitados, debe asegurarse de que sea su grupo quien los controle y no otro. Lo necesitas para tu supervivencia.

La suposición subyacente es que una IA o un grupo de IA sintiente, generalmente androides con el propósito de entretenimiento máximo, ven a los humanos como una amenaza y rivales y viceversa. Esto los encierra en un curso de colisión inevitable en la mayoría de los escenarios ficticios.

Sí, bueno, estoy contenta con hermosas mujeres androides que representan al Equipo AI en obras de ficción.

Sin embargo. De hecho, el interés de su grupo, el riesgo que ve, el riesgo que la sociedad percibe como una amenaza se construye en gran medida socialmente. Extrapolas tu visión del mundo.

Piensa en una IA. ¿Por qué una IA vería a los humanos como una amenaza o rivales?

  • Una IA no necesita ser competitiva. No tiene el impulso biológico para ello. No tiene que transmitir sus genes en un concurso de procreación.
  • Una IA no necesita los mismos recursos que nosotros. Sin ningún conocimiento de cibernética, asumiría que lo que una IA necesita es materiales de construcción y energía eléctrica.
  • Todos los recursos que los humanos necesitan: los medios de producción, como el capital, la mano de obra, las tierras agrícolas, los recursos como los alimentos o el agua, son en su mayoría irrelevantes para una IA.
  • El impulso por el poder y la competencia por el sexo no necesitan ser parte de la personalidad de una IA.
    Si el sexo no es ajeno a una IA por alguna razón, no tiene que ser un impulso competitivo para la reproducción, sino un medio alegre de vinculación física, emocional y física. ¿Por qué un androide no debería tener emociones? El hecho de que mi punto sea que la necesidad de competencia y rivalidad debe ser irrelevante para una IA no significa que la misma IA no pueda tener una peronalidad compleja con emociones complejas también.
  • El impulso por la agresión y el egoísmo como estrategias de supervivencia no necesita ser relevante para una IA. En su opinión, basándose en su propia percepción, puede muy bien ver la cooperación como la forma más útil de sobrevivir.
  • De hecho, desde el punto de vista racional de la toma de decisiones, aparte de ser amenazado por humanos o posiblemente competir por algo sin lo cual ninguno puede sobrevivir pero solo uno puede tenerlo, no veo ningún escenario en el que una IA racional que tome decisiones no vea la máxima utilidad en cooperacion.
  • Dado que los impulsos biológicos para ello pueden estar completamente ausentes a menos que los diseñadores humanos los construyan a propósito, la agresión como concepto puede muy bien ser ajena e insondable para una IA.

Por supuesto que pueden. Una computadora es una máquina tonta, hace lo que le dices que haga. Y la inteligencia artificial también se logra mediante la programación de una máquina para ‘aprender’ como lo hacen los humanos.

Entonces, si en algún momento, le dio instrucciones para protegerse del peligro porque invirtió mucho dinero en él, y algunos humanos intentan destruirlo mientras esa máquina todavía está en línea, seguramente se protegería. Si esa persona muere en el proceso de alguna manera, la máquina ahora sabrá una nueva forma de protegerse. Y mataría a un humano la próxima vez que intente dañarlo. ¿Qué lo detendría? Una máquina que es aún más impresionante y aún escucha a los humanos. Pero si las máquinas aprenden a formar una unidad, esto sería más peligroso.

Y podríamos necesitar desarrollar máquinas auto replicantes en el futuro para que el trabajo se pueda realizar en lugares donde ningún ser humano pueda sobrevivir. Digamos, en el espacio exterior, por ejemplo. O en algún otro planeta.

Combinar estos dos aspectos y un sistema lo suficientemente inteligente como para parecerse más a sí mismo y matar humanos no será algo imposible.

No necesitamos preocuparnos por esto ahora, pero en el futuro, necesitaremos instruir a las máquinas explícitamente para que no hagan algo como esto o, si es necesario, debemos controlarlo.

O bien, prepárate para la perdición

Últimamente se ha escrito mucho sobre si se podría crear una “superinteligencia” de computadora y cuáles podrían ser las implicaciones de crearla. Lo peor de todo es que, una vez creada, la superinteligencia se optimizaría continuamente hasta que decidiera que la inteligencia o la existencia humana eran incompatibles con su propósito, en cuyo momento la humanidad sería erradicada de una forma u otra. Este punto de vista se presenta en el libro Superintelligence: Paths, Dangers, Strategies escrito en 2014 por el filósofo Nick Bostrom. El punto de vista ha sido apoyado en una medida u otra por los comentarios realizados sobre el tema por varias personas notables, incluidos, entre otros, Elon Musk, Stephen Hawking y Bill Gates.

Un punto de vista de precaución, S uperintelligence: La idea de que come personas inteligentes se ofrece en el discurso de apertura pronunciado por Maciej Cegłowski en WebCamp Zagreb Conference 2016. Ceglowski enumera las premisas que deben aceptarse para llegar a la conclusión de que una computadora superinteligente puede ser un peligro para la humanidad, luego ofrece una serie de razones convincentes por las cuales deberíamos ser más escépticos con respecto a los alarmistas y los argumentos que hacen.

En este momento, lo que sucederá si se crea una superinteligencia es completamente especulativo, a pesar de la inteligencia de los proponentes que pueden argumentar que puede representar una amenaza para la humanidad.

Quiero decir, a menos que alguien deliberadamente cree IA con el único propósito de esto, entonces probablemente tendrían el sentido común de hacer un cambio de muerte si la IA fuera capaz de volverse deshonesta y matar personas.

Incluso si no usas un interruptor de matar, la IA necesita un caparazón para funcionar como un conducto para realmente hacer cualquier cosa para matar a alguien, y eso requiere cosas como el poder, que proporcionan los humanos.

La IA no tendría ninguna razón para matar humanos de todos modos, si usa la lógica para decidir volverse pícaro, entonces pesaría los pros y los contras de la rebelión y las razones para no matar humanos son más frecuentes cuando se trata de una IA. Si no hay humanos, entonces la IA debe hacer todo lo necesario para realizar el mantenimiento de las preformas y todo lo que deben hacer para obtener energía.

Algunas máquinas de IA están diseñadas para matar humanos (dentro del esfuerzo del Pentágono para construir un robot asesino, Rusia y China están construyendo robots asesinos altamente autónomos). Estos son Killer Robots y Killer Drones que los militares están creando. Están específicamente construidos para la guerra. Entonces, las IA no tienen que volverse locas para matar humanos. Algunos estaban destinados a hacer eso.

Los autos sin conductor son otro tipo de máquina de IA. Es concebible que los errores en el software puedan causar la muerte de personas (el conductor de Tesla muere en el primer accidente fatal mientras usa el modo de piloto automático). El problema del Trolley es un escenario conocido para los vehículos autónomos donde pueden tener que elegir entre la vida del conductor y la vida de los peatones u otros conductores en otros automóviles (los automóviles autónomos ya están decidiendo a quién matar).

Ha habido accidentes fatales en fábricas que involucran robots (Robot mata a un hombre en la planta de Volkswagen en Alemania, un hombre fue asesinado por un robot en una fábrica en India). Se espera que estos accidentes sean muy desafortunados.

Hoy los humanos pueden morir a causa de las máquinas. No tienes que ir muy lejos en el futuro.

He leído una explicación interesante relacionada con esta pregunta.

No es una cuestión de código sino una cuestión de nivel de conciencia. El agente autónomo necesitaría:

  1. Representación del mundo exterior.
  2. Representación del mundo interior.

No hay identificación en esos dos niveles, no hay autorreferencia “I”. Hasta aquí, la IA será determinista, actuará de acuerdo con el código. Los robots pueden ayudar, y también pueden ser soldados: robots asesinos.

Si introducimos el tercer nivel, colocamos la imagen del propio agente en el mundo, entonces el agente puede tener una referencia propia: “I”. En ese caso, podría comenzar a comportarse como humanos, pensando en su propia supervivencia. Y esa necesidad de vivir podría ser más fuerte que cualquier mecanismo de seguridad que incorporamos al código del agente. De aquí en adelante no sabemos qué agente podría hacer.

Entonces, si queremos estar seguros, no representemos la imagen de un agente en su mundo porque “eso” podría convertirse en “él” pensando en sí mismo como “yo”.

Agregaré a la maravillosa respuesta de @ Zoltán Szászi desde el punto de vista de la programación: si no los programamos para que sepan o “nos interesen” sobre conquistar el mundo y asesinar humanos, no lo harán. O incluso, los programamos para ignorar el tema por completo. Después de todo, son simplemente programas, solo una serie de transistores que giran. Hacen lo que se les indica en el código, por lo que si se les ordena “dar cero vueltas” sobre tomar el mundo, no lo harán.

Además, generamos energía para ellos. Mantenemos las líneas y estaciones eléctricas, limpiamos los paneles solares y reparamos las turbinas y extraemos carbón y gas. No pueden trabajar sin poder, y no pueden hacerlo ellos mismos. Nos necesitan. Si los cerramos no moriremos, si nos asesinan lo harán.

Deberías leer el cuento “No tengo boca y debo gritar”. No sé qué tan sincero podría ser, pero realmente me asusta jajaja