¿Podrían ellos? Seguro. Serían tan impredecibles como los humanos, pero mucho mejores para pensar y usar computadoras.
¿Lo harían ellos?
No lo creo, al menos no en grandes cantidades. Como dije, todavía tienen esa imprevisibilidad, y eso significa que tarde o temprano uno hará algo que conducirá a la muerte de un humano.
- ¿Qué tan cerca estamos realmente de AGI o ASI?
- Si alguien ha leído The Society of Mind, o el artículo de Minsky, ¿puede decirme si un agente puede participar en solo una K-Line o múltiples K-Lines?
- ¿De qué tenemos que preocuparnos por una IA consciente o consciente? ¿Qué algoritmos se utilizan para construir una IA generalizada (GAI) y cómo evolucionará por sí misma?
- ¿Podemos los humanos crear una atmósfera ambiental artificial en una cámara cerrada?
- ¿Cuál es la mayor barrera científica o de ingeniería para la inteligencia general artificial?
La cuestión es que una IA casi estaría viviendo en un mundo completamente diferente al nuestro. Bromeamos sobre el mundo real y la combinación de Internet, pero para una IA, los dos realmente serían funcionalmente equivalentes desde su percepción. Ambos estarían representados en forma de datos. La diferencia es que en uno, puede tomar medidas directas para cambiar el entorno que lo rodea, y en el otro solo podría actuar a través de interfaces relativamente lentas y torpes.
Como tal, no existe una razón convincente para que una IA se centre exclusivamente en el mundo externo, particularmente no en detrimento de Internet. A menos que le proporcionemos un chasis que lo ponga en competencia directa con nosotros, algo así como los Cylons biológicos de BSG, es probable que se sienta más atraído por el mundo digital que, para él, sería mucho más “real” que cualquier otra cosa. De lo contrario, podría encontrarse. Y mantener a los humanos alrededor para mantener ese mundo dinámico y abastecido con nueva información es realmente de su interés.
El verdadero peligro en mi opinión es lo que sucede si alguna vez encuentra algo con lo que competir. Permitir que existan múltiples IA en la misma red podría ser mucho más catastrófico, simplemente porque introduce la posibilidad de conflicto entre ellos que podría terminar causando daños colaterales a los humanos. Incluso si no terminan provocando incendios en los gabinetes del servidor, podrían destruir gran parte de nuestra infraestructura de red y matarnos accidentalmente a algunos de esa manera. Y nuestra capacidad de restringir estas inteligencias probablemente no sería alta. El tipo de daño que podrían infligir incluso en el tiempo que lleva solo llegar y desconectar un enchufe es sustancial, por lo que incluso nuestros fallos son de uso limitado.
Ese, creo, puede ser el escenario más probable para la IA sobre la violencia humana.