Richard Muller: ¿Crees que el nacimiento de la verdadera IA es el principio del fin de la humanidad?

Existe la posibilidad de que cuando la IA llegue a un punto en que ya no nos necesite, nos verá como una amenaza. Si puede reescribir su software para ser más eficiente, hacer el hardware de la próxima generación, hacer reparaciones, crear energía, etc., nos hemos vuelto redundantes.

Ahora, aunque seremos muy inferiores en inteligencia, aún podríamos dañar a una IA, como una bacteria puede dañarnos. En este caso, podríamos ser eliminados por precaución.

Por otro lado: cualquier IA es solo un programa que se ejecuta en un montón de átomos organizados y cualquier daño que podamos hacerle puede deshacerse. Entonces tal vez esa sea una de las razones por las que nos permitirá vivir.

Uno de los problemas es que muchas compañías mantienen todos los detalles sobre su investigación en secreto, porque esperan obtener ganancias con la IA. Pero una vez que está fuera de la botella y ha llegado a un punto en el que ya no nos necesita, no hay forma de devolverlo a la botella. Dado que las ganancias o (en el caso de las universidades, etc.) el impulso de ser el primero ejerce mucha presión sobre las empresas y las universidades, existe el peligro real de que no se hayan incorporado suficientes precauciones.

Una IA ni siquiera necesita ser malvada para destruirnos. Creo que la inteligencia y tener libre albedrío y motivación / impulso son cosas separadas. Supongamos que tenemos un ASI con un coeficiente intelectual de 1,000,000,000, pero sin libre albedrío y motivación / impulso propio. Entonces seguirá los comandos. Si esos comandos no se formulan con mucho cuidado, esto podría llevar a que se nos elimine como parte de alcanzar la meta de manera eficiente. Un comando como: “minimizar el sufrimiento en este planeta” podría conducir a nuestra extinción.

Como el ASI es muy superior a todos nosotros juntos, no sabremos qué nos golpeó. No habrá tiempo para dar nuevos comandos … La IA no necesita ser malvada para destruirnos: simplemente no es humana y no comparte nuestra moral / valores (ni siquiera estamos de acuerdo con ellos como especie).

Por lo tanto, toda la investigación sobre IA debe ser de código abierto y también los no programadores deben participar en una discusión sobre lo que podría salir mal y cómo prevenir esto, antes de que la IA genérica esté fuera de la botella. Sus vidas también están en juego.

No tenemos que estar tan preocupados de que la IA caiga en las manos equivocadas, un pequeño grupo. Es simplemente arrogancia pensar que un grupo así podrá controlar un ASI. La mayor amenaza es que no pondremos suficientes medidas de seguridad, porque cada grupo que trabaja en IA quiere proteger sus propios intereses. Al final, eso puede matarnos a todos, incluidos todos los grupos que pensaron solo en sí mismos.

No importa si el primer grupo pequeño que tiene éxito tiene malas intenciones, cómo puede usar la IA para controlar al resto de la humanidad, o si tiene buenas intenciones, además de ser egoísta (obtener ganancias, ser el primero y obtener créditos, …) . Cualquier grupo pequeño bajo presión para ser el primero no tendrá suficientes características de seguridad. Por lo tanto, parece más probable que estemos condenados, a menos que incorporemos al menos esto:

cualquier IA es solo un montón de átomos organizados y cualquier daño que podamos hacerle puede deshacerse. Por lo tanto, no podemos dañarlo realmente.

Dando sentido común al sistema, por lo que no convierte todo nuestro planeta en papel, lápices y más copias de sí mismo

La revolución de la inteligencia artificial: Parte 1 – Espera pero por qué

, no es probable que suceda, dado que todos los grupos que trabajan en IA quieren proteger sus intereses. Por lo tanto, hay más de un 50% de posibilidades de que estemos jodidos.