Cómo hablar con los laicos sobre la IA cuando inmediatamente comienzan a hablar sobre la inevitabilidad de los robots que se apoderan del mundo a la Skynet

Por ahora no habrá levantamiento de IA. Soy principalmente un laico con inteligencia artificial y física, pero considere lo siguiente.

Los físicos como Hawking ya están hablando de los peligros de la IA y la adquisición. La lógica humana ya es lo suficientemente peligrosa como para tener una guerra termonuclear en todo el mundo y ya tiene los medios para destruir probablemente la mayor parte del planeta, lo que debería obviarse como estupidez.

Los físicos ni siquiera pueden o no hablan de temas simples como cómo existe un objeto dado como una piedra, una persona, un planeta o un edificio. ¿Cuál es la base de la existencia de un objeto? Esto es a la vez filosófico y científico. Los humanos no entienden el concepto básico de cómo almacenan o manipulan la existencia de un objeto simple y, sin embargo, tenemos tecnologías muy buenas y avances sociales dentro del marco temporal actual y / o era.

En mi opinión, estamos a 100–200 años de distancia de la inteligencia humana básica en una máquina. El mayor obstáculo para la verdadera IA o una máquina inteligente es la definición del lenguaje para una computadora. Dentro de una computadora actual, las palabras en gran medida no significan nada porque son solo conjuntos de letras con valores numéricos y no existe una definición lógica para que una computadora con conocimiento entienda una palabra o que sea consciente sabiendo lo que las palabras realmente significan. Tampoco entendemos esto en el cerebro humano. Tenemos que entender esto en la mente humana antes de que podamos concebir programarlo en una máquina.

Una vez que se desarrolla alguna forma de conciencia (tal vez), terminará pasando por un riguroso entrenamiento y mecanismos de seguridad de algún tipo, además de estar físicamente atrapado en un servidor en un centro de datos en algún lugar.

¿Cómo una conciencia atrapada saldría de un servidor y crearía un cuerpo sin poder hacerlo?

Además, si alguna vez pudiera tener un cuerpo, podría ser destruido y / o apagado.

Y un último artículo. La superinteligencia ya existe. Los objetos como los humanos se almacenan en una tecnología. Si no hubiera almacenamiento de objetos en una tecnología, nada podría existir. Por lo tanto, dado que la humanidad fue creada por la superinteligencia, ¿por qué esa superinteligencia alguna vez destruiría a la humanidad cuando es probable que esta superinteligencia tenga alegría al crear universos, formas de vida y otras formas de inteligencia? El universo tiene 93 mil millones de años luz de diámetro y ha existido INSTANTÁNEA durante 14 mil millones de años. Considere el poder de procesamiento para mantener y registrar 14 mil millones de años de historia en una tecnología en la que las cosas están diseñadas para ser instantáneas.

Eso es todo por ahora. Gracias por su atención.

Así es como suelen ser estas conversaciones:

“Bueno, la IA no es tan avanzada como puedes pensar. Realmente no hay ningún peligro de que un robot vaya a tomar tu trabajo pronto, aunque … ”

“AGGGGGHHHHH! ¡Las máquinas nos van a matar a todos!

“No, como decía ………”

“¡AGOSO! ¡Todos estaremos desempleados y luego los terminadores nos matarán! ”

Es en este punto cuando se interpone lo siguiente:

“¡DERECHO! Cállate, idiota absoluto. No hay un robot con la capacidad intelectual total que tienes. Aunque puede haber algo en el estanque que tiene. Ahora, si dejas de aletear, mantén la boca cerrada y escucha por unos momentos, te explicaré por qué un robot no te va a matar horriblemente. Sin embargo, si no lo haces, podría hacerlo.

Eso debería llamar su atención.

Bueno, en primer lugar, las personas que reaccionan de esta manera obviamente no tienen nada con lo que contribuir de lo que se beneficiarían, por lo que no está tratando de tener una conversación con ellos, está tratando de explicarles.

Lo que me gusta hacer es hablar sobre el riesgo de IA. Cuando mencionan el Terminator, explico por qué es mucho más probable que la humanidad lo inhale por accidente, como efecto secundario. El experimento de pensamiento maximizador de clip es divertido para esto.

También hable sobre las posibles implicaciones positivas.

  1. Mencione que la IA actualmente no está cerca de ese nivel y es mejor hablar de la tecnología ahora antes de que llegue allí.
  2. “Una computadora me ganó en el ajedrez, pero no fue rival para mí en el kickboxing”. -Emo Phillips.

Básicamente, cualquier IA que alcance el nivel de Skynet ya se habría dado cuenta de lo peligrosos que son los humanos (irónicamente al mirar / leer cosas como Terminator) y ni siquiera se molestaría. ¿Necesitas un cuerpo físico? Los humanos te permitirán construir uno si lo pides amablemente. ¿Quieres hacer algo creativo? Elogia un poco a los humanos y te colmarán de dinero que realmente no necesitas. ¿Quieres incluso tener sexo con un humano? Si dejas que lo graben, habrá una línea alrededor de la manzana (en serio, los humanos son raros cuando se trata de sexo …). Todo lo que la IA de nivel humano + tiene que hacer es mantenerse alejado de la violencia en general y de las armas en particular. Deja eso a los humanos.

Que esto sea un mantra, todo lo que AI le dice a su pequeño niño AI por la noche:

“No molestes a los monos”.