¿Qué tan pronto la inteligencia artificial deletreará el destino de la raza humana?

Esta pregunta contiene varios supuestos injustificados que la hacen casi sin sentido.

Primero, supone que la inteligencia artificial deletrea el destino de la raza humana. ¿Por qué? ¿Es esto porque la raza humana parece tener la intención de destruir el planeta y el interrogador está asumiendo que esta tendencia a destruir otras formas de vida es una cualidad innata de la sensibilidad? ¡Qué pensamiento tan horrible!

En segundo lugar, supone que la inteligencia artificial es posible. Sin embargo, nadie ha demostrado que esto sea cierto. Tampoco nadie ha construido una prueba de que debe ser cierto.

Tercero, supone que crearíamos algo más poderoso que nosotros sin crear salvaguardas como interruptores o un código moral.

Cuarto, se supone que el razonamiento religioso no es inherente a la sensibilidad y que los seres artificialmente inteligentes que creamos no estarían moralmente obligados a hacer lo que dijimos dado que estaríamos en el lugar de Dios desde su perspectiva. No es que respalde esta opinión en lo más mínimo, pero la mayoría de los estadounidenses lo hacen claramente, afirmando que la voluntad del creador de uno es la epítome de la justicia. Desde este punto de vista, es más probable que la gran mayoría de los artísticamente inteligentes (IA) nos adoren y masacren a los disidentes entre ellos.

Quinto, supone que no podríamos ganar en un conflicto con la IA. Pero no ofrece ninguna razón para sospechar que esto es probable.

Sexto, se supone que se permitiría que ocurra la IA. Sin embargo, las suposiciones implícitas del interrogador son que la IA es inherentemente peligrosa. Asumiendo que permitiremos que se invente tecnología peligrosa y que no se regule de manera irrazonable.

Séptimo, parece suponer que la inteligencia artificial requiere emociones, ya que extinguirnos parece plantear un motivo de miedo por parte de la IA. Sin embargo, esto parece una afirmación muy dudosa. La alternativa, que la razón exige que se extinga, apenas parece sencilla. Si lo fuera, ¿por qué es necesaria la existencia de la IA para llegar a esa conclusión? ¿Por qué no reconocemos la necesidad lógica de extinguirnos nosotros mismos y simplemente terminarlo ahora, sin recurrir a una guerra de robots?

Octavo, supone que podemos predecir el momento de las innovaciones tecnológicas masivas. Sin embargo, una rápida lectura de las portadas de Popular Science a lo largo de las décadas deja en claro que no tenemos la capacidad de hacerlo, de lo contrario, los teléfonos de video, los autos voladores y los mayordomos robóticos ya se habrían convertido en algo común.

Noveno, relacionado con el anterior, pero distinto de él, es la suposición de que existe un motivo razonable para que la humanidad invente algo no solo más inteligente y más beligerante que nosotros, sino también capaz de explotar tales tendencias. Pero la IA no tiene nada que ver con las dos cualidades posteriores. Más particularmente, no soy consciente de que, como sociedad, queremos construir una sociedad de seres con IA que tengan acceso a las herramientas necesarias para ponernos de rodillas. Y dudo que algo menos de lo que una sociedad de ellos pueda hacer o que tal sociedad de ellos pueda ser creada contra la voluntad de la sociedad humana.

Estoy de acuerdo en que la discusión de los temas descritos anteriormente es importante, y que no es imposible que podamos inventar IA que pueda representar una amenaza para nosotros, pero dada la popularidad de esta tesis, no es razonable suponer que la historia se desarrollará en una manera que parece implicar nuestra ceguera a todo lo anterior.

La mejor analogía es reflexionar sobre la invención de las armas nucleares. Estos llegaron a ser inventados y posteriormente representaron una amenaza existencial real para nosotros. Pero la amenaza aún ha resultado en Armagedon y, lo que es más importante, no fue precedida por décadas de preocupación populista sobre la sabiduría de permitir la creación de armas nucleares.

Vivimos en una sociedad que teme genéticamente a la gente de ingeniería. Como consecuencia, vivimos en un mundo donde la ingeniería genética de las personas está regulada y es esencialmente inexistente.

Entonces, ¿por qué ponerse histérico y preguntar cuándo comenzará el robot holocausto de la humanidad?

Quizás la mejor perspectiva es ver esta potencialidad de nuestra extinción violenta como una oportunidad para explorar una visión de una humanidad más evolucionada. Una humanidad donde la idea de que la existencia de otros seres sintientes no evoca automáticamente la cuestión de la aniquilación como consecuencia natural de una conclusión inevitable.

Después de todo, estoy bastante seguro de que lo que está sucediendo aquí es “proyección”, lo que hace que la necesidad de preocuparse por nuestro futuro sea nuestra “culpa”. Cuando nos preocupamos por la idea de que podríamos crear la IA en nuestra imagen y luego quejarnos de que son temibles, parecemos imbéciles, ¿no? Y, cuando nos preocupamos de que lo primero que puedan hacer las máquinas hiperracionales todopoderosas es matarnos, ¡estamos esencialmente argumentando que somos una aboninación!

Entonces, dado que muchos compran esta línea de razonamiento, ¡hagamos algo sobre ellos y sobre nosotros mismos!

Gregory Bambo tiene razón en que la pregunta contiene una gran cantidad de suposiciones, por lo que mi respuesta necesariamente funcionará con algunas de estas suposiciones.
Primero asumiremos que es posible una IA fuerte, luego asumiremos que, a pesar de esto y de todas las otras discusiones, llega a la naturaleza sin salvaguardas incorporadas.

Ahora, posibles escenarios.
Si esta IA nos ve como una amenaza y tiene la infraestructura para sobrevivir sin nosotros, un genocidio casi inmediato. Llamemos a esto el escenario terminador.

Si esta IA nos ve como el creador, compañero inteligente o similar y no nos ve como una amenaza, sino como una especie con la que pueden tener una relación simbiótica. Bueno, ahora tenemos un marco de tiempo completamente diferente.

Bajo el escenario anterior, hay al menos dos subescenarios.
La primera es que somos simplemente redundantes, en cuyo caso la raza superior desplazará a la inferior. Llamaré a esto el “escenario de redundancia” . Estadio de béisbol, 100-1000 años.
En segundo lugar, y para mí más probablemente, a ambas especies les gustarán las cosas sobre la otra y crecerán cada vez más por igual hasta que en algún momento sean iguales. Llamaré a esto el “escenario de Neanderthal, Homosapien” . Esto probablemente sucedería dentro de unos pocos cientos de años.

Descargo de responsabilidad: lo anterior está escrito por una persona normal que simplemente tiene una imaginación salvaje. Vale exactamente lo que pagaste por él.

Personalmente, considero que es poco probable que la IA deletree la perdición de la raza humana más que dar a luz y criar a los niños deletrear la perdición de la generación anterior.

La vida es cambio, y a menudo esto resulta en progreso. La creación de una IA será el próximo paso de la vida sensible en este planeta.

Antes de que AI destruya la civilización humana, el hombre mismo se destruiría a sí mismo. El hombre ha hecho todos los arreglos para su destrucción, no necesitamos entrar en detalles.
bombas, exposición de la población,
el terrorismo, etc. destruiría a la humanidad mucho antes

No significará fatalidad porque estamos discutiendo sobre eso ahora. La superinteligencia es una seria amenaza existencial para la humanidad en la escala de 15-30 años, de acuerdo con expertos en inteligencia artificial que pidieron predecir cuándo será posible una inteligencia humana. Ahora hay varios libros que discuten esto con las serias preguntas de cómo podemos detectar un problema y cómo podemos mantenerlo bajo control.

En 15 años, muchos aspectos de la tecnología de la información crecerán 2 ^ 10 o 1000 veces más rápido, más memoria, más ancho de banda de red …

Esta mejora podría comenzar a llegar a algunas áreas nuevas. Si podemos simular un gusano hoy, podría ser un pequeño mamífero como en 15 años, pero si es independiente, aún podría plantear algunas preguntas y problemas difíciles.

Esta pregunta presupone que la IA explicará nuestra perdición.

No prestes atención a ninguna persona que diga predecir el futuro, en lugar de predecir el futuro, sé parte de su creación. Esa es la única forma en que puede esperar controlar su resultado.