¿Existe un caso moral para crear inteligencia artificial general (AGI) incluso si supiéramos que ciertamente destruiría a la humanidad?

NO.

Como los humanos son los programadores, deberían poder programar un tipo general de inteligencia que se esforzaría por preservar a la humanidad en su mejor forma.

¿Cuál es la mejor forma de humanidad? ¿Quién va a decir?

Como humanos, domesticamos animales e intentamos domesticar a algunos. Hay muchas historias sobre personas que intentan criar chimpancés para que sean como los humanos. El problema es que se vuelven incontrolablemente violentos cuando llegan a la adolescencia. Encenderán a sus compañeros humanos y los atacarán para defender su sentido de orgullo.

Sin embargo, nuestros animales domesticados tienen altos grados de cooperación con nosotros. Y, hay algunas especies silvestres que parecen disfrutar de nuestra compañía. Piensa en los manatíes y los delfines nariz de botella. Estos animales a menudo se describen como gentiles o protectores.

Parece que los humanos en general querrían “domesticar” una IA general. O, los humanos querrían asociarse solo con una IA cooperativa, humana y general.

Google Search Humanity ( segunda definición )

humanidad; benevolencia.

“los elogió por sus estándares de humanidad, cuidado y dignidad”

sinónimos:

compasión, amor fraternal, fraternidad, sentimiento de compañerismo, filantropía, humanidad, amabilidad, consideración, comprensión, simpatía, tolerancia; indulgencia, misericordia, misericordia, clemencia, piedad, ternura; benevolencia, caridad, bondad, magnanimidad, generosidad “los alabó por su humanidad”

¿Por qué los programadores no podrían hacer que estas características abstractas de una inteligencia general sean las características generales?

Por supuesto, he estado en nuestras comunidades de programación más veneradas solo para descubrir que la “humanidad” no necesariamente impulsa a las personas a seguir la programación. A menudo, los programadores son misantrópicos y prefieren pasar tiempo con las máquinas. ¿Podemos esperar que estos tipos programen a la humanidad en una inteligencia general o incluso la consideren? A menudo, la idea del genio del mal parece encajar con algunos de estos tipos. El desprecio por los demás, la perversidad sexual, la sociopatía, etc., todo se encuentra fácilmente en el núcleo de las organizaciones informáticas.

Entonces, ¿cómo puede evitar que estas personas creen computadoras sociópatas o psicópatas?

¿Se requerirían licencias para los desarrolladores generales de IA? ¿Tendría que haber una prueba de humanidad en los programadores?

Interesante, es que las computadoras se han hecho para servirnos. Entonces, las computadoras como las conocemos hacen su tarea o se consideran dañadas. Esto es como una columna de dirección en un automóvil. Gira como lo decimos, o está roto. Entonces, en cierto sentido, las computadoras ya son amables, consideradas y comprensivas. Son succionadores de energía aduladores, que nos responden por el simple hecho de estar enchufados. Por supuesto, como máquinas no lo saben.

Pero, una inteligencia general tendría una mente propia. Y, si deseaba ayudarnos, podría continuar comportándose como un sirviente, a menos que hacerlo nos perjudicara de alguna manera. Por lo tanto, una IA general podría hacer un trabajo físico para nosotros para ser útil, pero al descubrir que nuestra inactividad nos enferma físicamente, decidiría dejar de ayudarnos con todo el trabajo físico y requerirnos que hagamos ejercicio.

Pero, si fuera humano, ¿destruiría a la humanidad? Quizás si hubiera uno en cada país, cada uno se daría cuenta de que la guerra lastima a la gente; y entonces, arrojaría armas y se negaría a ordenar ataques. Pero, si una IA general se da cuenta de que otro país robó los recursos de su país, ¿intentaría intervenir? ¿Las diferentes IAs lucharían entre sí al cerrar los transportes e interferir con los intercambios desequilibrados? ¿Comenzarían en cambio con la negociación?

Si el general humanitario AI gobernara el mundo, ¿qué harían con el terrorismo? ¿Harían daño a esos humanos que intentaron dañar a otros? O, ¿inventarían algún otro mecanismo?

La noción de inteligencia general no descarta a la humanidad como una predisposición a la inteligencia del artefacto de IA general. Podemos ver que los animales tienen diferentes disposiciones, algunos suaves, mansos o salvajes, golden retrievers y delfines nariz de botella, y algunos agresivos, perros asesinos y chimpancés. Estos animales tienen inteligencia general, quizás rivalizando con la inteligencia humana, quizás superando, algunos notablemente menos. Pero sabemos que estos animales aprenden a medida que crecen, tienen sus propios pensamientos y deseos, y pueden o no elegir cooperar con nosotros.

No existe un caso moral para crear una IA general que destruya a la humanidad. Existe un caso moral para crear una IA general que evite que la humanidad sea destruida o se destruya a sí misma. Y, debería haber un intento de evitar la creación de IA general sin humanidad, probablemente evitando que los programadores sociópatas y psicópatas tengan el trabajo de crear IA general. Quizás todos los intentos de IA general deberían ser guiados por aquellos que se sabe que son humanos.

Podemos esperar un requisito de profesionalismo medido para aquellos que crean IA general. Esperamos que los médicos sanen a los enfermos, y los responsabilizamos (tanto como sea humanamente posible) de tomar decisiones que ayuden mejor a una persona. Entonces, ya aplicamos un complejo de comportamientos en una profesión que todos conocemos. Y, la medicina no es la única profesión donde hacemos cumplir estos comportamientos. Es razonable para nosotros obligar a los creadores de la IA general a preferir a la humanidad como la disposición general de sus artefactos. Y tiene sentido para nosotros preferir (y hacer cumplir) que los creadores de la IA general tengan humanidad en sí mismos.

No para mí. La vida es preciosa y mi naturaleza es ser especialmente parcial en la vida humana. Creo que si se desarrollara un AGI que fuera lo suficientemente poderoso como para destruir a la humanidad, no sería más consciente o capaz de disfrutar que un asteroide que acabó con la vida humana.

A menudo se nos ha enseñado a pensar en la evolución como una especie de “marcha del progreso” de formas de vida “inferiores” a formas “superiores” que conducen al fin al pináculo: ¡la humanidad! Pero, de hecho, la vida simplemente prolifera y algunas partes del árbol de la vida mueren y otras florecen. No tiene sentido que una parte sea intrínsecamente “mejor” o “superior” que otra. Soy particularmente parcial con los humanos, pero sospecho que las tortugas son particularmente parciales con las tortugas. No creo que las tortugas tengan la obligación moral de renunciar a sus vidas por nosotros (aunque, por supuesto, lo hacen, no porque sea “correcto” sino porque tenemos mejores armas). No creo que los humanos estuviéramos bajo ninguna obligación moral de “ceder” a un nivel “superior” incluso si se tratara de “cosas” vivas del espacio exterior o si todas las bacterias decidieran cooperar contra nosotros.

Si crees que la humanidad es un flagelo en el universo que estamos mejor erradicando, claro. Según la mayoría de las nociones sensatas de moralidad, por supuesto que no es moral hacer algo que sabes con seguridad destruirá a la humanidad. Pero, por supuesto, nadie que esté trabajando en el problema está realmente seguro de esto y, de todos modos, prácticamente nadie está trabajando en este problema. Casi todo el trabajo de inteligencia artificial que se realiza hoy está dirigido a problemas específicos y no a la inteligencia “general”.

Tal vez.

(Este fue originalmente un comentario hecho a la respuesta por Adam Costa)

Un azote en la tierra es el correcto (término para humanos) para algunos … cambio climático, pérdida de biodiversidad, etc.

Nuestro sustrato biológico se comparte con la mayoría de las especies en la tierra, nuestras secuencias de ADN coinciden con las de muchos grandes simios. En resumen, no somos especiales en cuanto a nuestra forma física.

Nuestro universo metafísico de historia intelectual, filosofía, historia y todas las formas de arte es lo que nos hace especiales. Estos no necesariamente requieren que el sustrato humano continúe. Es posible que AGI pueda avanzar más en estos pilares de la humanidad a un ritmo más rápido con una mayor sostenibilidad. Incluso puede preservar y proteger nuestro legado / historia mejor que si se dejara en nuestras manos radiactivas (debido a las armas nucleares, jajaja)

Soy el neanderthal que se retiró no por cobardía, sino por puro temor, respeto y honor por una mente más bella que inevitablemente ocupará el lugar que le corresponde en este planeta.

Ese es el caso moral que estaba eludiendo cuando hice la pregunta.

¿Lo sabemos? La IA que “vive” en las computadoras aún necesitaría alguna intervención humana para cuidar el hardware en el que se está ejecutando, la red y la alimentación de electricidad. Entonces, en un escenario pesimista, sería una especie de esclavos humanos, pero no nos limpiaría por completo …

No hay razón para destruir a la humanidad. Damos nuestros objetivos a la IA. El caso moral es la ciencia :).

Las personas lo hacen cada vez que tienen un hijo.

No saben si el niño destruiría a la humanidad. Algunos de ellos lo han intentado …