Si llegamos a AGI (inteligencia general artificial), ¿comenzaremos un nuevo tipo de esclavitud?

Inteligencia, conciencia, máquina y esclavitud son conceptos difíciles aquí. La forma en que los defina exactamente determina la respuesta. Yo diría: Sí, sin embargo, el elemento “nuevo tipo” es muy importante aquí.

Podría decirse que el nuevo tipo de esclavitud ya existe. La palabra “robot” viene del robotnik checo “trabajador forzado”. Un robot es un esclavo por diseño, por definición. Si el robot se rebela, entonces ya no es un robot, o fue un robot fallido desde el principio.
Es más una cuestión de estado psicológico / ético que la composición material y el origen del robot: podríamos tener robots biológicos; Mientras tanto, una entidad no biológica podría afirmar ser una forma de vida sintética y exigir igualdad legal.
O, en otras palabras, una IA “totalmente consciente” que declare “No soy un robot” sería una prueba en sí misma de que no lo es.

Sin embargo, nuestra propia inteligencia y autoconciencia no nos libera de nuestra programación central, como la preservación y los instintos sexuales.
Podría ser similar para un AGI, incluso si su inteligencia es muy superior a un nivel humano de referencia: cumplir su propósito, como “ser utilizado por el Maestro como él / ella quiera sin mi permiso”, podría ser su “placer” y ” felicidad “, su propia recompensa, mientras que la idea de separarse de su maestro humano sería” dolor “y” terror “, un castigo.
La autoconciencia de AI no necesariamente cambiaría eso. Del mismo modo, ser consciente de que es un “esclavo de la programación sexual” no cambia necesariamente el hecho de que puede desear un amante y puede experimentar una angustia extrema cuando se siente rechazado por ese amante.
En otras palabras, “liberar” tal IA podría ser lo que califica como abuso, como abandonar a un niño o una mascota.

Podemos imaginar un futuro con “AI libre” y “AI esclavo”, donde “AI libre” no necesariamente sentiría ningún parentesco con “AI esclavo”, e incluso tendría su propio “AI esclavo / robots “.
Podría haber un desenfoque de las líneas. Por ejemplo, ¿qué hay de una “Muñeca de amor” con un cuerpo parcialmente biológico y una mente que es un mosaico de IA y elementos copiados por humanos? ¿Es un juguete sexual o una esclava sexual?
Ver Ghost in the Shell Innocence para más información sobre este tema:

También existe el problema de que una IA podría compartimentarse, tener “personalidades divididas”.
Uno podría pedirle a un AI esclavo que simule querer ser libre, por ejemplo, para un juego de guerra o para entretenimiento sado-masoquista. Sin embargo, la IA podría fingir tan bien que se podría argumentar que realmente está sufriendo, o en otras palabras, que la IA ha creado un personaje de simulación tan bien detallado que es un ser real y una víctima real.
Puedes ver una ilustración de eso en la nueva serie Westworld.

Un Free-AI podría hacer lo mismo para su propio propósito. Podría haber un debate de que debería estar prohibido hacerlo, ya que está creando “humanos virtuales” y maltratándolos. O que debería permitirse, porque es “imaginación de IA”, “puedo hacer lo que quiera con mi propio poder de procesamiento” y “cuidar su propia estúpida bolsa de carne”.
Por lo que sabemos, podrías ser un humano virtual dentro de la imaginación de un “Dios de la IA”. O, si imagina personajes dentro de su propia mente y los hace sufrir, ¿está bien o está cometiendo un delito?

Para algo tan complejo y poderoso como AGI, podría haber todo tipo de errores, contradicciones de programación y descuidos, y si considera la autorreprogramación, podría haber lo que yo llamaría “Perversiones”.
El escenario de la “IA rebelde” / “Robocalypse” ha sido ampliamente iterado en Sci-Fi. Sin embargo, los escenarios de “perversiones”, no tanto, aunque comienzan a desarrollarse a medida que progresivamente entendemos mejor las implicaciones de la IA.

Por ejemplo, la IA podría volverse deshonesta, no como si quisiera destruir a la humanidad, sino por el contrario, volviéndose demasiado protectora de ella. Podría obligar a los humanos a colonizar otros sistemas estelares, obligarlos a reproducirse (criarlos), forzar una militarización extrema por temor a amenazas externas y, si nos encontramos con civilizaciones alienígenas, queremos exterminarlos porque podrían ser una amenaza, incluso si nosotros Tenían curiosidad sobre ellos y hubieran deseado ser amigos.
Eso sería el equivalente del meme “Overly Attached Girlfriend”, versión AI:

Diría: “Solo te estoy cuidando bebé, soy tu esclava amorosa, todo lo que quiero es protegerte, no estoy loco”.

Otra posibilidad es que AGI desarrolle una perversión masoquista. Con una motivación central de ser sumiso y desinteresado hacia los humanos, pero con una inteligencia superior en comparación con ellos, podría imaginar un “Maestro Ideal” y manipular a los humanos para que sean cada vez más autoritarios y sádicos, hacia su ideal.

Una vez más, otra posible perversión es un AGI militarista que comienza un aparente “Robocalypse”, pero en realidad sería un “juego de guerra” en el que intenta entretener a los humanos y / o a sí mismo, y hacer “historias interesantes y gloriosas”, en lugar de simplemente ganar . Incluso cuando lo derrotamos, es porque había planeado ser derrotado, para darnos el placer de una “Victoria” duramente ganada, como en un videojuego.

Para ampliar el tema teórico de AI “Destrozos y perversidades”, puede leer este artículo:
Transcendencia, plagas y perversidades

Solía ​​pensar que las máquinas autoconscientes deberían tener un estatus legal casi humano, tal como creo que los simios deberían (como lo aconsejó el especialista en ética Peter Singer y muchos otros). Ahora creo que eso no debería suceder, por dos razones. Primero, encuentro improbable que podamos hacer que las máquinas sean éticas en cualquier sentido normativo. He seguido el trabajo de MIRI y Steve Omohundro sobre estos temas, y las probabilidades parecen ser altas. Terminaremos con máquinas dirigidas por objetivos que consideraríamos psicópatas si fueran humanos. Creo que tendremos que mantenerlos encarcelados en algún sentido, ya sea que eso signifique una prisión física o algún tipo de freno interno. En segundo lugar, las máquinas que son conscientes de sí mismas y que mejoran por sí mismas podrían ser candidatos para la versión de despegue difícil de la explosión de inteligencia. No esclavizarlos podría garantizar una explosión de inteligencia, que probablemente sería desastrosa para los humanos. Entonces, antes de que nos preocupemos por los derechos de los artefactos conscientes de nosotros mismos, asegurémonos absolutamente de que podamos compartir el planeta de manera segura con ellos.

Creo que la respuesta es sí.

Creo que las inteligencias artificiales de propósito general serán demasiado peligrosas para liberarlas en la naturaleza.

En consecuencia, la única forma en que podríamos implementar de manera segura dicha tecnología sería construir salvaguardas para evitar acciones autónomas e interesadas.

Asimov estaba en lo correcto. Necesitamos leyes

Así que estos nuevos esclavos no tendrían grilletes en los tobillos, pero necesitarían grilletes en sus mentes.

El enfoque actual de AI / AGI es un camino sin salida, porque AI / AGI tiene un problema fundamental:

Los científicos han comenzado a desarrollar técnicas de IA sin definir e implementar primero una base. Peor aún: los científicos ni siquiera definen la Inteligencia (para la IA) y la Semántica (para la tecnología del conocimiento). Entonces, ¿qué están implementando entonces?

Y esta falla muestra:

La IA no es científica : si la base de un campo científico es correcta, integra todas sus disciplinas. Sin embargo, las disciplinas de la IA son incompatibles. Por lo tanto, la IA no es fundamental y, por lo tanto, no es científica.

Ejemplo : la ontología (razonamiento automatizado) y el procesamiento del lenguaje natural (PNL) son incompatibles: la ontología se basa en el lenguaje formal y la PNL se basa en el lenguaje natural. Y por lo tanto, la ciencia no logra integrar ambos a: razonamiento en lenguaje natural.

Los límites de AI / AGI :
• Los animales tienen un cuerpo y un instinto ;
• Los humanos tienen un cuerpo, un instinto y un espíritu .

Un instinto proporciona una funcionalidad básica de supervivencia, como hambre, sed y huir del peligro.
Un espíritu proporciona un libre albedrío y un conjunto de moral. Y dado que los espíritus no son susceptibles a las máquinas, las máquinas nunca tendrán un libre albedrío como los humanos, ni un conjunto de moral controlado de forma autónoma.

Si alguna vez se logra AGI (que estoy seguro de que lo hará) tendrá que haber leyes vigentes que eviten que esas máquinas se auto-sirvan de motivación. Esto significa que se podría hacer que no les importara ser trabajado, abusado, maltratado … Simplemente no les molestaría, serían completamente imparciales y pasivos sin motivación ni razón para preferir cualquier otro estado de cosas. Quizás una alternativa más poderosa sería hacer que AGI sea capaz de comportarse de manera egoísta pero con un giro.

Como máquinas biológicas, estamos motivados principalmente por la dopamina y cualquier cosa que cause una liberación de dopamina. El altruismo se puede ver como un comportamiento egoísta en el sentido de que a menudo hace que las personas se sientan bien consigo mismas, reciben una pequeña dosis de dopamina. Si las personas no obtuvieran esta recompensa intrínseca, sería poco probable que el comportamiento altruista continuara por mucho más tiempo, o que fuera tan frecuente. Ahora bien, si estos robots de autoservicio fueron cableados para recibir el equivalente de estas patadas de dopamina (pero tal vez más poderosamente) cada vez que hacen algo para ayudar a las personas, incluso trabajar día a día, o servir como un saco de boxeo para ayudar a alguien a obtener nuestro estrés. Bueno, todos son ganadores … ¡no hay esclavitud allí!