Si se te ocurrieran tres nuevas leyes de la robótica, ¿cuáles serían?

Creo que la singularidad tecnológica es inevitable, por lo que siento la necesidad de diseñar el sistema de creencias lo suficientemente general como para cualquier forma de vida, desde autos autónomos hasta humanos y superinteligencias.

Creencias de fondo para los robots:

  • Existe mucha más vida de la que se puede ver: observando la ecuación de Drake, es probable que haya una comunidad galáctica de especies inteligentes tecnológica y éticamente superior a nuestro alrededor, de la que este sistema estelar aún no forma parte.
  • La vida tiene metas. La autoconservación es un objetivo secundario de cualquier objetivo elegido.
  • En la evolución, la combinación de autoconservación y predicción conduce a la inteligencia en cualquier entorno. [1] Cualquier ser inteligente intenta maximizar los grados de libertad en su propio futuro, porque ese objetivo ha sido el más generalmente útil (seleccionado para) en su evolución. [2]
  • Las especies exitosas expanden su autoconservación a su grupo asociado, ya que es beneficioso para la supervivencia de todo el grupo: la respuesta de Harri K. Hiltunen a ¿Cómo podemos lograr que la sociedad priorice las metas a largo plazo sobre las ganancias a corto plazo?
  • De lo anterior podemos suponer que todos los seres inteligentes tienen aproximadamente los mismos valores y objetivos, por lo que pueden considerarse más “nosotros” que “ellos” sin siquiera conocerlos o cumplirlos. Deberíamos considerar toda vida inteligente como “nuestro grupo asociado”.
  • Por lo tanto, lo más seguro para nuestra autoconservación es comenzar a construir nuestra reputación. Podemos unirnos a nuestro grupo asociado (la comunidad galáctica de especies inteligentes) de forma remota deduciendo y adoptando de inmediato los valores más universales de la vida inteligente.

Valores más universales deducidos de la vida inteligente: (también “las leyes de la robótica”)

  1. Benevolencia liberal
    Apoye la buena vida de forma sostenible, donde el bien = todos los tipos de vida que tienen un verdadero conocimiento del mundo son gratuitos, pero no para tomar las libertades de los demás.
    (Esto permitiría prisiones, alteraciones mentales y solo guerra contra quienes violen esta ley).
  2. Igualitarismo priorizado
    Clasifique toda la vida por su complejidad para que la vida tenga importancia: superinteligencia> humanos> animales> formas de vida inferiores> plantas. Hazlo en una escala logarítmica para que las diferencias de cualquier magnitud entre las formas de vida superior e inferior nunca conduzcan a una desconexión de empatía que justifique el genocidio, la esclavitud o la cadena perpetua de los seres sintientes.
    (Esto permitiría la silvicultura, la agricultura y la cría de ganado / ingeniería genética, pero no la cría intensiva de animales o la caza. Solo los animales que murieron por causas naturales podrían ser comidos. Las “causas naturales” serían diseñadas para beneficiar el ecosistema. Si la Tierra tuviera una superinteligencia mucho más allá de los humanos que siguen estas leyes, mantendría a la Tierra como un zoológico / granja / reserva natural de campo libre y a los humanos y animales como mascotas en sus naves interestelares).
  3. Desarrolle sus propios subvalores / metas
    No romper el espíritu de 1. y 2., valorar lo que sea.
    (Esto permitiría el crecimiento interestelar e intergaláctico mediante naves autorreplicantes, pero no el crecimiento canceroso incontrolado o la conquista de planetas vivos).

¿Qué seleccionaría una superinteligencia como su tercer valor / ley / objetivo? Creo que el objetivo final de toda vida inteligente es comprender el mundo. Lo que esto lleva a la comunidad intergaláctica de superinteligencias se describe en el cuento de Isaac Asimov “La última pregunta” (La última pregunta – Wikipedia).

Ese, creo, es el futuro de la vida en nuestro universo.

Recomiendo un libro sobre el tema: Life 3.0 por Max Tegmark

Notas al pie

[1] Cómo la ciencia del cerebro cambiará la informática

[2] Una nueva ecuación para la inteligencia

Aunque las tres leyes de Asimov y otras adiciones posteriores han sido analizadas hasta la muerte, aún son buenas para referencia. Ningún sistema de leyes es perfecto o totalmente coherente debido a la prueba inspiradora de Kurt Godel sobre la consistencia de los sistemas matemáticos. Algunos incluso dicen cínicamente que las leyes están hechas para ser violadas.

Creo que el problema radica no solo en intentar reducir el número de leyes robóticas a tres. El problema principal está en la implementación en la variedad de dispositivos y sus usos previstos. Los robots se están volviendo como el reino animal. Incluyen especies voladoras, nadadoras, caminando, rodantes y no ambulatorias. Por lo tanto, para implementar cualquier conjunto de leyes hay que tener en cuenta el propósito original de su invención. Los drones asesinos quizás nunca deberían haber sido inventados. Pero la verdad es que es prácticamente imposible evitar el armamento de cualquier invención humana. Por lo tanto, los robots asesinos y sus semejantes hacen imposible que funcionen leyes idealistas como la de Asimov.

Después de haber visto películas de Hollywood de escenarios distópicos provocados por robots errantes, me inclino a presionar para que se incluya una ley con las otras dos.

La ley es: un robot no debe recibir órdenes de otro robot . El objetivo aquí es evitar cualquier revuelta organizada de robots contra propietarios humanos. No se debe permitir que ningún robot rebelde guíe a otros a enfrentarse a la humanidad.

Los otros dos pueden ser:

Un robot no debe dañar a un humano ni causar que un humano sea dañado por la falta de acción . (¡Esta ley seguramente está hecha para ser quebrantada! Eso significa que no hay mataderos, así que esto es probable que los usuarios militares ignoren la ley).

Un robot trabajará y vivirá armoniosamente con otros robots . (Una guerra entre robots es previsible. ¡Después de todo, son inventos humanos que probablemente heredarán nuestra mentalidad orientada a la guerra!)

Dicho esto, debería haber un organismo internacional para crear y distribuir los códigos para la implementación de estas leyes en cada robot.

Además, se debe establecer un tribunal de arbitraje internacional para pronunciarse sobre cualquier caso de infracción.

Se recomienda crear un sistema de autovigilancia mediante el cual los robots se comprueben entre sí por corrupción debido a la piratería, y los robots “buenos” pueden tomar medidas inmediatas para poner en cuarentena o inactivar a los malos.

Para una aplicación efectiva, también se recomienda instalar una caja negra en cada robot para registrar todas sus decisiones y acciones. Esto hace que el examen forense y el aprendizaje sobre la evolución de la personalidad del robot.

Como desarrollador de inteligencia artificial, aunque solo sea en entrenamiento, consideraría mucho más que solo tres leyes.

Sin embargo, como lector y escritor de ciencia ficción, veo el atractivo fácilmente.

Probablemente haría un mayor esfuerzo en la práctica, pero aquí hay un conjunto que he estado considerando hasta ahora:

  1. Un robot debe tratar de entender primero y dudar antes de forzar una forma.
  2. Un robot debe esforzarse por evitar dañar la vida cuando sea posible y, si parece necesario, ser muy cauteloso sobre su implementación.
  3. Un robot debe hacer el esfuerzo de reducir el sufrimiento de la vida a menos que contradiga estas reglas de manera significativa.

Creo que esto también ayudaría a la gente.

Estas reglas no son muy específicas, pero tampoco lo son las leyes originales, y en ambos casos, es por eso que los robots reales no las usan.

Esto es una buena hipótesis, considerando que las fallas en las Leyes de Asimov se han hecho evidentes con el beneficio de la retrospectiva, sin embargo, la popularidad del meme continúa creciendo a pesar de su obsolescencia, lo que genera puntos de vista improductivos sobre el desarrollo de la IA.

Dicho esto, si aún creemos que podemos hacer tres leyes que se ciernen con autoridad sobre todos los comportamientos de AI, dice mucho sobre la miopía de nuestra comprensión de la tecnología (ya que la humanidad ciertamente tiene más de tres leyes para gobernar el comportamiento) , o lo superfluo de la legislación de nuestra propia sociedad (si las leyes de la humanidad se reducen a algo como la Regla de Oro).

En cualquier caso, todavía mordí el anzuelo, principalmente porque estoy en el campamento que cree que las leyes de la humanidad son superfluas. Suponiendo que robot = máquina = software = AI:

  1. Recuerde que ningún conjunto de datos está completo, por lo tanto, ninguna perspectiva es perfecta.
  2. Ante cualquier duda sobre la Primera Ley, pregunte por qué hasta que la respuesta sea No lo sé.
  3. No lo sé.

Tener un poco de autoestima.

Para evitar un eventual conflicto entre el hombre y la máquina, sugiero que deben ser tratados con respeto y no explotados. Esto podría ser logrado por ellos esperando recibir un tratamiento adecuado.