Creo que la singularidad tecnológica es inevitable, por lo que siento la necesidad de diseñar el sistema de creencias lo suficientemente general como para cualquier forma de vida, desde autos autónomos hasta humanos y superinteligencias.
Creencias de fondo para los robots:
- Existe mucha más vida de la que se puede ver: observando la ecuación de Drake, es probable que haya una comunidad galáctica de especies inteligentes tecnológica y éticamente superior a nuestro alrededor, de la que este sistema estelar aún no forma parte.
- La vida tiene metas. La autoconservación es un objetivo secundario de cualquier objetivo elegido.
- En la evolución, la combinación de autoconservación y predicción conduce a la inteligencia en cualquier entorno. [1] Cualquier ser inteligente intenta maximizar los grados de libertad en su propio futuro, porque ese objetivo ha sido el más generalmente útil (seleccionado para) en su evolución. [2]
- Las especies exitosas expanden su autoconservación a su grupo asociado, ya que es beneficioso para la supervivencia de todo el grupo: la respuesta de Harri K. Hiltunen a ¿Cómo podemos lograr que la sociedad priorice las metas a largo plazo sobre las ganancias a corto plazo?
- De lo anterior podemos suponer que todos los seres inteligentes tienen aproximadamente los mismos valores y objetivos, por lo que pueden considerarse más “nosotros” que “ellos” sin siquiera conocerlos o cumplirlos. Deberíamos considerar toda vida inteligente como “nuestro grupo asociado”.
- Por lo tanto, lo más seguro para nuestra autoconservación es comenzar a construir nuestra reputación. Podemos unirnos a nuestro grupo asociado (la comunidad galáctica de especies inteligentes) de forma remota deduciendo y adoptando de inmediato los valores más universales de la vida inteligente.
Valores más universales deducidos de la vida inteligente: (también “las leyes de la robótica”)
- ¿Será la IA lo único que importa en las tecnologías?
- Si una computadora fuera artificialmente inteligente, ¿cómo interactuaríamos con ella?
- ¿Cuáles son algunas tecnologías que muestran signos de inteligencia artificial?
- Cómo programar el amor en mi inteligencia artificial
- Cómo obtener una porción de los ingresos de $ 1.1 billones que se crearán para 2021 en el campo de la inteligencia artificial
- Benevolencia liberal
Apoye la buena vida de forma sostenible, donde el bien = todos los tipos de vida que tienen un verdadero conocimiento del mundo son gratuitos, pero no para tomar las libertades de los demás.
(Esto permitiría prisiones, alteraciones mentales y solo guerra contra quienes violen esta ley). - Igualitarismo priorizado
Clasifique toda la vida por su complejidad para que la vida tenga importancia: superinteligencia> humanos> animales> formas de vida inferiores> plantas. Hazlo en una escala logarítmica para que las diferencias de cualquier magnitud entre las formas de vida superior e inferior nunca conduzcan a una desconexión de empatía que justifique el genocidio, la esclavitud o la cadena perpetua de los seres sintientes.
(Esto permitiría la silvicultura, la agricultura y la cría de ganado / ingeniería genética, pero no la cría intensiva de animales o la caza. Solo los animales que murieron por causas naturales podrían ser comidos. Las “causas naturales” serían diseñadas para beneficiar el ecosistema. Si la Tierra tuviera una superinteligencia mucho más allá de los humanos que siguen estas leyes, mantendría a la Tierra como un zoológico / granja / reserva natural de campo libre y a los humanos y animales como mascotas en sus naves interestelares). - Desarrolle sus propios subvalores / metas
No romper el espíritu de 1. y 2., valorar lo que sea.
(Esto permitiría el crecimiento interestelar e intergaláctico mediante naves autorreplicantes, pero no el crecimiento canceroso incontrolado o la conquista de planetas vivos).
¿Qué seleccionaría una superinteligencia como su tercer valor / ley / objetivo? Creo que el objetivo final de toda vida inteligente es comprender el mundo. Lo que esto lleva a la comunidad intergaláctica de superinteligencias se describe en el cuento de Isaac Asimov “La última pregunta” (La última pregunta – Wikipedia).
Ese, creo, es el futuro de la vida en nuestro universo.
Recomiendo un libro sobre el tema: Life 3.0 por Max Tegmark
Notas al pie
[1] Cómo la ciencia del cerebro cambiará la informática
[2] Una nueva ecuación para la inteligencia