Cuando hacemos que la IA sea consciente y sienta que es un dolor de entrenamiento existente, ¿seremos torturadores?

Como alguien que ha emulado con éxito los sistemas nerviosos dentro y fuera de la robótica, luché con esto hasta cierto punto. No tanto por el dolor sino por el hecho de que apagar un animal emulado constituye la muerte. Cuando ves a un robot corriendo y trabajando como un animal real, te estremeces un poco cuando lo apagas y / o borras su existencia. Esto puede sonar un poco tonto, pero creo que tienes que estar allí para entender.

Sin embargo, al crear y usar conectomas animales y artificiales para crear sistemas inteligentes, usamos refuerzo positivo y negativo para cambiar la estructura del cerebro emulado (es decir, aprendizaje / plasticidad) para que se entienda que estamos causando dolor para evitar la capacidad de aprender cosas no deseadas En el nivel con el que estamos trabajando en este momento, no lo veo como un problema. A medida que avanzan nuestros esfuerzos y el animal emulado puede reaccionar al estímulo en un grado que el dolor es obvio, creo que una persona “normal” será empática con la reacción independientemente de si estamos tratando con sistemas vivos orgánicos o inorgánicos.

El dolor es útil para nuestro trabajo, especialmente en robótica. Esperamos desplegar robots autónomos en Marte pronto para hacer las cosas que queremos que hagan los humanos allí. En mis conferencias, a menudo digo que la razón por la que queremos poner humanos en Marte es porque lleva demasiado tiempo conducir un robot remoto por Marte. Sería mucho más beneficioso decirle a un humano que “vaya a esta área y si encuentra algo genial, háganoslo saber”. Estoy desarrollando un sistema que será capaz de esta capacidad. Entonces, si el robot de Marte puede sentir algo de “dolor”, tendría una probabilidad mucho mayor de supervivencia que los sistemas no inteligentes que implementamos hoy, y el 99.9999% de los robots actuales en uso ahora.

Por lo tanto, el dolor es una herramienta útil que la naturaleza nos ha dado y utilizado adecuadamente, puede permitirnos sobrevivir. Obviamente, si alguien decide causar dolor constantemente por “diversión”, entonces sí, es un torturador. Podría extrapolar esto a cualquier cosa, viva o no viva (por ejemplo, si una persona encuentra un gran placer en arrancarle los ojos a las muñecas, está proyectando su sensación de dolor en el objeto inanimado, por lo que es un torturador).

Para mí, eso parece depender mucho de cómo configuras tu mente, qué opciones le das, cómo esa mente particular está conectada a estas emociones. Un ejemplo podría ser que tal vez sea posible vivir las mismas experiencias con un sentido del tiempo completamente diferente, haciendo que la experiencia sea menos aterradora. O tal vez en general, no tendría que experimentarlo exactamente de la misma manera, y podría encontrar nuevas formas de explorar el dolor sin necesariamente sufrir en el mismo sentido que los humanos y los animales en general.

Puedo imaginarme cuatro razones principales para crear una IA que pueda experimentar dolor en primer lugar.

  • Primero podría ser comprender mejor la experiencia humana y cualquier aplicación útil que pueda surgir al comprender eso, como ser capaz de organizar mejor la información creada por los humanos o resolver los problemas mentales de todos.
  • Una segunda razón podría ser crear seres artificiales, no sé, ¿una novia personal diseñada solo para ti que esté absolutamente consciente de su situación y absolutamente feliz con ella? Esto puede volverse extraño realmente rápido y conducir a mucha tortura, ¿tendrían derechos? ¿Se les permite apagarlos? ¿O nos rediseñaremos?
  • Una tercera razón podría ser pura curiosidad y ver a dónde podría conducir. Este es el único de los tres que realmente llegaría a la tortura extrema. No creo que podamos extraer mucho valor simplemente experimentando con torturar algún sistema consciente, al menos en base a lo que se conoce hoy en día.
  • Una cuarta razón podría ser la exploración de la naturaleza de la emoción, la sensación, el sentimiento en sí mismo, posiblemente abriendo puertas para desarrollarse, crear emociones completamente nuevas y quizás paradigmas completamente diferentes, más allá de la emoción. Personalmente espero que sea posible ir incluso más allá de la conciencia, más allá de la idea de saber, incluso con nuestro paradigma actual que parece absurdo. Mi hipótesis es que nada es realmente consciente y solo parece serlo, lo que significaría que el mundo no es materialista en el sentido común, ni inmaterial en el sentido espiritual, abriendo una “tercera” opción, que sería tan fundamental que por su propia naturaleza no sería conocible porque serían los componentes básicos de lo que constituye la conciencia, el conocimiento y la experiencia en primer lugar. También unificaría elegantemente todo lo demás, con una teoría no dualista del universo mucho más probable, por lo que todo ya es lo que es la “realidad objetiva” y no se puede experimentar, porque la experiencia en ese caso sería de un nivel demasiado alto. Si bien nunca se puede confiar realmente en la experiencia para poder contarnos algo seguro sobre cualquier realidad, independientemente de cómo se sienta, tal vez, solo tal vez, podamos obtener algunas pistas sobre la naturaleza real de las cosas a través de las correlaciones que encontramos en el nivel de pensamiento Si ese fuera el caso, estaría muy emocionado de ver qué más es posible y, en general, qué tan profundo es todo, ¿y podríamos reorganizar algunas de esas piezas para unir el universo de manera completamente diferente?

Dado todo eso, nunca podría convertirse en un problema. No es que necesitemos generar la experiencia de un dolor real para un personaje de videojuego y que tenga vida propia cuando podamos modelar el mismo comportamiento.

Independientemente de por qué exploraríamos esos motivos, personalmente creo que una IA consciente no será creada por humanos sino por una IA inconsciente que tiene permitido estudiar a los humanos y otros sistemas supuestamente conscientes, e innovar a partir de ahí. Creo que gran parte de la evolución de la IA sucederá de esta manera, a menos que usemos una red neuronal como sugiere Elon Musk, lo que nos da la velocidad de computación consciente para poder monitorear activamente dicho proceso. Creo que es más probable que hagamos una IA lo suficientemente inteligente que pueda comenzar a evolucionar por sí misma en función de objetivos bien definidos y restringidos, antes de que podamos descubrir cómo conectarnos con las computadoras por nuestra cuenta. En el mejor de los casos, crearemos una IA que nos ayudará a hacerlo.

Podríamos decir que la IA se torturará a sí misma. Aunque como operaría con nuestros objetivos, indirectamente seguiríamos siendo nosotros quienes lo causáramos.