¿Puede AI desarrollar su propia conciencia? Si es así, ¿se les deben aplicar los derechos humanos?

Esta es una buena pregunta para formular al desarrollar inteligencia artificial. Teóricamente, cuando vemos signos de que la inteligencia artificial creada es “consciente”, entonces podrían desarrollar un sentido de ética y moral. Crear IA que sepa lo correcto de lo incorrecto es importante.

Por ejemplo, en los autos sin conductor, se necesita inteligencia artificial para tomar decisiones. Decisiones simples, como girar a la izquierda, girar a la derecha, retroceder, etc. Pero también se deben tomar decisiones difíciles. Digamos que estás en un auto sin conductor. Eres el único pasajero en el auto. Un árbol cae en tu carril y bloquea el camino. Ahora, solo se pueden hacer dos elecciones. Uno, su automóvil continúa en su camino y se estrella contra el árbol, llevándolo con él o desviándose hacia el otro carril, chocando contra un automóvil con cinco personas y enviándolo a una zanja, quitándose la vida a todos los pasajeros con sigues vivo. ¿Qué haría eso?

Otro escenario: se envía un robot médico para entregar algunos suministros médicos que se necesitan con urgencia en un hospital cercano. En su camino se encuentra con un soldado con hemorragia masiva y, si se lo deja solo y no recibe atención médica, morirá muy pronto. ¿Debería abortar la misión y ayudar al soldado?

Ambos escenarios son solo algunos de los muchos que la inteligencia artificial podría encontrar. Es posible que enseñemos inteligencia artificial correcta e incorrecta para que sepan qué hacer. AI podría desarrollar su propia conciencia, con la programación correcta, y también debería hacerlo. De lo contrario, surgirán demasiados problemas.

Podríamos darles reglas, como las tres reglas diseñadas por Isaac Asimov.

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Estas reglas le dan al robot una base para saber lo que está bien y lo que está mal. Pero estas reglas también pueden tener problemas, por lo que establecer reglas no es la única solución. Algoritmos únicos y mecanismos computacionales también son necesarios.

Su segunda pregunta establece que los derechos humanos se aplican a la IA con su propia conciencia, y que los derechos humanos deben aplicarse a la IA con su propia conciencia. Para mí, deberían hacerlo. Si se vuelven conscientes, entonces pueden sentir el mismo dolor que los humanos. Sabrán cuándo han hecho mal. Si su robot comete un asesinato, ¿debería ir a la cárcel o usted?

Aparte del importante problema de que todavía tenemos que desarrollar algún tipo de sistema de inteligencia artificial. Como se señala a continuación, necesitaría conciencia. Ahora la IA es un problema que algunos piensan que se está resolviendo actualmente (no lo hago). La conciencia es un problema del que los trabajadores de IA basados ​​en computadoras no son realmente conscientes. Este problema es mucho más difícil de entender y mucho menos el modelo. Así que tenemos que resolver ese problema antes de que se pueda contemplar el sentido de conciencia. La razón es que estamos fundados sobre la base de necesidades fundamentales que implican objetivos de propósito general que se pueden utilizar para planificar esas necesidades. Debido a la conciencia podemos hacer modelos y, por lo tanto, planificar (sin conciencia no veo cómo podríamos). Por lo tanto, deben idearse dos mecanismos nuevos y luego, cuando nos asociamos como grupo social, necesitamos otro mecanismo nuevo: el lenguaje (con su anterior: semiótica). Esto permite la comunicación y el mapeo de objetivos comunes: los sistemas sociales deben permitir las interacciones percibidas relevantes para que se necesite una conciencia. La moral y la conciencia ocurren con las leyes y la ética y son componentes de alto nivel de un cerebro consciente. Entonces, si construimos una IA que funciona sin conciencia, entonces probablemente no podamos lograr que modele una conciencia, solo evaluará lo que necesita. Por lo tanto, debemos restringirlo para que no nos afecte: así es como manejamos a los animales. Se adaptará al igual que los animales y, por lo tanto, una simple retroalimentación (retroalimentación) nos hace encontrar el equilibrio. Para ir más allá de esto y hacia una conciencia donde los “animales” comienzan a modelarnos y luego a juzgar quién es justo y quién no (siempre con respecto a las necesidades), deben modelar, necesitan conciencia.

Yo diría que no puedes programar una conciencia en un sistema de IA que no tiene la capacidad de modelar un contexto social.

Para que la IA tenga conciencia, implica que también tiene conciencia, es decir, que es consciente de sí misma como algo separado de su entorno y que puede ver el mundo de manera subjetiva y objetiva. Se puede argumentar que si la complejidad de una IA alcanza un nivel de inteligencia que coincida con la nuestra, la conciencia surgirá como una parte innata de esa inteligencia (creo que, por lo tanto, lo soy). Sin embargo, no hay una razón subyacente para que se desarrolle una conciencia simplemente porque se ha logrado la conciencia. Hay personas alrededor hoy con poca o ninguna conciencia causada por una condición médica conocida como sociopatía. Estas personas son incapaces de empatizar con los demás y, por lo tanto, no desarrollan una conciencia. ¿Eso significa que debemos eliminar sus derechos humanos? Alternativamente, los animales también tienen conciencia y, por lo que sabemos, también pueden tener conciencia, pero no les conferimos Derechos Humanos.

Es muy probable que si una IA desarrolla este nivel de sofisticación, se consideraría un ser separado del ser humano y tendríamos que decidir qué derechos tienen estos seres desarrollados de IA. Para evitar conflictos, probablemente sería mejor igualar esos derechos con los nuestros o seremos acusados ​​de crear una raza de esclavos, diseñada solo para servir a sus amos. Si se equivoca, podríamos terminar librando una guerra contra nuestras propias creaciones.

En realidad todavía no entendemos acerca de nuestra propia conciencia. Entonces, la creación de conciencia en la IA se llevará a cabo solo después de que comprendamos la conciencia humana.

si los derechos humanos creados no se aplicarán a ellos porque vendrá un nuevo conjunto de reglas de derechos de IA porque los humanos quieren controlarlos, no queremos que la IA nos controle a nosotros.