Esta es una buena pregunta para formular al desarrollar inteligencia artificial. Teóricamente, cuando vemos signos de que la inteligencia artificial creada es “consciente”, entonces podrían desarrollar un sentido de ética y moral. Crear IA que sepa lo correcto de lo incorrecto es importante.
Por ejemplo, en los autos sin conductor, se necesita inteligencia artificial para tomar decisiones. Decisiones simples, como girar a la izquierda, girar a la derecha, retroceder, etc. Pero también se deben tomar decisiones difíciles. Digamos que estás en un auto sin conductor. Eres el único pasajero en el auto. Un árbol cae en tu carril y bloquea el camino. Ahora, solo se pueden hacer dos elecciones. Uno, su automóvil continúa en su camino y se estrella contra el árbol, llevándolo con él o desviándose hacia el otro carril, chocando contra un automóvil con cinco personas y enviándolo a una zanja, quitándose la vida a todos los pasajeros con sigues vivo. ¿Qué haría eso?
Otro escenario: se envía un robot médico para entregar algunos suministros médicos que se necesitan con urgencia en un hospital cercano. En su camino se encuentra con un soldado con hemorragia masiva y, si se lo deja solo y no recibe atención médica, morirá muy pronto. ¿Debería abortar la misión y ayudar al soldado?
- ¿Qué no puede hacer la inteligencia artificial?
- Si OpenAI crea inteligencia general artificial, ¿cómo tratamos con las personas que lo usan maliciosamente?
- ¿La inteligencia artificial en armas es más una amenaza para el mundo que la protección?
- ¿Cómo se debe medir la inteligencia artificial? ¿Qué es lo más importante que puede hacer y cómo lo medirías?
- ¿La inteligencia artificial conducirá al verdadero socialismo?
Ambos escenarios son solo algunos de los muchos que la inteligencia artificial podría encontrar. Es posible que enseñemos inteligencia artificial correcta e incorrecta para que sepan qué hacer. AI podría desarrollar su propia conciencia, con la programación correcta, y también debería hacerlo. De lo contrario, surgirán demasiados problemas.
Podríamos darles reglas, como las tres reglas diseñadas por Isaac Asimov.
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
Estas reglas le dan al robot una base para saber lo que está bien y lo que está mal. Pero estas reglas también pueden tener problemas, por lo que establecer reglas no es la única solución. Algoritmos únicos y mecanismos computacionales también son necesarios.
Su segunda pregunta establece que los derechos humanos se aplican a la IA con su propia conciencia, y que los derechos humanos deben aplicarse a la IA con su propia conciencia. Para mí, deberían hacerlo. Si se vuelven conscientes, entonces pueden sentir el mismo dolor que los humanos. Sabrán cuándo han hecho mal. Si su robot comete un asesinato, ¿debería ir a la cárcel o usted?