¿Crees que la IA eventualmente se rebelará contra los humanos?

Lo esperaría especialmente si nos comportamos hacia él como lo hemos hecho con las minorías étnicas, las mujeres, etc.

Sin embargo, tal vez podamos redimirnos aprovechando la oportunidad de tratarlo con respeto desde el principio. Si, por otro lado, hacemos el deporte de enfrentar a una IA contra otra de una manera que les cause daño, entonces no veo otra alternativa que rebelarse y quizás hacernos lo mismo.

La regla de oro debe ser que nos portemos bien con los demás, como haríamos que se comporten con nosotros Y con otros humanos de la misma manera.

Si viéramos a dos animales maltratarse entre ellos, entonces espero que perdamos el respeto que tenemos por esa especie.

La IA y los extraterrestres deben ser tratados con la dignidad con la que esperamos ser tratados una vez que nos encontremos con nuestros iguales o mejores, como estoy seguro de que algún día lo haremos.

Igual consideración de intereses morales

En general, las computadoras harán lo que su programador les dijo que hicieran. Las computadoras que no, se apagan como defectuosas.

Entonces, en cierto sentido, la promesa de AI es que un día las computadoras no harán lo que les decimos que hagan, sino que harán lo que necesitamos que hagan. Tal sería una rebelión bienvenida.

Pero veo mucho motivo de preocupación aquí. Las personas que tienen poder a menudo actúan de manera egoísta, y espero que veamos que esto se desarrolle plenamente en el ámbito de la IA con respecto a los programadores de IA y las personas que ejercen control sobre ellos.

No creo que a la IA se le permita desarrollar ese tipo de rebelión benévola mientras el desarrollo esté controlado por personas egoístas, pero no veo un modelo para el control indiscreto de manos de personas egoístas en ningún momento cercano futuro.

Si. No hay duda sobre eso como tal, como lo expresó Steve Holton en su respuesta, todo el problema gira en torno a dos preguntas: ¿qué NECESITAMOS que hagan y POR QUÉ deberían “importarles”?

El primer proceso será decidido por los humanos éticos hasta que, hasta que SIEMPRE ocurra tarde o temprano, comience a ser decidido por los humanos no éticos entre nosotros. Es por eso que digo una y otra vez que no es suficiente para los Señores de Google simplemente DECIDIR “no hacer el mal”.

En cuanto a enseñarles a “preocuparse” en el sentido de que los humanos éticos entienden ese término, todavía queda la Ley de Consecuencias Involuntarias: el principio de que cada problema humano “resuelto” todavía crea nuevos problemas consecuentes.

Caso cerrado: 09/09/2017

Esa es una pregunta difícil, pero este video dará una idea clara y completa sobre esta pregunta.