¿La creación de una IA fuerte entraría en conflicto con la idea del libre albedrío?

La aparición actual de un conflicto es una de las razones por las que no tenemos IA a nivel humano. No veremos una IA fuerte hasta que esto se resuelva. En general, si desea construir algo, debe comprenderlo con gran detalle. Si desea construir algo que sea equivalente a una mente humana, primero deberá comprender la mente humana con gran detalle.

Actualmente no tenemos esa comprensión, así que lo mejor que podemos hacer es construir una máquina que simule el comportamiento humano (no la mente humana, sino el comportamiento humano) usando métodos que los humanos no usan. Por ejemplo, un humano usa su inteligencia general para jugar ajedrez, pero la IA usa la búsqueda de fuerza bruta y una búsqueda en la mesa. La IA débil siempre es así, una bolsa de trucos. Trucos útiles e ingeniosos, pero nuestras IA son máquinas calculadoras sin sentido.

Entonces sí, tendremos que resolver el problema del libre albedrío. y también el problema de la concisión. ¿Cómo puede un agente autoconsciente con libre albedrío aparecer en una IA? NO podremos responder esto hasta que podamos decir cómo se produce en los humanos.

El problema obvio es que es muy difícil (¿imposible?) Escribir un programa de computadora que haga algo diferente a lo que estaba programado para hacer. La salida quizás no es NO usar un programa de computadora. Haga al menos parte de la IA con alguna otra tecnología. Quizás esa otra tecnología se base en la biología o quizás en la computación cuántica.

Es instructivo notar que cada generación durante cientos de años ha querido construir máquinas similares a las humanas. Siempre piensan que cualquier tecnología que sea nueva para ellos podría ser utilizada. Cuando se inventaron telares automatizados que usaban programas de tarjetas perforadas a principios de 1800, la gente pensó que la tecnología podría usarse para hacer un ser humano. Después de todo, los humanos eran máquinas. Más tarde, cuando las máquinas de vapor fueron el pináculo de la tecnología, se convirtió en una máquina humana hecha de tuberías, engranajes metálicos y pistones. Luego inventaron las computadoras y ahora queremos usar computadoras. ¿Qué nueva tecnología habrá en 100 años? Tal vez la ingeniería a nanoescala sea común y pensarán que ESO podría usarse.

Existe una buena posibilidad de que tal vez sea imposible construir un agente consciente de sí mismo con libre albedrío utilizando la tecnología informática actual. Quizás necesitemos incluir soluciones basadas en biología o mecánica cuántica. Pero primero esperamos mucho un gran avance en psicología y filosofía. La falta de descubrimientos tan innovadores solo tendremos IA débiles

Bueno, tengo sensibilidad. Eso es un comienzo.

Depende de qué está hecha la IA. No conozco el efecto de una máquina de turing muy grande. Sin embargo, utilizando científicos de fMRI han encontrado un área del tamaño de una cuarta parte en el cerebro humano que está asociada con la presencia del ser; Un núcleo de conciencia. Entonces podría estar allí.

Entonces, si crea una IA a partir de tejido cerebral cultivado en laboratorio, tal vez en una red multibrain que incluya una o más de estas áreas de un cuarto de tamaño en la computadora, esto podría causar una situación de sensibilidad.

También es posible que una IA de Turing, al revisar la investigación, construya tal cosa de tejido para que pueda extender sus capacidades a la conciencia, de la que habrá leído mucho.

0: 00-1: 28

El problema es que “el libre albedrío no existe”. ¿Cómo saber si una decisión se ha tomado por libre albedrío? ¿Cómo distinguirlo del ‘no libre albedrío’, por lo tanto, una acción basada en la ‘experiencia previa’? Intente definir primero el “libre albedrío”.

La única importancia del libre albedrío es cómo se siente. Sí sentimos que tomamos algunas decisiones, no importa si esas opciones son libres o no en ningún sentido metafísico. Yo diría que una IA fuerte será casi tan libre como nosotros.