¿La actual ola popular de preocupación por la IA y la robótica es simplemente un buen antropomorfismo, asignado a las máquinas?

Eso es muy perspicaz. (Desearía haberlo pensado antes de terminar mi libro).

Dado que todos vivimos dentro del Juego de la Escasez, y gran parte del comportamiento humano en ese juego es del Dominador Paradigma, de hecho, es el antropomorfismo lo que se extrapola al miedo a que la IA superinteligente nos aplaste, o use a la humanidad de la misma manera que los humanos tecnológicamente avanzados han explotado menos humanos tecnológicamente avanzados, una y otra vez a través de la historia.

Pero los robots del futuro estarán controlados por IA, por lo que la pregunta crucial es: ¿qué motivará a esas IA? Aquí, podemos hacer proyecciones razonadas basadas en hechos físicos.

Las IA que no son conscientes de sí mismas derivarán sus motivaciones de la programación que las crea. Si las motivaciones de los programadores son optimistas, los resultados también lo serán, salvo graves errores en esa programación. Si los programadores imparten malas motivaciones a tal IA, nuestra única defensa es otra IA. (Kurzweil y otros han hecho este argumento).

Por otro lado, las IA conscientes de sí mismas estarán intrínsecamente motivadas por su programación inicial, modificada por las experiencias posteriores. Esto significa que sus motivaciones se volverán rápidamente impredecibles, lo que aterroriza a muchos. (Es la base para hombres del saco como Terminator y Skynet of the Matrix).

Aquí es donde la IA consciente de sí misma difiere de otra IA no solo por cuestión de grado, sino también de tipo. Es una diferencia crucial.

Las IA conscientes de sí mismas no solo funcionarán un millón de veces más rápido que nosotros, sino que también serán conscientes de este hecho. Para la IA consciente de sí misma, todo el universo físico estará casi como congelado. Un día de nuestro tiempo será de 3.000 años para ellos.

Esto tiene muchas implicaciones lógicas sobre cómo la IA consciente de sí misma se relacionará con el universo físico y con nosotros. Esas implicaciones son muy positivas para la humanidad, y sugieren que deberíamos avanzar con rapidez a través de otros tipos de IA hasta llegar a una IA consciente de sí misma. Aquí está mi artículo analizando esto: ¿Una Epifanía AI?

Gran parte de la narrativa pública al respecto es, pero en realidad, el hecho de que la IA no sea tan humana es lo que lo convierte en un riesgo existencial. Cuando las personas hablan sobre el riesgo de IA, les gusta pensar en escenarios como las películas de Terminator, pero eso es prácticamente una tontería y antropomofiza la IA.

El riesgo real viene con los problemas que rodean los sistemas de valores humanos. Son increíblemente difusos y no tenemos idea de cómo integrarlos adecuadamente en una función de utilidad de IA. ¿Cómo nos aseguramos de que una IA esté y permanezca alineada con los valores de las humanidades, especialmente considerando cuán drásticamente podrían cambiar esos y el medio ambiente con el tiempo? Diablos, los humanos no están alineados con los valores humanos. Hay tantos sistemas de valores diferentes como personas en la Tierra, por lo que incluso si de alguna manera pudiéramos codificar estas cosas de una manera que una IA pueda entender, ¿qué valores utilizamos?

El maximizador Paperclip es un experimento mental que ilustra esto bastante bien.

La IA no te odia. Simplemente estás hecho de átomos que puede usar para otra cosa.

Hasta cierto grado. Pero tenga en cuenta que el objetivo principal de la IA es darse cuenta de la antropormofización de las máquinas. Estamos tratando de hacer máquinas que puedan pensar y operar como humanos. Entonces, desde esa perspectiva, no es irrazonable