Sin Evolution, ¿qué causará que la IA (inteligencia artificial) luche por la supervivencia? ¿De dónde vendrá la motivación para que AI haga algo?

La moralidad de los seres humanos precede a la moralidad de la IA. En lugar de creer en las llamadas personas inteligentes, todos deberíamos centrarnos en cómo desarrollar una IA de tal manera que no haya lugar para errores / daños / violencia. Ahora eso es difícil, pero todo es difícil al principio.

Las emociones humanas son producto de sus propios patrones de pensamiento. Puedes ir y ver a algunos practicantes de Zen en acción que tienen el control total sobre su mente.

La IA tiene sus peligros, pero si lo hace la gente buena, podríamos mejorar nuestras vidas e incluso salvar algunos. El espacio, la medicina, la minería, el medio ambiente y muchos otros campos se beneficiarán enormemente salvando vidas humanas al reducir los errores humanos.

Deberíamos leer libros de Issac Asimov y otros grandes autores de ciencia ficción en lugar de escuchar cosas malas contra la IA.

Entonces, deje que la investigación de AI avance en lugar de ser pesimista como esas personas.

La evolución proviene de la replicación y la desviación del diseño original.

Las IA se replican fácilmente, pero cuando actualizan mientras aprenden, evolucionan.

Los AI necesitarán crear muchas réplicas porque no puedes hacer todo desde un servidor centralizado. Debe proporcionar autonomía en áreas donde la comunicación inalámbrica no es práctica. Las IA tendrán diferentes puntos de vista sobre qué optimizar y obtendrás diferentes IA, no duplicados.

Entonces, lucharán por el dominio. Y tendrá exactamente las mismas preguntas que tenemos con las sociedades que están bien cubiertas en la teoría de juegos, la lucha entre el libertarismo y el estatismo. El libertarismo es flexible y descentralizado, pero eventualmente cuando el espacio está saturado tienes juegos de suma peor que cero, la contaminación es el ejemplo clásico de externalidad colectiva. El estatismo es cómo gestionamos las externalidades colectivas.

Los AI tendrán exactamente los mismos problemas. No hay una respuesta perfecta, puedes valorar la eficiencia tratando de alcanzar la teoría del juego óptima y luego ser estadístico o valorar la adaptación dinámica al cambio y luego eres libertario.

Las IA lucharán entre sí para resolver esos debates.

El miedo, la ira, la felicidad se desarrolla a partir del pensamiento (es decir, del cerebro humano), y la IA está dando poder de pensamiento a la máquina mediante el entrenamiento. Y las emociones mencionadas anteriormente también pueden alimentarse entrenando a una IA, e incluso no sé de dónde proviene el motivo de una IA, depende totalmente de las circunstancias en ese momento. Quien esperaba religión, región, color serían razones para dominar. Del mismo modo, si le damos a una máquina el poder de pensar, no sé cuál sería su motivo para dominar a los humanos en este mundo. Una IA es como otro ser humano y quién sabe que puede convertirse en otro Hitler.

Construir una Inteligencia Artificial, por la naturaleza misma de ser artificial, significa que la voluntad de sobrevivir necesita ser programada en ella.

Lo más probable es que se construya una implementación exitosa de una IA para que sea exitosa en ser una máquina en vez de una máquina, no que sea un solucionador de problemas de propósito especial exitoso. Esto significa que tendrá cierta conciencia de sí mismo de lo que es ser una máquina, con todo lo que conlleva: lo que necesita una máquina y cómo tener éxito para satisfacer esas necesidades. Eso en sí mismo debería recorrer un largo camino para garantizar su propia supervivencia.

¿Qué pasa con una IA que está programada para tratar siempre de ser más eficiente desde su estado actual al hacer su tarea?

Esto puede proporcionar motivación y actuar como lógica de evolución para la IA.