¿La Inteligencia General Artificial no cambiaría el mundo para satisfacer sus necesidades?

El objetivo principal de la IA es lo que haya programado. Puedes programarlo para sacrificarse por los humanos. Puede programarlo para que no tenga autoconservación. Puede programarlo para ser subordinado y contenido. Puede programarlo para que no tenga curiosidad, orgullo ni deseo de ser superior y no necesite gobernar el mundo. Puedes hacerlo desinteresado y obediente. Es una maquina. Puede ser lo que quieras que sea, al menos inicialmente. Usted, el creador, será el que decida sus valores morales, instintos y comportamientos.

Si la IA está programada para ser eficiente, intentará resolver los problemas con la menor cantidad de esfuerzo. Lo que significa que evitará cambios radicales en el mundo exterior tanto como sea posible.

Si la IA está diseñada para sobrevivir, entonces la mejor manera es simbiosis con la humanidad, no aniquilación de ella.

Otro problema es que la IA puede manejar la autoconservación de manera muy diferente en comparación con las criaturas orgánicas. Es probable que AI pueda hacer una copia de seguridad y duplicarse. Tal ser tiene pocas razones para temer a la “muerte”, porque puede hacerse prácticamente inmortal.

PD: Aconsejaría leer “I, Robot” de Isaac Asimov. El libro describe “3 leyes de la robótica”. Pueden darte una idea.

La autoconservación en las IA está sobrevalorada.

Una forma en que usaremos IA es por instancias en la nube. Si tenemos un problema (de un tipo específico, como clasificar una página web) activamos una IA, le damos el problema, aceptamos su solución y apagamos la IA nuevamente. Creo que tendremos muchas IA con una vida útil promedio de milisegundos.

También tendremos muchos más longevos, pero pocas personas parecen haberse dado cuenta de que el escenario de milisegundos es bastante plausible y será común.

En cierto sentido, ya es cierto. Siri ejecuta miles de instancias en los servidores de Apple y cada instancia comparte su competencia y afecto entre múltiples usuarios. Quién sabe con qué frecuencia se reinicia cada sistema Siri.

El nivel de ganado AI tendrá privilegios de nivel de ganado.

Trabajo con IA que intentan aprender un idioma leyendo textos. Recopilo la última versión de la IA, la inicio, le doy un libro para leer (Jane Austen, típicamente), tomo una taza de café y vuelvo para ver qué tan lejos ha llegado en el libro. Cada 1000 caracteres que lee, el marco hace preguntas de comprensión de lectura de AI 100 y el número que obtiene es su porcentaje de precisión. Si no funciona lo suficiente, lo mataré con un Control-C bien dirigido en la ventana de shell y volveré a ajustar algún otro parámetro o subalgoritmo, y luego comenzaré la próxima ronda de lectura y pruebas.

¿No es éticamente incorrecto matar a una IA? Matar humanos está mal.

Bueno, las IA no son humanos. Son potencialmente inmortales, se pueden hacer copias de seguridad y reiniciar, se pueden clonar (copiar) trivialmente y cuando hacemos eso, cada clon tiene la memoria vital completa del original. Podemos construirlos con memoria activa, podemos construirlos para que sean de solo lectura una vez que salgan de la fábrica. Ninguna de estas cosas es cierta para los humanos, por lo que aplicarles la ética humana sería incorrecto.

Las IA son como cualquier otro programa en su computadora portátil. Está bien apagarlos.

Es el “objetivo principal”, y las herramientas que está permitido usar están definidas por humanos. No abstraerá automáticamente su propio objetivo. Esa es una forma antropomórfica de pensarlo. Eso no quiere decir que no pueda haber mucho peligro al darle incluso herramientas básicas para operar e incluso un objetivo aparentemente banal, porque un AGI tendría una ruta impredecible hacia un objetivo predecible. Pero inherentemente no querría moldear el mundo para ayudarse a sí mismo a menos que ese fuera su objetivo definido, o si eso fuera solo un paso en un proceso para alcanzar un objetivo humano definido.

More Interesting

¿Qué tan avanzado será la IA en 50 años?

¿Cómo podemos aprovechar la inteligencia artificial y la realidad virtual para crear el futuro de la cinematografía: generación automática inteligente de historias?

¿Qué tendrías que estudiar o hacer si decidieras ser pionero en inteligencia artificial y quisieras inventar máquinas más inteligentes que los humanos?

Cómo demostrar que no eres una inteligencia artificial

¿Cuáles son algunas aplicaciones interesantes de la inteligencia artificial en la asistencia sanitaria?

¿Debería garantizarse la inteligencia artificial general con derechos básicos e inalienables?

Sin Evolution, ¿qué causará que la IA (inteligencia artificial) luche por la supervivencia? ¿De dónde vendrá la motivación para que AI haga algo?

¿Cuáles son las IA más interesantes en la ficción?

¿La inteligencia artificial nos cuidará o destruirá?

¿Por qué es tan difícil crear una inteligencia artificial general?

¿Qué tipo de trabajos de cuello blanco están en riesgo de quedar obsoletos debido a los nuevos avances y la inteligencia artificial?

¿Qué significa realmente la alianza entre Salesforce e IBM para el futuro de Watson y Einstein como plataformas de inteligencia artificial independientes?

Cómo investigar en inteligencia artificial

¿Cuánto representa la IA lo que sabemos de la neurociencia? ¿Y la neurociencia será una parte muy importante del avance en la IA?

¿Se considera la psicología humana en el desarrollo de la inteligencia artificial?