¿Por qué no podríamos usar una técnica similar al ‘copyleft’ para evitar que una IA fuerte cree otras IA que puedan sortear las restricciones de comportamiento incorporadas?

Si queremos una IA fuerte, debe tener un razonamiento autónomo (reemplácelo con “libre albedrío” si está preparado para eso).

Es discutible la cantidad de IA fuerte que queda después de poner restricciones (bastante arbitrarias).

No veo ninguna razón por la cual las técnicas de “copyleft” no funcionen para evitar que una IA cree otras IA sin restricciones. Creo que la inteligencia está limitada, no es infinita, por lo que una IA fuerte que podría crear otras IA probablemente podría crear sus propias subrutinas para acercarse a este límite de inteligencia. Entonces la reproducción (otro tema dudoso inspirado biológicamente) no es necesaria ni beneficiosa.

Además, suponiendo que la IA fuerte tenga un ego, creo que un ser tan inteligente no crearía otras IA, sino que se clonaría / copiaría, manteniendo su ego intacto. Redistribución en lugar de reproducción.

Finalmente, somos nosotros los humanos insignificantes los que creamos estas restricciones. Depende de la IA de semi-Dios encontrar formas de evitarlo, si así lo desea. Es como los monos construyendo jaulas para nosotros. Podríamos escapar de ellos en poco tiempo. Estas restricciones no tienen por qué ser restricciones. En todo caso, una IA autónoma debería presentar estas restricciones.