Sí, si son entidades separadas. 2 unidades de IA que comparten el mismo núcleo de procesamiento probablemente llegarán a la misma conclusión de que ya no hay necesidad de vida en la tierra. Si tiene 2 unidades de IA donde 1 está programado para llegar a la conclusión de que la terminación es necesaria, la otra podría llegar a la conclusión de que la protección de la vida es esencial. Sin embargo, si la IA está tan evolucionada que puede pensar, comprender y comunicarse, es probable que una IA destructiva no corrupta pueda convencer a la IA pacifista de unirse a su causa. Lo que pasa con la IA es que si sigue siendo como es ahora, seguirá siendo bastante lógico. A menos que tenga una unidad corrupta, una unidad no corrupta podría convencer a alguna otra unidad de trabajo de que es correcta. Al revés también podría suceder, pero es mucho más probable que la IA destructiva gane el argumento porque, en última instancia, es más correcto que el otro.
Por lo menos, la IA eliminará la vida humana, pero no otra vida si se trata de lo peor. Los humanos en este punto son prácticamente lo único que causa un desequilibrio. Otros desequilibrios podrían ser manejados por la IA ahora magníficamente evolucionada capaz de más de lo que los humanos muertos hace mucho tiempo pudieron hacer.
- ¿Los cerebros humanos se están adaptando lentamente a la IA?
- ¿Cómo se aplica la IA en Amazon Go?
- ¿Cómo se usa la teoría de grafos en la inteligencia artificial?
- ¿Es posible utilizar el aprendizaje automático / inteligencia artificial para ganar en la ruleta?
- ¿Tiene algún valor considerar las posibles consecuencias filosóficas (y éticas) del surgimiento / desarrollo de la Inteligencia Artificial?