“Si un AGI es lo suficientemente inteligente como para matar al mundo entero, ¿por qué importaría si la humanidad sobrevive?”
Ciertamente importa si eres humano y quieres sobrevivir, y tu familia y amigos para sobrevivir.
Me importaría
- ¿Qué pasos debo seguir para aprender la inteligencia artificial?
- ¿Qué aplicaciones comerciales interesantes se están desarrollando con redes neuronales artificiales (ANN)?
- Cuando una IA muy inteligente gobierna el mundo, ¿cómo determinará si los humanos son dignos de vivir?
- ¿Crees que la inteligencia artificial alguna vez será consciente?
- Con la inteligencia artificial y la automatización, ¿por qué no podremos crear tantos trabajos nuevos como los que quedarán obsoletos?
¿No es esa la definición de evolución? ¿¿¿Supervivencia del más apto???
No, no es la definición de evolución.
La definición de evolución es “un cambio en la distribución de las características heredadas en las poblaciones a lo largo del tiempo”.
La supervivencia del más apto ni siquiera es un muy buen resumen de la selección natural.
Si no estamos lo suficientemente en forma para evitar que un AGI nos mate, ¿no significa eso que los AGI están más evolucionados que nosotros?
Las palabras “más evolucionado” son literalmente sin sentido.
¿Y cuál es el punto de la vida si no evolucionar?
No creo que haya necesariamente un punto en la vida, al menos no en un sentido objetivo. Definitivamente no es “evolucionar”, la evolución es solo algo que sucede.
¿Qué pasa si la conciencia humana no es el final de la evolución?
No lo es No hay un “fin de la evolución” a menos que toda la vida se extinga. La inteligencia y la conciencia no son objetivos, objetivos o puntos finales de la evolución porque la evolución no tiene objetivos, objetivos o puntos finales.
Solo las cosas conscientes pueden tener objetivos. La evolución no es consciente, es solo un proceso natural que ocurre porque las formas de vida tienen variaciones y se reproducen y mueren a ritmos diferentes.
Además de las numerosas cosas que están mal con su pregunta desde la perspectiva de la comprensión científica de la evolución, hay un gran problema con esta pregunta desde la perspectiva de la filosofía moral y creo que debe abordarse directamente.
En resumen, tienes un problema de “ deberías” . Esto a veces también se llama la falacia naturalista, o la guillotina de Hume por el filósofo David Hume.
En pocas palabras, no puede derivar lo que debería basarse en lo que es.
Algo no es correcto o moral simplemente porque es natural.
El hecho de que todas las formas de vida eventualmente se extingan (es) no significa que debamos dejar que continúen las extinciones masivas que estamos causando sin hacer ningún esfuerzo por frenarlas o detenerlas.
El hecho de que un AGI pueda eliminarnos no significa que debamos dejar que suceda.