Originalmente escrito para responder “Hipotéticamente (esperamos), ¿cuál crees que será el escenario apocalíptico que golpeará al mundo en nuestra vida (los próximos 25 a 35 años)?”
Yo diría que el avance de la robótica y la Inteligencia Artificial sería la causa de lo que suceda.
La IA ya puede vencer a los humanos en juegos con posibilidades finitas donde las reglas están claramente definidas y arregladas.
- ¿Cuál sería una buena aplicación para las redes neuronales con púas artificiales en los ámbitos del aprendizaje automático supervisado?
- Con el desarrollo acelerado de la IA, ¿creemos que es necesario, en algún momento, enseñar moral a los robots también?
- ¿Es la inteligencia artificial más inteligente que los humanos?
- ¿Por qué un cambio interno de covariable ralentiza el procedimiento de entrenamiento?
- ¿Por qué Python se considera un buen lenguaje para IA y Machine Learning?
AlphaGo (IA desarrollada para jugar al juego de mesa GO / Weiqi)
El mejor jugador de Go del mundo, desconcertado por la inteligencia artificial AlphaGo de Google
Ke Jie, quien una vez se jactó de que nunca sería golpeado por una computadora en el antiguo juego chino, dijo que tuvo una “experiencia horrible”.
Entonces, ya sucedió, la IA puede vencer a los humanos calculando el número de posibilidades de una acción. Nada nuevo, los simuladores que utilizamos son esencialmente los antepasados de AlphaGo.
A continuación, replicación o reproducción en términos de máquina.
Los robots han aprendido a evolucionar por su cuenta.
Un robot “Madre” ya puede construir copias de sí mismo y transmitir rasgos selectivamente para garantizar que sus productos estén más optimizados de lo que están.
Robots construyendo cosas no es nada especial, lo ves en las fábricas. De hecho, algunas cosas no son posibles sin la precisión de estos robots.
Hasta ahora, los robots están limitados por planos, y eso requiere la capacidad de pensar, de crear algo nuevo a partir de la nada. ¿Pero es eso realmente algo que los robots y la IA no pueden hacer?
El software de inteligencia artificial de Google está aprendiendo a hacer software de inteligencia artificial
Bueno, mierda … Si bien eso es solo en sus etapas iniciales, el progreso significaría la capacidad de la IA y los robots de crear cosas por sí mismos, ya sea un sistema de armas o una estrategia de guerra.
Habiendo concluido lo que significan estos avances, echemos un vistazo a cómo eso podría conducir a un apocalipsis.
Escenario 1: colapso económico
El mundo ya se enfrenta a un problema en el que la mano de obra no calificada está siendo reemplazada gradualmente por robots, por lo que, a menos que cambiemos nuestra sociedad por una que aproveche el poder de los robots para hacer el trabajo y mantenernos con vida, y a los humanos se nos permite poner nuestro esfuerzo queremos hacer, habrá una disminución gradual de la población, ya que el número de personas desempleadas sería simplemente demasiado alto.
Escenario 2: Terminator
Esencialmente lo que sucede en esa franquicia. Con nuestra necesidad de armar todo, es muy probable que haya robots autorreplicantes utilizados como armas. Todo lo que se necesita es que los robots adquieran conciencia de sí mismos (no es probable) o un error técnico / error para que los robots cambien su objetivo de “Destruir Rusia” o “Destruir China” o “Destruir América” a “Destruir Tierra” o “Destruye la humanidad”.