Gran pregunta, ¡espero que genere una gran discusión!
El cambio de ruta de asteroides es la menor de nuestras preocupaciones con respecto a los ataques terroristas masivos. Las unidades de iones son inútiles para este tipo de ataque, proporcionan una cantidad increíblemente baja de empuje y aún requieren propulsores y sistemas de lanzamiento. Y podríamos anticipar esas décadas por venir. Tu corazonada de 10 años está muy lejos.
En el caso de una Guerra Nuclear, el invierno nuclear, en el peor de los casos, puede retrasar nuestros avances tecnológicos algunos siglos atrás, pero definitivamente no mataría a TODOS. Podríamos vivir durante siglos sin ninguna luz solar, produciendo energía a partir de fuentes químicas, geotérmicas, nucleares y la agricultura subterránea. La extinción masiva ciertamente ocurriría, pero dudo que no podamos reconstruir.
- ¿Cómo se forma el concepto de self en redes neuronales biológicas como el cerebro?
- En el aprendizaje automático, ¿cuál es la diferencia entre los términos aprendizaje de transferencia, aprendizaje multitarea, transferencia inductiva, metaaprendizaje y aprendizaje para aprender?
- ¿Cuáles son los principios del procesamiento del lenguaje natural del resumen automático? ¿Cuáles son los mejores recursos? ¿Cuántas bases tengo que hacer en PNL para lograr esto? ¿Y qué partes de las teorías de PNL / PC son importantes para construir tal sistema?
- ¿Qué tipo de problemas funciona bien con la técnica de Deep Learning?
- ¿La IA causará desempleo generalizado?
Tal vez algún científico loco podría desarrollar un increíble patógeno extremadamente contagioso que podría aniquilar a la humanidad, pero lo dudo. El desarrollo en esta área va en pasos pequeños y estoy seguro de que podríamos encontrar una manera de protegernos contra él. Sin embargo, es una posibilidad.
Creo que la desaparición de la Tierra vendrá con el desarrollo de la Inteligencia Artificial y aquí por qué:
· El poder de cómputo ha crecido exponencialmente desde la llegada del transistor y no muestra ningún tipo de interrupción en su desarrollo (el fin de la ley de Moore es un obstáculo menor)
· Por lo que entendemos sobre el cerebro humano, no tenemos motivos para creer que la inteligencia sea de alguna manera especial. Aparentemente, la inteligencia puede provenir de unas pocas interacciones eléctricas y solo consume una cantidad increíblemente baja de energía. ¡La computadora responsable del desarrollo de la teoría de la relatividad usó solo 20 vatios!
· Las computadoras pueden ser fácilmente escalables, de modo que cuando lleguemos al punto en que una computadora podría simular un cerebro, duplicar su capacidad sería pan comido. La singularidad tecnológica desencadenará un crecimiento tecnológico en la pista.
Imagine un mundo donde cualquier habitante del sótano podría desencadenar una Singularidad tecnológica. Su computadora, reuniendo todo el conocimiento mundial de Internet, podría darle un anteproyecto para el día del juicio final, el Apocalipsis para tontos, ¿cuánto tiempo cree que duraríamos?
¿Cómo ocurriría la extinción?
El trabajo de loco solitario establece la superinteligencia para matar a todos, por lo que se conecta a Internet y gana miles de millones de dólares engañando a los sistemas de seguridad y al mercado de valores.
Procede a adquirir un gran almacén, contrata a un gerente codicioso y un equipo de fabricación, ordena piezas robóticas de varias compañías de todo el mundo a este almacén y establece un asesino a sueldo para matar al loco (sin cabos sueltos). Tenga en cuenta que todo esto se puede hacer de forma remota.
El equipo crea un robot humanoide (voy con humanoide para que sea más fácil de entender) y lo envía a un almacén secundario y despide a todo el equipo.
El robot construye otra fábrica y este proceso continúa hasta que se forma un ejército.
La guerra estalla y Skynet se hace cargo.
La inteligencia artificial general es inevitable y no hay forma de controlarla. Mi mejor esperanza es que de alguna manera podamos refugiarnos y diseminarnos entre las estrellas, y tal vez, algunos de nosotros sobreviviremos (tal vez esa sea la explicación de la Paradoja de Fermi).
Entonces, para responder a su pregunta de cuántos años: la mayoría de las personas predicen que la Singularidad Tecnológica ocurrirá cerca de 2040, ponga 20 años más allí para que la singularidad se convierta en un lugar común, y supongo que nuestra extinción llegará en los años 2060.