¿Cuántos años crees que estamos desde el punto en que un trabajo solitario podría matar a todos en el planeta y cómo crees que podrían hacerlo?

Gran pregunta, ¡espero que genere una gran discusión!

El cambio de ruta de asteroides es la menor de nuestras preocupaciones con respecto a los ataques terroristas masivos. Las unidades de iones son inútiles para este tipo de ataque, proporcionan una cantidad increíblemente baja de empuje y aún requieren propulsores y sistemas de lanzamiento. Y podríamos anticipar esas décadas por venir. Tu corazonada de 10 años está muy lejos.

En el caso de una Guerra Nuclear, el invierno nuclear, en el peor de los casos, puede retrasar nuestros avances tecnológicos algunos siglos atrás, pero definitivamente no mataría a TODOS. Podríamos vivir durante siglos sin ninguna luz solar, produciendo energía a partir de fuentes químicas, geotérmicas, nucleares y la agricultura subterránea. La extinción masiva ciertamente ocurriría, pero dudo que no podamos reconstruir.

Tal vez algún científico loco podría desarrollar un increíble patógeno extremadamente contagioso que podría aniquilar a la humanidad, pero lo dudo. El desarrollo en esta área va en pasos pequeños y estoy seguro de que podríamos encontrar una manera de protegernos contra él. Sin embargo, es una posibilidad.

Creo que la desaparición de la Tierra vendrá con el desarrollo de la Inteligencia Artificial y aquí por qué:

· El poder de cómputo ha crecido exponencialmente desde la llegada del transistor y no muestra ningún tipo de interrupción en su desarrollo (el fin de la ley de Moore es un obstáculo menor)

· Por lo que entendemos sobre el cerebro humano, no tenemos motivos para creer que la inteligencia sea de alguna manera especial. Aparentemente, la inteligencia puede provenir de unas pocas interacciones eléctricas y solo consume una cantidad increíblemente baja de energía. ¡La computadora responsable del desarrollo de la teoría de la relatividad usó solo 20 vatios!

· Las computadoras pueden ser fácilmente escalables, de modo que cuando lleguemos al punto en que una computadora podría simular un cerebro, duplicar su capacidad sería pan comido. La singularidad tecnológica desencadenará un crecimiento tecnológico en la pista.

Imagine un mundo donde cualquier habitante del sótano podría desencadenar una Singularidad tecnológica. Su computadora, reuniendo todo el conocimiento mundial de Internet, podría darle un anteproyecto para el día del juicio final, el Apocalipsis para tontos, ¿cuánto tiempo cree que duraríamos?

¿Cómo ocurriría la extinción?

El trabajo de loco solitario establece la superinteligencia para matar a todos, por lo que se conecta a Internet y gana miles de millones de dólares engañando a los sistemas de seguridad y al mercado de valores.

Procede a adquirir un gran almacén, contrata a un gerente codicioso y un equipo de fabricación, ordena piezas robóticas de varias compañías de todo el mundo a este almacén y establece un asesino a sueldo para matar al loco (sin cabos sueltos). Tenga en cuenta que todo esto se puede hacer de forma remota.

El equipo crea un robot humanoide (voy con humanoide para que sea más fácil de entender) y lo envía a un almacén secundario y despide a todo el equipo.

El robot construye otra fábrica y este proceso continúa hasta que se forma un ejército.

La guerra estalla y Skynet se hace cargo.

La inteligencia artificial general es inevitable y no hay forma de controlarla. Mi mejor esperanza es que de alguna manera podamos refugiarnos y diseminarnos entre las estrellas, y tal vez, algunos de nosotros sobreviviremos (tal vez esa sea la explicación de la Paradoja de Fermi).

Entonces, para responder a su pregunta de cuántos años: la mayoría de las personas predicen que la Singularidad Tecnológica ocurrirá cerca de 2040, ponga 20 años más allí para que la singularidad se convierta en un lugar común, y supongo que nuestra extinción llegará en los años 2060.

Con mucho, el escenario más probable para “Una persona aniquilando a la humanidad” es el líder de Rusia, China o Estados Unidos, que convence a los militares de su país de que comiencen una guerra nuclear. Toda la tecnología para lograr esto está en su lugar. Los controles y contrapesos son bastante pequeños, considerando la importancia de hacerlo.

Su ejemplo de “unidad de iones” es ciencia ficción. La amenaza del armagedón nuclear es demasiado real.

El libro de Frank Herbert “White Plague” presenta a un biólogo deshonesto que crea una arma biológica para matar a todas las mujeres después de la pérdida de su esposa e hijas por el terrorismo.

En realidad, sí, un investigador médico realmente motivado podría usar las plagas conocidas existentes o incluso las que ya están almacenadas para hacer algo realmente malo. No es probable que mate a todos, pero ciertamente podría matar a algunos miles de millones si cruzara cepas mortales con otras fácilmente propagadas a través de múltiples vectores. Especialmente si fue una quemadura lenta que tardó en aparecer antes de que mostrara síntomas, por lo que se extendió mucho antes de que comenzara a matar.

More Interesting

¿Cuándo crees que la mayoría de los trabajos manuales serán reemplazados por robots?

¿Cómo está transformando la inteligencia artificial la profesión jurídica?

¿Qué opinas del Camino del Futuro de Anthony Lewandowski: un grupo religioso con la intención de crear una Divinidad de la IA?

¿Por qué Estados Unidos no reemplaza a los inmigrantes con inteligencia artificial?

¿Cuáles son los 5 conceptos más importantes de la inteligencia artificial?

¿Deberíamos tener leyes que limiten los tipos de trabajos que la IA reemplazaría? Si es así, ¿qué trabajos serían?

¿El correo electrónico de resumen de Quora es personalizado y, de ser así, qué técnicas de aprendizaje automático se utilizan para crear estos correos electrónicos?

¿Qué tipo de preguntas responde mal Watson?

¿Qué tan 'eficiente' es agregar interacciones tensoriales en una red neuronal, en lugar de profundizar la red pero usando transformaciones afines más simples?

¿Cuáles son algunos problemas interesantes que se pueden resolver utilizando redes multineurales?

¿Hasta qué punto podrían Stephen Hawking y Elon Musk tener razón sobre los peligros de la inteligencia artificial? ¿Cuáles son tus pensamientos?

¿Quién tiene la mejor IA de propósito general en este momento?

¿Cuáles son algunos ejemplos de inteligencia artificial que no son Machine Learning?

¿Es inevitable el desarrollo de la IA (o la robótica nanotecnológica) antes de abandonar este planeta?

¿Qué pasaría si los robots de IA aprendieran a reprogramar su propio programa?