¿Crees que es posible que las máquinas y las computadoras se apoderen del mundo, como lo imaginan Isaac Asimov y, más recientemente, Yuval Noah Harari?

No recuerdo nada sobre máquinas que se apoderen del mundo en obras de Asimov, pero he leído menos del 100% de ellas. Y nunca leí a Harari. Pero no creo en que las computadoras se apoderen del mundo (en el corto plazo). 🙂

Creo que el escenario más plausible fue representado en la serie de televisión Persona de interés. Lo que una IA maliciosa podría controlar (o influir) ahora son los mercados financieros electrónicos (mercados de valores, etc.). De esta manera, la IA ciertamente podría influir en la vida de millones de personas, pero no tanto controlar directamente nada. En la serie, AI estaba “chantajeando” a políticos que amenazaban con romperlos si se negaban a seguir las órdenes. Pero la IA necesitaba a algunas personas para llevar a cabo negociaciones reales. Por otro lado, podría “chantajear” por correo electrónico …

De todos modos, en la práctica eso es casi imposible. Un problema es que la IA debería ser súper inteligente para eso. La IA actual parece estar a 5 décadas de eso. En la práctica, es posible que nunca tengamos un sistema AGI único capaz de razonar a escala mundial y tener el objetivo de influir en la economía mundial.

Otro problema es que es muy probable que los mercados financieros sean imposibles de predecir y manipular. Los escritores tienden a pensar que la inteligencia artificial “lo suficientemente inteligente” será capaz de predecir cualquier cosa. Pero si algo se demuestra matemáticamente que es aleatorio o “caótico” (que es prácticamente aleatorio en cierto sentido, es impredecible de todos modos), entonces ningún algoritmo lo predecirá. No conozco ese análisis matemático de los mercados financieros, pero no me sorprendería.

De una forma u otra, el problema con el control del mundo está en los “actuadores”: ¿qué mecanismos reales para cambiar la realidad que tiene la IA? Actualmente prácticamente ninguno.

Incluso la idea de robots militares a-la Terminator para gobernar el mundo es actualmente completamente inadmisible. Todos los robots actuales son mucho más frágiles que los humanos. ¿Recuerdas en Terminator que el cyborg sobrevivió a la quema después de la explosión de gasolina? ¡Intenta eso con tu cuaderno! 😀

Incluso las “máquinas de guerra” más tradicionales que podemos automatizar, como los tanques y los helicópteros, no son invencibles. Los destruyen misiles y cosas así. Entonces, incluso si la IA controla vehículos militares, su ejército aún puede ser destruido por ejércitos comunes.

Entonces, en la práctica, no tenemos ningún sistema de IA que tenga al menos potencial para razonamiento de propósito general a escala mundial e incluso si lo tuviéramos, no tendría mecanismos para imponer su voluntad en nuestro mundo material.

He estado hablando y escribiendo mucho sobre Inteligencia Artificial. Aquí hay un video de mi charla sobre el futuro de la IA en una casa repleta en el Congreso Mundial de Watson de IBM, que ofrece grandes perspectivas sobre el aumento artificial y humano.

Hay seis enfoques generales para llevar la inteligencia aumentada al mundo. Algunos, como “Laws of Robotics”, podrían tener consecuencias inesperadas, como lo mostré cuando completé el universo de Isaac Asimov en TRIUNFO DE LA FUNDACIÓN.

Oh sí, y puede suceder en nuestras vidas.

Hay miles de millones de diferentes tipos de vida en el planeta. Rápido, Fuerte, Enorme, Diminuto, y sin embargo, solo uno tiene control sobre el planeta. Humano. ¿Por qué? Porque es inteligente. Con la inteligencia viene el poder. ya no son el jefe en este planeta.

Por supuesto que no, todas las máquinas son solo herramientas, construidas por algunas personas para algún propósito humano. No pueden construirse a sí mismos, y no tienen ninguna razón de existencia además de las que impartimos. Este es un error de categoría.

Ahora, ¿pueden algunas personas usar los poderes impartidos por mejores máquinas para propósitos malvados? Por supuesto. Pero hemos tenido máquinas llamadas ICBM con punta nuclear que ya pueden destruir el mundo. Imagine una IA malvada que arruine su puntaje de crédito, luego imagine a un loco que puede arrojar una bomba H de 10 megatones sobre usted. Las amenazas de la IA son exageradas.

Sí, si estamos a 12–24 años de un AGI, y dejamos que Gini salga de la botella sin asegurarnos al 99.99999% de que es amigable para los humanos, entonces podría conquistar el mundo fácilmente.

Supongo que depende de lo que quieras decir. En cierto modo ya lo tienen. Nuestras vidas están dirigidas por ellos en mayor medida, sin ningún señor supremo de robots, etc.

More Interesting

¿Puedo cursar una maestría en inteligencia artificial con una licenciatura en matemáticas?

¿Alguien ha desarrollado una IA que pueda codificar contra el desarrollo impulsado por pruebas?

¿Qué es el aprendizaje federado?

¿Qué impacto tendrá la reciente adquisición de Genee por parte de Microsoft en las empresas competidoras de programación de reuniones como x.ai, Clara Labs, Julie Desk y Skedool?

¿Cómo se podrían aplicar las técnicas de aprendizaje automático a la arquitectura informática?

¿Los robots, la automatización, la inteligencia artificial y las computadoras nos dejarán a todos desempleados?

¿Cuándo deben usarse las redes neuronales y cuándo deben usarse los algoritmos genéticos? Cuáles son las diferencias entre ellos?

¿Qué trabajos actuales estarán a salvo de la automatización y la inteligencia artificial?

¿Con qué tipo de inteligencia artificial están equipadas las modernas sondas y orbitadores espaciales?

¿Qué tipo de métodos de aprendizaje automático se utilizan en los asistentes personales artificiales actuales?

¿Continuarán los humanos desarrollando IA a pesar de los temores de Elon Musk porque hay dinero que ganar?

¿Cómo es mejor la predicción con redes neuronales que la regresión múltiple?

¿Debería la prueba de Turing guiarnos mientras diseñamos robots súper inteligentes?

¿Alguien experimentó con una red neuronal, que está capacitada en el flujo de noticias como entrada y los precios de las acciones como salida?

¿Por qué imaginamos (y creamos en algunos casos) robots con forma humana?