¿Podría una revuelta robot / IA ser el ‘Gran filtro’ que algunos han propuesto para explicar la paradoja de Fermi?

Gracias por el A2A, y buena pregunta.

Podía ver eso como posible pero poco probable, ya que pensaría que plantearía algunas preguntas. La primera pregunta que podría pensar que presentaría un escenario como ese es: “¿Por qué no tenemos noticias de la IA, entonces?” Si una civilización experimenta una revuelta de la IA, tendría que imaginar que la IA sería sensible, como de lo contrario, no tendrían razón para no simplemente hacer lo que se les dice. Si un grupo de robots inteligentes se rebelara contra sus creadores, pensarías que también desearían expandirse, colonizar y comunicarse con el universo.

Otras preguntas que creo que pertenecerían a un escenario como este serían: “¿TODAS las civilizaciones inteligentes eventualmente crean IA avanzada capaz de ser sensible? Si es así, ¿NINGUNO de ellos es capaz de hacerlo correctamente? ”El Gran Filtro supone que las civilizaciones inteligentes no son tan infrecuentes en el universo, es solo que nunca pasan mucho de su fase de viaje espacial sin experimentar algún horrible cataclismo que tampoco provoca su extinción, o al menos los pone un paso atrás monumental desde un punto de vista tecnológico. Tendría que imaginar que al menos algunas de estas civilizaciones podrían tener inteligencia artificial correcta, y en ese caso, ¿por qué no tenemos noticias de ELLOS?

Como estamos al borde de la Inteligencia Artificial General e incluso de la Super Inteligencia Artificial, realmente espero que tal cosa no sea un Gran Filtro. Más bien, me gusta creer que nuestro Gran Filtro está detrás de nosotros (ilusiones, tal vez) y que realmente somos únicos y tal vez los primeros en nuestro universo. Tendríamos más excusas para no dominar realmente todo este asunto de la humanidad si realmente somos los primeros en experimentarlo.

Bien seguro. Por qué no? Por otra parte, eso lo convertiría en una de las docenas de posibilidades perfectamente plausibles. Veamos…. asteroide / enjambre de cometas; súper virus altamente contagioso en el aire; guerra termonuclear global; el insecto adaptado a un gen escapó de un laboratorio de bioguerra; supervolcanes; explosión de rayos gamma duros; agujero negro estelar deshonesto; los nanobots autorreplicantes descubren cómo modificarse para usar casi cualquier material útil para replicarse y pensar que están siendo inteligentes y útiles rápidamente consumen casi todo;

Bien, ese último puede ser algo exagerado, pero creo que puedes ver el dilema. No tenemos forma de saber cuánto tiempo le lleva a una especie llegar a ser verdaderamente espacial, ni de saber con certeza que es logísticamente posible. Sabemos que los asteroides, cometas, supervolcanes y todo lo demás ocurren periódicamente. No tenemos, y no podemos, tener datos suficientes para determinar las probabilidades de ninguno de ellos en un año determinado, pero sabemos con certeza que eventualmente, un año, todas esas cosas sucederán.

Tal vez es un tiro de mierda. Quizás otras especies en otros mundos han construido civilizaciones interestelares y aún se han extinguido. Tal vez están ahí afuera, pero la regla es manos libres; solo las especies lo suficientemente inteligentes como para salir del mundo (o más allá de su propio sistema estelar) tienen permitido el contacto. Tal vez si las ranas tuvieran alas, no les harían moretones a sus pequeños culos verdes simplemente al moverse. Hay una gran cantidad de buenas respuestas para Fermi, y probablemente al menos el doble de las que aún no hemos pensado. Y simplemente no hay una buena manera de determinar cuál, si es que hay alguna, es más probable que sea cierta que ninguna otra.

Esto parece poco probable. La IA sería tanta “vida inteligente” como la raza contra la que se rebelaron, y por lo tanto esperaríamos tanta probabilidad de entrar en contacto con ella (más, si es realmente una superinteligencia, tal vez) o encontrar evidencia de ello. como lo haríamos con cualquier raza inteligente no artificial.

En otras palabras, plantea la pregunta, dejándonos preguntando “Si las superinteligencias artificiales terminan regularmente con las civilizaciones, ¿dónde están todas las superinteligencias artificiales?”

More Interesting

Visión por computadora: ¿Cuáles son los trabajos más interesantes de CVPR 2012?

¿Cómo es la reputación de Aalto University Machine Learning - facultad e investigación - entre académicos en otros países además de Finlandia?

¿Deberíamos hacer inteligencia artificial para robots? Si es así, ¿hasta dónde debemos llegar?

¿Qué tan pronto la inteligencia artificial deletreará el destino de la raza humana?

¿Cuál debería ser el parámetro de puntuación cuando quiero usar el aprendizaje por refuerzo para determinar el idioma de un texto dado?

¿Es posible insertar o programar emociones en un robot humanoide futurista de Android?

¿Serán útiles los antecedentes en estadística matemática y matemática pura en la investigación de IA?

¿Qué empresas que cotizan en el mercado de valores de India se beneficiarán exponencialmente con el aumento de la inteligencia artificial y la tecnología de drones?

Inteligencia artificial, aprendizaje automático, robótica: ¿cuál es más fácil de aprender para el programador?

¿Cómo puede una computadora predecir el acento que uno escucharía de alguien cuyo idioma nativo es A cuando habla un segundo idioma B?

Con la tecnología actual, ¿puede un sistema de inteligencia artificial leer un problema expresado en palabras y luego resolverlo?

Cómo implementar un abandono en redes neuronales profundas

¿Cuáles son ejemplos de mezcla y apilamiento en Machine Learning?

¿Hay algún aspecto conocido sobre el cerebro humano que la IA (en teoría) nunca pueda imitar?

¿Cuáles son algunos proyectos simples de IA que un primer año de M.Tech? estudiante puede emprender?