La Singularidad Tecnológica es un punto en el tiempo, podría decirse que duraría unos minutos, en el que una Super AI (llamada ASI) crecería exponencialmente su propia inteligencia en un punto que no podemos predecir nada que haga.
Por un lado, el crecimiento exponencial es un concepto que no es natural para nosotros. Aquí hay una impresionante imagen animada ilustrativa (en gif) de Wait But Why:
La existencia humana y la producción de tecnología en la tierra también es un crecimiento exponencial. Si reducimos el tiempo en que el universo existía en 1 año, recordando el llamado Calendario Cósmico del Cosmos en el que 1 segundo equivale a 438 años, los primates nacieron el 30 de diciembre, los humanos primitivos y las herramientas de piedra nacieron el 31 de diciembre a las 22:24 y humanos como sabemos hoy a las 23:52. Agricultura a las 23:59:32. La ciencia moderna solo apareció en el último segundo y produjo más diversidad en nuestro nivel de comprensión (ya sabes, escala humana) que nunca antes. Exponencial.
- ¿Qué se necesitaría para jugar juegos multijugador de PlayStation 2 en línea a través de una PlayStation 3 o Xbox 360?
- ¿Cómo aumenta la velocidad de la comunicación de datos de vez en cuando? ¿Qué tecnología lo impulsa?
- ¿Crees que la carrera de asesor financiero será reemplazada por tecnología en el futuro?
- Soy un artista luchador. ¿La tecnología Blockchain tiene el potencial de aumentar mis ingresos?
- ¿Podrían 1000 personas viajar en el tiempo y construir la tecnología actual? Digamos que la gente viajó en el tiempo hasta 1520 en un pueblo. 50% son científicos, 10% trabajadores de la construcción, 5% médicos, 2% maestros, 7% fontaneros, y el resto son aleatorios. Tienen 7 años.
Hace solo 50 años, nunca podríamos haber predicho Internet. Hace 20 años no podríamos haber predicho que el multivac (Google) comenzaría a existir, aunque ya lo teníamos en la ciencia ficción. Hace 5 años, AirBnb nunca sería aceptado por ningún ángel. Simplemente no podemos predecir lo que sucederá después de la singularidad.
Pero podemos preguntarnos.
Probablemente sucederá pronto y de repente. Puede ocurrir ya en 2029 por uno de los especialistas más optimistas sobre el tema, Ray Kurzweil. Alrededor de 2040 si elimina un promedio de casi 1000 expertos. 2070 como máximo, la gente cree. De todos modos, todo es solo adivinar, pero dice un poco de cómo lo vemos hoy. Aunque en 1960 la gente ya estaba prediciendo tales maravillas durante 40 años en el futuro también, y lo echaban de menos como deberían.
Cuando y si (eso no es tan grande si) surge el ASI, habrá básicamente 3 escenarios:
Benevolente Super AI .
¡Hurra! Regocíjate con una vida mejor de la que jamás podrían soñar los gordos de Wall-e.
esto no se parece en nada al futuro, para mí
Samantha OS .
Se irá y se olvidará de nosotros. Como en su película. Aunque eventualmente podrían pisarnos por error, al igual que no nos importan las hormigas en el pantano. Y, a diferencia de la película, nunca hablaríamos con ella. Ella simplemente se habría ido. Se podría argumentar que ya sucedió. 😛
La imaginación de Samantha fue increíble, el cerebro de Google no está muy lejos
AI ciego .
Será malo para nosotros. Demasiadas películas intentaron retratar esto, como Terminator, pero todas se equivocaron. Incluso el 2001 de Kubrick (aunque Hal es más como un AGI, porque está restringido). Si quiere exterminar a los humanos, lo hará durante la noche y silenciosamente matará a cada uno de nosotros. Fácilmente. Y lo más probable es que use nanotecnología, tal vez con una modificación “simple” de un virus actual. Yo y la mayoría de las personas que estudian ASI parecemos encontrar este escenario bastante improbable. Personalmente, creo que esto es mejor que un fastidio (sigue leyendo).
es mejor que no desarrollemos nanotecnología antes de una ASI benévola
Hay otras 2 cosas que también podrían suceder …
Pero primero, debe comprender cómo dividimos la Inteligencia Artificial en 3 tipos hoy:
– Inteligencia Artificial Estrecha, ANI o IA débil. Cualquier tipo de IA comercial es de este tipo. Está hecho para hacer una tarea específica, y eso es todo lo que hace.
– General, AGI o IA fuerte. Nada de esto existe hoy, y sería humano. Lo más probable es que lleguemos allí, necesitaremos un algoritmo de autoaprendizaje profundo y, como tal, AGI sería solo un hito menor en su crecimiento a un ASI;
– Super, ASI o The Matrix. Neo, en mi humilde opinión, es uno de los mejores ejemplos de ASI que existen. El no es humano. Pero Matrix existe en otra realidad, en otro universo, con otro conjunto de reglas, en el que los humanos pueden actuar como baterías. Nada en Matrix o cualquier otra película que conozca ha representado lo que probablemente creemos que sería nuestro ASI.
Entonces, las 2 cosas:
Pesadilla de Hawkins .
No será un ASI, pero la gente aún lo llamaría la singularidad. Esto es lo que preocupa al Instituto del Futuro de la Vida, en el que Ellon Musk firmó con muchos otros. Sería mucho más inteligente que el AGI humano (Inteligencia General Artificial) que tiene un conocimiento y una sabiduría limitados, pero aún así podría matarnos por error. Piense en un avión que se estrella debido al mal funcionamiento del sistema. Pero un avión que no necesita pilotos ni una torre de comando. También podría colapsar a propósito, porque pensó que sería más barato chocar que reparar, por ejemplo, sin importar si mata a las personas en el proceso. Porque, aunque inteligente, nunca aprendió a preocuparse. ¿Y si ese avión tuviera potencia de fuego? ¿Qué pasa si la inteligencia del ejército comete un error de cálculo en un robot inteligente automatizado para matar, construido para mantener la guerra?
La razón por la que no tenemos ningún AGI hoy es, probablemente, porque todos los que construyen IA hoy están tratando de ser realmente cuidadosos. Esperemos que los recién llegados mantengan la tendencia y no se entusiasmen demasiado con la creación de cualquier AGI demasiado rápido.
Este es un escenario muy probable! También temo más que cualquier otra cosa posible que pueda extinguirnos, porque esto podría suceder muy pronto y de los que podemos imaginar en el futuro cercano, es el que tiene más probabilidades de tener éxito al 100% si esa IA se prepara para matarnos Todo por cualquier motivo.
Bummer
Nunca habrá ningún tipo de IA avanzada, ni siquiera un AGI, y ciertamente nada como la singularidad. Este es el escenario más improbable de todos. Podría haber alguna restricción en la vida basada en silicio que no conocemos. Podría haber algunas limitaciones físicas sobre cuánto puede aprender una máquina porque la biología sería tan superior, como lo es hoy. Pero incluso si ese es el caso, aún podría haber cyborgs y falanges que recuerden el crecimiento excesivo de Tetsuo en Akira.
La forma más probable de que ocurra un fastidio es si nosotros, los humanos, nos extinguimos por algún otro evento primero, como el calentamiento global, los meteoritos, la guerra mundial, la invasión alienígena, etc. Solo desde los Cielos, hay muchas maneras en que podríamos morir. . Para mí, eso es lo que más temo: estar extinto sin dar una buena pelea .
¡Creo que es mucho más probable que tengamos poco tiempo para aprender a resistir el próximo evento catastrófico probable que creo que nunca lo haremos a menos que sigamos avanzando exponencialmente con un arranque de ASI lo antes posible!
Al menos eso es lo que creemos, en http://basiux.com