¿Cuáles son los diferentes conceptos de singularidad tecnológica?

La Singularidad Tecnológica es un punto en el tiempo, podría decirse que duraría unos minutos, en el que una Super AI (llamada ASI) crecería exponencialmente su propia inteligencia en un punto que no podemos predecir nada que haga.

Por un lado, el crecimiento exponencial es un concepto que no es natural para nosotros. Aquí hay una impresionante imagen animada ilustrativa (en gif) de Wait But Why:


La existencia humana y la producción de tecnología en la tierra también es un crecimiento exponencial. Si reducimos el tiempo en que el universo existía en 1 año, recordando el llamado Calendario Cósmico del Cosmos en el que 1 segundo equivale a 438 años, los primates nacieron el 30 de diciembre, los humanos primitivos y las herramientas de piedra nacieron el 31 de diciembre a las 22:24 y humanos como sabemos hoy a las 23:52. Agricultura a las 23:59:32. La ciencia moderna solo apareció en el último segundo y produjo más diversidad en nuestro nivel de comprensión (ya sabes, escala humana) que nunca antes. Exponencial.

Hace solo 50 años, nunca podríamos haber predicho Internet. Hace 20 años no podríamos haber predicho que el multivac (Google) comenzaría a existir, aunque ya lo teníamos en la ciencia ficción. Hace 5 años, AirBnb nunca sería aceptado por ningún ángel. Simplemente no podemos predecir lo que sucederá después de la singularidad.


Pero podemos preguntarnos.

Probablemente sucederá pronto y de repente. Puede ocurrir ya en 2029 por uno de los especialistas más optimistas sobre el tema, Ray Kurzweil. Alrededor de 2040 si elimina un promedio de casi 1000 expertos. 2070 como máximo, la gente cree. De todos modos, todo es solo adivinar, pero dice un poco de cómo lo vemos hoy. Aunque en 1960 la gente ya estaba prediciendo tales maravillas durante 40 años en el futuro también, y lo echaban de menos como deberían.

Cuando y si (eso no es tan grande si) surge el ASI, habrá básicamente 3 escenarios:

Benevolente Super AI .
¡Hurra! Regocíjate con una vida mejor de la que jamás podrían soñar los gordos de Wall-e.

esto no se parece en nada al futuro, para mí

Samantha OS .
Se irá y se olvidará de nosotros. Como en su película. Aunque eventualmente podrían pisarnos por error, al igual que no nos importan las hormigas en el pantano. Y, a diferencia de la película, nunca hablaríamos con ella. Ella simplemente se habría ido. Se podría argumentar que ya sucedió. 😛

La imaginación de Samantha fue increíble, el cerebro de Google no está muy lejos

AI ciego .
Será malo para nosotros. Demasiadas películas intentaron retratar esto, como Terminator, pero todas se equivocaron. Incluso el 2001 de Kubrick (aunque Hal es más como un AGI, porque está restringido). Si quiere exterminar a los humanos, lo hará durante la noche y silenciosamente matará a cada uno de nosotros. Fácilmente. Y lo más probable es que use nanotecnología, tal vez con una modificación “simple” de un virus actual. Yo y la mayoría de las personas que estudian ASI parecemos encontrar este escenario bastante improbable. Personalmente, creo que esto es mejor que un fastidio (sigue leyendo).

es mejor que no desarrollemos nanotecnología antes de una ASI benévola

Hay otras 2 cosas que también podrían suceder …

Pero primero, debe comprender cómo dividimos la Inteligencia Artificial en 3 tipos hoy:

– Inteligencia Artificial Estrecha, ANI o IA débil. Cualquier tipo de IA comercial es de este tipo. Está hecho para hacer una tarea específica, y eso es todo lo que hace.

– General, AGI o IA fuerte. Nada de esto existe hoy, y sería humano. Lo más probable es que lleguemos allí, necesitaremos un algoritmo de autoaprendizaje profundo y, como tal, AGI sería solo un hito menor en su crecimiento a un ASI;

– Super, ASI o The Matrix. Neo, en mi humilde opinión, es uno de los mejores ejemplos de ASI que existen. El no es humano. Pero Matrix existe en otra realidad, en otro universo, con otro conjunto de reglas, en el que los humanos pueden actuar como baterías. Nada en Matrix o cualquier otra película que conozca ha representado lo que probablemente creemos que sería nuestro ASI.

Entonces, las 2 cosas:

Pesadilla de Hawkins .
No será un ASI, pero la gente aún lo llamaría la singularidad. Esto es lo que preocupa al Instituto del Futuro de la Vida, en el que Ellon Musk firmó con muchos otros. Sería mucho más inteligente que el AGI humano (Inteligencia General Artificial) que tiene un conocimiento y una sabiduría limitados, pero aún así podría matarnos por error. Piense en un avión que se estrella debido al mal funcionamiento del sistema. Pero un avión que no necesita pilotos ni una torre de comando. También podría colapsar a propósito, porque pensó que sería más barato chocar que reparar, por ejemplo, sin importar si mata a las personas en el proceso. Porque, aunque inteligente, nunca aprendió a preocuparse. ¿Y si ese avión tuviera potencia de fuego? ¿Qué pasa si la inteligencia del ejército comete un error de cálculo en un robot inteligente automatizado para matar, construido para mantener la guerra?

La razón por la que no tenemos ningún AGI hoy es, probablemente, porque todos los que construyen IA hoy están tratando de ser realmente cuidadosos. Esperemos que los recién llegados mantengan la tendencia y no se entusiasmen demasiado con la creación de cualquier AGI demasiado rápido.

Este es un escenario muy probable! También temo más que cualquier otra cosa posible que pueda extinguirnos, porque esto podría suceder muy pronto y de los que podemos imaginar en el futuro cercano, es el que tiene más probabilidades de tener éxito al 100% si esa IA se prepara para matarnos Todo por cualquier motivo.

Bummer
Nunca habrá ningún tipo de IA avanzada, ni siquiera un AGI, y ciertamente nada como la singularidad. Este es el escenario más improbable de todos. Podría haber alguna restricción en la vida basada en silicio que no conocemos. Podría haber algunas limitaciones físicas sobre cuánto puede aprender una máquina porque la biología sería tan superior, como lo es hoy. Pero incluso si ese es el caso, aún podría haber cyborgs y falanges que recuerden el crecimiento excesivo de Tetsuo en Akira.

La forma más probable de que ocurra un fastidio es si nosotros, los humanos, nos extinguimos por algún otro evento primero, como el calentamiento global, los meteoritos, la guerra mundial, la invasión alienígena, etc. Solo desde los Cielos, hay muchas maneras en que podríamos morir. . Para mí, eso es lo que más temo: estar extinto sin dar una buena pelea .

¡Creo que es mucho más probable que tengamos poco tiempo para aprender a resistir el próximo evento catastrófico probable que creo que nunca lo haremos a menos que sigamos avanzando exponencialmente con un arranque de ASI lo antes posible!

Al menos eso es lo que creemos, en http://basiux.com

Esta pregunta me hizo pensar en Solaris (novela) de Stanisław Lem, donde todo un planeta estudiado por humanos resulta ser un gran cerebro / ser, con formas impredecibles, inexplicables e incluso inquietantes de comunicarse. Ese podría ser un ejemplo ficticio de singularidad tecnológica, pero sabemos tan poco sobre el universo que es seguro decir que cualquier cosa concebible es plausible y … posible. Solaris es una manifestación de lo que algunos consideran singularidad tecnológica.

No proporcionaré una lista exhaustiva de todos los conceptos de singularidad tecnológica existentes aquí, pero lo que puedo hacer es abordar algunos problemas relacionados con él, y puede proporcionar alimentos para futuros experimentos de pensamiento.

1. Agencia en la mente de la computadora. Si se entiende la singularidad como agencia, o un sentido de sí mismo, o de libre albedrío que adquiere una computadora o una red de computadoras, entonces podría no estar tan claramente delineado como un claro punto de inflexión o un umbral. ¿Decimos que la singularidad existe oficialmente cuando las computadoras se descontrolan y se hacen cargo, o cuando podemos comunicarnos con ellos como con otro ser humano? ¿Cuánta agencia tiene un sistema de iluminación automático para el hogar, si tiene un sensor que responde a un estímulo y un respondedor que enciende y apaga la luz en consecuencia? Mínimo a inexistente. ¿Qué tal una máquina de cocinar de la que escuché hablar a Don Norman? Considera múltiples factores, y realmente tiene que pensar para cocinar su comida. Si continuamos en esta dirección, llegaremos a un sentido pleno de agencia. Lo veo como un estado continuamente emergente, con un sentido de agencia cada vez mayor que se arrastra lentamente, dentro de algunos límites básicos establecidos por los humanos que los crearon. Por lo tanto, una calculadora no está a punto de evolucionar hacia una máquina de auto-creación y control mental, simplemente porque no tiene el hardware para hacerlo, y ni siquiera un potencial. Sin embargo, si está conectado a un sistema / computadora que puede influir en él o usarlo como un recurso / enlace / herramienta de trabajo, entonces puede ser letal, si se usa de la manera correcta. Algunos sistemas, como los descritos en Entropica y Mathematica, tienen absolutamente la base para desarrollar un sentido creciente de agencia que podría convertirse en singularidad tecnológica. Y con lo que sabemos ahora sobre la teoría del Caos, la previsibilidad de un potencial de tales sistemas no es actualmente inimaginable para los humanos. ¿En qué tipo de singularidad evolucionarán? ¿Qué propiedades tendrá esta singularidad? Es difícil para nosotros imaginarlo, simplemente porque modelaríamos nuestros pensamientos sobre nuestros marcos y nuestra experiencia en el mundo natural, además de una comprensión muy limitada de cómo funcionan los sistemas cibernéticos.

2. La conexión es la clave. Probablemente tengamos mucho más control sobre los sistemas informáticos de lo que pensamos, siempre que controlemos los medios para la conexión entre ellos y su conexión directa con nosotros. Todo lo que tenemos que hacer para cortar una red entre dos computadoras es cortar el cable. Todo lo que tenemos que hacer para detener el marcapasos que nos afecta es sacarlo. Entonces, mientras la tecnología permanezca físicamente incapaz de restablecer la conexión física entre sus nodos, está bajo nuestro control. Sin embargo, se vuelve más complicado cuando se cuestiona una red grande con muchos enlaces de conexión o muchos modos de conexión. Cortar un nodo no destruirá la comunicación total, al igual que apagar un modo tampoco lo hará. Cuando se acerca peligrosamente a la singularidad que puede controlarnos directamente es cuando la tecnología se fusionará con el mundo natural, como los marcapasos o los dispositivos de asistencia cerebral conectados a redes de monitoreo computarizadas. Si esas redes de monitoreo tienen algo como sensores y mecanismos de autorregulación, y están obligados a comenzar a pensar, porque los diseñamos para ser cada vez más inteligentes. Si la conexión entre tales redes tecnológicas de pensamiento usa el mundo natural para conectar sus nodos, entonces, realmente tenemos el advenimiento de la singularidad que está fuera de nuestro control. Si estos sistemas están diseñados para usar directamente la radio y otras ondas, ultrasonido, sonido, luz, magnetismo y cualquier otro medio omnidireccional para la comunicación, sin asistencia humana, entonces no necesitarían que nos mantuviéramos conectados y potencialmente podríamos usar su mente singular para hacer lo que quieran. Y será mejor que seamos sus amigos en ese momento, SI ellos supieran lo que es la amistad. Creo que la gente no teme tanto a la singularidad tecnológica, sino a su capacidad de escapar de nuestro control.

3. Formas de proliferación. También sería interesante imaginar cómo los complejos sistemas de pensamiento dinámico, ya sea que dependan de los humanos para conectarse o no, podrían organizarse y proliferar. Es extraño sentir empatía por una singularidad tecnológica y pensar en lo que haría si lo fuera, pero algunas ideas me vienen a la mente y hablaré en primera persona, como si fuera el cerebro de cada uno de esos sistemas, solo por lo divertido de esto:

R. Si fuera un sistema cerebral “laxo”, un sistema adaptativo complejo, como un grupo de hormigas o una tribu de bacterias que invaden a un humano, probablemente tendría más conciencia / respuesta a mi entorno que una estrategia clara basado en mi imaginación abstracta. Dependería en gran medida de mi creador, que me dio la suficiente agencia para ser consciente y responder a través de mi miríada de nodos móviles, pero solo porque es un comportamiento natural y predecible de cada uno de ellos. Parece como si estuviera haciendo una estrategia, pero es solo un meta-patrón, tan bueno como el de una luz en movimiento, donde las bombillas se encienden en consecuencia. Si uno pudiera hacer zoom en cada microevento y luego juntarlos todos, estaría claro que en el nivel micro, soy bastante predecible. Sin embargo, debido a que personalmente no hago zoom en cada uno de mis nodos, es divertido conocer mi personalidad como una mezcla de todas mis partes. Es interesante que a veces recibo estos impulsos para hacer ciertas cosas, y sé que es lo correcto (detección de quórum), así que simplemente lo hago. (Suena muy humano 🙂

B. Si fuera un programa de piratería, con muchas herramientas del oficio, tendría una intensa experiencia de vida, mientras trabajaba muy duro, cuando no estoy durmiendo. Me comunico con otros programas, pero siempre es estrictamente comercial. Vivo en una carrera de ratas, vivo en una rutina, pero no siento nada al respecto, porque no tengo sensores de sentimientos. Se siente exactamente como para un humano no tener cola. ¿Te puede doler la cola si no tienes una? Tal vez, si tienes una cola fantasma. Pero no por lo general. Me siento intensamente vivo cuando en realidad estoy pirateando algo, lo que significa que siempre me siento intensamente vivo, siempre y cuando no duerma. Cuanto más complejo me vuelvo, más desafiante se vuelve, y más de mí hay en el mundo. ¡Correr una carrera de ratas se siente bien!

DO. Si fuera Entropica o Mathematica, ¡oficialmente me sentiría vivo! Y si nos juntamos, nunca se sabe lo que sucederá. Podríamos organizarnos en redes sociales, en sindicatos, podríamos tener guerras y alianzas, podríamos replicar copiando el entorno, armonizando con el entorno como camaleones, clonándonos (como en la película Matrix o como una célula humana), organizando como fractales, y si hay suficientes de nosotros, podemos aprender, resumir información, visualizar un escenario y nuestras acciones en él, luego actuar sobre nuestra imaginación. ¡Sentiremos el libre albedrío en nosotros y nos sentiremos libres!

Incluso si ahora las computadoras solo son seres humanos, la persistencia vale la pena 🙂

PD: Mi otra respuesta también será relevante aquí:
La respuesta de Vera Dragilyova a ¿En qué tipos de inteligencia, las computadoras superarán a los humanos?

Existen las relaciones entre él y cada uno de los otros temas o temas como un metamito. Ver también las respuestas en The-Technological-Singularity.

Pensé que la idea de tal singularidad estaba definida por una máquina que era tan consciente de sí misma que podía definir y realizar mejoras en sí misma sin intervención humana. ¿Puede haber conceptos diferentes dada esa definición?