¿Es la singularidad un hecho o solo una hipótesis?

Es una predicción. Específicamente, es la predicción de que nos estamos acercando a un punto en el tiempo más allá del cual no podemos hacer ninguna predicción.

Quoth wikipedia:

El término “singularidad tecnológica” fue originalmente acuñado por [Vernor] Vinge, quien hizo una analogía entre el colapso de nuestra capacidad de predecir lo que sucedería después del desarrollo de la superinteligencia y el colapso de la capacidad predictiva de la física moderna en el espacio-tiempo singularidad más allá del horizonte de eventos de un agujero negro. [6]

Entonces, piense en la singularidad como una predicción de que estamos a solo unas décadas de ser completamente incapaces de hacer predicciones sobre el futuro de la humanidad.

Esa predicción se deriva de la teoría de que la tecnología informática continuará avanzando a un ritmo exponencial. Puede ser más exacto decir que la potencia informática (la cantidad que puede comprar por un precio determinado) se duplicará cada dos años. (Hay razones para dudar de esa teoría, pero llegaré a eso más adelante).

Se han derivado muchas predicciones interesantes de esa teoría. Por ejemplo, se ha predicho que una computadora doméstica asequible tendrá tanta potencia informática como un cerebro humano. Ray Kurzweil predice que esto sucederá alrededor del año 2020 (ha hecho mucho para popularizar la idea de la singularidad, por lo que trataré sus predicciones como representativas). También se ha predicho que una computadora hogareña asequible eventualmente tendrá tanta potencia informática como todos los cerebros humanos. Kurzweil predice que esto sucederá alrededor de 2055.

Se ha predicho que, en algún momento entre esas dos fechas, las innovaciones tecnológicas serán impulsadas por las computadoras, en lugar de las personas, y que el ritmo y la naturaleza de esas innovaciones simplemente está más allá de nuestra capacidad de hacer predicciones confiables. No podemos predecir lo que sucede después de eso, al igual que no podemos predecir lo que sucede detrás del horizonte de eventos de un agujero negro.

Pero necesito agregar un descargo de responsabilidad … Personalmente, soy un tanto escéptico de la teoría detrás de esas predicciones, por dos razones.

Primero, porque el continuo crecimiento exponencial de la potencia informática solo será posible con avances tecnológicos profundamente fundamentales, avances comparables al desarrollo de la bomba atómica. No solo necesitamos nueva tecnología, necesitamos nuevas ideas científicas para guiar el desarrollo de tecnología que aún no hemos imaginado. Quizás esas ideas llegarán lo suficientemente rápido como para continuar la curva exponencial. O tal vez no lo harán. La tendencia hasta ahora ha sido notablemente consistente, pero como dicen en la inversión, el rendimiento pasado no garantiza resultados futuros.

En segundo lugar, tener una gran cantidad de potencia informática no implica tener una gran cantidad de inteligencia . Pasar de la computación a la cognición también requerirá avances fundamentales. Los avances que necesitamos para que eso suceda son, en mi opinión, mucho más profundos, revolucionarios y desafiantes que la invención de la bomba atómica.

El transistor era bastante bueno, pero se necesitaron genios como Turing y von Neumann para construir computadoras a partir de transistores y hacer posible escribir software para ellos. La potencia informática masiva también será bastante buena, pero parece que vamos a necesitar un montón de genios para construir cerebros desde las computadoras y hacer posible guiar su comportamiento.

Sigo pensando que la singularidad es inevitable. Solo creo que esos dos problemas retrasarán su llegada por décadas, quizás incluso por siglos. Sin embargo, las próximas décadas seguirán siendo un viaje salvaje de cualquier manera.

(Por cierto, hay alguna razón para esperar que los avances informáticos en las próximas décadas traigan innovaciones en el cuidado de la salud que nos permitan vivir lo suficiente como para ver la singularidad, incluso si llega algunas décadas tarde).

La singularidad es un concepto. Existen múltiples teorías sobre cómo y cuándo ocurrirá. Común entre ellos es la idea de que habrá una convergencia de múltiples tecnologías que compondrán una inteligencia. El núcleo de esto es la creencia de que los sistemas informáticos continuarán mejorando su capacidad para mejorar su propio código en numerosas disciplinas.

En algún momento estos sistemas serán mejores para mejorar su propio código que los humanos. Una vez que esto suceda, la velocidad de mejora se acelerará a un ritmo exponencial. En algún momento de este proceso, las habilidades de la inteligencia resultante serán mucho más poderosas de lo que la humanidad puede controlar o comprender.

Existen numerosos grupos que trabajan en varios modelos teóricos en un intento de formalizar cómo funcionará la inteligencia resultante y la naturaleza de la plataforma tecnológica que la respaldará. Dado que el concepto está en el nivel teórico, se incluyen muchos supuestos y caprichos en los modelos.

Luego están los esfuerzos ascendentes para crear inteligencia sintética, identificar cómo funcionan nuestros cerebros, las nanotecnologías y otras que serán las tecnologías que convergerán.

La complejidad de las diversas tecnologías y cómo integrarlas está mucho más allá de nuestra actualidad. Pero estamos desentrañando los misterios a un ritmo creciente. Existe la posibilidad de que pronto se pueda hacer un descubrimiento clave que pueda acelerar enormemente nuestro progreso. También es igualmente posible que muchos aspectos permanezcan sin resolver durante mucho tiempo.

La singularidad es un concepto. Es el resultado de la especulación sobre el futuro.

No es una teoría, ya que no se puede probar. No es un hecho, ya que no se puede medir. Es una idea; Un término utilizado para describir una posible forma en que el futuro podría desarrollarse.

Las teorías y los hechos se relacionan con la descripción del mundo tal como es hoy. Realmente no se pueden aplicar esos términos a la especulación sobre el futuro.

El concepto de Singularidad se refiere al futuro, por lo que no podemos llamarlo un hecho. Podría llamarse una teoría, pero lo que la teoría establece varía entre varios pensadores. Ver http://yudkowsky.net/singularity

Diversas declaraciones del concepto de Singularidad:
1. La tecnología avanzará cada vez más rápido.
2. Habrá una IA más inteligente que la humana, y muy pronto una IA mucho más inteligente que la humana.
3. No sabemos qué hará esa IA más inteligente que la humana, porque será más inteligente que nosotros.

Por supuesto, es imposible predecir el futuro exactamente, pero podemos establecer teorías sobre lo que probablemente ocurrirá en el futuro; ¡y podemos hacer que nuestro futuro preferido suceda!

Lo describiría como el Rapto Geek. Como el religioso, se espera, pero probablemente no sucederá, al menos no como lo imaginamos.

Hay algunas razones para esto. Por un lado, si bien es cierto que la tecnología avanza cada vez más rápido que antes, también requiere cada vez más recursos para llegar más lejos. Eso solo es una fuente importante de resistencia.

En segundo lugar, los humanos aún no somos capaces de aprovechar realmente todo lo que tenemos ahora. La ética y la moral han quedado muy por detrás de la tecnología. También nuestra educación y sociedad. Eso también retrasa el supuesto progreso cada vez mayor.

Finalmente, es difícil imaginar cómo, si realmente sucedió, cómo será, ya que, por su propia definición, es imposible pronosticar más allá; nada de lo que damos por sentado realmente se aplicaría.

Dicho eso, suena maravilloso. Cruzarlo y entramos en un mundo transhumano de escasez de futuros infinitos.

¿Cómo es que no es un rapto geek?

Si la Singularidad Tecnológica (no solo la IA) es verdadera, entonces parece que ya la hemos pasado, o de lo contrario estamos en el medio en este momento. Después de todo, en cualquier medida, la cultura humana ya ha cambiado más allá de cualquier precedente o punto de referencia anterior, o como dice Stewart Brand, “somos como dioses”. Desafortunadamente, también parece haber muchos geeks que imaginan otro tipo de “Singularity” (también conocido como “Geek Rapture” … ¡bueno, Quora User !), En el que esperan poder ‘descargarse’ a las máquinas, y en mi humilde opinión, esto no es más que la ilusión de personas emocionalmente inmaduras que no pueden manejar el “mundo real” para empezar.

El concepto de que la IA es una “singularidad” está tratando de reconocer que existe una barrera más allá de la cual no podemos predecir los cambios significativos que ocurrirán debido a la IA.

Esta es una predicción basada en la historia de otros avances técnicos. Por ejemplo, cuando la gente jugaba por primera vez con máquinas de vapor, mucha gente imaginó un mundo como el suyo, pero los caballos fueron cambiados por vapor. Algunos pensaron que el efecto del poder del vapor se limitaría a crear carruajes sin caballos. pero creo que muy pocos predijeron con precisión la agitación social masiva que surgió de las máquinas de vapor. La revolución industrial fue, a su manera, un evento singular.

Esta predicción también se basa en parte en que las personas predicen cambios salvajes, parecidos a la utopía de algún invento, y se pierden por completo los malos resultados. Alfred Nobel, inventor de la dinamita, predijo que cuando ambos bandos de la guerra tuvieran suficiente dinamita, podrían aniquilarse en un segundo, y que la gente retrocedería con horror ante la idea y “disolvería sus tropas”. Lo que Nobel no previó fue la destrucción mutua asegurada que condujo a una carrera armamentista para acumular más y más armas, en lugar de disolverlas.

El punto de la singularidad es observar los principales avances tecnológicos del pasado y lograr que las personas no puedan predecir el efecto completo de dicho avance. Y luego tome eso y aplíquelo al avance tecnológico aún no inventado que es la IA.

La llamada Singularidad tiene muchas definiciones. Curiosamente, quienes más creen en él parecen tener las predicciones más específicas para sus efectos evidentes. Por ejemplo, los “cargadores” que afirman que podrán convencer a otros para que dejen que un robot que dice ser ellos herede una casa en la playa. Estas personas no son menos ridículas que los cultistas del ‘Rapto’ y merecen el mismo ridículo y desprecio.

Sin embargo, Vernor Vinge se acercó a una teoría científica formal. Fue en efecto que:

1. La inteligencia y la observación y la autorreferencia son importantes incluso para las leyes físicas básicas y la coherencia matemática: Heisenberg, Schrodinger, Goedel, Russell y Whitehead … la lista continúa.

2. En consecuencia, cualquier gran aumento en la inteligencia, la observación o la reflexión autorreferencial necesariamente debe hacer que todos los fenómenos sean menos predecibles. O explicable por múltiples teorías coherentes o proliferantes.

3. Tal aumento ha ocurrido con Internet, aumentará a medida que abarque todos los idiomas y culturas, genere el suyo (en juegos, redes sociales, etc.) y mute el comercio, la política y la ciencia.

4. La inteligencia colectiva y de máquinas emergente y abierta será incapacitante exponencialmente de la predicción. Es decir, cada vez es menos probable que la predicción sea correcta después del hecho a medida que aumenta la IA. Aunque solo sea porque AI reescribió el diccionario entre predicción y resultado.

5. En algún momento, las predicciones, que probablemente varían según el objeto de predicción, se vuelven tan poco confiables que equivalen a ruido. Predecir se convierte en una actividad inútil, o simplemente persuadir.

Lo que podría explicar por qué los cultistas de Singularity predicen persuadir.

🙂

‘Geek Rapture’ ¡ja! ¿Cómo hago una placa para ello? He visto los de ‘No se romperá en caso de éxtasis’ … ¿sería ‘Iré al piloto automático en caso de éxtasis’?

More Interesting

Después de la singularidad, ¿por qué la IA querría destruir a los humanos?

¿Se puede clasificar a un robot autorreplicante e artificialmente inteligente como un ser vivo?

¿Cómo debo manejar muchas variables categóricas en la capa de entrada de la red neuronal recurrente?

¿Por qué la NASA desarrolló el corazón artificial?

¿Qué relevancia tiene la investigación sobre la estructura fisiológica y la función de los sistemas biológicos para la ingeniería de los programas de IA?

¿Cuán informativo / útil es usar la extrapolación de hardware para predecir cuándo realmente surgirá un AGI?

¿Es posible programar un sistema que siga recibiendo información constantemente para que tome algunas decisiones, y luego aprenda de sus decisiones pasadas y de la información recibida, para refinar las decisiones que tomará en el futuro?

¿La tecnología o la IA eventualmente conducirán a la utopía?

¿La información de los comerciantes podría ayudarme a predecir el mercado de valores?

¿Alguna vez la IA ha tenido tendencias suicidas?

¿Qué algoritmos de aprendizaje automático son prometedores además del aprendizaje profundo?

¿Crees que Quora evolucionará en un producto físico o incluso el nombre de un robot AI o algún juguete inteligente / producto doméstico en el futuro?

¿Cuáles son algunos algoritmos de inteligencia artificial necesarios para los desarrolladores de juegos?

¿Mejorarían las funciones de activación más diversas las redes neuronales?

¿En qué se diferencia la búsqueda de una estrella de la rama y del límite?