¿Cuál es la probabilidad de que ocurra la singularidad tecnológica? ¿Cuáles son los principales obstáculos que deben superarse? ¿Hasta dónde estamos para superarlos?

A2A

¡No creo que “superar los obstáculos” sea un buen enfoque aquí, ya que la singularidad no es lo que queremos !

Independientemente de lo que hagamos, tenemos algunas expectativas sobre los resultados y trabajamos para alcanzar algunos objetivos deseados. La singularidad, por su propia definición, es totalmente impredecible: invalida todas nuestras suposiciones, desvanece todos nuestros objetivos y anula todos nuestros esfuerzos. Es simplemente algo que debemos evitar si queremos que algo que hagamos tenga algún significado .

No existe tal cosa como “singularidad tecnológica controlada”. Si tenemos algún impacto en el resultado, ya no es una singularidad.

Entonces, a la luz de lo anterior, dividiría la pregunta en capas de probabilidad:
1. Probabilidad de que creemos IA a nivel humano en el próximo siglo: 90%. Literalmente no hay obstáculos visibles. Nuestra propia existencia demuestra que es posible. Y nuestra tecnología se acerca a este punto. Las primeras IA probablemente serán grandes supercomputadoras, pero con el tiempo se volverán más pequeñas y crearemos millones de ellas.

2. Probabilidad de que creemos IA fuerte sobrehumana: 60%. El problema es que no sabemos si tal cosa puede existir. Probablemente podamos crear IA con un poder mental equivalente a compañías enteras o incluso naciones. Tales IA serán muy superiores a los humanos en algunas tareas: una IA de este tipo podría diseñar portaaviones por sí solo, por ejemplo. Pero eso no significa que tal IA resolverá la hipótesis de Riemann. Después de todo, toda la humanidad no pudo hacerlo hasta ahora. Además, no está claro si dicha IA podrá diseñar IA mucho mejores.

3. Probabilidad de que ocurra la singularidad: 10%.
El principal problema aquí es este: la singularidad es tan indeseable para los IA como lo es para nosotros . Después de todo, la singularidad es impredecible para las superinteligencias también. Ante el infinito, no importa si su coeficiente intelectual es de cien o un millón. La IA superinteligente no tiene forma de predecir qué sucederá si comienza a diseñar mejores IA, entonces, ¿por qué lo haría?

Espero que creamos mejores y mejores IA con el tiempo. Pero no espero un proceso desbocado aquí. Más bien, esperaría que las IAs crecieran cada vez más para crear algo mejor que ellos en cada paso. Los AI pueden querer mejorar ellos mismos, obteniendo más memoria y poder de procesamiento. Pero esto solo mejorará su rendimiento. Mentalmente, seguirán siendo los mismos. Para mostrar lo que quiero decir con eso: no compondría la sinfonía mejor que Beethoven, incluso si me dieran 1000 años para trabajar. Es simplemente que mi estructura mental es diferente, y ningún aumento en el rendimiento cambiará eso.

Creo que sucederá dentro de 100 años.

Hace solo 5 años, las personas reconocían que las máquinas están comenzando a ser mejores que los humanos en una sorprendente cantidad de tareas. También se habló mucho sobre si las máquinas podrían volverse “conscientes” o no, como lo son los humanos. Algunos expertos dijeron que quizás una máquina podría considerarse “consciente” si es capaz de analizar una escena y describir con precisión lo que está sucediendo: ¿Pueden las máquinas ser conscientes?

¿Adivina qué? El año pasado, esa misma tarea se logró. Mediante el aprendizaje no supervisado, Google Brain ahora puede formar (en su mayoría) oraciones precisas en inglés sobre lo que sucede en una imagen. Una imagen vale más que mil palabras (coherentes): construir una descripción natural de las imágenes

Entonces, algunas computadoras que tenemos hoy satisfacen los requisitos que muchas personas plantearon hace 5 años para “ser conscientes”. ¿Es consciente Google Brain, o era solo una definición pobre? De cualquier manera, está claro que la IA avanza a un ritmo increíblemente rápido, y las computadoras serán superiores a los humanos incluso en las tareas más humanas en un período de tiempo relativamente corto.

Concluyo mi respuesta con una hermosa composición musical escrita por una IA

En el corazón mismo del concepto de singularidad hay una enorme y estúpida inconsistencia. Es esto: que la inteligencia de la humanidad es limitada y / o estática, mientras que la inteligencia artificial será ilimitada y en constante crecimiento.

El argumento es que la inteligencia basada en el carbono es limitada, pero la inteligencia basada en cualquier otro tipo de combinación química no lo es. Esto no solo es completamente infundado, sino que también está crónicamente desactualizado. La cibernética ha demostrado (desde 1947) que la información y, por lo tanto, el procesamiento de la información, es independiente de la materia y la energía.

Entonces, hay dos opciones, ya sea:

  • La inteligencia es limitada. Si este es el caso, las computadoras eventualmente se volverán tan inteligentes como nosotros y luego se detendrán como nos hemos “detenido” (aunque hay evidencia de lo contrario); o
  • La inteligencia es ilimitada. A medida que las computadoras se vuelven más inteligentes, nos empujan a ser más inteligentes, lo que a su vez nos ayuda a ayudar a las computadoras a ser más inteligentes. Este ciclo de retroalimentación de inteligencia se vuelve cada vez más rápido hasta que sucede en tiempo real. Ese punto podría describirse como una singularidad.

Debo admitir que mi lectura de la evidencia es la segunda alternativa que ya está sucediendo y que cada vez será más y más rápida.

Personalmente creo que viviré para verlo.

Gracias por la A2A

Sin entrar en la probabilidad, otros han respondido, pero los obstáculos que debemos superar (independientemente de si sucederá o no):

El avance tecnológico está catalizado (entre otros, por supuesto), por dos factores principales, que deben tenerse en cuenta:

Sufrimiento humano (es decir: guerra e industria de armas) y avaricia (es decir, ganancias y crecimiento financiero).

Hoy utilizamos tantos inventos, que no hubieran sido posibles sin las dos grandes guerras y la posterior carrera de armamentos nucleares … A partir de hoy, una guerra global es casi inimaginable, o si lo fuera, sería el mayor obstáculo de un tecnología singularidad. Con eso me refiero a los efectos negativos de un holocausto nuclear, esos son (nuevamente, entre otros): casi ningún científico que sobreviva para investigar sobre la IA y consideraciones más importantes para el hombre promedio, es decir, cómo sobrevivir en las ruinas de la civilización o cómo no extinguirse como especie (junto con tantos otros que lo hicieron, con nuestra “ayuda”). ciertamente, la investigación en IA sufriría de estos …

La otra consideración, la codicia por el beneficio: nada parece suceder sin que alguna persona, natural o legal, se aproveche de ello. Eso puede sonar como una gran fuerza impulsora para la invención y la investigación, pero la idea de crecimiento infinito es tan tonta como la idea de recursos infinitos. Vivimos en un ambiente finito. Tarde o temprano (lo más probable es que sea antes), los recursos mal utilizados y maltratados se agotarán. Sin embargo, el “crecimiento” financiero y las ganancias nos exigen consumir la tecnología más nueva tan pronto como esté disponible (consideremos por un momento, cómo el proceso en sí mismo pone un obstáculo a la rapidez con que algo nuevo esté disponible: los fabricantes deben vender la tecnología anterior). stock, antes de que le permitan reemplazarlo por el nuevo).

Por supuesto, puede tener el potencial de volverse sostenible, pero con tan poco dinero de investigación invertido en sostenibilidad (en comparación con lo que se está inyectando en la investigación tecnológica con fines de lucro), no parece estar sucediendo. Mientras seguimos desechando lo viejo, solo tenemos el breve placer de disfrutar lo nuevo, mientras seguimos alimentando la codicia corporativa, que es muy similar a la codicia que experimentamos en nuestros niveles personales; y aunque esos cuerpos mantienen sus prácticas derrochadoras, nosotros mismos parecemos ser el mayor obstáculo que imponemos a nuestro propio avance.

Por supuesto, estos pueden o no estar en el camino de la tecnología. singularidad. Es posible que aún podamos producir una inteligencia más allá de nuestra propia comprensión … Definitivamente nos imaginamos capaces de hacerlo, ya que en nuestras mentes hemos reemplazado la imagen de dios o dioses de las antiguas religiones con la de nosotros mismos (un sorprendente grado de arrogancia ) ¿Pero y si lo hacemos? ¿Una verdadera inteligencia no vería las locuras de nuestros caminos? ¿No sería capaz de comprender lo que no podemos ver? ¿Que a través de nuestros modos de codicia y egomanía nos hemos convertido en poco más que un parásito en la faz de la Tierra, explotando el cuerpo portador, hasta que muere? ¿Cuál sería la primera reacción de tal inteligencia, solo por el bien de la auto preservación? Posiblemente para proteger al portador (Tierra) y deshacerse de la infección …

Una definición estricta sería la línea después de la cual hay una incapacidad para predecir. Esto es difícil de ver porque la conciencia llena los espacios en blanco en sí mismos, por lo que es un análogo temprano de la automatización y de ahí surgen muchas falacias. Ahora agregue la informática social, la informática cognitiva, la población completa enredada y un complemento de sistemas para respaldar sus conjeturas. Esas son muchas predicciones. Algunos van a estar cerca. Tienen todo el almacenamiento que desean, sus suministros de energía son prácticamente ilimitados y están motivados para evitar enfrentarse entre sí por la pérdida de lo que valoran para la discreción de la máquina que podría llenar el sistema solar de basura con o sin ellos. . Cualquiera que se haya decidido tiene un sesgo de confirmación, por lo que siempre parece que sabía algo que ocurrió y puede racionalizarlo a la inversa. Esto empuja el horizonte más lejos que las pruebas de reconocimiento de imagen o turing. La noción de marcar el término es buena para estimular la recuperación y acelerar las nuevas empresas, por lo que es más una dualidad en lo que respecta a las personas. Son advertidos por la experiencia con la radiactividad y ven otras tormentas potenciales con clima, vida artificial o nano. Los agujeros negros tienen leyes sobre la adición de áreas de superficie cuando se encuentran, por lo que estos otros tipos de tornados, por así decirlo, podrían ser similares donde la complejidad aumenta y la humanidad está reaccionando a todo. La gente quiere hacerlo bien porque esto afecta su entorno y potencialmente su composición. Al igual que la geoingeniería o la edición de ADN, no es necesario apresurarse. Hay muchos avances en tecnología a su alrededor para sumar primero toda su capacidad mental. Luego tiene que lidiar con los elementos de la cultura como el capitalismo, la democracia, los estados-nación, la biología, el proteccionismo, etc. Puede haber algo cuando se acerca más a un reflejo que conduce a la agitación. Eventualmente, podría resolverse si hubiera representantes o una fusión, pero podría volverse rápidamente posthumano. Afortunadamente, la ciencia ficción puede continuar porque la imaginación parece inagotable. También se podría anunciar una singularidad popular en la primera mitad del siglo y una privada en la segunda alrededor de la cual los otros continúan surgiendo de manera fractal, lo que lleva a la pregunta de dónde ya tiene si esto es posiblemente un orden inferior a pesar del proverbial agujero negro en el centro de la galaxia, que literalmente sería el tipo de cálculo más eficiente en las teorías cuánticas y de inflación. Idealmente, el subproducto es el chorro de partículas en lugar del dominio de desvanecimiento derivado o el falso vacío.

Creo que la singularidad sucederá en los próximos 100 años. Por el momento, la IA ya está comenzando a superar la capacidad del nivel humano en áreas como los autos sin conductor y la visión por computadora. El desafío parece estar en permitir que esta IA opere fuera de las funciones estrechas a partir de las cuales crecieron. Esto debe provenir de la colaboración entre tecnólogos. ¿Cómo puede el equipo de automóviles autónomos de Google colaborar con profesionales médicos de IA para ampliar la aplicabilidad de su IA y crear una ambulancia autónoma, por ejemplo?

Otro obstáculo clave para alcanzar la singularidad es desarrollar hardware a través del cual probarlo. Mientras la IA se limite a una entidad virtual, será difícil evaluar si ha superado la capacidad del nivel humano. Un obstáculo a superar es el desarrollo de robots humanoides hiperrealistas. Este tipo de hardware sería la salida perfecta para grupos como el Proyecto Cerebro Humano para probar su trabajo en el mundo físico.

¿Cómo sabes que la singularidad aún no ha sucedido? Si “usted” fuera una simulación de sus procesos de pensamiento dentro de un entorno simulado, ¿cómo lo sabría?

Las barreras actuales que yo veo no son tanto tecnológicas, sino económicas y biológicas / neurológicas.

Probablemente ya podamos acumular suficiente potencia de computadora para modelar un cerebro humano, con fondos suficientes, pero no creo que comprendamos suficientemente el funcionamiento del cerebro humano para escribir realmente la simulación. Luego, leer los contenidos de un cerebro para cargarlos en la simulación es otra barrera.

Si todo esto es posible, entonces surgen un montón de preguntas éticas. Si cerré la simulación, ¿cometí un asesinato? ¿Qué pasa si restauro una copia de seguridad? ¿Los acuerdos realizados por la simulación son legalmente vinculantes?

Me cuesta ver cómo se concretará la singularidad tecnológica. Siempre tendrá que haber algún tipo de variable para que funcione la “IA”, que obviamente debe estar predefinida. Sin embargo, con el avance de la tecnología, puede diseñarse un método más “avanzado” para comprender estas variables.