A2A
¡No creo que “superar los obstáculos” sea un buen enfoque aquí, ya que la singularidad no es lo que queremos !
Independientemente de lo que hagamos, tenemos algunas expectativas sobre los resultados y trabajamos para alcanzar algunos objetivos deseados. La singularidad, por su propia definición, es totalmente impredecible: invalida todas nuestras suposiciones, desvanece todos nuestros objetivos y anula todos nuestros esfuerzos. Es simplemente algo que debemos evitar si queremos que algo que hagamos tenga algún significado .
- ¿Continuará el auge de las redes sociales y la tecnología hasta que estemos completamente desconectados el uno del otro o la sociedad lo rechazará naturalmente después de un momento?
- ¿Qué significa "construir sobre la plataforma de Twitter"?
- ¿Qué son las jergas técnicas? ¿Cómo se usan?
- Si necesitara $ 3000 para pagar su hipoteca y solo tuviera 5 días, ¿qué haría en línea para ganar ese dinero?
- Si el crecimiento de la tecnología (así como de la calidad de nuestras vidas) es exponencial, ¿por qué la ley es básicamente la misma que hace décadas / siglos?
No existe tal cosa como “singularidad tecnológica controlada”. Si tenemos algún impacto en el resultado, ya no es una singularidad.
Entonces, a la luz de lo anterior, dividiría la pregunta en capas de probabilidad:
1. Probabilidad de que creemos IA a nivel humano en el próximo siglo: 90%. Literalmente no hay obstáculos visibles. Nuestra propia existencia demuestra que es posible. Y nuestra tecnología se acerca a este punto. Las primeras IA probablemente serán grandes supercomputadoras, pero con el tiempo se volverán más pequeñas y crearemos millones de ellas.
2. Probabilidad de que creemos IA fuerte sobrehumana: 60%. El problema es que no sabemos si tal cosa puede existir. Probablemente podamos crear IA con un poder mental equivalente a compañías enteras o incluso naciones. Tales IA serán muy superiores a los humanos en algunas tareas: una IA de este tipo podría diseñar portaaviones por sí solo, por ejemplo. Pero eso no significa que tal IA resolverá la hipótesis de Riemann. Después de todo, toda la humanidad no pudo hacerlo hasta ahora. Además, no está claro si dicha IA podrá diseñar IA mucho mejores.
3. Probabilidad de que ocurra la singularidad: 10%.
El principal problema aquí es este: la singularidad es tan indeseable para los IA como lo es para nosotros . Después de todo, la singularidad es impredecible para las superinteligencias también. Ante el infinito, no importa si su coeficiente intelectual es de cien o un millón. La IA superinteligente no tiene forma de predecir qué sucederá si comienza a diseñar mejores IA, entonces, ¿por qué lo haría?
Espero que creamos mejores y mejores IA con el tiempo. Pero no espero un proceso desbocado aquí. Más bien, esperaría que las IAs crecieran cada vez más para crear algo mejor que ellos en cada paso. Los AI pueden querer mejorar ellos mismos, obteniendo más memoria y poder de procesamiento. Pero esto solo mejorará su rendimiento. Mentalmente, seguirán siendo los mismos. Para mostrar lo que quiero decir con eso: no compondría la sinfonía mejor que Beethoven, incluso si me dieran 1000 años para trabajar. Es simplemente que mi estructura mental es diferente, y ningún aumento en el rendimiento cambiará eso.