Por lo general, se refiere a un punto en el tiempo en el que las IA superan a los humanos en prácticamente todos los sentidos.
Esto incluye ser consciente de sí mismo e incluso ser amoroso.
Los que piensan que esto ocurrirá generalmente son ateos que piensan que el cerebro de alguna manera genera conciencia, y dado que el cerebro es un órgano físico, eventualmente deberíamos poder simularlo.
- ¿Crees que la inteligencia artificial representa una amenaza para la humanidad? Si es así, ¿cómo crees que podría abordarse?
- En una escala de 0-10, ¿cuánto conocimiento de aprendizaje profundo obtendrá después de completar la especialización deeplearning.ai?
- ¿Puede el aprendizaje automático estadístico mejorar considerablemente al integrarse con mecanismos de inferencia basados en la lógica?
- ¿Qué se necesita para hacer un doctorado en Oxford en aprendizaje automático?
- ¿Qué país crees que tendrá primero inteligencia artificial a nivel humano?
Dada esta cosmovisión del ‘fisicalismo’, es bastante lógico suponer que sucederá la singularidad.
El brillante futurista, Ray Kurzweil, ahora en Google, es un gran defensor de la singularidad que se produce entre 10 y 30 años a partir de ahora.
Mi visión del mundo incluye la creencia de que tenemos almas creadas por Dios, y que nuestro libre albedrío, autoconciencia, capacidad de amar, etc., son funciones del alma. Por lo tanto, no creo que la singularidad ocurra alguna vez.
Esta es una prueba muy interesante que ayudaría a determinar qué visión del mundo es más precisa.
Si pasa un siglo y tenemos robots muy inteligentes, pero no hay autoconciencia, capacidad de amar, etc., algunos científicos podrían concluir que hay más para nosotros que nuestros cerebros.