Las probabilidades son extremadamente bajas.
La autoconciencia en una IA sugiere que la IA desarrollada debería ser un AGI. La razón por la cual esta distinción es importante es que, recientemente hemos desarrollado teorías científicas para desarrollar AGI. Para los enfoques algorítmicos, tenemos máquinas AIXI y Gödel , mientras que para un enfoque arquitectónico existe el Modelador autónomo piagetiano (PAM.p2).
Las teorías existentes (esto es principalmente cierto para las máquinas AIXI y Gödel) están completas en el sentido de que describen sistemas altamente inteligentes (como los sistemas súper inteligentes) , sistemas que podrían alcanzar niveles de inteligencia más allá de los humanos . El único problema es que los AGI descritos por estas teorías son en su mayoría incuestionables y tienen que ser aproximados.
- ¿Qué sigue para Alexa / Echo de Amazon?
- ¿Crees que la IA eventualmente se rebelará contra los humanos?
- ¿Cuál es el activo más valioso que Google creó con su investigación de autos sin conductor? ¿Son datos, algoritmos o qué?
- ¿Qué tan difícil es la clase de inteligencia artificial de Patrick Winston en el MIT?
- ¿A dónde voy para aprender más sobre la naturaleza de la humanidad a través de nuestra comprensión de la inteligencia artificial?
Entonces, la razón por la que diría que las probabilidades son extremadamente bajas, se debe al “cuello de botella” que existe actualmente al aproximar los AGI descritos por las teorías de máquinas de AIXI o Gödel. Este cuello de botella proviene principalmente de los tipos de algoritmos que tenemos para aproximar los AGI y el tipo de hardware actualmente existente, donde diría que el hardware es la mayor limitación.