Lo que dice tu pregunta es:
“¿Puede existir singularidad alguna vez en la IA?”
Es como hacer la pregunta: ¿me levantaré de la cama y haré un café? Siempre existe la posibilidad de que no podamos conformar una red neuronal lo suficientemente buena como para compararnos con los humanos.
- ¿Cuál es la relación entre inteligencia artificial y humana?
- ¿De qué manera la IA puede ser más inteligente si la inteligencia es biológica?
- En teoría, ¿podría la inteligencia súper artificial mejorar por sí misma indefinidamente?
- ¿Cuál es el error más grande que la gente tiene sobre la IA?
- ¿Es posible crear una píldora de súper inteligencia con Nanobots?
Cuando construí algunos de mis robots, surgieron estas preguntas. ¿Cómo hago para que mi robot haga algo no escrito en su programa? ¿Cómo hago para pensar que tiene que hacer algo sin que lo agregue como un procedimiento en su algoritmo?
Bueno, después de navegar mucho por la red, concluí que con el ritmo reciente que la humanidad está tratando de controlar las redes neuronales, creo que hay una posibilidad.
Habrá un momento, todo esto será posible, estoy seguro. Habrá una “era de Issac Asimov”.
Este es solo un artículo que encontré, estoy seguro de que hay muchos más como este:
http://spectrum.ieee.org/automat…