De Wikipedia: http://en.wikipedia.org/wiki/Hub…
”
[Dreyfus] argumenta que ahora no podemos (y nunca podremos) comprender nuestro propio comportamiento de la misma manera que entendemos los objetos en, por ejemplo, física o química: es decir, considerándonos a nosotros mismos como cosas cuyo comportamiento puede predecirse a través de “objetivo”, leyes científicas libres de contexto. Según Dreyfus, una psicología libre de contexto es una contradicción en los términos.
…
No cree que la IA sea fundamentalmente imposible, sino que el programa de investigación actual tiene fallas fatales. Sostiene que obtener un dispositivo o dispositivos con inteligencia similar a la humana requeriría que tengan un ser humano en el mundo y que tengan cuerpos más o menos como el nuestro, y aculturación social (es decir, una sociedad) más o menos menos como el nuestro
”
En otras palabras, Dreyfus cree que el “problema de conexión a tierra” de la IA es fundamental para el desarrollo intelectual de un agente de IA y que los enfoques simbólicos de la IA en los que se pasa por alto la necesidad de la conexión a tierra están condenados al fracaso. Curiosamente, creo que muchos de los investigadores actuales de IA podrían estar de acuerdo.
- ¿Por qué nadie ha escrito un traductor de idiomas perfecto?
- ¿Cuál es una buena idea para un proyecto de inteligencia artificial?
- ¿El aumento de los robots sexuales impulsados por IA conducirá a una subpoblación mundial masiva?
- ¿Necesito aprender codificación para trabajar en IA? Además de la codificación, ¿hay otras áreas dentro del campo que uno pueda explorar sin ser necesariamente un codificador?
- ¿Se podría detectar la evolución en una inteligencia artificial?