¿Cuáles son los principales factores que inhiben el desarrollo de una IA fuerte?

En la investigación de IA estrecha como el aprendizaje profundo:

  1. Hay un procedimiento claro y probado (recopilar toneladas de datos, modelo de tren, prueba en datos reales)
  2. Hay frecuentes “pequeñas victorias” en la resolución de problemas de naturaleza específica. (por ejemplo: crear máquinas que juegan ajedrez, Go, etc.)
  3. Cada una de estas ‘pequeñas victorias’ es ampliamente publicitada, distrae a los investigadores de buscar enfoques alternativos para crear inteligencia
  4. Estas ‘pequeñas victorias’ menores pero bien publicitadas se perciben erróneamente como hitos hacia la creación de una IA fuerte

En la investigación de IA fuerte (AGI):

  1. El camino por delante no está claro
  2. La recompensa es la opción de todo o nada. En el objetivo de encontrar “el único algoritmo que hace todo”, no hay pequeños hitos incrementales.
  3. No se presta suficiente atención para perseguir AGI ya que no hay victorias inmediatas
  4. No se han comprometido suficientes recursos para obtener AGI debido al mayor riesgo de falla
  5. El enfoque mediático y la publicidad en hitos de “IA estrecha” elevan la posición de los grupos de investigación correspondientes. Dichos grupos de investigación tienen una influencia significativa sobre dónde se gasta el dinero de la inversión en IA, por lo que se gastan más recursos en viajar por el camino equivocado que no conduce al objetivo de una IA fuerte.

Otros factores que inhiben el desarrollo de una IA fuerte son:

  1. El esnobismo académico y el fenómeno de pensamiento grupal prevalecen entre algunos investigadores de IA, lo que bloquea nuevas ideas
  2. En lugar de encontrar la solución más simple posible , parece haber una necesidad constante, incontrolable e injustificada entre algunos investigadores de IA de usar técnicas matemáticas y estadísticas complejas para resolver todos los problemas de AI.
  3. Los futuros investigadores de IA son guiados por personas que solo han tenido experiencia en el uso de enfoques de “IA estrecha”, bloqueando así nuevas ideas
  4. La mayoría de los investigadores de IA no han logrado aprovechar el conocimiento existente sobre el comportamiento del cerebro humano y la psicología cognitiva.

Aunque algunos enfoques de IA se basan en el cerebro humano y su comportamiento, existe un enfoque de elegir en lugar de realizar una abstracción holística de alto nivel del comportamiento del cerebro humano. [es decir, elegir un fenómeno neurológico específico entre cientos e intentar usarlo para crear inteligencia]

Lo que no debemos hacer al intentar explicar / crear inteligencia:

[Crédito de la imagen: Wild Equus]

Otra causa es el miedo al fracaso, creo. No queremos hacerlo debido a las malas fallas que hemos tenido hasta ahora. Al comienzo de la IA, los investigadores estaban entusiasmados, entusiastas y muy optimistas. Resultó demasiado optimista y terminaron haciendo promesas que no pudieron cumplir. El problema era que la complejidad total de la verdadera inteligencia no se apreciaba adecuadamente en ese momento y, como tal, la credibilidad del campo disminuyó como resultado. Creo que nuestros cerebros son los culpables de este resultado; nuestros cerebros son tan buenos para pensar que tendemos a darlo por sentado, subestimamos nuestros propios cerebros, sin darnos cuenta de las complejidades extremas con las que está haciendo malabarismos todo el tiempo. Creo que el mito de que usamos solo el 10% de nuestro cerebro en cualquier momento es una demostración de nuestra ineptitud para apreciar la complejidad del cerebro. Si las personas tuvieran una idea de lo que el cerebro hace constantemente, nadie caería en una mentira tan obvia. Por ejemplo, la corteza visual en sí ocupa aproximadamente el 27% de la superficie cortical, por lo que ya estamos por encima del 10%. Cada vez que sus ojos estén abiertos, tendrá más o menos el 27% de su corteza activa, como mínimo.

Trabajar en IA fuerte ha tenido un mal nombre. En el libro “Inteligencia general artificial”, Ben Goertzel escribe:

El trabajo en AGI ha tenido una mala reputación, como si la creación de inteligencia digital general fuera análoga a la construcción de una máquina de movimiento perpetuo. Sin embargo, si bien las últimas leyes físicas bien establecidas implican que esto último es imposible, AGI parece ser posible por toda la ciencia conocida. Al igual que la nanotecnología, es “simplemente un problema de ingeniería”, aunque ciertamente muy difícil.

Estamos tratando de hacer demasiado, demasiado pronto. No se puede construir una pirámide sin primero colocar algunas rampas …

Más de nosotros debemos centrarnos en crear IA que pueda cumplir objetivos específicos por sí misma, dentro de un mundo virtual (una simulación 3D local o Internet), para que no tengamos que enfrentar de inmediato los desafíos de la conciencia y la realidad. Aporte sensorial mundial.