El principal problema es definir exactamente qué es un AGI. Muchas personas tienen alguna noción de lo que piensan y AGI debería ser, pero cuando se les pide que escriban una especificación formal, las cosas se ponen … más problemáticas.
Si se vuelve muy específico, se vuelve muy fácil o fácil demostrar que aún no se puede hacer (por ejemplo, requiere un componente biológico).
Si lo mantienes vago, hay muchos problemas. Algunos desarrolladores de IA afirman que su sistema de IA es consciente de sí mismo / creativo / … pero otras personas no están de acuerdo. El desacuerdo no radica en lo que puede hacer la IA, sino en la definición de autoconciencia y creatividad, y en qué condición sería necesaria o suficiente.
- ¿Qué significa que un programa de IA avanzado sea un 'billón de veces más inteligente' que un ser humano?
- Si la IA se vuelve tan avanzada (como el cerebro humano), ¿también creará sus propias religiones?
- Si alguien desarrolla inteligencia artificial, ¿cómo nos afectará?
- ¿La inteligencia artificial hará que los comerciantes sean redundantes?
- ¿Qué es una red neuronal artificial supersimétrica?
Por lo tanto, para avanzar: escriba una definición formal de lo que un AGI debería poder hacer y cómo se medirá. Que sea muy específico y claro, con la menor ambigüedad posible. Luego, dada esa definición, podemos ver lo que necesitamos del sistema de IA para convertirlo en un AGI, y tratar de construir y entrenar el modelo necesario.
Lo que probablemente sucederá en la práctica es que las metas son demasiado ambiciosas o muy específicas, no demasiado difíciles de cumplir, pero otras personas las descartarán por no ser suficientes para un AGI. Y así continuamos.