¿Por qué es tan difícil crear una inteligencia artificial general?

El principal problema es definir exactamente qué es un AGI. Muchas personas tienen alguna noción de lo que piensan y AGI debería ser, pero cuando se les pide que escriban una especificación formal, las cosas se ponen … más problemáticas.

Si se vuelve muy específico, se vuelve muy fácil o fácil demostrar que aún no se puede hacer (por ejemplo, requiere un componente biológico).

Si lo mantienes vago, hay muchos problemas. Algunos desarrolladores de IA afirman que su sistema de IA es consciente de sí mismo / creativo / … pero otras personas no están de acuerdo. El desacuerdo no radica en lo que puede hacer la IA, sino en la definición de autoconciencia y creatividad, y en qué condición sería necesaria o suficiente.

Por lo tanto, para avanzar: escriba una definición formal de lo que un AGI debería poder hacer y cómo se medirá. Que sea muy específico y claro, con la menor ambigüedad posible. Luego, dada esa definición, podemos ver lo que necesitamos del sistema de IA para convertirlo en un AGI, y tratar de construir y entrenar el modelo necesario.

Lo que probablemente sucederá en la práctica es que las metas son demasiado ambiciosas o muy específicas, no demasiado difíciles de cumplir, pero otras personas las descartarán por no ser suficientes para un AGI. Y así continuamos.

Si no entendemos cómo funciona un proceso, entonces no podemos mecanizarlo (automatizarlo). Todavía no sabemos cómo pensamos nosotros mismos, por lo tanto, no podemos diseñar algo que modele nuestros procesos de pensamiento.