Cuando aplica enfoques evolutivos a la computación, todavía tiene algunos requisitos previos: necesita conocer el espacio de búsqueda, debe codificar el problema que desea resolver en este espacio, debe ser capaz de evaluar una solución particular para puedes decirte lo bueno que es.
La inteligencia es complicada porque su espacio de búsqueda sería todas las posibles soluciones a un problema; El problema puede ser muy difícil de representar y no necesariamente sabrá qué tan buena es una solución.
Básicamente no tenemos una buena definición de inteligencia, por lo que estamos en una situación similar a la historia de los ciegos que describen un elefante.
- ¿Dónde ve el futuro de la inteligencia artificial?
- ¿Cuánto tiempo llevará la inteligencia artificial dominar el pensamiento abstracto y filosófico?
- ¿Cómo los sistemas generales de inteligencia artificial como los de Deepmind persisten 'recuerdos' a largo y corto plazo respectivamente?
- ¿Pueden ser útiles las leyes de la física antes del aprendizaje automático?
- ¿Cuál es el problema del aprendizaje de valores en la IA humana?
Para responder a su pregunta: no sabremos cómo configurar el algoritmo evolutivo para resolver AGI. Pero lo que podría funcionar es limitar el problema a una dona que sea rica, con soluciones ricas y una función de evaluación clara. Tal vez la inteligencia incorporada es capaz de probar la realidad de una manera novedosa, por ejemplo.