Si los robots van a ser humanos algún día, ¿cómo debería ser la función de costo y cómo pueden los humanos aprender de ellos mismos?

De hecho, estoy investigando sobre eso, y mi punto de vista es que una inteligencia general como humanos solo ha usado la función de costo para aprender pero no para decidir. Para decidir usamos sentimientos mezclados con la conciencia.

Cualquier inteligencia sigue una serie de objetivos al decidir, cada uno representado por una función potencial no negativa del vector de estado, que solo es igual a cero si la inteligencia muere en este estado.

Esos potenciales p1 a pn se mezclan usando un conjunto de coeficientes de “importancia relativa” k1 a kn, en un solo “potencial de sentimiento” valorado que la inteligencia intenta maximizar usando un algoritmo basado en entropía basado en las fuerzas entrópicas causales en el artículo de 2013 por Alexander Wissner-Gross.

El punto es que las inteligencias generales trabajan para ajustar esos coeficientes al mismo tiempo que toman decisiones, alterando los “metaparámetros” del algoritmo de IA en tiempo real para maximizar un nivel superior y un objetivo universal que podríamos mapear como “felicidad” .

Pero la felicidad no está representada por una función potencial del estado como lo son los objetivos de nivel inferior, por lo que nunca encontrará una función de costo correspondiente para entrenar una red neuronal para ser más y más feliz.

El proceso de tomar una decisión, en mi investigación, se realiza mediante un tipo especial de algoritmo evolutivo que construye un pseudo-fractal y luego usa algunas de sus propiedades para tomar la decisión.

Lo que he encontrado es que la dimensión fractal de dichos pseudo-fractales se puede utilizar para establecer de manera óptima esos k parámetros, por lo que la felicidad se trata de dimensiones fractales y no se puede aproximar con una función.