¿Cómo podemos medir la inteligencia general de la inteligencia artificial profunda?

No puedes! La medida AIXI se basa en la complejidad de Kolmogorov que, aunque es un objeto matemático perfectamente bien definido, es una cantidad no computable . Todo el conjunto de teorías sobre la complejidad algorítmica, desde Kolmogorov hasta Solomonoff y Chaitin, se basa en medidas de complejidad no computables.

Sin embargo, tenga muy en cuenta el siguiente hecho: es posible que no pueda medir una propiedad específica de un objeto, ¡pero eso NO implica que no pueda construir el objeto en sí! Shane Legg está pisando esa delgada línea en su papel y, en mi opinión, lo está haciendo con una aptitud increíble.

Una de mis mayores preocupaciones, que no se aborda en ninguna parte en las teorías de la complejidad algorítmica (el trasfondo de la medida AIXI) es la siguiente: las medidas de complejidad algorítmica se basan esencialmente en la noción de computabilidad incorporada por la máquina de Turing y más formalmente representada por parcial ( mu) funciones recursivas. Pero hay un problema que tal vez se resuelve, pero no sé la respuesta:

  1. Cualquier algoritmo debe formularse dentro de un lenguaje dado (por ejemplo, ciertas “funciones básicas” que pueden estar compuestas para dar una función más compleja) y, según el teorema de Gödel o el teorema de Halting, siempre hay una función no computable en cualquier lenguaje algorítmico. Esto en sí mismo no es una limitación importante, sin embargo,
  2. Una determinada función puede ser completamente no computable en un sistema dado pero trivialmente computable en otro (por ejemplo, al unir un Oracle que computa dicha función al sistema anterior). Esto significa que la complejidad es relativa al lenguaje de referencia específico utilizado para escribir algoritmos (el lenguaje aquí no se refiere a un lenguaje de programación como Python o C, sino a un conjunto de propiedades que describen un sistema lógico). La pregunta es si existe un “sistema de referencia preferido” en relación con el cual se pueda medir la complejidad de todas las funciones. Se ha demostrado que la complejidad de Kolmogorov (y, por lo tanto, la medida AIXA a la que se refiere el OP) varía de un sistema a otro mediante la adición de un número constante que no depende de la función específica cuya complejidad deseamos calcular. Pero esa prueba supone inherentemente que el sistema es reducible a una máquina de Turing y, por lo tanto, plantea la pregunta.

Esta es una pregunta difícil y sé que su respuesta parece larga y oscura, pero desafortunadamente, ¡la inteligencia no es tan simple!

No podemos, todavía.

Primero, echemos un vistazo a AIXI. Este maravilloso agente tiene un comportamiento óptimo en la mayoría de las situaciones. De hecho, en cualquier situación en la que posiblemente pueda tener un comportamiento óptimo, AIXI lo encontrará en algún momento. A menos que esté haciendo trampa, al tener más información disponible, recompensas injustas o acciones adicionales, AIXI lo derrotará. O empate, si también está ejecutando AIXI.

Es impresionante. Es un excelente límite superior para la inteligencia. No puedes ser más inteligente que AIXI. También es lo más poco práctico de usar. Requiere, literalmente, probar todos los escenarios posibles que conducen a lo que está observando, cada escenario posible desde allí, sopesarlos con la facilidad con la que puede expresarlos y combinarlo todo para seleccionar la mejor acción.

Un ejemplo específico: AIXI jugando al ajedrez simula todos los juegos posibles de ajedrez antes de jugar su primer movimiento. Poco práctico, como dije, incluso en un pequeño problema de juguete. Extremadamente en el mundo real.

La presentación que vinculó menciona MC-AIXI, que es una aproximación muy aproximada de AIXI (¡pero razonablemente computable!) Sin embargo, la medida de inteligencia universal (UIM) usa la misma idea que AIXI y es igualmente poco práctica. Sigue siendo significativo en teoría, pero si utiliza, a su vez, aproximaciones para obtener una medida, su utilidad se degrada rápidamente.

¿Por qué? Porque AIXI cubre convenientemente cualquier tipo de problema, desde juegos hasta visión, lenguaje y programación, siempre que pueda reducirse a acciones, observaciones y recompensas. Usar UIM para una tarea específica como jugar Go es inútil: solo di que quien gane es el más inteligente, y listo.

Los humanos pueden trabajar en problemas muy diversos. El uso de UIM para comparar la inteligencia artificial con nosotros requeriría formalizar todas las tareas que los humanos pueden realizar (o incluso tratar de realizar ), ver cómo les va a la IA y aplicar la medida. Todavía no estamos allí, y de todos modos no sería exacto.

Hasta ahora, nuestra mejor apuesta para comparar la IA y los humanos es enfrentarlos en tareas específicas, para hacer que resuelvan problemas cada vez más difíciles (no sabemos exactamente cuánto más difícil). Poner un número requeriría mucho más conocimiento sobre cómo funciona nuestra propia inteligencia. Una vez pensamos que jugar bien al ajedrez era un indicador definitivo de inteligencia; no lo es ¡UIM es definitivo , pero no podemos calcularlo!

Lecturas adicionales sobre posibles indicadores: problemas de IA completa.

More Interesting

Para desarrollar un asistente digital con IA, ¿cuáles son las cosas que debo saber?

¿Qué ciencias necesitas estudiar para convertirte en un especialista en inteligencia artificial?

¿Se van a cerrar BPO y KPO debido a la inteligencia artificial?

¿La inteligencia artificial podrá predecir con precisión futuras enfermedades cardíacas y accidentes cerebrovasculares?

¿Podría una inteligencia artificial hipotética consciente o consciente estar libre de falacias y ambigüedades / ilusiones perceptivas como los humanos?

¿Cuál es la relación entre la inteligencia matemática y la inteligencia lingüística?

¿Cómo podría la inteligencia artificial afectar nuestra vida, positiva o negativa?

¿Los robots funcionarán en Wikipedia, reemplazando a los trabajadores humanos?

¿En qué áreas de la inteligencia artificial no estamos progresando mucho?

¿Están justificadas las personas como Elon Musk en sus miedos a la inteligencia artificial inteligente, etc.? ¿Estamos en peligro de caer en una distopía al estilo Terminator?

¿Puedes convencerme de que la IA algún día podrá simular la 'sensibilidad humana'?

¿La IA basada en NN se convertirá en otra explosión de dot.com?

¿Puede una inteligencia artificial dudar?

¿Existe alguna IA (inteligencia artificial inventada por algún cuerpo o gobierno) que sea lo suficientemente inteligente como para tener hoy libre albedrío?

¿Estás de acuerdo si la IA toma la mayoría de los trabajos, entonces las personas deberían obtener un ingreso básico?