Derrota a los humanos * al crear el archivo ejecutable más pequeño (más comprimido) de Wikipedia.
Esto es equivalente a demostrar que DeepMind tiene una inteligencia verbal más alta que los humanos.
Sin embargo … El hecho de que DeepMind fue fundada por los primeros estudiantes de doctorado ** de Marcus Hutter, y que DeepMind no ha estado a la vanguardia de abogar por un Premio X para la compresión de datos en la línea del Premio Hutter, me indica que Alpha Corporation considera que la visión de Hutter de una métrica para AGI es algo que preferirían no promover fuera de su trabajo interno.
- ¿Cómo se usa el aprendizaje automático en los centros de datos?
- ¿Qué idioma debo aprender para crear cosas relacionadas con la IA?
- ¿Cuál sería la motivación de una súper IA totalmente autónoma?
- ¿Qué es el embolsado en el aprendizaje automático?
- Tengo 37 años (MSc.SoftwareEng y experiencia -gestión de proyectos de software) con un gran interés en la academia y la IA. ¿Es prudente obtener un doctorado? en IA / robótica?
* Por “humanos” me refiero a algoritmos de compresión codificados a mano diseñados específicamente para comprimir una instantánea de Wikipedia. DeepMind a menudo se promociona como “modelo libre”, lo que, por supuesto, no puede serlo, ya que se ha demostrado que no existe un algoritmo de compresión universal. Sin embargo, DeepMind afirma legítimamente haber desarrollado lo que podría llamarse un metamodelo, un modelo de cómo se construyen los modelos, y eso hacia el objetivo de la inteligencia general artificial superior en al menos algunas formas para los científicos humanos.
** En 2006 me preguntaron en Slashdot cuál sería mi consejo para los estudiantes interesados en una carrera en AGI. Mi respuesta entonces fue ir a estudiar con Marcus Hutter. Mi consejo ahora para el público en general con respecto a AGI es respaldar los premios de compresión, específicamente de corpus de lenguaje natural como el registro de cambios de Wikipedia. Este es el primer paso hacia un AGI “amigable”, ya que reduce la posibilidad de malentendidos entre humanos y AGI.