Sí. Esto se puede hacer de varias maneras, hasta cierto punto. La IA actual es un software relativamente discreto que se puede medir con puntos de referencia y controlar la versión. Se pueden medir muchos factores, como la velocidad de decisión, la resolución (p. Ej., Visual, espacial y tópica), la complejidad (p. Ej., El número de variables y registros), el uso de la memoria y la eficiencia del almacenamiento, por nombrar algunos. A medida que avanzan las tecnologías actuales de IA, surgirán estándares y medidas que se pueden usar para determinar qué ‘generación’ de tecnología ofrece una versión específica de IA.
Una vez que las entidades AGI aparezcan, será difícil tener una gran confianza en las observaciones y medidas. Entre otras cuestiones, el tamaño y la variación limitados de la cohorte dificultarán discernir la coincidencia del comportamiento intencional.
Esto se complica aún más por la tasa de auto-modificación. Cualquier análisis o evaluación quedará desactualizado muy rápidamente. A medida que un AGI aumenta en capacidad, será capaz de dar saltos generacionales de mejora más rápidamente.
- ¿Qué programas de muestra están disponibles para la inteligencia artificial?
- Si una IA comete asalto / infringe un delito, ¿se hace responsable a la IA o al desarrollador?
- ¿Cuál resultará ser el fenómeno más estable en el universo, el aumento de la entropía o el aumento de la inteligencia?
- ¿Cuál es una explicación intuitiva para los parámetros de entrada para redes neuronales?
- ¿Cómo pueden los ingenieros industriales ser parte de la próxima revolución industrial, es decir, la inteligencia artificial?
Cuando emerge AGI, también entran en juego otros factores. Es probable que el AGI temprano sea accesible en términos de examen de código y respuestas de prueba interactivas. Esto continuará permitiendo la evaluación evolutiva a través de la comparación de códigos y los resultados de las pruebas (es decir, pruebas de inteligencia AGI).
Parece probable que se desarrolle un AGI más allá de nuestra capacidad de análisis. El AGI desarrollará técnicas para mejorar sus habilidades que los humanos no entenderán. Es probable que esto ocurra en casi todos los aspectos de la funcionalidad. Cualquier tipo de prueba de inteligencia se volverá problemático ya que los humanos no sabrán atributos diferenciales para probar o formas de extender las medidas actuales de IQ para abordar las capacidades de AGI. Además, un AGI puede tener alguna variación del síndrome ‘HAL’, lo que hace que manipule los resultados de las pruebas para cumplir con los objetivos que los humanos no han considerado.
En algún momento, la medición evolutiva de la IA a nivel de AGI, al menos en términos humanos, será discutible.