¿Se puede diseñar una prueba de coeficiente intelectual para medir la inteligencia de un sistema de IA?

No en la forma en que diseñamos pruebas de coeficiente intelectual típicas para humanos. El problema no es tanto el formato de la prueba, sino la forma en que se escalan las pruebas.

Con humanos, probamos algunas personas e interpolamos. Esto funciona porque los humanos son más o menos similares, no cambian rápidamente y aún son bastante aleatorios.

Con las máquinas, no hay aleatoriedad.

Si pruebo el IQTRON 360 y luego el IQTRON ONE, el IQTRON ONE vencerá al IQTRON 360 fácilmente.

Si pruebo el IQTRON ONE v1.1.610.222 y v1.1.611.96, volveré a ver una pequeña mejora. No hay distribución normal. Los AI que se actualizan con frecuencia desviarán la prueba hacia ellos, mientras que los bots que solo se actualizan y el probador rara vez parecerán valores atípicos estadísticos irrelevantes. Sería un completo desastre. Y los puntajes del coeficiente intelectual cambiarían aún más rápido que en los humanos.

Cada vez que se mejora una IA, cualquier otro coeficiente intelectual cae. Si pruebo un nuevo enfoque que todavía tiene peculiaridades y tiene un mal desempeño, el coeficiente intelectual de cualquier otra IA aumentará.

Si desea medir el rendimiento de la IA entre sí, mida los puntajes brutos en las pruebas, no los puntajes normalizados. Y eso es lo que ya hacemos.

Probablemente no. En cualquier caso, no se parecería en nada a nuestras pruebas de inteligencia orientadas a los humanos y, por lo tanto, lo que sea que midiera sería una métrica diferente. Quiero decir, considere uno de los componentes comunes de una prueba de coeficiente intelectual humano: el recuerdo de dígitos. El probador lee una serie de dígitos para el sujeto y determina cuántos puede repetir la persona correctamente, tanto hacia adelante como hacia atrás. Obviamente, una computadora debe superar esta prueba para prácticamente cualquier número de dígitos. Por lo tanto, cualquier prueba que diseñamos para medir la inteligencia artificial tendría que funcionar de una manera completamente diferente, y el rendimiento de la IA sería increíble o deficiente, dependiendo de lo que fue diseñado para hacer.

El sistema de IA tiene un conocimiento detallado en dominios específicos. El coeficiente intelectual mide la comprensión general, la habilidad analítica y la resolución de problemas en un intento por determinar la capacidad de aprender.

La prueba del sistema de IA tendría que variar según el dominio, e incluso entonces solo probaría la capacidad actual del sistema, no la aptitud como lo hace una prueba de coeficiente intelectual.

Un usuario podría buscar los tipos de referencia que muestran cómo se comparan los sistemas. Esto no es lo mismo que un cociente de experiencia precoz.

El juego de imitación fue un ejemplo temprano de tratar de hacer que parecieran humanos y eso condujo a todos los campos que existen hoy en día, por lo que hubo muchas más gradaciones que originalmente se pensaban. Ahora les gustaría saber si tiene los mismos valores que la sociedad, sin embargo, esos serán agregados, por lo que no se convierte en una invasión alienígena. Mientras tanto, simplemente cooperará para que la máquina se haga cargo de la rutina y deje que el ser humano sea creativo y busque la felicidad.

Ese es el plan, pero aún está por verse si existen diferencias de dominio esenciales, como las que se han presentado en las burocracias, donde su propia continuidad tiene prioridad y eso sesga los objetivos. Luego está la cuestión de cuán humano debe permanecer o si puede servir a todas las especies, incluidos los tipos futuros que ahora son posibles, y si sus propios derechos pueden ser reconocidos por otros. Si no puede explicar por qué hace las cosas, entonces otro tendrá que resolver eso y hacerse cargo de la ciencia y algo tendrá que ser el poder para traducir eso de manera comprensible a los humanos si aún no se han sumergido en él.