No en la forma en que diseñamos pruebas de coeficiente intelectual típicas para humanos. El problema no es tanto el formato de la prueba, sino la forma en que se escalan las pruebas.
Con humanos, probamos algunas personas e interpolamos. Esto funciona porque los humanos son más o menos similares, no cambian rápidamente y aún son bastante aleatorios.
Con las máquinas, no hay aleatoriedad.
- ¿Debería haber un límite en la tecnología y la automatización, especialmente en IA, que emociona la mente humana y desafía la existencia humana física?
- Si una empresa no estuviera limitada por ningún tipo de recursos, ¿cómo haría para crear la IA más inteligente?
- ¿Cuáles fueron los 10 problemas principales en Machine Learning para 2016?
- ¿Qué nos impide actualizar nuestro IPv6 actual a una red neuronal?
- ¿Qué buenas aplicaciones comerciales aún no aparecen con las redes neuronales y el aprendizaje automático?
Si pruebo el IQTRON 360 y luego el IQTRON ONE, el IQTRON ONE vencerá al IQTRON 360 fácilmente.
Si pruebo el IQTRON ONE v1.1.610.222 y v1.1.611.96, volveré a ver una pequeña mejora. No hay distribución normal. Los AI que se actualizan con frecuencia desviarán la prueba hacia ellos, mientras que los bots que solo se actualizan y el probador rara vez parecerán valores atípicos estadísticos irrelevantes. Sería un completo desastre. Y los puntajes del coeficiente intelectual cambiarían aún más rápido que en los humanos.
Cada vez que se mejora una IA, cualquier otro coeficiente intelectual cae. Si pruebo un nuevo enfoque que todavía tiene peculiaridades y tiene un mal desempeño, el coeficiente intelectual de cualquier otra IA aumentará.
Si desea medir el rendimiento de la IA entre sí, mida los puntajes brutos en las pruebas, no los puntajes normalizados. Y eso es lo que ya hacemos.