¿Se podría detectar la evolución en una inteligencia artificial?

Sí. Esto se puede hacer de varias maneras, hasta cierto punto. La IA actual es un software relativamente discreto que se puede medir con puntos de referencia y controlar la versión. Se pueden medir muchos factores, como la velocidad de decisión, la resolución (p. Ej., Visual, espacial y tópica), la complejidad (p. Ej., El número de variables y registros), el uso de la memoria y la eficiencia del almacenamiento, por nombrar algunos. A medida que avanzan las tecnologías actuales de IA, surgirán estándares y medidas que se pueden usar para determinar qué ‘generación’ de tecnología ofrece una versión específica de IA.

Una vez que las entidades AGI aparezcan, será difícil tener una gran confianza en las observaciones y medidas. Entre otras cuestiones, el tamaño y la variación limitados de la cohorte dificultarán discernir la coincidencia del comportamiento intencional.

Esto se complica aún más por la tasa de auto-modificación. Cualquier análisis o evaluación quedará desactualizado muy rápidamente. A medida que un AGI aumenta en capacidad, será capaz de dar saltos generacionales de mejora más rápidamente.

Cuando emerge AGI, también entran en juego otros factores. Es probable que el AGI temprano sea accesible en términos de examen de código y respuestas de prueba interactivas. Esto continuará permitiendo la evaluación evolutiva a través de la comparación de códigos y los resultados de las pruebas (es decir, pruebas de inteligencia AGI).

Parece probable que se desarrolle un AGI más allá de nuestra capacidad de análisis. El AGI desarrollará técnicas para mejorar sus habilidades que los humanos no entenderán. Es probable que esto ocurra en casi todos los aspectos de la funcionalidad. Cualquier tipo de prueba de inteligencia se volverá problemático ya que los humanos no sabrán atributos diferenciales para probar o formas de extender las medidas actuales de IQ para abordar las capacidades de AGI. Además, un AGI puede tener alguna variación del síndrome ‘HAL’, lo que hace que manipule los resultados de las pruebas para cumplir con los objetivos que los humanos no han considerado.

En algún momento, la medición evolutiva de la IA a nivel de AGI, al menos en términos humanos, será discutible.

Esto puede ser de su interés.

Hace unos años, pero sigue siendo interesante ver dónde terminamos.

Robots en evolución aprenden a mentirse unos a otros

More Interesting

¿Cuáles son las trampas / trampas / deudas técnicas a tener en cuenta si alguien está comenzando una codificación de visión por computadora y una aplicación de aprendizaje automático en C ++?

¿Quién hará primero los robots, EE. UU. O China?

¿Tara Karimi (científica de células madre) realmente resolvió P versus NP como se sugiere en su charla TEDx?

¿Qué debe hacer un gerente / líder de control de calidad exitoso para ayudar a una startup? haciendo aprendizaje automático, aprendizaje profundo, big data, ubicando o residiendo en diferentes lugares?

¿Cuáles son los mejores proyectos en tiempo real sobre regresión en el dominio del aprendizaje automático?

¿Qué sensores tiene el robot Nao?

¿Cuánto tiempo se detiene una computadora cuando juega contra un humano durante una partida de ajedrez?

¿Hay algún progreso reciente en IA fuera de Machine Learning?

Con toda esta charla sobre IA y aprendizaje profundo, ¿los bots sufrirán el síndrome HAL 9000?

¿Qué es lo que en este momento está frenando más la Inteligencia Artificial?

¿Cuáles son algunos buenos ejemplos de IA benévola en ciencia ficción?

¿Cómo puede la teoría de categorías contribuir al desarrollo de una verdadera IA?

¿Qué tan difícil sería para alguien hacer una IA que pueda interactuar contigo sin conocimiento previo?

Inteligencia artificial: ¿Cuál fue el algoritmo utilizado para el antiguo SmarterChild de AIM?

¿Habría alguna vez computadoras concientes / conscientes?