¿Puede la IA crear otra IA? Seguro
¿Puede crear uno más inteligente? No lo creo.
Es posible que haya escuchado que Google Brain pudo crear un software que crea una IA por sí mismo:
- ¿Por qué la mayoría de los asistentes personales de IA no están diseñados para la comunicación por correo electrónico?
- ¿Qué técnicas de programación debo saber para hacer un juego jugando IA y desafiar en concursos como este: The Great Escape?
- ¿Existe una base racional general para que las redes neuronales artificiales sean las estructuras de aprendizaje 'definitivas' para los dominios en los que se destacan actualmente?
- ¿Por qué la memoria en las redes neuronales no está contenida en los nodos individuales de cada red neuronal?
- ¿Por qué la inicialización de pesos por números pequeños es mala en las redes neuronales?
Los investigadores de Google Brain pudieron diseñar software que creó un sistema de inteligencia artificial para realizar una prueba que mide qué tan bien el software puede procesar el lenguaje. El software obtuvo mejores resultados en la prueba que el software diseñado por humanos.
Eso significa que es posible tener una IA creada por otra.
El problema no es el concepto de crear uno más inteligente que el creador.
Esto significaría que la nueva IA tendría acceso a más información I y desarrollaría códigos más complejos entre sí y, por ahora, eso es imposible debido a que la IA todavía se ha reducido.
Esto básicamente significa que la IA no solo puede hacer una cierta cantidad de cosas hasta que alcanza un límite y por ahora ese límite aún no es muy bajo.
TL.DR
Al final, la IA puede crear otra IA, pero no es más inteligente que ella misma, porque cuando crea una, crea una que no está limitada para hacer una cosa y no aprender.