Si y no.
Sí, porque de hecho es factible que un sistema se diseñe y cambie su comportamiento. Presumiblemente usando alguna forma avanzada de aprendizaje.
No, porque cuando permites que esto suceda, vendrá un científico informático llamado Ada Turing Godel que te explicará que siempre hay sistemas de inteligencia artificial, por muy buenos que sean, que no podrán corregir todos sus errores.
- ¿Cómo podríamos (en teoría) resolver una red neuronal exactamente?
- Cuando la Inteligencia Artificial alcanza la capacidad para hacerlo, ¿debería permitirse enseñar a los niños humanos?
- Cómo conseguir un trabajo en Google como desarrollador de aprendizaje automático / IA
- ¿La IA realmente refleja las capacidades cognitivas del cerebro humano?
- ¿Cómo se usa el aprendizaje automático en los centros de datos?
Para hacer esto, revelará un sistema que se depura. Luego exclamará que si el sistema tratara de cambiar su propia función de depuración, sería posible crear un error de manera que un sistema más grande contuviera un error solo si no hubiera ningún error.
Ahora, si el sistema de inteligencia artificial no puede cambiar su propio software de depuración, entonces obviamente no es lo suficientemente expresivo como para cambiar todos sus errores.
Pero no se preocupe, la mayoría de los errores son errores normales y reparables, y el resultado anterior no se aplicaría a ellos.