Eh … un poco?
Las redes neuronales que tenemos hoy pueden sucumbir a un fenómeno conocido como sobreajuste cuando se someten a demasiado entrenamiento. Esencialmente, se especializan tanto en la interpretación de los datos de capacitación que no pueden manejar con precisión nada más. También están sujetos al problema opuesto: si están expuestos a demasiados datos fuera de sus parámetros de entrenamiento, se generalizan en exceso y no pueden llegar a conclusiones sólidas. En general, los arreglamos capacitándolos antes de la implementación, llevándolos directamente al borde de la falla y luego congelando la red para que no pueda pasar del borde.
No es del todo irrazonable suponer que una IA fuerte puede ser vulnerable a problemas similares relacionados con la sobreestimulación, especialmente porque no puedes simplemente apagar los sistemas de entrenamiento sin hacerlos incapaces de ejercer realmente la inteligencia. Pero realmente no podemos decir cuán similares serían estos problemas a la rampancia.
- ¿Qué es la informática estocástica?
- ¿Cuál es la mejor startup de inteligencia artificial y qué problema resuelven? ¿Cómo consigo un trabajo allí para poder ganar toneladas de dinero?
- ¿Qué es el arranque en la computadora? ¿ROM tiene algún papel que desempeñar?
- ¿Cuál es la diferencia entre IT y CS?
- ¿Qué es el algoritmo del patio de maniobras?