No es fundamentalmente diferente de la definición de “generalización” para otros tipos de aprendizaje automático:
- alguien (“naturaleza”) tiene una distribución de probabilidad a sus espaldas; no le dirán qué es, pero están dispuestos a proporcionar muestras individuales de esa distribución;
- dadas esas muestras, está intentando
- “Adivinar” cuál es la distribución (y por “adivinar” me refiero a capturarla en una forma que le permita tomar muestras de ella a voluntad, sin necesidad de la “naturaleza” real de nuevo), mientras
- suponiendo que dicha distribución es estable en el tiempo, de modo que los resultados de este “aprendizaje” continuarán siendo útiles durante algún tiempo.
Eso es todo. Conocer la distribución de probabilidad es suficiente para cualquier tipo de consulta que pueda tener sobre el problema en cuestión.
El aprendizaje profundo captura la distribución en un gráfico calculador. Esa forma es conveniente y es probablemente la mejor opción para una solución de forma cerrada. La elección de ir “profundo” permite que el gráfico represente algunas funciones que no son accesibles para alternativas “superficiales” con el mismo número de grados de libertad.
- Cómo construir un sistema de aprendizaje automático para la revisión automática de código
- En la clasificación binaria, ¿es una buena práctica siempre sobre / submuestrear su conjunto de datos para tener un número idéntico de muestras de las dos clases?
- ¿Puedo hacer IA y aprendizaje automático sin matemáticas?
- Cómo comprender mejor las funciones de activación en el aprendizaje automático, especialmente las matemáticas detrás de ellas
- ¿Por qué el error cuadrático medio es equivalente a minimizar la entropía cruzada entre la distribución empírica y un modelo gaussiano?