El ajuste de curva normal tiene un conjunto de datos que creemos que tiene alguna forma desconocida y deseamos ajustar una curva conocida a estos.
El proceso puede ser determinista o incluso algorítmico porque utilizamos modelos de buen comportamiento, como polinomios o sumas de senos y cosenos. Luego usamos algo de álgebra para calcular los coeficientes por cálculo con el fin de minimizar alguna función de error. La función de error es una buena función de buen comportamiento de los parámetros del modelo.
A menos que esté utilizando una definición muy liberal de aprendizaje automático, esto no es aprendizaje automático.
- ¿Qué es la generalización en el aprendizaje automático?
- ¿Cuál es la opinión de la India sobre la inteligencia artificial?
- ¿Por qué Facebook no compró DeepMind? ¿Cuánto habrían estado dispuestos a pagar? ¿Para qué habría usado Facebook DeepMind?
- ¿Cuál es el estado actual de la investigación de inteligencia artificial?
- Tenemos teorías sobre cómo construir naves estelares interestelares, incluso para la unidad 'warp'. ¿Tenemos una teoría para construir IA de propósito general?
El enfoque de aprendizaje automático (usando redes neuronales, por ejemplo) a menudo usa modelos que no tienen algoritmos bien entendidos que garanticen minimizar el error. El error es una expresión demasiado compleja en los parámetros del modelo.
Entonces, la diferencia radica en el comportamiento de la función de error en función del conjunto de datos y los parámetros de los modelos que se utilizan. Si la función se entiende bien y podemos minimizarla de manera eficiente, entonces no necesitamos técnicas de aprendizaje automático. Si no se comporta o comprende bien, entonces el aprendizaje automático puede ser todo lo que tenemos.
Considero que la tecnología actual utiliza el aprendizaje automático como último recurso, aunque no siempre es necesario.
Aprendizaje automático