Como mencionan otros, las funciones de costo y pérdida son sinónimos (algunas personas también lo llaman función de error). El escenario más general es definir primero una función objetivo, que desea optimizar. Esta función objetivo podría ser
– maximizar las probabilidades posteriores (p. Ej., Bayes ingenuas)
– Maximizar una función de condición física (programación genética)
– Maximizar la función de recompensa / valor total (aprendizaje de refuerzo)
– maximizar la ganancia de información / minimizar las impurezas de los nodos secundarios (clasificación del árbol de decisión CART)
– minimizar una función de costo (o pérdida) de error cuadrático medio (CART, regresión del árbol de decisión, regresión lineal, neuronas lineales adaptativas, …
– maximizar la probabilidad de registro o minimizar la función de pérdida de entropía cruzada (o costo)
– minimizar la pérdida de la bisagra (máquina de vectores de soporte)
…
- ¿Cuál es el papel del aprendizaje automático en defensa?
- ¿Cuáles son los límites de la capacidad de programación celular?
- ¿Cómo difiere la ingeniería de software de la informática? ¿Son los dos aburridos?
- ¿Cuál es la diferencia entre los sistemas de archivos NTFS y FAT32?
- ¿Por qué los niveles de volumen de sonido no son redondos? Por ejemplo, la Mac tiene 16 niveles, el estéreo de mi auto tiene 32 y el estéreo de un amigo tiene 62.