“Esto es lo que Hastie et al. Tienen que decir al respecto (en el contexto de LDA de dos clases) en The Elements of Statistical Learning, sección 4.3:
Dado que esta derivación de la dirección LDA a través de mínimos cuadrados no utiliza una suposición gaussiana para las características, su aplicabilidad se extiende más allá del ámbito de los datos gaussianos. Sin embargo, la derivación de la intersección particular o punto de corte dado en (4.11) requiere datos gaussianos. Por lo tanto, tiene sentido elegir el punto de corte que minimiza empíricamente el error de entrenamiento para un conjunto de datos dado. Esto es algo que hemos encontrado que funciona bien en la práctica, pero no lo hemos visto mencionado en la literatura.
No entiendo completamente la derivación a través de los mínimos cuadrados a los que se refieren, pero en general creo que este párrafo tiene sentido: incluso si los datos son muy no gaussianos o las covarianzas de clase son muy diferentes, el eje LDA probablemente arrojará cierta discriminabilidad . Sin embargo, el punto de corte en este eje (que separa dos clases) dado por LDA puede estar completamente desactivado. Optimizarlo por separado puede mejorar sustancialmente la clasificación “.
- ¿Qué utiliza la aspiradora robótica como recompensa si utilizan el aprendizaje por refuerzo como algoritmo?
- ¿Es posible darle a una computadora millones de imágenes de varios objetos, y se da cuenta de que hay cosas como animales, platos de cocina, montañas, etc. sin que nosotros lo digamos, y cómo se hace esto exactamente?
- ¿Cuáles son algunas aplicaciones potenciales del seguimiento de objetos depredadores (nuevo algoritmo)?
- Procesamiento del lenguaje natural: ¿De qué maneras puedo probar el error de aplicar un modelo de tema a los tweets, dado que no hay un corpus conocido de etiquetas de temas?
- ¿Cómo funcionan los aceleradores de procesador?
Fuente:
Análisis discriminante lineal y datos distribuidos no normales