La estadística, la base de las técnicas actuales de aprendizaje automático, es una herramienta crucial en el análisis de datos EEG. Cualquier tipo de análisis de datos de EEG debe ser impulsado en parte por el experimento que se realizó para recopilarlo. Parte de esto se debe a que los experimentos nunca se realizan exactamente de la misma manera, por lo que siempre es importante saber exactamente lo que sucedió y dejar que eso conduzca a sus hipótesis.
Dicho esto, aquí hay algunos métodos utilizados:
- Modelos lineales generalizados (aquí hay un documento que los implementa: Página en fisiología.org) para determinar la importancia de los datos particulares del espectro de potencia para la memoria
- Modelos bayesianos jerárquicos: para vincular la idea de acumulación de evidencia con datos del espectro de potencia EEG (las diferencias individuales en la atención influyen en la toma de decisiones perceptivas)
- Medidas teóricas de información aplicadas con modelos de autorregresión para comprender la conciencia: causalidad de Granger
- He visto SVM utilizados cuando la tarea es una opción forzada de 2 alternativas como medida de clasificación.
Sin embargo, estos conceptos se aplican más en el análisis de datos EEG vinculados a la comprensión del cerebro. El otro paradigma de las interfaces cerebro-computadora utiliza el aprendizaje automático para tratar de predecir qué acción se debe tomar. En ese caso, se utilizan muchos métodos de clasificación, y el que se usa parece ser una función de los objetivos del proyecto y los datos particulares que se utilizan (ERP vs Temporal vs datos de frecuencia).
- ¿Cómo determina Quora a quién poner en mi sección "mejorar su alimentación"?
- Cómo optimizar las consultas SPARQL
- ¿Es Theano (biblioteca de Python ML) una buena biblioteca si quiero crear una aplicación comercial?
- ¿Tiene sentido usar la selección de características antes de Random Forest?
- ¿En qué se diferencia el aprendizaje automático de la minería de datos?