¿Cómo se usa el aprendizaje automático para los datos de EEG?

La estadística, la base de las técnicas actuales de aprendizaje automático, es una herramienta crucial en el análisis de datos EEG. Cualquier tipo de análisis de datos de EEG debe ser impulsado en parte por el experimento que se realizó para recopilarlo. Parte de esto se debe a que los experimentos nunca se realizan exactamente de la misma manera, por lo que siempre es importante saber exactamente lo que sucedió y dejar que eso conduzca a sus hipótesis.

Dicho esto, aquí hay algunos métodos utilizados:

  • Modelos lineales generalizados (aquí hay un documento que los implementa: Página en fisiología.org) para determinar la importancia de los datos particulares del espectro de potencia para la memoria
  • Modelos bayesianos jerárquicos: para vincular la idea de acumulación de evidencia con datos del espectro de potencia EEG (las diferencias individuales en la atención influyen en la toma de decisiones perceptivas)
  • Medidas teóricas de información aplicadas con modelos de autorregresión para comprender la conciencia: causalidad de Granger
  • He visto SVM utilizados cuando la tarea es una opción forzada de 2 alternativas como medida de clasificación.

Sin embargo, estos conceptos se aplican más en el análisis de datos EEG vinculados a la comprensión del cerebro. El otro paradigma de las interfaces cerebro-computadora utiliza el aprendizaje automático para tratar de predecir qué acción se debe tomar. En ese caso, se utilizan muchos métodos de clasificación, y el que se usa parece ser una función de los objetivos del proyecto y los datos particulares que se utilizan (ERP vs Temporal vs datos de frecuencia).

Mi opinión es que depende del objetivo del estudio. Hay algunos ejemplos en los que los algoritmos de aprendizaje automático pueden desempeñar un papel importante.

1. Preprocesamiento de datos EEG: eliminación de artefactos. En este paso, el análisis de componentes independientes (ICA) se usa con frecuencia para identificar la contribución del artefacto, por ejemplo, parpadeos y movimiento ocular, que pueden tener una gran contribución a la señal medida pero que no son relevantes para la actividad cerebral. Hay otros algoritmos de separación de fuente ciega que tienen funcionalidades similares.


2. caracterizar la conectividad entre canales. Modelos gráficos, modelos bayesianos jerárquicos, modelos de efectos mixtos.

3. estimar la fuente: dado que el EEG no es una medición directa de la actividad cerebral (no es fácil colocar los electrodos dentro de la cabeza del sujeto), por lo tanto, es de gran interés reconstruir la fuente que ha generado la señal observada. Algunos enfoques: métodos de imágenes, ajuste dipolar … Implica la optimización, la reducción de la dimensionalidad, la computación numérica (calcule un modelo de cabeza discreto a partir de la imagen de MRI)

4. extracción de características.

5. predicción. por ejemplo, el inicio de las convulsiones

5. interacción humano-computadora usando EEG

..


More Interesting

¿Cuáles son las aplicaciones del error cuadrático medio?

¿Qué ha causado la gran mejora en los algoritmos de reconocimiento de voz en los últimos años: mejores algoritmos (si es así, ¿cuál?) O la mayor potencia informática?

¿Cuáles son algunos trabajos de investigación recientes sobre detección de anomalías?

¿Cuáles son algunas razones por las que algunas personas prefieren R y Matlab a Python para el aprendizaje automático?

¿Es posible que una computadora aprenda a distinguir gatos de perros de solo un conjunto de imágenes sin que le digamos qué imágenes son gatos y cuáles son perros, o incluso si hay cosas como gatos y perros, y si es así, cómo es exactamente esto? ¿hecho?

¿Cómo utilizan las empresas los algoritmos de IA en aplicaciones prácticas?

¿Qué consejo le darías a un principiante para aprender el aprendizaje automático solo?

¿Cuáles son las consecuencias de usar la función de error del tren [matemáticas] \ min_ {f \ in \ mathcal {H}} \ max_ {i \ in \ {1… N \}} \ | f (x ^ {(i)}) - y ^ {(i)} \ | ^ 2 [/ math] en lugar del error de tren medio empírico estándar para Machine Learning?

¿Es el sesgo entre las mejores universidades frente a otras universidades en los Estados Unidos tan malo como el sesgo de IIT frente al resto de la India?

¿Cuáles son los efectos de una estimación de densidad de kernel en los momentos de una distribución?

Al aplicar redes neuronales para la clasificación binaria, ¿hay algún beneficio para el conjunto de entrenamiento que tiene un número igual de 0 y 1?

¿Podría el aprendizaje automático haber evitado la crisis financiera?

¿Cuáles son las cosas más difíciles o problemáticas para los ingenieros de Machine Learning / Deep Learning?

Podría ser el primer experto en aprendizaje automático en una empresa como consultor o a tiempo completo. En cualquier caso, ¿cuál debería ser mi tasa?

¿Qué es la estimación de contraste de ruido (NCE)?