Deep Learning se implementa principalmente en big data. ¿Qué piensa sobre usarlo en datos con muestras limitadas pero de altas dimensiones como fMRI?

El aprendizaje profundo se trata fundamentalmente de aprender automáticamente las características de los datos sin procesar, en una configuración donde se supone que los datos sin procesar son bastante ruidosos y altamente desestructurados. El aprendizaje automático superficial era como alimentar pepitas de oro impuro en una máquina y extraer oro puro, pero el aprendizaje profundo es más como alimentar tierra cruda en la máquina y extraer oro puro. Necesitarás mucha tierra cruda para hacerlo viable; necesitará una gran cantidad de datos para que sus redes profundas puedan determinar automáticamente la señal del ruido. Esto es especialmente cierto para los datos de alta dimensión: cuanto mayor sea la dimensionalidad intrínseca de sus datos, más ejemplos necesitará para muestrear el colector de datos, lo que generalmente es necesario para aprender buenas características.

Hay algunos casos en los que es posible aprender de “unas pocas” muestras, pero depende en gran medida de la naturaleza del problema y su definición de “pocas”. Por ejemplo, es fácil entrenar clasificadores de imágenes en unos pocos miles o incluso cientos de muestras, lo cual se logra mejor ajustando una red que previamente fue entrenada en un gran conjunto de datos de imágenes similares [1]. En el caso de los datos de fMRI, no me parece descabellado probar técnicas de aprendizaje profundo. Pero ciertamente no soy un experto en fMRI.

[1] Construyendo poderosos modelos de clasificación de imágenes usando muy pocos datos