Un área de estudio en neurociencia moderna es el Connectome. Sabemos cómo se comportan las neuronas individualmente, pero aún estamos aprendiendo cómo se conectan en agregados de decenas de miles de millones.
Mapear estas conexiones con alta resolución implica cortar rebanadas del cerebro de 30 nanómetros de espesor y tomarles fotos. Hacer eso una vez, te da algo como esto:
- ¿Herman Cain entiende conceptos como la abstracción, el almacenamiento en caché, etc. ya que tiene un título en informática?
- ¿Qué es 'nulo'?
- ¿Por qué el problema abierto de P vs PSPACE no es tan importante como P vs NP dado que NP está contenido en PSPACE?
- ¿Qué algoritmo de agrupamiento es capaz de satisfacer las 3 V de Big Data?
- ¿Cómo funciona la RAM en un sistema informático?
Una sección transversal bidimensional de tejido neuronal no le dice nada sobre la conectividad. Necesitaría compilar un millón de tales imágenes para obtener solo una pulgada del conectoma mapeado en tres dimensiones. Eso significaría pasar minuciosamente de un lado a otro de las diapositivas para rastrear cómo cada axón y dendrita ha cambiado en más de 30 nanómetros. No tenemos tiempo para eso.
Así que entrenamos software de reconocimiento de imágenes para seguir las innumerables estructuras entrelazadas. Compila los datos y los traza en un modelo 3D codificado por colores para nosotros.
El cerebro es complejo; modelarlo requerirá muchos, muchos terabytes de datos. No es práctico procesar tales volúmenes nosotros mismos, por lo que los algoritmos de aprendizaje automático diseñados para este propósito serán fundamentales en el desarrollo de modelos del cerebro.