Lectura de la mente:
Bueno, no tengo una referencia aquí sobre qué tipo de aplicación clasifica como creativa, sin embargo, pensé que tomaría una oportunidad para responder.
He tenido el honor de trabajar en el grupo del profesor Tom Mitchell en el departamento de aprendizaje automático de CMU. Aunque ha habido muchos otros estudiantes que han trabajado mucho más en esto, no sabía cuántos de ellos estaban activos en Quora. Entonces aquí va:
- Durante la investigación, ¿cómo le ayudó el conocimiento de otros campos a mejorar en su propio campo?
- ¿Cuántas computadoras diferentes de las grandes empresas tienen el mismo diseño de CPU?
- ¿Por qué la mayoría de las universidades de informática no están al día con las tendencias de la industria?
- ¿Cuándo serán las computadoras tan rápidas que no habrá carga?
- ¿Por qué las computadoras analógicas se volvieron obsoletas?
El Prof. Mitchell y su colaborador (Prof. Marcel Just) comenzaron este trabajo hace unos años. Entonces, como breve reseña, las imágenes cerebrales siempre han sido muy interesantes para la neurociencia. Con herramientas como fMRI, EEG, MEG, puede mirar directa o indirectamente la respuesta de los circuitos locales dentro del cerebro. A pesar de que cada método tiene sus propias desventajas con las que lidiar (MEG es la herramienta más reciente y actual), proporcionan una imagen aproximada de lo que está sucediendo en diferentes partes del cerebro cuando se proporcionan diferentes tipos de estímulos al sujeto (El chico del escáner). Entonces, durante mucho tiempo, los neurocientíficos simplemente tuvieron que usar sus propias cabezas para averiguar mirando toneladas de datos, qué partes del cerebro estaban realmente involucradas o mostraban correlación (está más relacionada) con un estímulo. Esto condujo al desarrollo de muchas teorías de procesamiento visual, del lenguaje, de tareas cognitivas, entre otros dominios basados en datos de EEG, fMRI de lectura humana. No me malinterpreten, las herramientas de visualización y procesamiento de datos fMRI, EEG se han desarrollado bastante bien para hacer frente al aluvión de datos de neuroimagen. Sin embargo, la conclusión es que es un problema de comprender qué partes del cerebro o qué circuitos neuronales locales (estos métodos no pueden observar células individuales) están más correlacionados con los estímulos de entrada. Aunque el procesamiento manual y la visualización de datos se consideran efectivos (era la única forma hasta hace poco), es algo difícil saber qué parte de la actividad cerebral parece ayudar a explicar los estímulos. Un tipo que está interesado en el aprendizaje automático ahora comenzaría a ver hacia dónde se dirigían.
Entonces, finalmente en la aplicación real, el grupo del profesor Mitchell utilizó el aprendizaje automático para aprender las respuestas cerebrales para un conjunto de imágenes de dichos animales y herramientas. Le mostraron al sujeto (otra vez en el escáner) una secuencia de imágenes simples de animales y otro conjunto de imágenes de herramientas y les pidieron que las clasificaran (presione un botón si ven un animal y otro si ven una herramienta). Utilizaron el aprendizaje automático para aprender qué tipo de actividad cerebral se ve cuando el sujeto ve un animal o una herramienta. Además, las técnicas de aprendizaje automático (regresión logística regularizada L2 para entusiastas de ML) nos permiten aprender la diferencia entre la actividad cerebral generada debido a las imágenes de animales versus las imágenes de herramientas.
Por lo tanto, en efecto, dada una imagen nueva o nueva de cualquier animal o cualquier herramienta, no solo puede predecir qué tipo de imagen está viendo la persona (animal, herramienta o cualquier otro tipo), sino que también puede predecir su actividad cerebral (usaron regresión lineal para predecir la actividad cerebral) o, para decirlo de manera muy concisa, puede leer sus mentes hasta cierto punto. Además, lo que encontraron fue sorprendente, realizaron estos experimentos con muchas personas y descubrieron que la representación cerebral de diferentes conceptos (por ejemplo, animales y herramientas) en diferentes personas es más o menos muy similar. Por lo tanto, dada la experiencia muy diferente de una persona en el transcurso de su vida, él / ella aprende representaciones muy similares en sus cabezas. Piense en todas las preguntas que plantea este hallazgo (qué pasa con el lenguaje y la representación de cosas en diferentes idiomas, qué pasa con aprender a diferenciar entre conceptos más abstractos como cálculo vs álgebra, o investigue la representación de otros conceptos abstractos en mente como Dios, etc. ) Sé que me estoy adelantando aquí, pero la conclusión es que el aprendizaje automático en esta área no solo nos ha permitido verificar nuestras teorías anteriores de neurociencia, sino que también ha llevado a nuevos descubrimientos que habrían sido muy difíciles sin la intervención de la máquina.
Algunos recursos:
Página sobre Cmu
Otros documentos en la siguiente página son igualmente informativos sobre este trabajo:
Publicaciones seleccionadas por Tom Mitchell