Es difícil estudiar el Aprendizaje Profundo sin verse atrapado por los paralelismos con la forma en que los humanos individuales piensan y la forma en que los grupos de humanos piensan colectivamente. De hecho, parece probable que el aprendizaje profundo tendrá profundos impactos en la filosofía, de manera similar a cómo la Revolución científica condujo a la Ilustración.
Las ideas clave que me han saltado son:
- La inteligencia es una propiedad de las redes, no de los objetos : cada neurona en una red neuronal es extremadamente simple, pero si las conecta de la manera correcta, la red puede ser extremadamente inteligente. Del mismo modo, lo que hace que la humanidad sea tan inteligente es la forma en que individuos relativamente poco inteligentes pueden conectarse en sociedades súper inteligentes.
- La comprensión es menos importante que la iteración y la medición : las redes neuronales generan modelos que son demasiado complejos para que podamos entenderlos. Sin embargo, eso está bien, siempre que tengamos métricas que nos digan cuán efectivos son en lo que sea que queramos que hagan, y siempre que tengamos formas de mejorar iterativamente su rendimiento con respecto a esa métrica. Del mismo modo, los humanos rara vez tienen una buena comprensión racional de cómo realmente resuelven problemas y aprenden mejor cuando tienen la oportunidad de practicar algo repetidamente y saber cuándo están mejorando.
- Para resolver problemas importantes, a menudo necesita obtener información al resolver otros problemas : al construir una red neuronal, es raro que tenga suficientes datos de entrenamiento para exactamente el problema que desea resolver. En cambio, a menudo necesita hacer aprendizaje de transferencia : capacite a una red separada para resolver un problema que tenga grandes cantidades de datos de capacitación y luego vea si la representación interna creada para resolver ese problema ayuda a resolver el problema original. Este es posiblemente el núcleo de gran parte de la educación y capacitación humana: resolver problemas artificiales que hacen que desarrolle las ideas subyacentes correctas que lo ayudan a resolver problemas reales.
- El ajuste excesivo de las métricas de objetivos es la raíz de todo mal: las redes neuronales no tienen un concepto de moralidad y, dado que son menos explicables que los modelos más simples, están menos limitadas por los principios morales de las personas que las crean. Por lo tanto, debe asegurarse de que su modelo no cumpla su objetivo haciendo algo inesperado y malvado, por ejemplo, optimizando la personalización de anuncios mostrando estafas a personas crédulos. Esto es similar al comportamiento humano donde la mayoría del mal no proviene de la malicia sino de perseguir una meta (por ejemplo, dinero) sin prestar atención a las consecuencias negativas.
Estoy seguro de que también hay muchas otras conexiones.
- ¿Qué cursos debo tomar para poder trabajar en el tipo de investigación realizada en el grupo de investigación de sistemas autoorganizados en Harvard?
- ¿Puede una IA de computadora vencer al mejor jugador humano de Clash Royale?
- ¿Cuáles son las tecnologías utilizadas detrás del chatbot de inteligencia artificial de Facebook?
- ¿Qué es el aprendizaje profundo? ¿Por qué es esta una tendencia creciente en el aprendizaje automático? ¿Por qué no usar SVM?
- ¿Qué sucede si utilizo una máquina de vectores de soporte en lugar de la función logística en una red neuronal profunda?
En general, creo que es interesante pensar en las redes neuronales artificiales como una oportunidad de aprendizaje de transferencia para comprender el pensamiento humano: las redes neuronales artificiales son más fáciles de estudiar que el pensamiento humano y es probable que las representaciones de pensamiento que creamos mientras las estudiamos nos ayuden a comprender el pensamiento. en términos más generales, incluso si el pensamiento humano y el pensamiento artificial no son del todo iguales.