El aprendizaje profundo se trata realmente de aprender representaciones, lo que significa aprender conceptos intermedios, características o variables latentes que son útiles para capturar las dependencias estadísticas que nos interesan. Estas dependencias son las variables de entrada a las variables de salida, en el aprendizaje supervisado, o entre cualquier subconjunto de variables, en el aprendizaje no supervisado. A menudo, el aprendizaje supervisado se usa para enseñarle a la computadora sobre conceptos intermedios (como categorías) que son importantes para resolver una tarea particular de interés. Sin embargo, vemos que nuestras redes profundas supervisadas descubren conceptos intermedios significativos en sus capas. El aprendizaje no supervisado es similar, excepto que le pedimos al modelo que capture todas las dependencias posibles entre todas las variables observadas, sin distinción entre entradas y salidas. Para ascender en la escalera de la IA con aprendizaje supervisado puede requerir “enseñar” a la computadora todos los conceptos que nos importan al mostrar toneladas de ejemplos donde ocurren estos conceptos. Así no es como aprenden los humanos: sí, gracias al lenguaje obtenemos algunos ejemplos que ilustran nuevos conceptos nombrados que se nos dan, pero la mayor parte de lo que observamos no viene etiquetado, al menos inicialmente. Los niños no tienen adultos que les digan qué representa cada píxel en cada imagen que ven, o cuáles son los objetos presentes en cada imagen, cuál es la estructura gramatical y el sentido preciso de cada palabra en cada oración que escuchan. Extraemos la mayor parte de la información de la simple observación (posiblemente a través de un ciclo de acción-percepción) y eso es lo que en principio hace el aprendizaje no supervisado. La esperanza es que el aprendizaje profundo no supervisado pueda descubrir (posiblemente con un poco de ayuda de los pocos ejemplos etiquetados que podemos proporcionar) todos los conceptos y las causas subyacentes que importan (algunos están explícitamente etiquetados, otros permanecen sin nombre) para explicar Lo que vemos a nuestro alrededor. Por lo tanto, creo que es esencial para acercarse a la IA avanzar en esta dirección. Y nosotros somos 😉
Si lo piensas bien, los científicos están aprendiendo sin supervisión: observando el mundo, elaborando modelos explicativos, probándolos mediante la recopilación de más observaciones (dirigidas, aunque), y tratando continuamente de mejorar nuestro modelo causal de cómo funciona el mundo que nos rodea. Sin embargo, sí recibimos un arranque de la educación, por lo que pueden ser necesarias ideas como el aprendizaje curricular (como vemos en algunas tareas de aprendizaje automático).
- ¿Alguna forma de dormir será esencial en la IA (inteligencia artificial)?
- ¿Hay algún resumen de las mejores modelos para el premio de Netflix? ¿Cuáles son las ideas de alto nivel e intuitivas detrás de los modelos ganadores que finalmente fueron utilizados en el aprendizaje conjunto por los mejores equipos?
- ¿Son el aprendizaje automático / aprendizaje profundo / ciencia de datos, realmente ciencia espacial para que un tipo promedio entienda e implemente?
- Cómo comenzar a aprender y codificar Inteligencia Artificial
- ¿Cuál es la mejor manera de aprender a usar LDA (asignación de dirichlet latente) con Python?