Explicaré el qué / cómo y luego explicaré el por qué / los beneficios a continuación.
¿El qué / cómo?
- ¿Qué tan buena será una carrera en IA / aprendizaje automático en el futuro?
- ¿Qué es la regularización de Tikhonov en términos simples?
- Quiero hacer aplicaciones de visión por computadora. ¿Dónde empiezo?
- ¿Debo obtener una MacBook Pro con 16 GB de RAM (máximo) para el trabajo de aprendizaje automático, a pesar de que puedo llevar cosas intensas a una instancia de Google Cloud?
- ¿La variable de tiempo muestra una conexión recurrente en RNN?
El aprendizaje múltiple, anotado como [matemáticas] \ phi \ big (x, \ theta \ big) ^ {\ top} w [/ matemáticas] (Bengio et al), permite que se aprendan “factores de variación”.
Los colectores están en el régimen de algoritmos muy generales, que permiten a los modelos aprender muchos grados de libertad en el espacio latente (es decir, posición, escala, etc., donde dichos grados son observables como características de interacciones físicas ) donde las transformaciones en puntos pueden representar, por ejemplo, las características de un objeto particular en el espacio de píxeles, y las transformaciones en dichos puntos o pesos de un objeto son desenredables o separables de las pertenecientes a otros objetos en el espacio latente. (Aprendiz de concepto visual temprano, redes de expresividad de teoría de campo media, etc.)
(Vea la fuente del fragmento aquí)
El por qué / beneficios: ¿comparación con trabajos anteriores?
Por ejemplo, debido a que el aprendizaje múltiple puede desenredar las características de un objeto de otro en un “espacio latente”, podemos entrenar tales modelos múltiples para aprender de maneras que obtengan beneficios de trabajos previamente algo separados.
Tenga en cuenta que es importante construir nuestros algoritmos de aprendizaje teniendo en cuenta las restricciones biológicas , especialmente en los objetivos de hacer más y más algoritmos generales y, finalmente, la inteligencia general artificial.
Con lo anterior en mente, vemos que los cerebros biológicos aprenden “leyes de la física”, y también aprenden mediante el aprendizaje por refuerzo.
Sin embargo, se utilizan tipos separados de modelos para lograr las cosas anteriores ; métodos de agrupación como “uetorch” para aprender los ” antecedentes físicos ” mencionados anteriormente, y métodos de no agrupación como “atari q player” para aprender por refuerzo.
Entonces, obtienes lo ” mejor de ambos mundos” , es decir, para beneficiarse tanto de las cosas importantes que se agrupan, como de las cosas importantes que no se agrupan, podemos usar múltiples redes, donde las transformaciones en nuestras representaciones aprendidas pueden variar con algunas características, siendo invariable para los demás!
Deepmind ha demostrado recientemente que mejora algo importante llamado aprendizaje de transferencia , al usar estas múltiples redes para aprender factores de variación, junto con las características aprendidas de la física de los objetos en el espacio latente:
Aprendizaje visual temprano del concepto con aprendizaje profundo no supervisado
El aprendizaje por transferencia se ve notablemente en la inteligencia biológica general.