Inteligencia artificial: ¿Qué significa utilizar ‘métodos de aprendizaje métrico además del aprendizaje profundo’?

Para comprender esto, necesita saber qué son el aprendizaje métrico y el aprendizaje profundo. Haré todo lo posible para dar una breve descripción de ambos.

El aprendizaje métrico es un área de aprendizaje automático relacionada con el aprendizaje de funciones de distancia a partir de datos. Estas funciones de distancia actúan como una medida de similitud entre dos objetos. Los tipos de objetos que se comparan difieren según la función utilizada. Un ejemplo simple es la distancia euclidiana, que compara dos puntos en el espacio euclidiano. Otra métrica popular en el aprendizaje automático es la distancia de Mahalanobis, que mide la distancia entre un punto de datos y una distribución de probabilidad.

El aprendizaje profundo, por otro lado, trata de aprender la estructura de redes neuronales o modelos gráficos probabilísticos que tienen más de 3 capas latentes. Las capas latentes son simplemente colecciones de variables latentes en el mismo nivel jerárquico de la red. Las variables latentes son unidades computacionales en el caso de redes neuronales o distribuciones de probabilidad en el caso de modelos gráficos probabilísticos. Los modelos de aprendizaje profundo a menudo se usan cuando las “ideas” en los datos son complejas y altamente no lineales.

Al poner los dos juntos, es fácil ver qué significa “métodos de aprendizaje métrico además del aprendizaje profundo”. En este caso, uno o más modelos de aprendizaje profundo se entrenan en función de algún conjunto de datos de entrada. Digamos que los datos son un conjunto de imágenes. Dado el tiempo suficiente (y suponiendo el uso adecuado de la invariancia de escala, pre-entrenamiento no supervisado, unidades lineales rectificadas, etc., etc.) el modelo profundo debería producir una salida que represente las relaciones en los datos. Después de que los modelos estén entrenados, podemos usar alguna forma de aprendizaje métrico. Luego se puede aprender un conjunto de funciones de distancia por pares entre dos objetos deseados. En este escenario particular, podría haber una serie de objetos que desea comparar. Si el modelo es un modelo gráfico probabilístico, podría comparar los datos de entrada con la distribución que representa una variable latente particular. Otra posibilidad en los modelos gráficos probabilísticos es comparar las distribuciones de variables latentes utilizando la métrica de información de Fisher. Si se capacitó a más de un modelo, podría haber una comparación en todo el modelo (que hasta cierto punto se realizó recientemente en este documento: Página en cv-foundation.org). Y la lista continúa sobre qué otras cosas útiles se pueden hacer. Apenas comencé a arañar la superficie con mi explicación, pero espero que aclare un poco las cosas.

Kyle Reing explicó bellamente la respuesta.
Para aprender la similitud no vecina, el aprendizaje profundo trae cosas similares en el vecindario con múltiples capas de transformación no lineal y el aprendizaje métrico hace el resto.

Supongo que tiene algo que ver con un sistema variable versus sistemas de retroalimentación y recompensa en situaciones aleatorias.

Como comparar 1 + 1 = 2 con rojo, naranja, uva, azúcar, plástico = una bolsa de ositos de goma, entonces activemos estos guiones y hagamos estas tareas para darles resultados. ¿Tal vez?

Por lo general, los métodos de aprendizaje métrico profundo se construyen sobre las redes neuronales convolucionales de última generación.