Es relativamente fácil si sus datos son visuales como lo son, por ejemplo, en el reconocimiento de imágenes. Una capa de perceptrón estándar totalmente conectada representa para cada nodo un producto de punto con los pesos. Si, en una escala de grises, visualiza estos pesos, puede ver qué tipo de “filtro” aprendió este nodo en particular. Eso se hace muy fácilmente ya que toda la información está presente dentro de la matriz de peso. Si entrena un sistema para el reconocimiento de imágenes, encontrará que dentro de la primera capa, que generalmente aprende características de bajo nivel como barras y esquinas, muchos nodos aprendieron filtros similares, por ejemplo, un filtro de barra en la esquina superior derecha y una barra en la esquina inferior izquierda Es fácil ver a partir de estos resultados que sería más eficiente entrenar un filtro que se utiliza en toda la imagen. Esto introduce la idea de una capa convolucional donde la red aprende un filtro con el cual la imagen se enreda, es decir, el filtro se mueve sobre toda la imagen. Además, siempre puede tomar una imagen y ver cuál es el resultado de una determinada capa para ver qué le hace esta capa a la imagen.
La visualización es mucho más difícil de hacer en otras áreas del aprendizaje profundo.
¿Cómo se puede visualizar el aprendizaje profundo y, por lo tanto, convertir las capas y los pesos ocultos en algo comprensible para un laico sin mucho trabajo?
Related Content
Cómo analizar páginas web a través de enlaces de Twitter
¿Qué formación matemática se necesita para aprender Deep Learning?
¿Puede cualquier máquina interpretar y actuar sobre las respuestas que da Watson en lenguaje humano?
No sé si esto ayudará en su caso o no, pero la analogía más útil que he usado al hablar con otros es el concepto de traductores de idiomas.
Esencialmente, las capas ocultas son solo representaciones diferentes de lo que sea que se alimente de ellas. Los pesos traducen sus aportes a una nueva forma.
Entonces puedes usar idiomas como ejemplo. Solo di que por alguna razón algo es más fácil de aclarar en japonés que en inglés. Entonces, simplemente describe una red de varias capas como un convertidor que comienza con inglés (capa de entrada), lo convierte a alemán (primera capa oculta), luego de alemán a chino (segunda capa oculta) y finalmente de chino a japonés en el capa superior (salida).
Los traductores reales (convertidores) son los pesos.
Es rápido dibujar un diagrama, y de esta manera es bastante fácil para la mayoría de nosotros comprender rápidamente el concepto de representaciones alternativas y que el contenido en ambos extremos de la red debería ser lo mismo … En este caso, la descripción japonesa hace alguien tiene mejor sentido que el inglés y es por eso que esta red profunda tiene un gran valor.
Espero que esto ayude.
No tengo claro si el “sin mucho trabajo” está de su parte, al explicarlo, o la parte de los laicos, al aprenderlo.
Las cosas difíciles son difíciles; puedes simplificarlos pero inevitablemente pierdes algo importante. Si quieres que alguien entienda un tema difícil, alguien tendrá que trabajar un poco. O no sería un tema difícil.
More Interesting
¿Qué tan importante fue el Premio Netflix para el área de Sistemas de recomendación?
¿Qué es el Tanimoto Score y cuándo se usa?
¿Qué es el análisis de componentes principales en términos de super laicos?
¿Debo aprender modelado e iluminación después de dominar el modelado en Blender?
¿Por qué la supercomputación no se utilizó con éxito para Deep Learning anteriormente?
¿Cuáles son los mejores algoritmos para el conjunto de datos de preservación de la privacidad?