En sus primeras capas, las redes neuronales convolucionales tienen ‘filtros’. La entrada es una imagen de cuadrícula de tamaño ansnx 3 (profundidad tres para RGB) (al menos en el caso de clasificación de imagen). Entonces, la red convolucional tiene un filtro que podría ser, digamos 5 x 5 x 3. Este filtro es multiplicado por elementos por una pieza de 5 x 5 x 3 de la entrada, luego se suman los resultados. Esto crea un elemento de salida.
Luego, el filtro se desliza (o convoluciona), por lo que ahora se multiplica por una sección diferente de la entrada, pero el filtro todavía tiene los mismos pesos. Esto crea otro elemento de salida.
De ahí los pesos compartidos. Cada filtro se desliza a lo largo de la imagen y se aplica a diferentes partes de la imagen. Los valores de la imagen cambian de una ubicación a otra, pero los pesos del filtro (es decir, los números por los que se multiplica la pieza de la imagen) permanecen iguales. Por lo tanto, muchos de los elementos de salida son producidos por los mismos pesos de filtro, de ahí el término ‘pesos compartidos’.
- ¿Cuál es la diferencia entre lógica difusa y aprendizaje automático?
- ¿Qué es una explicación intuitiva de DBSCAN?
- ¿Cuál es un ejemplo numérico para el algoritmo de análisis de componentes principales (PCA)?
- ¿Cómo se ha desviado Grok Solutions de la visión de Numenta?
- ¿Qué es la discretización de características?