consulte las redes neuronales convolucionales CS231n para el reconocimiento visual
“Pesos compartidos” es simple: use el mismo vector de peso para hacer la “convolución” (que es esencialmente producto interno de dos vectores).
- ¿Qué tipo de estructuras de datos podrían usarse en un proyecto de procesamiento de lenguaje natural?
- Con suficiente capacitación, ¿puede el aprendizaje automático escribir una buena historia para un programa de televisión?
- ¿El aprendizaje automático es un tema torpe?
- ¿El aprendizaje automático permitirá a Google detectar contenido falso?
- ¿Dónde puedo encontrar modelos de TensorFlow previamente entrenados como el zoológico modelo Caffe?
Ejemplo (consulte la imagen de arriba):
- la capa de entrada es [matemáticas] x = [x_1 \ x_2 \ x_3 \ x_4 \ x_5 \ x_6 \ x_7] [/ matemáticas]
- la capa oculta es [matemática] h = [h_1 \ h_2 \ h_3] [/ matemática]
- el vector de peso es [math] w = [w_1 \ w_2 \ w_3] [/ math] = [ 1 0 -1] que es utilizado por todos (es decir, compartido por) el cálculo de [math] h_1, h_2, h_3: [ /mates]
[matemáticas] h_1 = w \ cdot x [1: 3] [/ matemáticas]
[matemáticas] h_2 = w \ cdot x [3: 5] [/ matemáticas]
[matemáticas] h_3 = w \ cdot x [5: 7] [/ matemáticas]
Por favor, compruebe también esta excelente animación: demostración de convolución
que es “convolución” y “pesos compartidos” entre la matriz :
consulte las redes neuronales convolucionales CS231n para el reconocimiento visual