Como mencionó en su pregunta, puede usar la misma ecuación para obtener [math] \ hat {x} [/ math], usando las estadísticas de población (media y varianza calculadas sobre todo el conjunto de entrenamiento). Luego calcula [math] y = \ gamma \ hat {x} + \ beta [/ math]
La segunda ecuación en su pregunta es una forma equivalente de obtener [matemática] y [/ matemática], pero se ha ampliado para que la inferencia use menos operaciones. (por cierto, tenga en cuenta que tiene un error tipográfico / error en su segunda ecuación; debe usar [math] x [/ math], no [math] \ hat {x} [/ math]).
Es decir, en lugar de realizar primero una suma y una división para calcular [matemática] \ hat {x} [/ matemática] y otra multiplicación y suma para calcular [matemática] y [/ matemática], puede calcular [matemática] y [ / matemáticas] con una sola multiplicación y una suma en el momento del examen.
- ¿Puede el preprocesamiento de datos en redes neuronales de IA (aprendizaje profundo) ser dinámico y automatizado (en lugar de estático y manual)?
- Cómo aplicar mis conocimientos de aprendizaje automático para invertir en el mercado de valores indio
- Con la introducción de la inteligencia artificial, ¿podrán las computadoras tener un alto coeficiente intelectual?
- ¿Es razonable excluir valores atípicos en su conjunto de datos de entrenamiento para su clasificador?
- ¿Cuál es el mejor algoritmo para descubrir características bien correlacionadas?
[matemáticas] y ^ {(k)} = \ frac {\ gamma ^ {(k)}} {\ sqrt {Var [x] + \ epsilon}} x ^ {(k)} + \ left (\ beta ^ {(k)} – \ frac {\ gamma ^ {(k)} E [x]} {\ sqrt {Var [x] + \ epsilon}} \ right) [/ math]
Dado que [math] \ frac {\ gamma ^ {(k)}} {\ sqrt {Var [x] + \ epsilon}} [/ math] y [math] \ left (\ beta ^ {(k)} – \ frac {\ gamma ^ {(k)} E [x]} {\ sqrt {Var [x] + \ epsilon}} \ right) [/ math] no dependen de la entrada y, por lo tanto, pueden calcularse previamente.