Las mediciones y los estados podrían ser vectores, en cuyo caso la ganancia de Kalman es una matriz de ganancia de cada medición a cada estimación de estado. Es más fácil entender el significado de la ganancia de Kalman en el caso escalar y generalizar desde allí:
x [n + 1] = x [n + 1 | n] + K * (y [n + 1] – H * x [n + 1 | n])
En palabras, la estimación del estado después de la medición es la predicción del último estado (propagado por el modelo, por ejemplo, con la última velocidad estimada) más la ganancia de Kalman (K) multiplicada por la innovación. La innovación es la diferencia entre la medición y [n + 1] y dónde esperábamos encontrar la medición: el último estado propagado pasado a través de la matriz modelo H (recuerde: y = Hx).
- ¿Por qué sigo fallando la introducción a los algoritmos en la escuela de posgrado?
- ¿Qué es el retroceso en algoritmos?
- ¿Aprender la construcción del compilador mejora la habilidad / visión de resolución de problemas de programación? ¿Si es así, cómo? ¿O por qué no?
- ¿Cuáles son los usos prácticos de 2-3 árboles o árboles rojo-negros?
- ¿Cuáles son los trabajos orientados a la lógica pura para los programadores?
Si la ganancia es cero, el siguiente estado es solo el último estado propagado – x [n + 1 | n]
Si la ganancia es H ^ -1 (H es escalar h en este caso), el siguiente estado es la medición, transformada del modelo – y [n + 1] / h.
Si existe una alta confianza en la medición en relación con la covarianza del estado propagado, la ganancia será alta, de lo contrario sería baja. Por lo tanto, a medida que el filtro converge, las ganancias se hacen más pequeñas, en un estado estable que está determinado por la matriz de ruido de propagación (Q) y la covarianza de medición (R).