Hay varias formas de obtener la ecuación de ganancia de Kalman unidimensional. Presentaré la más simple.
Dada la medida \( z_{n} \) y la estimación previa \( \hat{x}_{n,n-1} \), nos interesa encontrar una estimación combinada óptima \( \hat{x}_{n,n} \) basada en la medición y la estimación previa.
La estimación combinada óptima es en realidad una media ponderada de la estimación previa y la medición:
\[ \hat{x}_{n,n} = k_{1}z_{n} + k_{2}\hat{x}_{n,n-1} \]
Donde \( k_{1} \) y \( k_{2} \) son las ponderaciones de la medición y del estado previo estimado.
\[ k_{1} + k_{2} = 1 \]
\[ \hat{x}_{n,n} = k_{1}z_{n} + (1 - k_{1})\hat{x}_{n,n-1} \]
La relación entre varianzas está dada por:
\[ p_{n,n} = k_{1}^{2}r_{n} + (1 - k_{1})^{2}p_{n,n-1} \]
donde:
\( p_{n,n} \) es la varianza de la estimación combinada óptima \( \hat{x}_{n,n} \)
\( p_{n,n-1} \) es la varianza del estado previo estimado \( \hat{x}_{n,n} \)
\( r_{n} \) es la varianza de la medición \( z_{n} \)
Como estamos buscando una estimación óptima estamos interesados en minimizar \( p_{n,n} \).
Para encontrar el \( k_{1} \) que minimiza \( p_{n,n} \), derivamos \( p_{n,n} \) con respecto a \( k_{1} \) e igualamos a cero.
\[ \frac{dp_{n,n}}{dk_{1}} = 2k_{1}r_{n} - 2(1 - k_{1})p_{n,n-1} \]
Por lo tanto
\[ k_{1}r_{n} = p_{n,n-1} - k_{1}p_{n,n-1} \]
\[ k_{1}p_{n,n-1} + k_{1}r_{n} = p_{n,n-1} \]
\[ k_{1} = \frac{p_{n,n-1}}{p_{n,n-1} + r_{n}} \]
Hemos obtenido la ganancia de Kalman!
Dado que la ganancia de Kalman produce la estimación de varianza mínima, el filtro de Kalman también se denomina filtro óptimo.