Herleitung des eindimensionalen Kalman-Gains (One-dimensional Kalman Gain Derivation)
Es gibt mehrere Möglichkeiten, die Gleichung für den eindimensionalen Kalman-Gain herzuleiten. Ich stelle hier die einfachste vor.
Gegeben seien die Messung \( z_{n} \) und die a-priori-Schätzung (prior estimate) \( \hat{x}_{n,n-1} \). Wir wollen eine optimale kombinierte Schätzung (optimum combined estimate) \( \hat{x}_{n,n} \) finden, die auf Messung und a-priori-Schätzung basiert.
Die optimale kombinierte Schätzung ist ein gewichteter Mittelwert aus a-priori-Schätzung und Messung:
\[ \hat{x}_{n,n} = w_{1}z_{n} + w_{2}\hat{x}_{n,n-1} \]
Wobei \( w_{1} \) und \( w_{2} \) die Gewichte der Messung bzw. der a-priori-Schätzung sind.
\[ w_{1} + w_{2} = 1 \]
\[ \hat{x}_{n,n} = w_{1}z_{n} + (1 - w_{1})\hat{x}_{n,n-1} \]
Der Zusammenhang zwischen den Varianzen (variances) lautet:
\[ p_{n,n} = w_{1}^{2}r_{n} + (1 - w_{1})^{2}p_{n,n-1} \]
Wobei:
\( p_{n,n} \) ist die Varianz (variance) der optimalen kombinierten Schätzung \( \hat{x}_{n,n} \)
\( p_{n,n-1} \) ist die Varianz der a-priori-Schätzung \( \hat{x}_{n,n-1} \)
\( r_{n} \) ist die Varianz der Messung \( z_{n} \)
Da wir eine optimale Schätzung (optimum estimate) suchen, wollen wir \( p_{n,n} \) minimieren.
Um \( w_{1} \) zu finden, das \( p_{n,n} \) minimiert, differenzieren wir \( p_{n,n} \) nach \( w_{1} \) und setzen das Ergebnis gleich Null.
\[ \frac{dp_{n,n}}{dw_{1}} = 2w_{1}r_{n} - 2(1 - w_{1})p_{n,n-1} \]
Damit folgt
\[ w_{1}r_{n} = p_{n,n-1} - w_{1}p_{n,n-1} \]
\[ w_{1}p_{n,n-1} + w_{1}r_{n} = p_{n,n-1} \]
\[ w_{1} = \frac{p_{n,n-1}}{p_{n,n-1} + r_{n}} \]
Damit haben wir den Kalman-Gain hergeleitet!
Da der Kalman-Gain die Schätzung mit minimaler Varianz liefert, wird der Kalman-Filter auch als optimaler Filter (optimal filter) bezeichnet.