Herleitung des eindimensionalen Kalman-Gains (One-dimensional Kalman Gain Derivation)

Es gibt mehrere Möglichkeiten, die Gleichung für den eindimensionalen Kalman-Gain herzuleiten. Ich stelle hier die einfachste vor.

Gegeben seien die Messung \( z_{n} \) und die a-priori-Schätzung (prior estimate) \( \hat{x}_{n,n-1} \). Wir wollen eine optimale kombinierte Schätzung (optimum combined estimate) \( \hat{x}_{n,n} \) finden, die auf Messung und a-priori-Schätzung basiert.

Die optimale kombinierte Schätzung ist ein gewichteter Mittelwert aus a-priori-Schätzung und Messung:

\[ \hat{x}_{n,n} = w_{1}z_{n} + w_{2}\hat{x}_{n,n-1} \]

Wobei \( w_{1} \) und \( w_{2} \) die Gewichte der Messung bzw. der a-priori-Schätzung sind.

\[ w_{1} + w_{2} = 1 \]

\[ \hat{x}_{n,n} = w_{1}z_{n} + (1 - w_{1})\hat{x}_{n,n-1} \]

Der Zusammenhang zwischen den Varianzen (variances) lautet:

\[ p_{n,n} = w_{1}^{2}r_{n} + (1 - w_{1})^{2}p_{n,n-1} \]

Wobei:

\( p_{n,n} \) ist die Varianz (variance) der optimalen kombinierten Schätzung \( \hat{x}_{n,n} \)

\( p_{n,n-1} \) ist die Varianz der a-priori-Schätzung \( \hat{x}_{n,n-1} \)

\( r_{n} \) ist die Varianz der Messung \( z_{n} \)

Hinweis: Für jede normalverteilte Zufallsvariable (random variable) \( x \) mit Varianz \( \sigma^{2} \) ist \( wx \) wieder normalverteilt – mit Varianz \( w^{2}\sigma^{2} \)

Da wir eine optimale Schätzung (optimum estimate) suchen, wollen wir \( p_{n,n} \) minimieren.

Um \( w_{1} \) zu finden, das \( p_{n,n} \) minimiert, differenzieren wir \( p_{n,n} \) nach \( w_{1} \) und setzen das Ergebnis gleich Null.

\[ \frac{dp_{n,n}}{dw_{1}} = 2w_{1}r_{n} - 2(1 - w_{1})p_{n,n-1} \]

Damit folgt

\[ w_{1}r_{n} = p_{n,n-1} - w_{1}p_{n,n-1} \]

\[ w_{1}p_{n,n-1} + w_{1}r_{n} = p_{n,n-1} \]

\[ w_{1} = \frac{p_{n,n-1}}{p_{n,n-1} + r_{n}} \]

Damit haben wir den Kalman-Gain hergeleitet!

Da der Kalman-Gain die Schätzung mit minimaler Varianz liefert, wird der Kalman-Filter auch als optimaler Filter (optimal filter) bezeichnet.

Zurück