this is for holding javascript data
JackXavier edited untitled.tex
almost 8 years ago
Commit id: c42c64ab52399093622cceb90911a02fd8807271
deletions | additions
diff --git a/untitled.tex b/untitled.tex
index da67e41..fcc1498 100644
--- a/untitled.tex
+++ b/untitled.tex
...
где $\epsilon_{t} \sim N(0,1)$ также случайная величина. Более того предполагается, что ошибки наблюдения и сигнала некоррелированы ( т.е $E(\epsilon_{t-i} \upsilon_{t-j} , \forall i,j)$ ). Основываясь на начальной оценке сигнала и дисперсии предсказания, мы сможем рассмотреть работу данной модели на конкретных данных и посчитать результат фильтрации. Сначала необходимо посчитать усиление Калмана(Kalman Gain), дисперсию предсказания (prediction variable) и дисперсию оценки (estimation variable). Усиление Калмана представляет собой следующее выражение:
\begin{gather*}
\\
K_{N} K_{t} = \frac{\gamma \cdot
S_{N}}{\gamma^2 S_{t}}{\gamma^2 \cdot
S_{N} S_{t} + \sigma^2_{\epsilon}}
\\
\end{gather*}
где
$S_{N} $S_{t} $ дисперсия ошибки в предсказании
$x_{N}$ $x_{t}$ в момент
$N-1$, $t-1$, и определяется следующим выражением:
\begin{gather*}
\\
S_{N} S_{t} = \phi^2 \cdot
p^e_{N-1} p^e_{t-1} + \sigma^2_{\upsilon}
\\
\end{gather*}
Дисперсии оценки
$p^e_{N}$ $p^e_{t}$ и дисперсия предсказания
$p^p_{N+1}$ $p^p_{t+1}$ равняются:
\begin{gather*}
\\
p^e_{N} p^e_{t} = (1 - \gamma \cdot
K_{N}) K_{t}) \cdot
S_{N} S_{t} = (1 - 0,72 \cdot
K_{N}) K_{t}) \cdot
S_{N} S_{t}
\\\\
p^p_{N+1} p^p_{t+1} =
p^e_{N} p^e_{t} \cdot \phi^2 + \sigma^2_{\upsilon}
\\
\end{gather*}
В начальный момент времени ( $t = 1 $ ) дисперсия предсказания равна дисперсии сигнала $p^p_{1} = 0.2 $, $S_{1} = 1$. Тогда: