this is for holding javascript data
Maxwell edited untitled.tex
almost 8 years ago
Commit id: 73be0396d149e86ff5b96a0c06934b5020afdb40
deletions | additions
diff --git a/untitled.tex b/untitled.tex
index 5dfd66a..a6ca755 100644
--- a/untitled.tex
+++ b/untitled.tex
...
Мы будем минимизировать среднее значение от квадрата ошибки: $E(e^{2}_{t+1})\longrightarrow\min$ Т.к. все входящие в $e_{t+1}$) случайные величины независимые и средние значения ошибок сенсора и модели равны нулю: $E[E_{t}]=E[N_{t+1}]=0$, и все перекрестные значения равны нулю: $E[E_{t}\cdot N_{t+1}]=E[e_{t}\cdot E_{t}]=E[e_{t}\cdot N_{t+1}]=0$, то получаем:
$$E(e^{2}_{t+1})=(1-K_{t+1})^{2}\cdot (E(e^{2}_{t})+D(E_{t}))+K^{2}_{t+1}\cdot D(N_{t})$$
Где $D(E_{t})$ и $D(N_{t+1})$-дисперсии случайных величин $E_{t}$ и $N_{t+1}$.
Найдем минимальное значение для выражения
(9) (11) (т.е. найдем производную):
$$
-2\cdot $$-2\cdot (1-K_{t+1})\cdot (E(e^{2}_{t})+D(E_{t}))+2\cdot K_{t+1}\cdot
D(N_{t})=0\\
-E(e^{2}_{t})–D(E_{t})+K_{t+1}\cdot D(N_{t})=0$$
$$-E(e^{2}_{t})–D(E_{t})+K_{t+1}\cdot E(e^{2}_{t})+K_{t+1}\cdot D(E_{t})+K_{t+1}\cdot
D(N_{t})=0\\
K_{t+1}=\frac{E(e^{2}_{t})+D(E_{t})}{E(e^{2}_{t})+D(E_{t})+D(N_{t})}
$$ D(N_{t})=0$$
$$K_{t+1}=\frac{E(e^{2}_{t})+D(E_{t})}{E(e^{2}_{t})+D(E_{t})+D(N_{t})}$$
Таким образом, получаем такое $K_{t+1}$, что выражение $E(e^{2}_{t+1})$ будет минимальным:
$$
K_{t+1}=\frac{E(e^{2}_{t})+D(E_{t})}{E(e^{2}_{t})+D(E_{t})+D(N_{t})}
$$ $$K_{t+1}=\frac{E(e^{2}_{t})+D(E_{t})}{E(e^{2}_{t})+D(E_{t})+D(N_{t})}$$
Случайные величины имеют нормальный закон распределения и мы знаем, что их дисперсии равны: $\delta^{2}_{E}$ и $\delta^{2}_{N}$. Заметим, что дисперсии не зависят от t, потому что законы распределения не зависят от него.
Подставляем в выражение для среднеквадратичной ошибки $E(e^{2}_{t+1})$ минимизирующее ее значение коэффициента Калмана $K_{t+1}$\cite{Ramazan} и получаем:
$$
E(e^{2}_{t+1})=(1-\frac{E(e^{2}_{t})+\delta^{2}_{E}}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}})^{2}\cdot (E(e^{2}_{t})+\delta^{2}_{E})+(\frac{E(e^{2}_{t})+\delta^{2}_{E}}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}})^{2}\cdot \delta^{2}_{N}
$$
Пусть: $E(e^{2}_{t})=a; \delta^{2}_{E}=b; \delta^{2}_{N}=c;$ Тогда:
$$
E(e^{2}_{t+1})=(1-\frac{a+b}{a+b+c})^{2}\cdot (a+b)+(\frac{a+b}{a+b+c})^{2}\cdot c=\frac{c^{2}\cdot (a+b)}{(a+b+c)^{2}}+\frac{c\cdot (a+b)^{2}}{(a+b+c)^{2}}=\\=\frac{c\cdot (a+b)\cdot (c+a+b)}{(a+b+c)^{2}}=\frac{c\cdot (a+b)}{a+b+c}=\frac{\delta^{2}_{N}\cdot E(e^{2}_{t+1})=(1-\frac{E(e^{2}_{t})+\delta^{2}_{E}}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}})^{2}\cdot (E(e^{2}_{t})+\delta^{2}_{E})+(\frac{E(e^{2}_{t})+\delta^{2}_{E}}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}})^{2}\cdot \delta^{2}_{N}=\frac{\delta^{2}_{N}^{2}\cdot (E(e^{2}_{t})+\delta^{2}_{E})}{(E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N})^{2}}+\frac{\delta^{2}_{N}\cdot (E(e^{2}_{t})+\delta^{2}_{E})^{2}}{(E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N})^{2}}=\\=\frac{\delta^{2}_{N}\cdot (E(e^{2}_{t})+\delta^{2}_{E})\cdot (E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N})}{(E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N})^{2}}=\frac{c\cdot (E(e^{2}_{t})+\delta^{2}_{E})}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}}=\frac{\delta^{2}_{N}\cdot (E(e^{2}_{t})+\delta^{2}_{E})}{E(e^{2}_{t})+\delta^{2}_{E}+\delta^{2}_{N}}
$$
Таким образом, получаем:
$$