Pavel Erofeev edited GP.tex  over 9 years ago

Commit id: dec3896fb32cc9690092540c3a81a5ab26271484

deletions | additions      

       

\end{equation}  where $I$ -- identity matrix of size $(N \times N)$.  Заметим, что наличие в формуле (\ref{meanNoise}) дисперсии шума Note, that noise variance  $\tilde{\sigma}^2$ фактически приводит к регуляризации, что позволяет улучшить обобщающую способность аппроксиматора.  При этом апостериорная ковариационная функция гауссовского процесса в точках контрольной выборки имеет вид in (\ref{eq:mean_noise}) in fact leads to regularization and more generalization ability of the resulting regression. Wherein the aposteriori covariance function of Gaussian Process in the points of test set takes form:  \begin{equation} \label{covarianceNoise}  \VV \label{eq:covariance_noise}  \mathrm{V}  \bigl[X_*\bigr] = K(X_*, X_*) + \tilde{\sigma}^2 I_* - K_* \bigl(K + \tilde{\sigma}^2 I \bigr)^{-1} K_*^T, \end{equation}  где where  $K(X_*, X_*) = \bigl[k(\mathbf{x}_i, \mathbf{x}_j), i, j = 1, \dots, N_*\bigr]$, N_*\bigr]$ and  $I_*$ --- единичная матрица размера $N_* \t N_*$. -- identity matrix of size $(N_* \times N_*)$.  Дисперсии гауссовского процесса в точках контрольной выборки могут быть использованы как оценки ожидаемой ошибки аппроксимации в этих точках.  Заметим, что для этого нет необходимости вычислять по формуле (\ref{covarianceNoise}) всю матрицу $\VV \bigl[X_*\bigr]$, а достаточно вычислить только элементы ее главной диагонали, которые и являются искомыми дисперсиями.