Pavel Erofeev edited GP.tex  over 9 years ago

Commit id: 4b80f73953df432b2da4a50f1abf14426f476ede

deletions | additions      

       

\subsection{Gaussain Processes}  \label{sec:GaussinaProcesses}  In this paper we consider a specific class of regression functions $\mathcal{GP}$ -- Gaussian Processes. Any process $P\in\mathcal{GP}$ is uniqely defined by its mean $\mu(\mathbf{x}) = \mathrm{E}\left[f(\mathbf{x})\right]$ and covariance $\mathrm{Cov}(y, y^\prime) = k(\mathbf{x}, \mathbf{x}^\prime) k\left(\mathbf{x}, \mathbf{x}^\prime\right)  = \mathrm{E}\left[(f(\mathbf{x}) - \mu(\mathbf{x})) (f(\mathbf{x}^\prime) - \mu(\mathbf{x}^\prime))\right]$ functions. Если положить функцию среднего нулевой $m(\mathbf{x}) = \EE[f(\mathbf{x})] = 0$, а ковариационную функцию считать известной, то функция апостериорного (для заданной обучающей выборки) среднего значения гауссовского процесса в точках контрольной выборки $X_*$ имеет вид \cite{Rasmussen} $\hat{f}(X_*) = K_* K^{-1} Y$, где $K_* = K(X_*, X) = \bigl[k(\mathbf{x}_i, \mathbf{x}_j), i = \overline{1, N_*}, j = \overline{1,N}\bigr], K = K(X, X) = \bigl[k(\mathbf{x}_i, \mathbf{x}_j), i, j = \overline{1, N}\bigr]$.