this is for holding javascript data
Andrew Krizhanovsky edited WVR.tex
about 8 years ago
Commit id: d3f3e69d3197f978b4ecfe87781d80c6e25c5570
deletions | additions
diff --git a/WVR.tex b/WVR.tex
index 8b62e40..4c1c3ca 100644
--- a/WVR.tex
+++ b/WVR.tex
...
%Рассматриваемая задача относится к разработки количественных и качественных математических методов %обработки естественных языков (NLP).
%Последняя задча не исследована.
\subsection{Mikolov} \subsection{Блеск и нищета построения нейронных сетей инструментом word2vec}
Идея векторного представления слов с помощью нейронных сетей получила мощный толчок благодаря работам чешского ученого Томаса Миколова (\cite{Mikolov_2012}, \cite{Mikolov_2011} + todo ref статья 2013 г.). Главное достоинство работы Т.~Миколова в том, что он разработал инструмент \textit{word2vec} для создания моделей нейронных сетей (далее будем их называть \textit{NN-моделями}) на основе текстов корпусов. Забегая вперед можно сказать, что, с нашей точки зрения, не меньший вклад сделали и отечественные ученые Андрей Кутузов и Елизавета Кузьменко, которые приготовили с помощью word2vec NN-модели для русского языка на основе ряда корпусов. Свой инструмент они назвали $RusVect\bar{o}r\bar{e}s$~\cite{Kutuzov_2015}.
\begin{definition}
Векторным словарем назовем множество $D=\{w_i \in \mathbb{R}^{|D|}\}$, где $i$-ая компонента вектора $w_i$ равна 1, а остальные компоненты -- нули.