this is for holding javascript data
Andrew Krizhanovsky + \cite{Mikolov 2013
almost 8 years ago
Commit id: cdb2bd81747c545fe7f579a607f4e4704d74005a
deletions | additions
diff --git a/WVR.tex b/WVR.tex
index 288829c..f034d1b 100644
--- a/WVR.tex
+++ b/WVR.tex
...
\section{Векторное представление слов: блеск и нищета построения нейронных сетей инструментом word2vec}
Идея векторного представления слов с помощью нейронных сетей получила мощный толчок благодаря работам чешского ученого Томаса Миколова
(\cite{Mikolov_2012}, \cite{Mikolov_2011} + todo ref статья 2013 г.:см. Литература № 3). \cite{Mikolov_2011}, \cite{Mikolov_2012}, \cite{Mikolov_2013}. Главное достоинство работы Т.~Миколова в том, что он разработал инструмент \textit{word2vec} для создания моделей нейронных сетей (далее будем их называть \textit{NN-моделями}) на основе текстов корпусов. Забегая вперед можно сказать, что, с нашей точки зрения, не меньший вклад сделали и отечественные ученые Андрей Кутузов и Елизавета Кузьменко, которые приготовили с помощью word2vec NN-модели для русского языка на основе ряда корпусов. Свой инструмент они назвали RusVectores~\cite{Kutuzov_2015}.
Бедность подхода, предложенного Т.~Миколовым в том, что поиск осмысленных пар семантических отношений работает только на некоторых ярких примерах ($queen - woman + man \approx king$). Малейшее отклонение в сторону даёт неудовлетворительные результаты. Слабость математической стороны работ Т.~Миколова была подмечена в недавней работе Голдберга и Леви (todo см. Литература № 4).