Andrew Krizhanovsky edited WVR.tex  almost 8 years ago

Commit id: 4fb3ae61f4f46beb7ac2c1f424fb3f28f7095534

deletions | additions      

       

Идея векторного представления слов с помощью нейронных сетей получила мощный толчок благодаря работам чешского ученого Томаса Миколова \cite{Mikolov_2011, Mikolov_2012, Mikolov_2013}. Главное достоинство работы Т.~Миколова в том, что он разработал инструмент \textit{word2vec} для создания моделей нейронных сетей (далее будем их называть \textit{NN-моделями}) на основе текстов корпусов. Забегая вперед можно сказать, что, с нашей точки зрения, не меньший вклад сделали и отечественные ученые Андрей Кутузов и Елизавета Кузьменко, которые приготовили с помощью word2vec NN-модели для русского языка на основе ряда корпусов. Свой инструмент они назвали RusVectores~\cite{Kutuzov_2015}.  Бедность подхода, предложенного Т.~Миколовым в том, что поиск осмысленных пар семантических отношений работает только на некоторых ярких примерах ($queen - woman + man \approx king$). Малейшее отклонение в сторону даёт неудовлетворительные результаты. У нас есть обоснованные подозрения, что не на всём пространстве текстов   слова будут подчиняться таким удивительно простым правилам.  Слабость математической стороны работ Т.~Миколова была подмечена в недавней работе Голдберга и Леви~\cite{Goldberg_2014_word2vec}. Работа И.~Голдберга и О.~Леви, посвященная обсуждению результатов Т.~Миколова, заканчивается обращением к исследователям:  \begin{quote}