this is for holding javascript data
Andrew Krizhanovsky reformulate complex senteces
almost 8 years ago
Commit id: c0a3a9836e3da7407698cb538426975cd0d84ca2
deletions | additions
diff --git a/Experiments1.tex b/Experiments1.tex
index 56e56f9..ec29e31 100644
--- a/Experiments1.tex
+++ b/Experiments1.tex
...
В этой работе используются нейронные модели, созданные авторами проекта $RusVectores$~\cite{Kutuzov_2015}. А именно: модель, построенная по текстам Национального корпуса русского языка (НКРЯ или Ruscoprora), и модель, созданная на основе текстов отечественных новостных сайтов (Новостной корпус или News corpus). Модели доступны на сайте проекта $RusVectores$~\cite{Kutuzov_2015}.
Авторы $RusVectores$ А.~Кутузов и Е.~Кузьменко обращают внимание читателя на такие особенности НКРЯ, как ручной отбор текстов для пополнения корпуса и регулирование соотношения текстов разных жанров, малый размер основного корпуса, порядка 107 млн слов (для сравнения Новостной корпус включает 2.4 млрд токенов).
В работе~\cite{Kutuzov_2015} вводится понятие \textit{представительность корпуса} как способность отражать (указывать на) те ассоциации для слова, с которыми согласится большинство носителей.
В своей работе ученые сравнивали различия в ассоциациях, порождаемых Ассоциации, порождаемые NN-моделями по данным НКРЯ и по данным
веб-корпуса. Задача заключалась веб-корпуса, как раз и используются для сравнения двух корпусов в
поиске этой работе.
Задача сравнения свелась к поиску слов, значения которых в веб-корпусе существенно (или полностью) отличались бы от значений в НКРЯ.
Учтем, что для каждого слова в корпусе с помощью NN-модели можно получить список $N$ ближайших слов (напомним, что слову соответствует вектор). Тогда результат сравнения корпусов таков: более чем у половины слов (общих слов двух корпусов) совпадало три и более слов из 10 ближайших~\cite{Kutuzov_2015}. Тогда будет уместна оптимистичная шутка, что два искусственных интеллекта, один включающий NN-модель по данным НКРЯ (читающий классические тексты), другой, листающий сайты в Интернете, имеют надежду понять друг друга.
Для последующих экспериментов важно следующее наблюдение работы~\cite{Kutuzov_2015}. Чем более слово является редким, чем меньше данных, контекстов с этим словом, тем более сомнительными, неточными будут ассоциативные слова, порождаемые NN-моделью.