this is for holding javascript data
Andrew Krizhanovsky + balance
almost 8 years ago
Commit id: 77fee6170aebbd5161f5fa0f7fe762816dcaedb6
deletions | additions
diff --git a/Experiments1.tex b/Experiments1.tex
index 4f36ce3..27c86a7 100644
--- a/Experiments1.tex
+++ b/Experiments1.tex
...
Ассоциации, порождаемые NN-моделями по данным НКРЯ и по данным веб-корпуса, как раз и используются для сравнения двух корпусов в этой работе.
Задача сравнения свелась к поиску слов, значения которых в веб-корпусе существенно (или полностью) отличались бы от значений в НКРЯ.
Учтем, что для каждого слова в корпусе с помощью NN-модели можно получить список $N$ ближайших слов (напомним, что слову соответствует вектор). Тогда формулировка результата сравнения корпусов таков: более чем у половины слов (общих слов двух корпусов) совпадало три и более слов из 10 ближайших~\cite{Kutuzov_2015}.
Это говорит о том, что в картине мира интеллектов, нейронных моделей, созданных на основе НКРЯ и на основе текстов Интернета, есть много общего. Однако необходима и обратная оценка~--- какова степень
различения различия NN-моделей?
Отметим, что понятие \textit{сбалансированность корпуса} приобретает новое значение в свете NN-моделей, создаваемых на основе корпуса.
Несбалансированная выборка текстов приводит к перевесу в тематике корпусов, в итоге~--- к менее точной NN-модели.
Для последующих экспериментов важно следующее наблюдение работы~\cite{Kutuzov_2015}. Чем более слово является редким, чем меньше данных, контекстов с этим словом, тем более сомнительными, неточными будут ассоциативные слова, порождаемые NN-моделью.