this is for holding javascript data
Andrew Krizhanovsky abstract done
almost 8 years ago
Commit id: d1c83dcbebc55b00d662565cbfd5ff51511c784c
deletions | additions
diff --git a/abstract.tex b/abstract.tex
index 0388867..8366583 100644
--- a/abstract.tex
+++ b/abstract.tex
...
{\bf Аннотация}
В статье поставлен вопрос формализации понятия синонимии.
На основе векторного представления слов в
этой работе
предложен предлагается геометрический подход для математического моделирования синсетов.
Векторное представление слов основывается на нейронных моделях (Skip-gram, CBOW).
The word embedding is based on the neural networks (), developed and realized as word2vec program by T. Mikolov.
Про ...1
Определен такой вычислимый атрибут синсетов, как внутренность синсета (IntS).
Введены понятия ранг и центральность слов в синсете, позволяющие определить более значимые, "центральные" слова в синсете. Для ранга и центральности даны математическая формулировка и предложена процедура их вычисления.
% experiments
Для вычислений использованы нейронные модели (Skip-gram, CBOW), созданные программой Т.~Миколова word2vec.
На примере синсетов Русского Викисловаря построены IntS по нейронным моделям корпусов, созданных в проекте RusVectores.
Результаты, полученные по двум корпусам (НКРЯ и новостной корпус), в значительной степени совпадают. Это говорит о некоторой универсальности предлагаемой математической модели.