Andrew Krizhanovsky abstract done  almost 8 years ago

Commit id: d1c83dcbebc55b00d662565cbfd5ff51511c784c

deletions | additions      

       

{\bf Аннотация}  В статье поставлен вопрос формализации понятия синонимии.   На основе векторного представления слов вэтой  работе предложен предлагается  геометрический подход для математического моделирования синсетов.Векторное представление слов основывается на нейронных моделях (Skip-gram, CBOW).  The word embedding is based on the neural networks (), developed and realized as word2vec program by T. Mikolov.   Про ...1  Определен такой вычислимый атрибут синсетов, как внутренность синсета (IntS).   Введены понятия ранг и центральность слов в синсете, позволяющие определить более значимые, "центральные" слова в синсете. Для ранга и центральности даны математическая формулировка и предложена процедура их вычисления.  % experiments  Для вычислений использованы нейронные модели (Skip-gram, CBOW), созданные программой Т.~Миколова word2vec.  На примере синсетов Русского Викисловаря построены IntS по нейронным моделям корпусов, созданных в проекте RusVectores.  Результаты, полученные по двум корпусам (НКРЯ и новостной корпус), в значительной степени совпадают. Это говорит о некоторой универсальности предлагаемой математической модели.