Size: a a a

Natural Language Processing

2021 July 22

SancheZz Мов in Natural Language Processing
Там не простой косинус
источник

SancheZz Мов in Natural Language Processing
Там аля arccos loss
источник

SancheZz Мов in Natural Language Processing
С зазором
источник

SancheZz Мов in Natural Language Processing
И получается парафразы на разных языках сближали удаляли
источник

d

dePuff in Natural Language Processing
источник

d

dePuff in Natural Language Processing
Всё ок с салатом
источник

SancheZz Мов in Natural Language Processing
А возьми cls
источник

d

dePuff in Natural Language Processing
Это cls
источник

d

dePuff in Natural Language Processing
Проблему решили
источник

DD

David Dale in Natural Language Processing
Это да, вокруг косинуса там ещё софтмакс с зазором как лосс при обучении. На инференсе как меру близости пар предложений можно использовать просто косинус.
источник

SancheZz Мов in Natural Language Processing
Гуд
источник

SancheZz Мов in Natural Language Processing
Ага
источник

SancheZz Мов in Natural Language Processing
У меня тоже норм работает на тф
источник

SancheZz Мов in Natural Language Processing
Даже с пуллингом
источник

d

dePuff in Natural Language Processing
Мы в личке нашли косяк
источник

SancheZz Мов in Natural Language Processing
источник

SancheZz Мов in Natural Language Processing
Я думал они на пуллинге тюнили, хорошие для cls получили результаты
источник

SancheZz Мов in Natural Language Processing
Попробую дотюнить аля сберт с пуллинга
источник

SancheZz Мов in Natural Language Processing
Интересно сравнить с cls тюнингом
источник

OD

Oleg Durandin in Natural Language Processing
Коллеги, всем привет! Раз уж пошла тема про embedding’и — как считаете расстояния/схожесть между векторами?
Косинусное расстояние не всегда хорошо работает с длинными векторами, на мой взгляд.
В последнее время пробую через Annoy, но это требует создания индекса, но в целом достаточно неплохо. Может быть ещё есть какие-то сакральные знания?

P.S. Эмбеддинги от LABSE/BERT/USE
источник