Size: a a a

Natural Language Processing

2021 August 31

DD

David Dale in Natural Language Processing
У моих коллег недавно вышла статья по оценке неопределённости трансформерных моделей. Она больше ориентирована на NLU, нежели на генеративные задачи, но, возможно, вдохновит.
http://www.skoltech.ru/app/data/uploads/sites/19/2021/02/eacl-2021-uncertanty-estimation-for-nlp.pdf
источник

DK

Dmitri Kapustin in Natural Language Processing
я использую для обучения OpenNMT TF,  а для прода CTranslate2 - он сам выводит этот нормализированный счет вероятности по каждому предсказанию, думаю на score  можно положится
источник

🐙

🐙 in Natural Language Processing
Ребят, всем привет! Подскажите, spacy ner для русского умеет доставать из текста названия компаний на английском. И, в связи с этим два вопроса:
1. Сильно ли варьируется способность извлекать NER между моделями разных языков?
2. Будет ли сильно варьироваться качество, если подать текст на английском?
У меня смесь текстов на Ru и En, имеет ли смысл использовать Language Detection и обрабатывать соответствующими моделями, если нужно только NER?
источник

I

Ilya in Natural Language Processing
а кто-нибудь видел работающую speech emotion recognition систему? мб кто-то знает компании, у которые такое есть?
источник

A

Anton in Natural Language Processing
У сбер можешь потестить. Бесплатно.
SmartSpeech
источник

I

Ilya in Natural Language Processing
а есть демка?
источник

I

Ilya in Natural Language Processing
вроде чет нашел, ща надо зарегаться...
источник

I

Ilya in Natural Language Processing
не все так просто...
источник

A

Alexander in Natural Language Processing
Коллеги, Negative sampling, это когда мы считаем loss и back propagation не для всего словаря, а только для части слов? Настраиваем веса только для N слов у которых вероятность оказалась наиболее высокой и уменьшаем для M случайных слов?
источник

d

dePuff in Natural Language Processing
loss мы будем считать только для того, что нам попалось в конкретном батче

Чтобы его посчитать нам нужны положительные примеры и отрицательные

Положительные у нас точно есть на момент формирования батча, а для отрицательных мы возьмём несколько случайных слов из нашего словаря, даже не заморачиваясь проверкой есть они в нашем батче или нет

И напрашивается, раз мы вытащили несколько отрицательных примеров, то заодно и им веса обновим )
источник

A

Alexander in Natural Language Processing
То есть мы наш вектор w2v, стараемся пододвинуть к тем словам, которые попались в нашем батче(т.е. окружение для нашего слова) и одновременно хотим отдались его от части случайных слов?
источник

d

dePuff in Natural Language Processing
Угумс
источник

A

Alexander in Natural Language Processing
источник

d

dePuff in Natural Language Processing
На степике есть курс самсунга по nlp и там реализация этого действа на pytorch гениальная.
источник

A

Alexander in Natural Language Processing
Пошёл смотреть) 👍
источник

B

Bladeser in Natural Language Processing
А кроме Pullenti что то так тоже умеет? В наташе не нашел.
источник

B

Bladeser in Natural Language Processing
Извините за некоторое ханжество но меня почему то воротит от самой мысли конвертации либы из шарпа в питон. 😊
источник

МЕ

Максим Ермаков... in Natural Language Processing
Сам хотел бы знать, у меня схожие эмоции.
источник
2021 September 01

DP

Denis Pizhevsky in Natural Language Processing
@Forman, подскажи, пожалуйста, можно ли как-то ускорить загрузку?
wittenbell-3-big.asc более 3 минут грузит
источник

ЮЛ

Юрий Лобарев... in Natural Language Processing
К сожалению нет, это очень большой словарь с огромной языковой моделью. Там только 3 000 000 уникальных слов. Система в принципе не рассчитана на частую загрузку словаря, это должно выполнятся один раз при старте системы, а в дальнейшем только вызывать методы проверки или корректировки ошибок, тогда все работает быстро.
источник