Size: a a a

Natural Language Processing

2021 January 21

YB

Yuri Baburov in Natural Language Processing
Daniel Kornev
На всякий случай взываю к @alexkuk  ) Мы в DeepPavlov делаем библиотеку, в этом полугодии будем заниматься рефакторингом, хочется собрать обратную связь.

Почему Протектрон запрещает публиковать такую информацию? )
pytorch огонь!
источник

YB

Yuri Baburov in Natural Language Processing
Кибер Медик
хочу, чтобы при загрузки модели ничего не принтилось в терминал
думаю, после перехода на pytorch — перестанет :)
источник

AK

Alexander Kukushkin in Natural Language Processing
Переслано от Darya Moroz
Всем привет 😃

Это сообщение для всех, кто использует DeepPavlov 🎅

На следующей неделе, 28 января, мы проведем DeepPavlov Community Call 5! Это первый звонок в 2021 году, который будет посвящен нашим планам по рефакторингу библиотеки DeepPavlov 🔥

Мы начнем преобразование нашей библиотеки 🎅 на пути к версии 1.0. Этот процесс потребует значительной реструктуризации и рефакторинга, которые, в свою очередь, приведут к значительным изменениям. Вот некоторые из ожидаемых обновлений 🛠:
*Переход на PyTorch
*Изменение документации
*Прекращение поддержки старых моделей и кода
*Контроль версий моделей
*Обновления конфигураций
Это некоторые из основных областей, на которых мы сосредоточимся в ближайшие месяцы.

Мы приглашаем вас присоединиться к нам, чтобы сообщить, что вы думаете об этих изменениях, поделиться своими ожиданиями от 1 версии библиотеки и рассказать, как DeepPavlov помогает вам в ваших проектах!

📌Мероприятие пройдет 28 января 2021 года в 19:00 по московскому времени.
Добавьте напоминание в свой календарь: http://bit.ly/MonthlyDPCommunityCall2021

P.s. Оставьте отзыв о библиотеке DeepPavlov 🙏
Мы хотим услышать вас. Вы можете заполнить эту форму, чтобы сообщить нам, как вы используете DeepPavlov Library, что вы хотите, чтобы мы добавили или улучшили!

Подробнее о мероприятии 👉 по ссылке.
источник

DK

Daniel Kornev in Natural Language Processing
Кибер Медик
хочу, чтобы при загрузки модели ничего не принтилось в терминал
)))) пожалуйста, напишите к нам в форму )

Мы её будем подробно изучать в ближайшие недели )
источник
2021 January 22

I

Ibr in Natural Language Processing
Доброго времени суток! Посоветуйте, пожалуйста, какие-нибудь адекватные open source решения задачи dependency parsing для литературных предложений на русском языке (помимо stanford corenlp и natasha). Спасибо
источник

ИК

Илья Курьянов... in Natural Language Processing
Ibr
Доброго времени суток! Посоветуйте, пожалуйста, какие-нибудь адекватные open source решения задачи dependency parsing для литературных предложений на русском языке (помимо stanford corenlp и natasha). Спасибо
в UDPipe есть парсер, в принципе приемлемый
источник

ИК

Илья Курьянов... in Natural Language Processing
но ему желательно морфологически разобранный вход давать
источник

YB

Yuri Baburov in Natural Language Processing
Ibr
Доброго времени суток! Посоветуйте, пожалуйста, какие-нибудь адекватные open source решения задачи dependency parsing для литературных предложений на русском языке (помимо stanford corenlp и natasha). Спасибо
https://github.com/natasha/naeval#syntax-parser , выбирайте, колонка "fiction"
(у spacy есть модели помощнее в https://github.com/buriy/spacy-ru/releases/tag/v2.3_beta : ru2_grameval_96 и ru2_grameval_300)
источник

AP

Alex Peresmeshnik in Natural Language Processing
nae>al назвали знатно ))
источник

V

Vlad in Natural Language Processing
Alex Peresmeshnik
nae>al назвали знатно ))
Вероятно сокращение от "natasha evaluation")
источник

G

Georgy in Natural Language Processing
Всем привет! Тут можно постить по поводу работы? Нужен человек, который возьмет на себя topic modeling и классификацию по рубрикам. Нужно для MVP проекта, работа оплачиваемая. Если интересно, пишите в личку за подробностями! Ну или если такое тут не постим, то посоветуйте где лучше искать.
Спасибо!
источник

MK

Max Kuznetsov in Natural Language Processing
Georgy
Всем привет! Тут можно постить по поводу работы? Нужен человек, который возьмет на себя topic modeling и классификацию по рубрикам. Нужно для MVP проекта, работа оплачиваемая. Если интересно, пишите в личку за подробностями! Ну или если такое тут не постим, то посоветуйте где лучше искать.
Спасибо!
ODS #_jobs
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
Shelest Listjev
Всем привет!
Существует ли какая либо автоматическая разметка интонации устной речи русского/английского? Если да, то куда/как гуглить?
Спасибо за ответ
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
https://www.isca-speech.org/archive/Interspeech_2018/pdfs/1962.pdf

ну и такое есть, но без кода
источник
2021 January 23

SL

Shelest Listjev in Natural Language Processing
Спасибо!!
источник

YB

Yuri Baburov in Natural Language Processing
Всем привет!
А кто-нибудь может проконсультировать меня с т.з. лингвистики, какие сочетания частей речи / роли из UD должны образовывать noun_chunk ? Пишите в личку, пожалуйста.
Определение для английского такое: "A base noun phrase, or “NP chunk”, is a noun phrase that does not permit other NPs to be nested within it – so no NP-level coordination, no prepositional phrases, and no relative clauses.
Я сделал пока так: https://github.com/buriy/spacy-ru/blob/v2.3/ru2/syntax_iterators.py#L8
Вот английский язык: https://github.com/explosion/spaCy/blob/master/spacy/lang/en/syntax_iterators.py
(можно посмотреть и другие языки, какие-то ближе к русскому по синтаксису, но не во всех языках это правильно сделано, в основном, копируют с английского)
источник

KK

Krep Kospit in Natural Language Processing
Добрый день
источник

KK

Krep Kospit in Natural Language Processing
Кто-нибудь может привести пример, чтобы я мог понять на уровне интуиции, как работает позиционное кодирование?
источник

HE

HaZ ENaCR in Natural Language Processing
источник

HE

HaZ ENaCR in Natural Language Processing
Вот такое позиционное кодирование (PE) применяется в оригинальном transformer.

На входе у нас матрица, где строки - количество токенов в последовательности, а столбцы - элемент описания (embedding).
Суть PE проста - т.к. в модель мы передаём все токены разом, то также нужно учитывать их положение относительно друг друга. Тут на помощь и приходит PE. Мы создаём матрицу с фиксированными значениями (например, по формуле выше), размер которой совпадает с размером входной матрицы. А значения становятся уникальными на основе 2-х переменных: позиция токена во входе и текущее измерение embedding'а (pos и i в формуле выше).
При этом периодические функции используют для возможности продлевать последовательности на сколь угодно длинные
источник