Size: a a a

Natural Language Processing

2021 May 31

OS

Oleg Serikov in Natural Language Processing
я brat и толоку, но в обоих случаях надо переводить из их формата в BIO руками
источник

OS

Oleg Serikov in Natural Language Processing
ну вообще там критична версия питона в первую очередь
источник

EE

Eugene Eremin in Natural Language Processing
спасибо, питон у меня не тот - 3.9
источник

AK

Aleksandr Kokovikhin in Natural Language Processing
Добрый день!
Я тоже не смог пока установить на windows deep pavlov,  даунгрейдил по одной версии постепенно , питон до 3.6, но не получается пока установка. ((
Отложил установку, думаю использовать коллаб
источник

VA

Vitaly Akhmadiev in Natural Language Processing
Попробуйте tensorflow версию проверить, помнится DP не переваривал выше 1.14 или 1.15
источник

SancheZz Мов in Natural Language Processing
1.15 точно работает
источник

OS

Oleg Serikov in Natural Language Processing
тф вроде нужен для большинства моделей но опциональный.
на винде я использую диппавлов из под wsl
источник

RS

Ruslan Sabirov in Natural Language Processing
А нет случайно описания данных?
источник

A

Alexander in Natural Language Processing
Добрый день.
Помогите, пожалуйста, разобраться.
Вот Ярги-парсер - это однозначно rule-based подход к NER.
А вот Natasha? Она же на основе нейросетевого подхода реализована?
источник

РН

Роман Некрасов... in Natural Language Processing
В экосреде PyTorch появились неплохие возможности для быстрого старта новичков (библиотека Flash) и экспертов (Lightning) в парадигме Tensorflow/keras. Для гуру по-прежнему доступен ванильный PyTorch. Не реклама) Возможность быстрого старта на серьёзном фреймворке.
источник

OS

Oleg Serikov in Natural Language Processing
а что это за талица?
источник

РН

Роман Некрасов... in Natural Language Processing
Скриншот из документации библиотеки Flash-Lightning (надстройки Lightning, которая в свою очередь является надстройкой PyTorch). keras для PyTorch https://lightning-flash.readthedocs.io/en/latest/
источник

МП

Михаил Притугин... in Natural Language Processing
Flash*
источник

РН

Роман Некрасов... in Natural Language Processing
Поправил)) Сорри.
источник

A

Andrey in Natural Language Processing
давно пора было. а то чтобы быстрый эксперимент поставить приходилось слегка корячиться с бойлерплэйтом. спасибо
источник

Е

Егорка in Natural Language Processing
Дистилляция BERT-модели
источник

A

Alexander in Natural Language Processing
Спасибо большое за ответ. Т.е., переводя на язык "чайника". Natasha - это библиотека на основе нейронной сети.  Этой сетью является "оптимизированная" ("упрощенная") нейронная сеть BERT. Я все правильно понял?
источник

DD

David Dale in Natural Language Processing
Да, примерно так.
Вот пост, объясняющий детали: https://natasha.github.io/ner/
источник

A

Alexander in Natural Language Processing
Спасибо
источник

TM

Toemik Mnemonic in Natural Language Processing
выполняем задачу классификации очень коротких фраз (1-3 токена). Сейчас используем иерархическую классификацию на основе близости фразы к контрольным (косинусное расстояние). Пока точность удовлетворительная, но с ростом количества классов понимаем, что такой подход усложнит развитие сервиса. Хотелось бы спросить куда еще смотреть в плане  признаков (кроме значения коэф. близости): n-граммы для слов не подходят,  как использовать части речи пока тоже идей нет (вся фраза будет представлена с высокой вероятностью или ГЛ + СУЩ / СУЩ + ГЛ или СУЩ , так что непонятно как разделять с помощью POS) что порекомендуете еще? n граммы букв? добавить ливенштейна? построить связи родитель-потомок?
источник