Size: a a a

Natural Language Processing

2020 November 22

B

Banof in Natural Language Processing
🔫 @gajusaekawushu6049 кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@LoneGeek, @bakhankov, @dexker, @oleg_mosalov, @mshnya
Powered by Todorant
источник

9

9dogs🐍 in Natural Language Processing
Евгений Томилов
Дамы и господа, а у меня одного на Питоне pymystem3 работает жутко медленно?
Винда? Лучше запускать на линуксе (можно в докере)
источник

SM

Sasha Marova in Natural Language Processing
Евгений Томилов
Я верно же понимаю, что Mystem() инициализирует mystem. И, когда я делаю, например, mystem = Mystem(), то после этого он уже не инициализируется, а просто  в него отправляет функция данные.
Ну да,это создаётся экземпляр класса Mystem, называется,и теперь можно вызывать его методы,и в них в скобочки пихать что угодно.
источник

НК

Николай Карпенко... in Natural Language Processing
какой сейчас самый точный PoS есть для ru?
источник

YB

Yuri Baburov in Natural Language Processing
Николай Карпенко
какой сейчас самый точный PoS есть для ru?
источник

ЕТ

Евгений Томилов... in Natural Language Processing
9dogs🐍
Винда? Лучше запускать на линуксе (можно в докере)
Уже перешёл на Бубунту, да.
источник

ЕТ

Евгений Томилов... in Natural Language Processing
Sasha Marova
Ну да,это создаётся экземпляр класса Mystem, называется,и теперь можно вызывать его методы,и в них в скобочки пихать что угодно.
Спасибо!
источник

НК

Николай Карпенко... in Natural Language Processing
крутая штука Natasha) спасибо. как раз для CPU то, что надо. Жаль что gpu не сильно быстро в NLP умеет.
источник

YB

Yuri Baburov in Natural Language Processing
Николай Карпенко
крутая штука Natasha) спасибо. как раз для CPU то, что надо. Жаль что gpu не сильно быстро в NLP умеет.
Кстати, для CPU нынче есть ещё spacy-ru 2.3 , которого нет в этом сравнении (там старая версия). Правда, точность POS как и у всех сильно плавает от домена.
источник

НК

Николай Карпенко... in Natural Language Processing
Не пойму, как natasha запустить через докер чтобы через  api server запросы делать, есть готовое решение?
источник

AK

Alexander Kukushkin in Natural Language Processing
Николай Карпенко
Не пойму, как natasha запустить через докер чтобы через  api server запросы делать, есть готовое решение?
источник

НК

Николай Карпенко... in Natural Language Processing
а где-то есть список в каких именно предложениях из датасета были ошибки в ner ?
источник

AK

Alexander Kukushkin in Natural Language Processing
Николай Карпенко
а где-то есть список в каких именно предложениях из датасета были ошибки в ner ?
источник

АК

Андрей Ключаревский... in Natural Language Processing
Alex Wortega
Кажется вам сюда https://arxiv.org/abs/2005.07064
На практике такое только для метатегов можно будет применить.

Мне кажется что gpt2 можно использовать как рекомендательную систему. Продукт А сочетается с Б и Ж. А если кормить не только названиями и картинками, а множеством атрибутов и процентом покупок, то получаем систему, которая может посоветовать что-то подходящее, но отдаленное из другого товарного кластера.
источник

AW

Alex Wortega in Natural Language Processing
Андрей Ключаревский
На практике такое только для метатегов можно будет применить.

Мне кажется что gpt2 можно использовать как рекомендательную систему. Продукт А сочетается с Б и Ж. А если кормить не только названиями и картинками, а множеством атрибутов и процентом покупок, то получаем систему, которая может посоветовать что-то подходящее, но отдаленное из другого товарного кластера.
А зачем гпт2 тут?
источник

АК

Андрей Ключаревский... in Natural Language Processing
Alex Wortega
А зачем гпт2 тут?
Для того чтобы сразу и описания рекомендаций генерил как модный ведущий, без костылей:)) но если без шуток, то почему бы и нет, данных то полно
источник

AW

Alex Wortega in Natural Language Processing
Без костылей не будет
источник

AW

Alex Wortega in Natural Language Processing
Это скорее будет процедурная генерация
источник

АК

Андрей Ключаревский... in Natural Language Processing
Alex Wortega
Это скорее будет процедурная генерация
Ее можно сделать. Но будет слишком топорно. Для хорошего сео нужен хороший текст как от живого эксперта
источник

BS

Bogdan Salyp in Natural Language Processing
Ребят, подскажите, может у кого-то была подобная задача:
В huggingface в generate есть bad_words_ids, чтобы запретить генерировать конкретные слова, но нет параметра, чтобы заставить генерировать конкретные слова в предложении. Хотелось бы с помощью Natasha искать NERом слова, которые нельзя в предложении менять и скармливать их в generate, чтобы они точно были в получившемся предложении
Есть какие-нибудь более красивые решения, чем фильтр по 100500 результатам от generate? Может особая функция ошибки, которая наказывает модель за дропнутые нужные слова? Возможно какой-то небинарный (а на отрезке) attention? Заранее спасибо)
источник