Size: a a a

Natural Language Processing

2021 July 13

d

dePuff in Natural Language Processing
Буду считать, что работает - не трожь )
источник

t2

tonko 22 in Natural Language Processing
Хм, надо проверить насколько осмысленные эти эмбеддинги. Если в обучении таких длинных последовательностей не было, есть шанс что хвосты попортят эмбеддинги шумами. Я бы по метрике качества на конкретной задаче сравнивал.
источник

d

dePuff in Natural Language Processing
Ок
источник

М

Майя in Natural Language Processing
Привет, посоветуйте, пожалуйста, несложную высокоуровевую библиотеку для кастомного NER, в которую можно запихнуть multilingual-bert. Данные разметила в BIO формате, разбивка на предложения очень условная (данные получены из PDF, поэтому точки там периодически лишние). Хотелось чтобы было не сложно, так как опыта мало
источник

NS

Nikolay V. Shmyrev in Natural Language Processing
hugging face!
источник

М

Майя in Natural Language Processing
Кажется, там не все так просто https://huggingface.co/transformers/custom_datasets.html#ft-trainer модель я натренировала, а как предикшены делать? Я знаю, что звучит плохо, но я везде вижу tutorial, как тренировать, а вот как пользоваться моделью - нет
источник

A

Andrey in Natural Language Processing
обычно model(**inputs)
источник

A

Anton in Natural Language Processing
Чаще всего на странице где находится модель есть код для предикта с примером.
источник

М

Майя in Natural Language Processing
Спасибо, я все-таки склонилась к simpletransformers. Вроде понятнее, чем обычные.
источник

ТС

Томатный Сок... in Natural Language Processing
Всем привет. Я использую модуль Natasha для синтаксического разбора.  Члены предложения там подписываются как nsubj, root, advocate, acl  и другое. Как и где можно узнать их значение? Документации по этому модулю не нашёл.
источник

DD

David Dale in Natural Language Processing
https://universaldependencies.org/u/dep
и
https://universaldependencies.org/ru/index.html
в совокупности должны вроде как всё описывать
источник

ТС

Томатный Сок... in Natural Language Processing
Спасибо🙂
источник

ТС

Томатный Сок... in Natural Language Processing
Ещё один вопрос по синтаксическому разбору в Natasha. Можно ли узнать какие слова иеархически связаны с другим словом(являются его потомками)?
источник

d

dePuff in Natural Language Processing
В  DocToken id и head_id это не оно?
источник

ТС

Томатный Сок... in Natural Language Processing
Да, но там может быть несколько head_id  с одинаковым значением, и как это разобрать мне не понятно.
источник

d

dePuff in Natural Language Processing
head_id это айдишник "родителя"
Потомков может быть несколько
источник

d

dePuff in Natural Language Processing
Самый унылый формат для структуры "дерево" )

В один проход в цикле по всем элементам  можно собрать  всех вложеных и подвложенных потомков для всех
источник

ТС

Томатный Сок... in Natural Language Processing
Спасибо, это всё объясняет🙂
источник
2021 July 14

EI

Evgeniy Ivanov in Natural Language Processing
Привет👋🏽. Кто знает/подскажет, библиотеку/метод очищающий корпус от мусорных слов: “привет озазаз” -> «привет» ?
источник

A

Anton in Natural Language Processing
Привет. Не смог найти такую таску в статье. Где про это посмотреть?
источник