Size: a a a

Natural Language Processing

2021 June 11

MK

Max Kuznetsov in Natural Language Processing
Я только могу вспомнить сберовский для соревнования 2017 года. Когда я его пытался найти, то сайт соревнования лежал. Думаю у кого-то остался.
источник

SP

Sebastian Pereira in Natural Language Processing
Я тоже не могу скачать его, битые ссылки.
источник

MK

Max Kuznetsov in Natural Language Processing
источник

MK

Max Kuznetsov in Natural Language Processing
источник

MK

Max Kuznetsov in Natural Language Processing
Живая ссылка, качает, но не проверял
источник

SS

Sergey Shulga in Natural Language Processing
Народ, а подскажите, что почитать про связывание сущностей. Если у меня в тексте есть полная раскладка паспорта, и я на выходе хочу получать условно дикт "паспорт". При этом сам ner достаёт из предложения только сущности типа ФИО, дата, адрес. Но это все- плоский NER. В какую сторону смотреть? P.S.: pullenty не предлагать.
источник

SS

Sergey Shulga in Natural Language Processing
Я так понимаю, после ner должен отработать классификатор на уже извлеченных сущностях с учётом dep, pos, офсетов и так далее
источник

KL

Kir L in Natural Language Processing
Коллеги, вопрос по Наташе
у меня что-то она в качестве амилий стала доставать странные слова, например "Нужна" или "встретиться" - это фамилии
никто не знает, что за глюк такой и как починить
источник

KL

Kir L in Natural Language Processing
лан. починил как починилось (
источник

D

Dmitriy in Natural Language Processing
spacy не смотрели?
вроде у него есть связывание сущностей...
источник

D

Dmitriy in Natural Language Processing
источник

АЗ

Андрей Зимницкий... in Natural Language Processing
NLP Basic Course for Beginner

FREE For 48 Hrs

Learn Natural Language Processing ( NLP ) & how to analyze text data.

https://coursevania.com/courses/nlp-basic-course-for-beginner/
источник

A

Andrey in Natural Language Processing
подскажите пожалуйста, вот есть bert-extractive-summarizer, он в английском может делать coreference.

для русского это как-то возможно?
источник

Е

Егорка in Natural Language Processing
Если вы про разрешение кореференций
источник

Е

Егорка in Natural Language Processing
Переслано от Alexander Kukushkin
источник

D

Dmitry in Natural Language Processing
увы я искал решения для coreference resolution для русского, но ничего не нашел.
можно использовать хак: переводить на английский какой-нибудь моделькой, например opus-mt ну а дальше уже знаете что делать))
источник

D

Dmitry in Natural Language Processing
neuralcoref и https://github.com/msg-systems/coreferee для Spacy
источник

A

Andrey in Natural Language Processing
понял... спасибо!
источник

RY

Ruslan515 Y in Natural Language Processing
всем привет. есть фрейм с текстом и метками(классов порядка 30). нужно сделать mvp для классификации текстов. что бы обойти векторизацию и сделать все быстро использовал  catboost  на части данных (до этого хорошие скоры были + обучение на gpu). НО - таблица большая, полностью не лезет в память. соот-о встает вопрос обучения и до обучения на оставшихся кусках данных. есть ли способ обучить модель, сохранить, восстановить и доучить и так со всеми данными используя при этом gpu?
источник

K

Kate in Natural Language Processing
всем привет! кто-нибудь сталкивался с задачей классификации текста на мнения/факты?(субъективная/объективная оценка) может, есть для этого хорошие модели?
источник