Size: a a a

Natural Language Processing

2021 August 04

N

Natalia in Natural Language Processing
а разве точно stanza какая-нибудь не справляется с английским? однородные члены в UD вполне себе внятно анализируются, и сложные предложения тоже
источник

M

Maksym in Natural Language Processing
#jobs_Hr
Всем отличного дня.
Компания Metingest Digital, ищет NLP инженера в наш RnD департамент.

https://jobs.dou.ua/companies/metinvest-digital/vacancies/136294/ - здесь подробное описания вакансии.
Зарплатная вилка в районе 4000$, есть возможность удаленной работы, белая заработная плата и интересные бенефиты. Быстрые этапы прохождения интервью и оперативный фидбек. С удовольствием расскажу все детали в личке))
источник

$

$○| in Natural Language Processing
Как лучше подойти к такой задаче как поиск предложения, содержащего ответ на заранее известный вопрос в небольшом списке из 5-7 предложений. Deeppavlov обычно пробует найти часть предложения, а мне надо просто наиболее релевантное вопросу предложение, целиком
источник

$

$○| in Natural Language Processing
Ответ может быть непохож на вопрос
источник

$

$○| in Natural Language Processing
То есть, например вопрос Почему трава зеленая а ответ В траве содержится хлорофилл.
источник

$

$○| in Natural Language Processing
Остальные предложения из этих 5-7 точно не содержат ответа на вопрос
источник

$

$○| in Natural Language Processing
То есть ответом является только одно из них
источник

AP

Anna Pshenichnikova in Natural Language Processing
Я использую spacy. Зависимости они обе определяют, дальше же нужно их анализировать. Мне не удалось написать пока такой всеохватывающий алгоритм, поэтому и задала здесь вопрос. Как это сделать? Идти по дереву от root, анализируя childs и искать зависимости conjs?
источник

$

$○| in Natural Language Processing
или это нерешаемая задача?
источник

IG

Ilya Gusev in Natural Language Processing
а какая разница спан нужен или целиковое предложение? можно взять любую спановую модельку и выводить в качестве ответа то предложение, где нашёлся спан
источник

IG

Ilya Gusev in Natural Language Processing
это всех qa моделей касается
источник

IG

Ilya Gusev in Natural Language Processing
Ещё если есть большая обучающая выборка, можно просто двумя несвязанными энкодерами получить представления вопроса и ответа и обучать модель минимизировать косинусное расстояние между этими представлениями. Из-за того, что энкодеры не связаны, непохожесть ответа на вопрос никак не помешает
источник

$

$○| in Natural Language Processing
попробую так, спасибо
источник

A

Arthur in Natural Language Processing
Можно попробовать предобученные сетки для такого, например: https://demo.allennlp.org/open-information-extraction

Про разные подходы можно прочитать здесь:
https://paperswithcode.com/task/open-information-extraction
источник

A

Arthur in Natural Language Processing
Перед использованием можно ещё пройтись вот этой сеткой: https://github.com/google-research/language/tree/master/language/decontext
источник

DD

David Dale in Natural Language Processing
Стандартный бертовский next sentence prediction должен уже очень хорошо работает. Текст А - вопрос, текст Б - каждое предложение из списка кандидатов по очереди. Поскорить все пары А и Б и выбрать ту, где скор NSP максимальный.
источник

DD

David Dale in Natural Language Processing
А если на своём датасете пофайнтюнить (даже не очень большом), будет вообще огонь
источник

$

$○| in Natural Language Processing
вот это то что нужно. спасибо
источник

A

Anton in Natural Language Processing
Интересная интерпретация. Только не очень понял смысл деконтекстуализации
источник

K

Kutuz4 in Natural Language Processing
Товарищи, а что существует самое быстрое для подсчёта эмбеддингов слов/очень коротких предложений (2-3 слова)?
источник