Size: a a a

Natural Language Processing

2021 July 08

A

Anton in Natural Language Processing
один из примеров
источник

СС

Сёрежа Серёжа... in Natural Language Processing
run_summarization.py. Главное префикс убрать
источник

A

Anton in Natural Language Processing
я поставил что-то вроде correct ASR:
источник

A

Andrey in Natural Language Processing
у т5 вроде ж есть таска assembly. может в эту сторону глянуть?
источник

СС

Сёрежа Серёжа... in Natural Language Processing
А разница с/без префикса есть? Просто correct ASR: это достаточно много токенов для byt5
источник

A

Anton in Natural Language Processing
надо глянуть, спасибо!
источник

A

Anton in Natural Language Processing
не пробовал
источник

LS

Lily Sabirzyanova in Natural Language Processing
всем привет! ссори за, возможно, глупый вопрос... я джун и еще только учусь....может, кто-то такую задачку уже решал, мне надо было предсказать, какой класс тот или иной текст, размеченных текстов у меня нет, но для каждого класса у меня  есть описания, поэтому я обучила на текстах и описаниях для классов ворд2век и фасттекст, через косинусную близость находила топ 5 предсказаний по классу.... а теперь мне шеф говорит сделай ансамбль из этих двух моделей...может подскажите, как это делается для неразмеченных текстов, возможно ссылочкка есть, я поискала в инете...не нашла...решила спросить
источник

G

Gernar in Natural Language Processing
сложи расстояния этих моделей с весами и найди лучшее соотношение весов
источник

LS

Lily Sabirzyanova in Natural Language Processing
А как веса искать линейной регрессией?
источник

G

Gernar in Natural Language Processing
там всего два веса, можешь просто по сетке с маленьким шагом перебрать
источник

G

Gernar in Natural Language Processing
их сумма = 1 должна быть всегда
источник

LS

Lily Sabirzyanova in Natural Language Processing
А.  Поняла! Спасибо ) пойду перебирать ❤️
источник

TM

Toemik Mnemonic in Natural Language Processing
Кстати а выдаст ли какой то отличный от нулевого вектора предобученная русская модель BERTbase для опечаток и коверканий  ("сшастье", "любвь" ,"воренье" и тд.)?
источник

DD

David Dale in Natural Language Processing
Да, BERT (как и большинство трансформеров) разбивает незнакомые слова на subword tokens, и, если слово не исковеркано до неузнаваемости, вполне может угадать его идею.
источник

d

dePuff in Natural Language Processing
Безусловно
источник

TM

Toemik Mnemonic in Natural Language Processing
супер, спасибо!
источник

VM

Victor Maslov in Natural Language Processing
Любвь и воренье, что еще нужно для сшастья.
источник

TM

Toemik Mnemonic in Natural Language Processing
эта крткий пут к зрдовью
источник

В

Валентин👾 in Natural Language Processing
Подскажите пожалуйста, вот у самого модуля natasha есть NER и ещё отдельно есть модуль slovnet, в котором тоже есть NER. Они чем то различаются?
источник