Size: a a a

Natural Language Processing

2021 July 27

SancheZz Мов in Natural Language Processing
Я бы оттуда взял идею и приземлил
источник

FF

Futorio Franklin in Natural Language Processing
Мне в tinybert нравится дистилляция промежуточных представлений, простая и логичная идея
источник

SancheZz Мов in Natural Language Processing
Переслано от Дмитрий Симаков...
https://github.com/autoliuweijie/FastBERT у них код свой есть. ссылка в статье.
источник

SancheZz Мов in Natural Language Processing
Не говори, гениально
источник

SancheZz Мов in Natural Language Processing
Но даунстрим супервайзд таске это лучше чем логиты дистиллить
источник

SancheZz Мов in Natural Language Processing
Еще модель логику слоев наследует
источник

SancheZz Мов in Natural Language Processing
А не только через конечное отображение
источник

FF

Futorio Franklin in Natural Language Processing
Хорошо, если так будет на бенчмарках сравнения русских дистилл моделей
источник

SancheZz Мов in Natural Language Processing
Кстати Давид так же учил параллельно с сентенс ранкинг таской дистилляцию ток cls sentence embedding
источник

SancheZz Мов in Natural Language Processing
А теперь шагнем вперед и добавим дистилят к промежуточным стейтам
источник

SancheZz Мов in Natural Language Processing
И думаю будет веселее
источник

K

Kutuz4 in Natural Language Processing
Товарищи, а отчего если брать токенизатор для гпт3 сберовской с huggingface, то он содержит всего 50 тысяч слов? И многие очевидные слова, например лапша, разбивает на субтокены
источник

IG

Ilya Gusev in Natural Language Processing
Так в субтокенах и смысл, словари имено уровня субтокенов. Потому что пословные словари огромны, а softmax медленный. Для мультиязычных моделей пословные словари вообще превращаются в ад.
А вообще, rtfm: https://huggingface.co/transformers/tokenizer_summary.html
источник

K

Kutuz4 in Natural Language Processing
Но как мне из эмбеддингов субтокенов, условно говоря, получить эмбеддинг слова, не присутствующего в словаре?
источник

IG

Ilya Gusev in Natural Language Processing
любым пулингом: усреднение, максимум, что-то более сложное
но главный вопрос - а зачем?
источник

AW

Alex Wortega in Natural Language Processing
Оно не даёт себя открыть под версией где onnx работает
источник

d

dePuff in Natural Language Processing
Токенайзер уже умеет, как резать предложения на нужные нейронке id:
input_encodings = tokenizer(example_batch['input_text'], max_length=256, truncation=True)

Так и из этих номеров, полученных от нейронки, склеивать готовый текст:
tokenizer.decode(out[0], skip_special_tokens=False)
источник

AO

Alex Orgish in Natural Language Processing
Странно, onnx заявляет об backward compatibility (https://www.onnxruntime.ai/docs/resources/compatibility.html) .
источник

AP

Arsen Plus in Natural Language Processing
Привет всем! Подскажите, пожалуйста, существует ли для русского языка ner для денежных сумм, помимо DeepPavlov-модели?
источник

K

Kutuz4 in Natural Language Processing
Natasha
источник