Size: a a a

Natural Language Processing

2021 January 09

RI

Radmir Ibragimov in Natural Language Processing
Спасибо!
источник

N

Natalia in Natural Language Processing
и там же модельки OPUS
источник

RI

Radmir Ibragimov in Natural Language Processing
Natalia
и там же модельки OPUS
Спасибо!
источник
2021 January 10

ТА

Тимур Абрамов... in Natural Language Processing
источник

B

Banof in Natural Language Processing
🔫 ☬اآݪِ۫سِ۫ـِ۫͢ـِٰ۫⃟↻ـ௸ـِ۫ـِٰ۫⃟↺ـ͢ـِٰ۫فِ۫اآོඋ☬ кикнут — вернуть этого пользователя можно только разбаном в настройках чата.

Проголосовавшие за кик:
@abramovtv, @Edik_98, @Cookie_thief, @h3x_m0nst3r, @EryominAnton
При поддержке Золота Бородача
источник

ЯЗ

Я — пехотинец Владим... in Natural Language Processing
Откуда они такие лезут?
источник

KK

Krep Kospit in Natural Language Processing
Добрый вечер! Помогите, пожалуйста... Я правильно понимаю, что в этом руководстве: https://pytorch.org/tutorials/beginner/transformer_tutorial.html решается задача генерации текста на искусственно созданном тексте? И почему здесь есть только блок энкодера, ведь трансформер включает ещё и декодер?
источник

DD

David Dale in Natural Language Processing
Krep Kospit
Добрый вечер! Помогите, пожалуйста... Я правильно понимаю, что в этом руководстве: https://pytorch.org/tutorials/beginner/transformer_tutorial.html решается задача генерации текста на искусственно созданном тексте? И почему здесь есть только блок энкодера, ведь трансформер включает ещё и декодер?
Прочитав по диагонали tutorial, я нашёл не "искусственно созданный текст", а Wikitext-2 - набор текстов из Википедии. Картинки с набором букв там только для иллюстрации.

А "трансформерами" называют не только seq2seq модель из "attention is all you need", состоявшую действительно из энкодера и декодера, но и модели, состоящие только из энкодера (типа BERT) или только из декодера (типа GPT). И термин "трансформер"  означает только то, что вся связь между токенами осуществляется исключительно за счёт механизма внимания.
источник

KK

Krep Kospit in Natural Language Processing
David Dale
Прочитав по диагонали tutorial, я нашёл не "искусственно созданный текст", а Wikitext-2 - набор текстов из Википедии. Картинки с набором букв там только для иллюстрации.

А "трансформерами" называют не только seq2seq модель из "attention is all you need", состоявшую действительно из энкодера и декодера, но и модели, состоящие только из энкодера (типа BERT) или только из декодера (типа GPT). И термин "трансформер"  означает только то, что вся связь между токенами осуществляется исключительно за счёт механизма внимания.
Благодарю! А я лишь на код внимание обратил... То есть, если, явно или нет, имеются те самые Q,K, V, то сеть уже можно назвать трансформером?
источник

DD

David Dale in Natural Language Processing
Krep Kospit
Благодарю! А я лишь на код внимание обратил... То есть, если, явно или нет, имеются те самые Q,K, V, то сеть уже можно назвать трансформером?
Ну почти.
Фишка трансформеров в том, что QKV - единственный способ связи токенов. Attention исходно появился как вспомогательный костыль к рекуррентным сеткам, а трансформеры как явление появились после статьи attention is all you need, где рекуррентность выпилили и стало только лучше)
источник

SancheZz Мов in Natural Language Processing
Но чтобы далеко не ходить добавили позиционирование
источник

SancheZz Мов in Natural Language Processing
В виде position tokens
источник

SancheZz Мов in Natural Language Processing
Поэтому денсы могут во "время" или позиционирование в последовательности с таким хаком
источник

SancheZz Мов in Natural Language Processing
И реально рнн уже и не нужен
источник

KK

Krep Kospit in Natural Language Processing
@cointegrated @dealer_ai спасибо!
источник

KK

Krep Kospit in Natural Language Processing
Осталось понять, как работает маскировка.
источник

SancheZz Мов in Natural Language Processing
Krep Kospit
Осталось понять, как работает маскировка.
Маскирование
источник

SancheZz Мов in Natural Language Processing
;)
источник

KK

Krep Kospit in Natural Language Processing
SancheZz Мов
Маскирование
Это принципиально? Я просто встречал прямо такой перевод.
источник

SancheZz Мов in Natural Language Processing
источник