Size: a a a

Natural Language Processing

2021 June 08

K

Ksenia in Natural Language Processing
Я одна не понимаю, зачем генеративные модели для классификации использовать?
источник

AP

Alexander Pimenov in Natural Language Processing
Нет, квантизация тут ни причем, капсулы - это такая довольно новая архитектура нейронных сетей, которая позволяет "учесть" всякие внутренние симметрии. Было интересно попробовать, но я не считаю что обязательно их использовать. Точно ясно что GPT не содержит энкодера и это проблема для решения задач классификации обычным способом как с Бертом. Конечно, эмбеддинги GPT много полезного содержат, но использовать эти фичи не так просто
источник

AZ

Alexandra Zh in Natural Language Processing
Помню, что когда-то в связке с квантизацией о них слышала, но на практике не применяла
источник

AZ

Alexandra Zh in Natural Language Processing
источник

K

Ksenia in Natural Language Processing
источник

AZ

Alexandra Zh in Natural Language Processing
источник

AZ

Alexandra Zh in Natural Language Processing
Да, это офигенно работает
источник

AP

Alexander Pimenov in Natural Language Processing
Ну да, с таким размером модели неудивительно)
источник

AZ

Alexandra Zh in Natural Language Processing
Ну и снова-таки, это работает у ОпенАИ, а вот интересно, как с подобной задачей ру-вариант справится)
источник

K

Ksenia in Natural Language Processing
https://stackoverflow.com/questions/60574112/can-we-use-gpt-2-sentence-embedding-for-classification-tasks вот тут говорят, что все равно берт лучше (потому что он заточен под такие задачи)
источник

ТС

Тимофей Смирнов... in Natural Language Processing
Кажется в хаггингфейс так и не завезли MLM трейнинг для GPT моделей, без этого грустно конечно с ними работать, Bert обычный лучше получается
источник

AZ

Alexandra Zh in Natural Language Processing
Тут несколько о другом, все же)
источник

K

Ksenia in Natural Language Processing
Да, ну я просто смотрю разные варианты
источник

K

Ksenia in Natural Language Processing
Тут еще вопрос стоимости такого подхода, если доступ к модели платный
источник

K

Ksenia in Natural Language Processing
Для поиграться сойдет, а если использовать в проде или даже в ресерче...
источник

OM

Orzhan Mikhail in Natural Language Processing
Точность few shot сильно зависит от размера модели и наименьшая из OpenAI GPT-3 тоже будет не очень. У ruGPT3 в облаке доступна 13B модель, которая могла бы справиться с few shot постановкой (кто-то с ней работал уже?)
источник

AP

Alexander Pimenov in Natural Language Processing
Скорее как более старая GPT-2 будет работать, примеров работы ruGPT-3 довольно много и впечатление однозначное ) Это совсем неплохо но и не супер )
источник

AZ

Alexandra Zh in Natural Language Processing
Few shot не тестила с ру, а вот точность опенаи практически во всех моделях бьет берты
источник

AZ

Alexandra Zh in Natural Language Processing
Ну это подтверждает мою гипотезу и впечатление
источник

AZ

Alexandra Zh in Natural Language Processing
Спасибо)
источник