Ребят, кто-нибудь использовал seq2seq на предобученных моделях с huggingface в целом или их либы transformers в частности?
Для bert у них есть предобученные только классификация последовательностей или next sentence модель, но она не подходит ко всем seq2seq задачам
У huggingface есть класс EncoderDecoder, который берёт предобученные модели в качестве аргументов и инициализирует из них энкодер и декодер
Так же у них в репо есть папочка с разными примерами, есть там и примеры seq2seq, в частности, если не ошибаюсь, саммаризация и перевод.
Но понятное дело, придётся пошаманить слегка с кодом, скорее всего