нет никакого формата "transformers"))) Всё это токенизаторы BPE, обученные под каждую модель. Во-первых, у разных трансформаров по-разному обозначаются специальные токены, во-вторых, формирование индексов токенов будет отличаться.
русским языком повторяю в третий раз - мне не нужен yttm, мне нужен vocab.json для transformers для того чтобы просто тупо вставить модель в сам transformers без левых классов