Size: a a a

Natural Language Processing

2021 August 02

M

Maksym in Natural Language Processing
А на 16 уровне?))
источник

IK

Ilya Kazakov in Natural Language Processing
даааа... и вообще, не "тайни", а Энкодечка  ))) если уж совсем занудно))
источник

DD

David Dale in Natural Language Processing
Я не пробовал, но по архитектуре это стандартнейший BERT, и в huggingface, afaik, давно есть конвертилки для него в обе стороны (torch <-> tf).
Или лучше вообще инференс делать в onnx 🙃
источник

SancheZz Мов in Natural Language Processing
Я умею
источник

SancheZz Мов in Natural Language Processing
Дружить с тф
источник

SancheZz Мов in Natural Language Processing
Как правильно заметил Давид на просторах гугла есть файл convert_pytorch_to_tensorflow.py
источник

SancheZz Мов in Natural Language Processing
Последний раз я билингв LABSE успешно в тф перелил
источник

D

Danila Milovanov in Natural Language Processing
Но без либы transformers наверное не выйдет всё это запустить?
источник

SancheZz Мов in Natural Language Processing
Торч должен точно стоять и тф
источник

SancheZz Мов in Natural Language Processing
Тк там еще над переименовать слои
источник

SancheZz Мов in Natural Language Processing
И лить с одного на другой
источник

SancheZz Мов in Natural Language Processing
Советую найти файл и его поковырять
источник

D

Danila Milovanov in Natural Language Processing
Не, я хотел узнать, после конвертации, не получится заюзать модель без transformers?
источник

SancheZz Мов in Natural Language Processing
Получается
источник

SancheZz Мов in Natural Language Processing
Я ж им не пользуюсь
источник

SancheZz Мов in Natural Language Processing
Билдю тф чекпоинты в формате тф хаб
источник

SancheZz Мов in Natural Language Processing
Или тф модуль
источник

SancheZz Мов in Natural Language Processing
Как это сделать? Читайте в коде к статье про сберт ру
источник

SancheZz Мов in Natural Language Processing
источник

SancheZz Мов in Natural Language Processing
Или тут)
источник