Size: a a a

Natural Language Processing

2020 October 29

SZ

Sasha Zhu in Natural Language Processing
Друзья, привет!
Подскажите, в чем может быть проблема?

Работаю с gpt2, переобучила на своем корпусе, все классно, на эвале в конце каждой эпохи показывает более-менее удовлетворительный результат. Когда пытаюсь с моделью что-то делать (в того же бота в тг закинуть), то результат отличается кратно от того, что получается в процессе обучения (в худшую сторону).
источник

SZ

Sasha Zhu in Natural Language Processing
Я дообучаю уже существующую модель, у меня после этого получается несколько *.pt - моделей, конфиг и базовая модель остаются теми же, что и в начале
источник

DD

Darina Dementyeva in Natural Language Processing
Sasha Zhu
Друзья, привет!
Подскажите, в чем может быть проблема?

Работаю с gpt2, переобучила на своем корпусе, все классно, на эвале в конце каждой эпохи показывает более-менее удовлетворительный результат. Когда пытаюсь с моделью что-то делать (в того же бота в тг закинуть), то результат отличается кратно от того, что получается в процессе обучения (в худшую сторону).
а вы пытались просто из питона вызывать модель на генерацию?
источник

SZ

Sasha Zhu in Natural Language Processing
Darina Dementyeva
а вы пытались просто из питона вызывать модель на генерацию?
да, конечно
источник

SZ

Sasha Zhu in Natural Language Processing
и результат отличается почему-то от эвала тоже
источник

BS

Bogdan Salyp in Natural Language Processing
А что с параметрами типо temperature, они на эвале дефолтные?
источник

SZ

Sasha Zhu in Natural Language Processing
Bogdan Salyp
А что с параметрами типо temperature, они на эвале дефолтные?
везде одни и те же параметры
источник

SZ

Sasha Zhu in Natural Language Processing
хоть убей, не могу понять, в чем дело
источник

DD

Darina Dementyeva in Natural Language Processing
Sasha Zhu
Друзья, привет!
Подскажите, в чем может быть проблема?

Работаю с gpt2, переобучила на своем корпусе, все классно, на эвале в конце каждой эпохи показывает более-менее удовлетворительный результат. Когда пытаюсь с моделью что-то делать (в того же бота в тг закинуть), то результат отличается кратно от того, что получается в процессе обучения (в худшую сторону).
а как проверяете "более-менее удовлетворительный результат"?
источник

SZ

Sasha Zhu in Natural Language Processing
субъективно :)
вижу, что во время обучения в конце каждой эпохи на эвале гораздо более "осмысленные" вещи выдаются, по сравнению с тем, что просто в процессе генерации получается
источник

SZ

Sasha Zhu in Natural Language Processing
очень странно и непонятно мне
источник

DD

Darina Dementyeva in Natural Language Processing
вот проблема может быть в том, что на ваш взгляд по какому-то одному-двум предлоежниям кажется, что модель обучается, а на самом деле нет. лучше смотреть на цифры - во время обучения модель все равно ориентируется на метрики, лучше их выводить (и лучше всего в виде графика), чтобы действительно оценить, что происходит с моделью.
источник

SZ

Sasha Zhu in Natural Language Processing
Darina Dementyeva
вот проблема может быть в том, что на ваш взгляд по какому-то одному-двум предлоежниям кажется, что модель обучается, а на самом деле нет. лучше смотреть на цифры - во время обучения модель все равно ориентируется на метрики, лучше их выводить (и лучше всего в виде графика), чтобы действительно оценить, что происходит с моделью.
так и по метрикам тоже все в порядке, это, в целом, дефолтный показатель, на который ориентируюсь
источник

SZ

Sasha Zhu in Natural Language Processing
просто результаты ОЧЕНЬ разные
источник

DS

Damir Safix in Natural Language Processing
приветствую. посоветуйте пожалуйста что-нибудь для рерайта статей на русском. скилл джуниор.
источник

DS

Damir Safix in Natural Language Processing
или готовые решения.
источник

DS

Damir Safix in Natural Language Processing
уникализации.
источник

DS

Damir Safix in Natural Language Processing
когда в последний раз был в чате было 200 человек. или это другой.
источник

ND

Nirfa Diya in Natural Language Processing
need help in word2vec prblm
источник

AW

Alex Wortega in Natural Language Processing
Damir Safix
приветствую. посоветуйте пожалуйста что-нибудь для рерайта статей на русском. скилл джуниор.
Джуниор?
источник