Size: a a a

Natural Language Processing

2021 July 06

TT

Timofey Tarusov in Natural Language Processing
хм, а из коробки через класс BertForSequenceClassification никак? Странно, потому что в самой документации написано, что можно делать регрессию. Но аутпут все равно одинаковый(
источник

IG

Ilya Gusev in Natural Language Processing
там там в logits и есть нужное предсказание, нафига softmax в регрессии
источник

d

dePuff in Natural Language Processing
Нормализовать логиты сигмоидой и вот она регрессия
источник

IG

Ilya Gusev in Natural Language Processing
да не нужно ничего нормализовывать, там напрямую оптимизируется MSE между logits и labels
источник

d

dePuff in Natural Language Processing
Для интерференса
источник

TT

Timofey Tarusov in Natural Language Processing
похоже, Ilya Gusev прав.
источник

TT

Timofey Tarusov in Natural Language Processing
self.classifier = nn.Linear(config.hidden_size, config.num_labels)
источник

IG

Ilya Gusev in Natural Language Processing
инференса? зачем сжимать предсказания в [0, 1]?
источник

TT

Timofey Tarusov in Natural Language Processing
странно, у меня тогда почему-то очень странные значения выходят(
источник

IG

Ilya Gusev in Natural Language Processing
ну это уже вопрос к выборке
источник

d

dePuff in Natural Language Processing
А зачем они в другом диапазоне и как вообще Y оказался в другом диапазоне?
источник

IG

Ilya Gusev in Natural Language Processing
Да зачем угодно, задача регрессии же. Может там какие-нибудь пользовательские оценки от -10 до 10
источник

М

Майя in Natural Language Processing
Подскажите, пожалуйста, как дотренировать embeddings  для моего моих данных?

У меня safety data sheets, их довольно много и они на разных языках. Собираюсь обучать NER, но, думаю, было бы хорошо сначала дотренировать эмбеддинги на неращмеченных данных.
источник

d

dePuff in Natural Language Processing
И разве не классика привести их к чему-то поменьше и ограниченнее?
источник

IG

Ilya Gusev in Natural Language Processing
да нет, MSE в целом плевать, только лишний раз туда-обратно нормализацию гонять
источник

d

dePuff in Natural Language Processing
Ок. Разве не может получиться, что мы учим регрессию предсказывать оценки от -10 до 10 без всяких нормализаций, а потом нам попадается реальный пример, который выбивает 12?
источник

IG

Ilya Gusev in Natural Language Processing
может, но нормализация тут никак не помогает, просто будет пример, который выбивает 1.1
источник

d

dePuff in Natural Language Processing
Ну сигмоида не может дать 1,1
источник

d

dePuff in Natural Language Processing
Ладно, может я не проснулся.
Я не настоящий DS )
источник

d

dePuff in Natural Language Processing
Чего бы регрессии не экстраполировать, да
источник