Size: a a a

Machine learning

2021 January 18

K

K-S in Machine learning
Да. При регуляризации — это лосс плюс штраф
источник

K

K-S in Machine learning
Разумеется, он не обязан быть MSE везде и всегда
источник

ЕО

Егор Овчинников... in Machine learning
Но ведь функцию потерь можно выбирать исходя из нужд. От сюда и вопрос... используется всегда RSS или та, которую мы выбираем для задачи...? Например MAE.
источник

K

K-S in Machine learning
Если «выбранный вами лосс + регуляризатор» можно/удобно оптимизировать, то пожалуйста
источник

SS

Sergey Salnikov in Machine learning
для решения нам нужно смотреть метрики качества, но не все метрики качества аналитически поддерживаются в модели, поэтому вместо них для оптимизации используются дифферинцируемые функции потерь, причем их выбор на самом деле невелик
источник

SS

Sergey Salnikov in Machine learning
мае, кстати, недиф
источник

K

K-S in Machine learning
В принципе МАЕ же субградиентными методами можно оптимизировать напрямую
источник

ЕО

Егор Овчинников... in Machine learning
То есть Если я выбрал функцию потерь(например MAE)... и использую регуляризацию, то она автоматически подхватывает эту функцию потерь и добавляет к ней регуляризационый параметр? Я запутался, так что мои слова могут казаться бредовыми. Извиняюсь за отнятое время и спасибо за помощь!
источник

K

K-S in Machine learning
Если вам это удобно будет оптимизировать, то да. Просто МАЕ в мл зачастую напрямую не оптимизируют, а заменяют более «удобными» функционалами — по типу Хьюбера, например
источник

ЕО

Егор Овчинников... in Machine learning
То есть если мы планируем использовать регуляризацию, то лучше выбрать дифференцируемую функцию потерь, верно? И от сюда вопрос, сам модуль регуляризации в sklearn'e... в нем вшита функция потерь, которую можем изменить или он подхватывает ранее выбранную функцию потерь?
источник

SS

Sergey Salnikov in Machine learning
регуляризация - это не отдельный модуль, а часть функции потерь
источник

K

K-S in Machine learning
В sklearn.linear_model вроде бы только мсе/логлосс доступны. Для других функционалов можно попробовать SGDRegressor/SGDClassifier
источник

K

K-S in Machine learning
Sergey Salnikov
регуляризация - это не отдельный модуль, а часть функции потерь
+
источник

ЕО

Егор Овчинников... in Machine learning
Спасибо большое!
источник

ЕО

Егор Овчинников... in Machine learning
источник

ЕО

Егор Овчинников... in Machine learning
Эта группа единственное место, где на банальные или глупые вопросы люди реагируют адекватно. Действительно помогаете!
источник

AD

Aleksandr Darmeiko in Machine learning
источник

AM

Aleksandr Markelov in Machine learning
K-S
В sklearn.linear_model вроде бы только мсе/логлосс доступны. Для других функционалов можно попробовать SGDRegressor/SGDClassifier
Если я правильно понимаю, то градиентный спуск это SGDRegressor, а LinerRegressor считает через аналитическое решение.
источник

K

K-S in Machine learning
Aleksandr Markelov
Если я правильно понимаю, то градиентный спуск это SGDRegressor, а LinerRegressor считает через аналитическое решение.
ну в linear_model же может быть и логрег, а он аналитически не решается.
источник

SS

Sergey Salnikov in Machine learning
там тоже какой-то итерационный
источник