Size: a a a

AI / Big Data / Machine Learning

2020 April 14

S

Seva Denisov in AI / Big Data / Machine Learning
Лучше чем без них
источник

D🐈

Dan 🐈 Capybara in AI / Big Data / Machine Learning
Зато есть и релевантная информация :)
Завтра утром (с 10 по Москве) пройдёт бесплатный онлайн вебинар «Использование нейросетей для задачи поиска и выделения из текста ФИО»

Ссылка для регистрации https://newtechaudit.ru/onlajn-vebinar-2/
источник

NN

No Name in AI / Big Data / Machine Learning
Dan 🐈 Capybara
Зато есть и релевантная информация :)
Завтра утром (с 10 по Москве) пройдёт бесплатный онлайн вебинар «Использование нейросетей для задачи поиска и выделения из текста ФИО»

Ссылка для регистрации https://newtechaudit.ru/onlajn-vebinar-2/
А запись потом будет где-нибудь?
источник

D🐈

Dan 🐈 Capybara in AI / Big Data / Machine Learning
No Name
А запись потом будет где-нибудь?
Скорее всего будет
источник

D🐈

Dan 🐈 Capybara in AI / Big Data / Machine Learning
@bigdata_en for english please
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Seva Denisov
Я пробовал ResNet но там какая-то слабая сходимость. Но я не много экспериментов проводил
Используй efficientnet b4-b7, resnet и тем более vgg, не очень сильные сети на данный момент
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
76% для них норм результат, для 85% нужно что-то мощнее, вероятно
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Только не надо сразу добавлять dropout, вероятнее всего, он вообще не нужен, просто аугментируй данные и все. Batch norm добавляет регуляризацию, но вместе с dropout может давать не лучшие эффекты
источник

SI

Sqrt Iter in AI / Big Data / Machine Learning
В keras (tensorflow) есть какой-то callback, чтобы запоминал (хотя бы) эпоху, в которой наилучшие результаты?
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Sqrt Iter
В keras (tensorflow) есть какой-то callback, чтобы запоминал (хотя бы) эпоху, в которой наилучшие результаты?
Есть сохранять модель или веса:
keras.callbacks.ModelCheckpoint('./model_name.hdf5', save_best_only=True, mode = "min")
источник

SI

Sqrt Iter in AI / Big Data / Machine Learning
Ivan Mikhnenkov
Есть сохранять модель или веса:
keras.callbacks.ModelCheckpoint('./model_name.hdf5', save_best_only=True, mode = "min")
Спасибо, подзабыл, что такая опция есть. А еще, есть ли гайд, как в процессе обучения регулировать, например, learning_rate?
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Ну можно вручную, а есть и колбэк
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
keras.callbacks.ReduceLROnPlateau()
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Sqrt Iter
Спасибо, подзабыл, что такая опция есть. А еще, есть ли гайд, как в процессе обучения регулировать, например, learning_rate?
А так, пары правил достаточно:
- если loss дико скачет с самого начала, растет там и т.д., то lr слишком большой
- если loss падал на постоянном lr и перестал, то стоит попробовать уменьшить lr, например в 3 или в 10 раз, и так пока модель точно не перестанет учится т.е. оптимум примерно достигнут
источник

S

Seva Denisov in AI / Big Data / Machine Learning
Если vall_acc продолжает расти, а val_loss не падает, ставить modelchecpoint на val_acc? Он стоит на val_loss по дефолту
источник

TN

Timofey Naumenko in AI / Big Data / Machine Learning
Seva Denisov
Если vall_acc продолжает расти, а val_loss не падает, ставить modelchecpoint на val_acc? Он стоит на val_loss по дефолту
Да
источник

ME

Makhlov Egor in AI / Big Data / Machine Learning
Вечер добрый! Кто-нибудь видел статьи (на arxiv.org, к примеру) с исследования на каких вычислительных архитектурах лучше выполнять Inference и обучение нейронных сетей (желательно различных архитектур (CNN, LSTM (GRU), GNN))?
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Makhlov Egor
Вечер добрый! Кто-нибудь видел статьи (на arxiv.org, к примеру) с исследования на каких вычислительных архитектурах лучше выполнять Inference и обучение нейронных сетей (желательно различных архитектур (CNN, LSTM (GRU), GNN))?
А какие варианты?)
источник

ME

Makhlov Egor in AI / Big Data / Machine Learning
Evgeniy Zheltonozhskiy🇮🇱
А какие варианты?)
Кластер с CPU или с GPU.
Интересно как обстоит ситуация с обучением и исполнением на гетерогенных системах в целом.

+Intel пытается занять свою нишу в ML, конструируя свою видеокарту и доделывая OpenVINO, который будет давать (или уже дает, я еще не успел над этим поработать) возможность запуска слоев сети на разных вычислительных устройствах|блейдах кластера, что побуждает посмотреть насколько GPU уделывает CPU
источник

IM

Ivan Mikhnenkov in AI / Big Data / Machine Learning
Makhlov Egor
Вечер добрый! Кто-нибудь видел статьи (на arxiv.org, к примеру) с исследования на каких вычислительных архитектурах лучше выполнять Inference и обучение нейронных сетей (желательно различных архитектур (CNN, LSTM (GRU), GNN))?
CNN всегда на GPU, т.к. там легко векторизуемые вычисления
источник