Size: a a a

RL reading group

2018 January 15

РК

Руслан Костоев... in RL reading group
Какая размерность матриц хотябы?
источник

AN

Alexander Novikov in RL reading group
Советую попрофилировать на CPU и посмотреть что тормозит
источник

AN

Alexander Novikov in RL reading group
Можно во время sess.run() собрать всю run_time информацию, сгенерить из неё json, и потом посмотреть во встроенном в chrome просмоторщике логов.
https://github.com/tensorflow/tensorflow/issues/1824#issuecomment-225754659
источник

SK

Sergey Kolesnikov in RL reading group
про TF и CPU:
если тебе надо на CPU гонять RL - либо смотри, как это делают OpenAI - годный код довольно
либо преходи на PyTorch - там для RL и CPU много родных плюшек
если надо на CPU гонять не RL - смотри в сторону TF.Estimator, или хотя бы зафризь граф, чтобы запихнуть это дело в Serving - плавали, знаем (обернуть еще это дело в Docker и вообще огонь, даже на винде работает)
опять же caffe2+ONNX обеспечивают практически тоже самое, хотя может и попроще немного (зато кое-что не экспортируется, так то)
источник

R

Radoslav in RL reading group
@Bihaqo и @Scitator, спасибо за годные советы!
источник

R

Radoslav in RL reading group
Руслан Костоев
Какая размерность матриц хотябы?
Да громадная, я сам сейчас понял, что вопрос был риторический. Но зато полезные замечания прилетели :)
источник

РК

Руслан Костоев... in RL reading group
ну вот поэтому и замедление такое)
источник

R

Radoslav in RL reading group
Руслан Костоев
ну вот поэтому и замедление такое)
ага
источник
2018 January 16

AB

Alexander Btlk in RL reading group
Сорри если уже советовали,
1. у тф сессии есть параметры, влияющие на параллелизацию внутренних (н. матричное умножение) и внешних (н. свертки) операций. Наверняка поиграться с ними будет полезно для сру.
2. Собрать тф из исходников включив всевозможные препроцессорные ускорения (avx2 и иже с ними).
3. Проверить, что нет ботлнека в обращении к диску. С этим может помочь профиллировщик - google timeline tensorflow запрос в гугле даст тутор.
источник

AB

Alexander Btlk in RL reading group
4. Использовать актуальные методы работы с батчами. Сейчас это TF Dataset. Он быстрее старых очередей и упасибоже рукописных циклов
источник

AB

Alexander Btlk in RL reading group
5. "Заморозить" граф для использования в продакшене. Гуглить freeze tensorflow graph. Тлдр - выкидываются все ненужные для форвордпаса операции и переменные -> ускорение выполнения и всегда уменьшение размера сети на диске. Загрузка сети может стать дольше
источник

AB

Alexander Btlk in RL reading group
А и мое любимое.
6. Использовать NCWH тензоры, а не дефолтные NWHC. Это на практике на порядок быстрее для "картиночных" сеток.
источник

AP

Alexander Pashevich in RL reading group
Последнее - очень неожиданно. Откуда такая инфа?
источник

AP

Alexander Pashevich in RL reading group
всегда думал что np.swapaxes/tf.transpose выполняется за константу
источник

AM

Aleksandr Mikhailov ... in RL reading group
ставлю на кэш
источник

AM

Aleksandr Mikhailov ... in RL reading group
хотя нет
источник

AM

Aleksandr Mikhailov ... in RL reading group
пишут вот что:
The very brief history of these two formats is that TensorFlow started by using NHWC because it was a little faster on CPUs. Then the TensorFlow team discovered that NCHW performs better when using the NVIDIA cuDNN library.
источник

AP

Alexander Pashevich in RL reading group
Спасибо за инфу)
источник

AB

Alexander Btlk in RL reading group
Aleksandr Mikhailov 😷
пишут вот что:
The very brief history of these two formats is that TensorFlow started by using NHWC because it was a little faster on CPUs. Then the TensorFlow team discovered that NCHW performs better when using the NVIDIA cuDNN library.
Не знал про первое. А так, конечно да. Я не подумал о том, что на СРU нет куднна.)
источник

NK

ID:404922778 in RL reading group
how to code
источник