Size: a a a

2021 April 29

ДМ

Даниил Московский... in Moscow Spark
А сравнения этих фреймворков нет?
источник

ДМ

Даниил Московский... in Moscow Spark
На просторах инета какие-то детские примеры на них, оторванные от реальности
источник

ИК

Иван Калининский... in Moscow Spark
кейсов всё ещё мало
источник

ИК

Иван Калининский... in Moscow Spark
зачем, если есть TF и Torch
источник

ДМ

Даниил Московский... in Moscow Spark
Ну таблички ты в TF не потащишь же
источник

ИК

Иван Калининский... in Moscow Spark
так скажем, не все и не каждую, но некоторые таблицы можно и потащить
источник

ДМ

Даниил Московский... in Moscow Spark
Это маленький процент все-таки
источник

ЕГ

Евгений Глотов... in Moscow Spark
Вроде когда-то был проект tensorflow on spark
источник

ДМ

Даниил Московский... in Moscow Spark
Да и не решает это вопрос. Данные то сеточки надо дотащить
источник

ЕГ

Евгений Глотов... in Moscow Spark
Но хз, чем он в итоге обернулся
источник

ДМ

Даниил Московский... in Moscow Spark
Ладно, будем сами в мтс бенчмарк пилить, может и до паблика его докатим)
источник

ИК

Иван Калининский... in Moscow Spark
вот, слова мужчины!
источник

AS

Andrey Smirnov in Moscow Spark
я про BigDL сам недавно услышал, оказывается это проект интела
источник

R

Renarde in Moscow Spark
я часто использую petastorm + horovod +tf 2.0 для распределенного GPU-обучения
источник

R

Renarde in Moscow Spark
это вот к этой теме ^
источник

NN

No Name in Moscow Spark
А для обычного ml распределенного?
источник

ИК

Иван Калининский... in Moscow Spark
думаю, как TF настроить, так и будет учиться, укажешь CPU - значит будет CPU
источник

NN

No Name in Moscow Spark
Понял
источник

R

Renarde in Moscow Spark
да, строгой привязки к GPU/CPU тут нет, но поскольку есть возможность - почему бы и не использовать 🙂
источник

ИК

Иван Калининский... in Moscow Spark
Почему petastorm + horovod, они же вроде одну и ту же задачу решают: задистрибьютить глубокое обучение
источник