Size: a a a

2019 December 11

DZ

Dmitry Zuev in Moscow Spark
Дважды за неделю
источник

SS

Semyon Sinchenko in Moscow Spark
Евгений Глотов
Тогда вопросов нет, к вам навстречу не пошли - вы пошли навстречу к ним)
Ну просто у питона много своих больших проблем. Не от хорошей жизни люди вон тащят в питон типизацию, абстракции и т.д через расширения.

DS это все же не только в Jupyter fit-predict делать. А когда дело доходит до прода, jar, который еще и проверяется на этапе компиляции начинает выглядеть значительно лучше.
источник

DZ

Dmitry Zuev in Moscow Spark
Положа руку на сердце, в MLLib типы не спасают, все равно валиться будет на рантайме
источник

DZ

Dmitry Zuev in Moscow Spark
А Frameless в ml это дикая боль
источник

ЕГ

Евгений Глотов... in Moscow Spark
Да простейшая опечатка в названии поля приведёт к рантайм эррору, какая бы ни была типизация в спарк-коде)
источник

DZ

Dmitry Zuev in Moscow Spark
Евгений Глотов
Да простейшая опечатка в названии поля приведёт к рантайм эррору, какая бы ни была типизация в спарк-коде)
какая бы ни была типизация в спарк-коде)
нет это не так
источник

DZ

Dmitry Zuev in Moscow Spark
для этого например и есть Dataset
источник

DZ

Dmitry Zuev in Moscow Spark
и для этого есть frameless
источник

DZ

Dmitry Zuev in Moscow Spark
просто это не всегда удобно
источник

DZ

Dmitry Zuev in Moscow Spark
но если совсем не гавнокодить то типы спасают
источник

SS

Semyon Sinchenko in Moscow Spark
Евгений Глотов
Да простейшая опечатка в названии поля приведёт к рантайм эррору, какая бы ни была типизация в спарк-коде)
В питоне простая опечатка в редкой else-ветке цикла приведет к ошибке потом, уже в проде :)

Не зря люди типизацию в питон тащят.
источник

ТС

Тимофей Смирнов... in Moscow Spark
Ну в проде очев надо типы прописывать, а в тетрадочке сколько хочешь можно играться
источник

AZ

Alexey Zinoviev in Moscow Spark
Anton Lebedevich
pyspark остает от scala api, а sparkR кажется вообще где-то в углу стоит, и скорее всего отстает от pyspark. поэтмоу если очень надо спарк - можно узнать чуть чуть scala, в спарковом апи она не страшная
Sparklyr симпатичнее и полнее, чем детище датабрикс
источник

GP

Grigory Pomadchin in Moscow Spark
Евгений Глотов
Быстрее, проще, притягательнее, как тёмная сторона силы)
Все продал, все что не мл перепишу на петон; моя серебряная пуля
источник

GP

Grigory Pomadchin in Moscow Spark
источник

SS

Semyon Sinchenko in Moscow Spark
Alexey Zinoviev
Sparklyr симпатичнее и полнее, чем детище датабрикс
Ну это детали)
Я давно туда не залезал
источник

O

Oleg in Moscow Spark
Всем привет.
Хочу создать sparkListener с конструктором с параметрами.
Можно ли как-то его зарегистрировать до старта аппликейшена. sparkContext.addSparkListener() не годится/работает. Scala
источник
2019 December 12

EN

Eldar Nezametdinov in Moscow Spark
Добрый день, чатик.
Вы когда запускаете аппликейшн (spark-submit) с virtualenv на Sparke, используете:
1.--archives environment.tar.gz#environment и PYSPARK_DRIVER_PYTHON, PYSPARK_PYTHON?
(то есть отправляете  environment по нодам)
2. или у вас уже разархивирован _virtualenv_ на нодах (через ансибл например), и просто прописываете путь: spark.pyspark.virtualenv.bin.path, spark.yarn.appMasterEnv.PYSPARK_PYTHON и тд?
(то есть заранее установлен, только запускаете)
-
вроде как вариант с отправкой tar выглядит красиво?
но я вообще ни разу так не делал...
источник

DZ

Dmitry Zuev in Moscow Spark
Eldar Nezametdinov
Добрый день, чатик.
Вы когда запускаете аппликейшн (spark-submit) с virtualenv на Sparke, используете:
1.--archives environment.tar.gz#environment и PYSPARK_DRIVER_PYTHON, PYSPARK_PYTHON?
(то есть отправляете  environment по нодам)
2. или у вас уже разархивирован _virtualenv_ на нодах (через ансибл например), и просто прописываете путь: spark.pyspark.virtualenv.bin.path, spark.yarn.appMasterEnv.PYSPARK_PYTHON и тд?
(то есть заранее установлен, только запускаете)
-
вроде как вариант с отправкой tar выглядит красиво?
но я вообще ни разу так не делал...
Через докер
источник

DZ

Dmitry Zuev in Moscow Spark
источник