Size: a a a

2020 November 17

АР

Андрей Романов... in Moscow Spark
по запросу "pyspark timedelta" в поиске ещё много вариантов было
источник

KP

Kristina Popova in Moscow Spark
Попробую, спасибо
источник

KP

Kristina Popova in Moscow Spark
Андрей Романов
по запросу "pyspark timedelta" в поиске ещё много вариантов было
Что-то ничего подходящего не нашлось среди них(
источник

t

tenKe in Moscow Spark
Kristina Popova
Привет
Может кто подсказать, как посчитать предыдущий день в pyspark? В питоне это timedelta..
date_sub
источник

KP

Kristina Popova in Moscow Spark
tenKe
date_sub
Похоже на то, спасибо!
источник
2020 November 23

K

KrivdaTheTriewe in Moscow Spark
кто как сейас компактинг данных делает для структурного стриминга? Раньше была проблема, что если руками сжать партицию, другая спарк джоба падала в случае попытки чтения из корня директории храненения ввсех данных, так как спарк пишет в __spark_metadata имена уже записаных файлов
источник
2020 November 24

K

KrivdaTheTriewe in Moscow Spark
Теперь ещё вопрос , в структурном стриминге как сделать так , чтобы Спарк обновлял тикеты ?
источник
2020 November 25

РШ

Руслан Шарафутдинов... in Moscow Spark
привет, никто не сталкивался с такой проблемой: при попытке записи по jdbc в базу запись падает с ошибкой Connection refused,
параметры спарк сессии: master=yarn, mode=client
при этом сетевой доступ есть с нод, на которых запускаются экзекуторы, но отсутсвует сетевой доступ с хоста, на котором запущен драйвер, возник вопрос: драйвер как-то участвует в записи? в доках ничего про это не нашел
источник

AA

Aleksandr Aleksandro... in Moscow Spark
Руслан Шарафутдинов
привет, никто не сталкивался с такой проблемой: при попытке записи по jdbc в базу запись падает с ошибкой Connection refused,
параметры спарк сессии: master=yarn, mode=client
при этом сетевой доступ есть с нод, на которых запускаются экзекуторы, но отсутсвует сетевой доступ с хоста, на котором запущен драйвер, возник вопрос: драйвер как-то участвует в записи? в доках ничего про это не нашел
Мне казалось, что драйвер делает какие-то специальные запросы, типо проверяет схему и тд
источник

АШ

Арсен Шакирзянов... in Moscow Spark
по идее, драйвер должен участвовать в записи. Как минимум, он должен проверить существует ли таблица и извлечь схему
источник

Д

Дмитрий in Moscow Spark
Если jdbc не завернут в udf, то из коннктора читает драйвер. По крайней мере в pyspark. Ошибку Можно посмотреть в логах драйвера.
источник
2020 December 02

AS

Andrey Siunov in Moscow Spark
источник

AS

Andrey Siunov in Moscow Spark
Долой s3 guard!
источник

GP

Grigory Pomadchin in Moscow Spark
Это прекрасно!
источник

AS

Andrey Smirnov in Moscow Spark
интересно, а на сколько (если) деградирует скорость?
источник

AS

Andrey Smirnov in Moscow Spark
они пишут про There’s no impact on performance, но есть сомнения
источник
2020 December 03

ED

Evgenij Danilov in Moscow Spark
Коллеги, кому-нибудь приходилось искать парсеры для spark-джобов?

Стоит цель получить на вход Java-код по запуску Spark через SQLContext, а на выход набор sql-скриптов, входные и выходные таблицы, настройки spark-submit и прочее.
Есть ли что-то похожее на гитхабе?
источник

MV

Mitya Volodin in Moscow Spark
Evgenij Danilov
Коллеги, кому-нибудь приходилось искать парсеры для spark-джобов?

Стоит цель получить на вход Java-код по запуску Spark через SQLContext, а на выход набор sql-скриптов, входные и выходные таблицы, настройки spark-submit и прочее.
Есть ли что-то похожее на гитхабе?
Ну да, приходилось, на headhunter’е 😬
источник

ED

Evgenij Danilov in Moscow Spark
😢
источник

С

Сюткин in Moscow Spark
Mitya Volodin
Ну да, приходилось, на headhunter’е 😬
И почем этот парсер обошёлся?))
источник