Size: a a a

2020 October 21

VM

Vladimir Morozov in Moscow Spark
например простой кейс, есть входящий поток с кафки который раскидывается на разные топики, мне надо как-то смотреть сколько куда уходит....
источник

ПФ

Паша Финкельштейн... in Moscow Spark
Vladimir Morozov
например простой кейс, есть входящий поток с кафки который раскидывается на разные топики, мне надо как-то смотреть сколько куда уходит....
не надо ли это с самой кафки мониторить?
источник

K

KrivdaTheTriewe in Moscow Spark
Паша Финкельштейн
не надо ли это с самой кафки мониторить?
это нужно и там и там мониторить
источник

K

KrivdaTheTriewe in Moscow Spark
Vladimir Morozov
например простой кейс, есть входящий поток с кафки который раскидывается на разные топики, мне надо как-то смотреть сколько куда уходит....
статсд+прометеус+графана
источник

VM

Vladimir Morozov in Moscow Spark
KrivdaTheTriewe
статсд+прометеус+графана
есть какой-то плагин в спарк для статсд?
источник

K

KrivdaTheTriewe in Moscow Spark
встроенный
источник
2020 October 22

GP

Grigory Pomadchin in Moscow Spark
KrivdaTheTriewe
встроенный
а что он кстати шлет
источник

K

KrivdaTheTriewe in Moscow Spark
Grigory Pomadchin
а что он кстати шлет
принятно, получено, агрегации вроде даже какие -то
источник

K

KrivdaTheTriewe in Moscow Spark
там в коде можно найти
источник

K

KrivdaTheTriewe in Moscow Spark
но зависит от версии спарка, третий больше шлет, кстати
источник

K

KrivdaTheTriewe in Moscow Spark
Vladimir Morozov
есть какой-то плагин в спарк для статсд?
Едиственное и самое главное, нужно задавать queryName для стрима
источник

VM

Vladimir Morozov in Moscow Spark
KrivdaTheTriewe
Едиственное и самое главное, нужно задавать queryName для стрима
Да это я уже вижу... Что там может null мелькать если не делать ничего
источник

K

KrivdaTheTriewe in Moscow Spark
не, там просто будет каждый рестарт  теряться связь метрик
источник

НК

Николай Крупий... in Moscow Spark
источник

G

Gev in Moscow Spark
Может кто сталкивался. ПРоблема при попытке записать данные PostgreSQL. Поток падает из-за перебора количества соединений с базой. Данных много. Все пытаюсь записать одним бачем. Можно ли как то ограничить коичество соединений, или это моно сделать как то на уровне DataFrame.
источник

AA

Aleksandr Aleksandro... in Moscow Spark
Gev
Может кто сталкивался. ПРоблема при попытке записать данные PostgreSQL. Поток падает из-за перебора количества соединений с базой. Данных много. Все пытаюсь записать одним бачем. Можно ли как то ограничить коичество соединений, или это моно сделать как то на уровне DataFrame.
Можно ограничить количество работающих тасок, либо сделать репартитшн на меньшее кол-во партиций перед записью
источник

G

Gev in Moscow Spark
Вероятно скорее правильней использовать coalesce и указать максимально возможное количество соединений?
источник

AA

Aleksandr Aleksandro... in Moscow Spark
Gev
Вероятно скорее правильней использовать coalesce и указать максимально возможное количество соединений?
Ага
источник

AA

Aleksandr Aleksandro... in Moscow Spark
Может коллеги ещё что-то подскажут
источник

G

Gev in Moscow Spark
В общем да. Для контроля количества соединений можно использовать numPartitions для jdbc соединения и оно ограничит количество соединений либо использовать coalesce что по идее тоже самое
источник