Size: a a a

2020 August 27

AS

Andrey Smirnov in Moscow Spark
Евгений Глотов
Динамик ноль экзекуторов нельзя делать, потому что с нуля не заводятся обратно новые экзекуторы почему-то
там же есть параметр spark.dynamicAllocation.initialExecutors, но все равно драйвер надо удалять
источник

ЕГ

Евгений Глотов... in Moscow Spark
Andrey Smirnov
там же есть параметр spark.dynamicAllocation.initialExecutors, но все равно драйвер надо удалять
Я про minexecutors, если он равен 0, у нас контейнеры закрываются все, и мы хотим выполнить джоб, а ресурсов в данный момент на кластере нет, то джоб стартует и будет висеть с 0 tasks running
источник

AS

Andrey Smirnov in Moscow Spark
Евгений Глотов
Я про minexecutors, если он равен 0, у нас контейнеры закрываются все, и мы хотим выполнить джоб, а ресурсов в данный момент на кластере нет, то джоб стартует и будет висеть с 0 tasks running
если ресурсов нет, они же должны висеть в очереди yarn
источник

ЕГ

Евгений Глотов... in Moscow Spark
Вот почему-то так не происходит
источник

ЕГ

Евгений Глотов... in Moscow Spark
Если 1 экзекутор, то норм - джоб начинается на одном, дальше поднимаются другие
источник

ИГ

Игорь Гомановский... in Moscow Spark
Евгений Глотов
Если 1 экзекутор, то норм - джоб начинается на одном, дальше поднимаются другие
Не встречался с такой проблемой. В jupyter всегда открываю сессию с 0 minExecutors и 0 initial.
yarn ему всё выдает, когда выполняется job.
А когда не выполняется, то сессия висит с одним ядром под драйвер
источник

ПФ

Паша Финкельштейн... in Moscow Spark
Переслано от Паша Финкельштейн...
источник
2020 August 28

AN

Andrey N in Moscow Spark
Andrey Smirnov
а зачем тебе хистори, есть же реалтайм
в client mode это можно сделать? у нас драйвер на отдельной тачке, и у меня чет не получается достучатся до rest ip
источник

AS

Andrey Smirnov in Moscow Spark
Andrey N
в client mode это можно сделать? у нас драйвер на отдельной тачке, и у меня чет не получается достучатся до rest ip
у меня ноутбуки через yarn-client, сам рест доступен через прокси от ярна
источник

AN

Andrey N in Moscow Spark
Andrey Smirnov
у меня ноутбуки через yarn-client, сам рест доступен через прокси от ярна
а можно какой то пример запроса в рест, клиентской джобы?
источник

AS

Andrey Smirnov in Moscow Spark
Andrey N
а можно какой то пример запроса в рест, клиентской джобы?
http://node-master:8010/proxy/application_1585065637055_0349/api/v1/applications/application_1585065637055_0349/jobs
источник

AN

Andrey N in Moscow Spark
оооо, спасибо огромное, я не понял что надо добавлять /proxy/application_1585065637055_0349/
источник

SM

Sergey M in Moscow Spark
Всем привет
у меня таска валится с
Caused by: shadeproto.InvalidProtocolBufferException: Protocol message contained an invalid tag (zero)


как я понимаю это proto не может распарсить
валится на MessageEnvelop.parseFrom

в
val rdd = sc.binaryFiles(path, 10)
       .map(_._2.toArray())
       .map(MessageEnvelop.parseFrom)
       .flatMap(e => MessageDto(e))

и соответственно не может apply в MessageDto(e)

вот у меня вопрос такой
как можно обойти это с помощью Try или Option ?
чтобы у меня если e Success - идёт в e => MessageDto(e)
а если Failed - то чтобы log.info(ex.printStackTrace)

так работать будет?
источник
2020 August 29

ПБ

Повелитель Бури... in Moscow Spark
Привет! Скажите пожалуйста а  вызывать spark submit с query нельзя? Надо обязательно  писать jar?
источник

N

Nikita in Moscow Spark
Повелитель Бури
Привет! Скажите пожалуйста а  вызывать spark submit с query нельзя? Надо обязательно  писать jar?
Попробуйте spark-sql
источник

PK

Pavel Klemenkov in Moscow Spark
Nikita
Попробуйте spark-sql
Такой команды нет
источник

PK

Pavel Klemenkov in Moscow Spark
Повелитель Бури
Привет! Скажите пожалуйста а  вызывать spark submit с query нельзя? Надо обязательно  писать jar?
Да нужен джарник или класс
источник

PK

Pavel Klemenkov in Moscow Spark
Ну либо питонячий модуль
источник

DZ

Dmitry Zuev in Moscow Spark
Thrift server
источник

N

Nikita in Moscow Spark
Pavel Klemenkov
Такой команды нет
Что странно, потому что она лежит в ${SPARK_HOME}/bin рядом с сабмитом и шеллом, проверил у себя на 2.3.1 и свежескаченной 2.4.6
источник