Size: a a a

2018 July 25

ЛР

Лев Рагулин... in Moscow Spark
Ему только нужно скормить hive-site.xml и в путь
источник

ЛР

Лев Рагулин... in Moscow Spark
SqlContext.sql или sqlContext.table
источник

PK

Pavel Klemenkov in Moscow Spark
Лев Рагулин
Ему только нужно скормить hive-site.xml и в путь
Я про это читал, но не очень понял, как это работает. Ща попробую.
источник

GP

Grigory Pomadchin in Moscow Spark
Pavel Klemenkov
Я про это читал, но не очень понял, как это работает. Ща попробую.
так же как и хадуп / хбейз со спарком пашет, в класспас надо сунуть его и все подхватится
источник

FL

Fedor Lavrentyev in Moscow Spark
Там будут страдания, если у тебя на кластере спарка тоже есть hive
источник

FL

Fedor Lavrentyev in Moscow Spark
Hive-site читается из classpath на момент старта контекста
источник

FL

Fedor Lavrentyev in Moscow Spark
Нормально разрулить два конфига сразу не удастся
источник

FL

Fedor Lavrentyev in Moscow Spark
Придется выделять отдельный environment
источник

FL

Fedor Lavrentyev in Moscow Spark
Если же на кластере спарка нет hive, то подсунуть чужой hive-site будет самый правильный путь. Я это вчера предлагал :(
источник

PK

Pavel Klemenkov in Moscow Spark
Fedor Lavrentyev
Если же на кластере спарка нет hive, то подсунуть чужой hive-site будет самый правильный путь. Я это вчера предлагал :(
Ага, я пропустил. Но на кластере со спарком действительно есть свой хайв. Его, правда, можно отключить
источник

FL

Fedor Lavrentyev in Moscow Spark
Тебе надо не столько hive отключить, сколько конфликт эксемелек разруливать. =)
источник

FL

Fedor Lavrentyev in Moscow Spark
Можешь временно переименовать родной конфиг, положить чужой, стартовать HiveContext и вернуть всё как было. Должно прокатить.
источник

FL

Fedor Lavrentyev in Moscow Spark
Для верности, можешь оставить конфиг лежать, пока джоба не отработает
источник

FL

Fedor Lavrentyev in Moscow Spark
Ну и это всё надо только на машине с драйвером, что приятно.
источник

PK

Pavel Klemenkov in Moscow Spark
Да, спасибо за замечание про конфликты, попробуй
источник

AS

Andrey Sutugin in Moscow Spark
Pavel Klemenkov
Вопросик появился. Надо бы почитать данные из внешнего хайва спарком. Какие есть варианты? Пока пробовал jdbc к hiveserver, съема вычитывается, но данных нет. Потенциально проблема с тем, что таблицы партиционированные, а как это указать непонятно
Для считывания данных из хайва, с другого кластера спарком обычно при создании с спарксессии указываю вот эти параметры
.set("spark.sql.warehouse.dir", "hdfs://бла-бла”)
.set("hive.metastore.uris", "thrift://бла-бла”)
источник

PK

Pavel Klemenkov in Moscow Spark
Andrey Sutugin
Для считывания данных из хайва, с другого кластера спарком обычно при создании с спарксессии указываю вот эти параметры
.set("spark.sql.warehouse.dir", "hdfs://бла-бла”)
.set("hive.metastore.uris", "thrift://бла-бла”)
Йеп, ты прав. Все, вроде бы просто. За исключением того, что трифт сервер не поднят, и версии дажрников расходятся, а на кластере со спарком нет инета. Короче полдня проваландался с этой шнягой. Зато узнал про метастор в local и remote режимах. Всем спасибо
источник

K

KrivdaTheTriewe in Moscow Spark
Pavel Klemenkov
Йеп, ты прав. Все, вроде бы просто. За исключением того, что трифт сервер не поднят, и версии дажрников расходятся, а на кластере со спарком нет инета. Короче полдня проваландался с этой шнягой. Зато узнал про метастор в local и remote режимах. Всем спасибо
Доклад можн )
источник

PK

Pavel Klemenkov in Moscow Spark
Ага, онг будет полезен ровно одному маргиналу, у которого все косяки в одном месте скопились )) Это я, как ты понял )
источник

FL

Fedor Lavrentyev in Moscow Spark
Andrey Sutugin
Для считывания данных из хайва, с другого кластера спарком обычно при создании с спарксессии указываю вот эти параметры
.set("spark.sql.warehouse.dir", "hdfs://бла-бла”)
.set("hive.metastore.uris", "thrift://бла-бла”)
Во блин, а о переопределении параметров я как-то и забыл =)
Хорошее напоминание, спасибо.
источник