Size: a a a

2018 February 28

GP

Grigory Pomadchin in Moscow Spark
2.1.1.2.6.1.0
источник

KM

Kirill Malev in Moscow Spark
Grigory Pomadchin
используй версию прям как у них и все
а как её закинуть в build.sbt ?
источник

GP

Grigory Pomadchin in Moscow Spark
источник

GP

Grigory Pomadchin in Moscow Spark
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
Grigory Pomadchin
вот я слепец и правда хдп ж
HDP тоже извращнулись с перекомпиляцией спарка?
источник

GP

Grigory Pomadchin in Moscow Spark
видимо да, я т на амазоне
источник

GP

Grigory Pomadchin in Moscow Spark
но короче вот так, видимо и правда компилят все свое

попробовать можно - думаю все решится
источник

KM

Kirill Malev in Moscow Spark
Grigory Pomadchin
но короче вот так, видимо и правда компилят все свое

попробовать можно - думаю все решится
блин, у меня стоял bintray
источник

GP

Grigory Pomadchin in Moscow Spark
"2.1.1.2.6.1.0-129" вместо твоей "2.1.1" просто тыкай
источник

GP

Grigory Pomadchin in Moscow Spark
и ресолвер
источник

GP

Grigory Pomadchin in Moscow Spark
источник

K

KrivdaTheTriewe in Moscow Spark
Grigory Pomadchin
но короче вот так, видимо и правда компилят все свое

попробовать можно - думаю все решится
Может быть
источник

KM

Kirill Malev in Moscow Spark
не помогает. Теперь ловлю ошибку None.get на строчке, где все ок с точки зрения Zeppelin:

https://pastebin.com/f3LcwLdm
источник

KM

Kirill Malev in Moscow Spark
Caused by: java.lang.IllegalStateException: Library directory '/hadoop/yarn/local/usercache/spark/appcache/application_1519654131810_0049/container_e11_1519654131810_0049_02_000003/assembly/target/scala-2.11/jars' does not exist; make sure Spark is built.
источник

KM

Kirill Malev in Moscow Spark
вот это может влиять?
источник

KM

Kirill Malev in Moscow Spark
build.sbt:


resolvers += "Spark Packages" at "http://repo.hortonworks.com/content/repositories/releases/"

//Spark dependencies
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.11" % "2.1.1.2.6.1.0-129",
 "org.apache.spark" % "spark-sql_2.11" % "2.1.1.2.6.1.0-129",
 "org.apache.spark" % "spark-mllib_2.11" % "2.1.1.2.6.1.0-129",
 "org.apache.spark" % "spark-hive_2.11" % "2.1.1.2.6.1.0-129"
)
источник

KM

Kirill Malev in Moscow Spark
[info]  [SUCCESSFUL ] org.apache.spark#spark-core_2.11;2.1.1.2.6.1.0-129!spark-core_2.11.jar (9212ms)
[info] downloading http://repo.hortonworks.com/content/repositories/releases/org/apache/spark/spark-sql_2.11/2.1.1.2.6.1.0-129/spark-sql_2.11-2.1.1.2.6.1.0-129.jar ...
[info]  [SUCCESSFUL ] org.apache.spark#spark-sql_2.11;2.1.1.2.6.1.0-129!spar
источник

KM

Kirill Malev in Moscow Spark
и они точно тянутся из репы
источник

GP

Grigory Pomadchin in Moscow Spark
может это обычное сообщение об окочании работы? просто лог после килла, обычно просто это все чистится спарком

попробуй забери на драйвер результат и распечатай
источник

KM

Kirill Malev in Moscow Spark
Grigory Pomadchin
может это обычное сообщение об окочании работы? просто лог после килла, обычно просто это все чистится спарком

попробуй забери на драйвер результат и распечатай
источник