Size: a a a

2018 February 26

GP

Grigory Pomadchin in Moscow Spark
измнения в билд сбт не подхватываются автоматом, надо явно подхватывать руками
источник

KM

Kirill Malev in Moscow Spark
java.io.InvalidClassException: org.apache.spark.sql.execution.DeserializeToObjectExec; local class incompatible: stream clas
sdesc serialVersionUID = -3336953602090947729, local class serialVersionUID = 2670198363192691258
       at java.io.ObjectStreamClass.initNonProxy(ObjectStreamClass.java:616)
       at java.io.ObjectInputStream.readNonProxyDesc(ObjectInputStream.java:1630)
источник

GP

Grigory Pomadchin in Moscow Spark
гдето либ версий мисматч
источник

GP

Grigory Pomadchin in Moscow Spark
попробуй спарк кор провайдедом пометить
источник

GP

Grigory Pomadchin in Moscow Spark
короче суть что версии либ не совпадают
источник

KM

Kirill Malev in Moscow Spark
Спс, гляну
источник
2018 February 28

KM

Kirill Malev in Moscow Spark
Привет, я до сих пор не запустил этот джарник.

$SPARK_HOME:

jars/spark-core_2.11-2.1.1.2.6.1.0-129.jar

Поэтому подправил build.sbt как советуют вот тут: https://stackoverflow.com/questions/44901644/spark-java-io-invalidclassexception-org-apache-spark-unsafe-types-utf8string-l?rq=1

build.sbt:

//Spark dependencies
libraryDependencies ++= Seq(
"org.apache.spark" % "spark-core_2.11" % "2.1.1",
 "org.apache.spark" % "spark-sql_2.11" % "2.1.1",
 "org.apache.spark" % "spark-mllib_2.11" % "2.1.1",
 "org.apache.spark" % "spark-hive_2.11" % "2.1.1"
)


Помимо этого проверил всё что можно, единственное различие в версиях Джавы:

1.8.0_112 @ Spark

"1.8.0_151" @ Scalac

Попробовал также запустить в --deploy-mode cluster тот же джарник, он прекращает выполнение после .collect()-а в середине кода.

Pastebin с выводами версий и ошибки java.io.InvalidClassException: org.apache.spark.sql.execution.DeserializeToObjectExec; local class incompatible: stream

https://pastebin.com/8yP8mSaz
источник

KM

Kirill Malev in Moscow Spark
что ещё можно проверить?
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
спарк-субмит на сервере или локально выполняешь?
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
спарк чей? стоковый или клаудера? спарк-субмит - стоковый или клаудера?
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
у клаудеры есть такая фишка, что они перекомпилировали спарк, и изза этого поменялся serialVersionUID.
поэтому если у тебя на сервере клаудера, а запускаешь локальный стоковый спарк - то будет подобная ошибка
источник

KM

Kirill Malev in Moscow Spark
HDP
источник

KM

Kirill Malev in Moscow Spark
/hadoop/yarn/local/usercache/spark/appcache/application_1519654131810_0044/container_e11_1519654131810_0044_01_000001/__spark_libs__/spark-sql_2.11-2.1.1.2.6.1.0-129.jar
источник

KM

Kirill Malev in Moscow Spark
вот в System Classpath даже есть
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
"org.apache.spark" % "spark-sql_2.11" % "2.1.1",
и
spark_libs/spark-sql_2.11-2.1.1.2.6.1.0-129.jar

соответствуют между собой?
источник

KM

Kirill Malev in Moscow Spark
Дмитрий Шмыглёв
у клаудеры есть такая фишка, что они перекомпилировали спарк, и изза этого поменялся serialVersionUID.
поэтому если у тебя на сервере клаудера, а запускаешь локальный стоковый спарк - то будет подобная ошибка
у меня HDP 2.6.1.0-129
источник

KM

Kirill Malev in Moscow Spark
Дмитрий Шмыглёв
"org.apache.spark" % "spark-sql_2.11" % "2.1.1",
и
spark_libs/spark-sql_2.11-2.1.1.2.6.1.0-129.jar

соответствуют между собой?
как это поверить?
источник

ДШ

Дмитрий Шмыглёв... in Moscow Spark
а вот хз, как это ПРОСТО проверить...

попробуй переустановить спарк в HDP..
удалив этот джарник с HDFS-а перед этим
источник

GP

Grigory Pomadchin in Moscow Spark
Kirill Malev
как это поверить?
вот я слепец и правда хдп ж
источник

GP

Grigory Pomadchin in Moscow Spark
используй версию прям как у них и все
источник