В моем случае exeption такой: Caused by: java.lang.IllegalArgumentException: Unrecognized Hadoop major version number: 3.3.0
а можешь показать полный стектрейс? мне что-то подсказывает что ты не указал как тебе забирать хайв драйвер в итоге он использовал buildin spark-hive и там я помню что-то такое
Кто-нибудь может подсказать почему Спарк при записи двух больших партиций с repartition(my_col, rand * 8)+ writer.partitionBy(my_col) все равно оставляет большие жирные партиции и не учитывает никак rand?
а можешь показать полный стектрейс? мне что-то подсказывает что ты не указал как тебе забирать хайв драйвер в итоге он использовал buildin spark-hive и там я помню что-то такое
1) buildin - тот который спаркхайв и сразу в дистр включён 2) maven - указываешь версию какую хочешь и он подтягивает 3) file - указываешь путь на диске для jar