@tenKe @ExcellentName Я уже не знаю что с этим репартишеном не так, даже с солью не работает вот вообще, перед записью вывожу отдельно число строк в каждом spark_partition_id - ровно две Спарк партиции с соответствующими числами строк
Execute InsertIntoHadoopFsRelationCommand InsertIntoHadoopFsRelationCommand ... 153 more fields]
+- Exchange hashpartitioning(concat_ws("_", my_date, FLOOR(rand * CEIL(salted_count_in_partition / required_rows_per_file)), 200)
+- Window [count(1) windowspecdefinition(my_date, salt) AS salted_count_in_partition]
+- Sort [my_date ASC NULLS FIRST, salt ASC NULLS FIRST], false, 0
+- Exchange hashpartitioning(my_date, salt, 200)
+- FileScan orc [...]