Теперь описание:
В ноуте создаем два паркета, где воспроизводится проблема спарка, когда размер страницы в паркете больше 2GB.
Восстановить такой паркетник можно только из LocalFS+pyarrow(иногда перегрузка данных невозможна и терять данные не хочется)
На проблему наткнулся при использовании OrderBy - сквозная сортировка DF на выходе может на перекошенных данных создавать паркеты, где row_group_size больше 2GB. Нецелесообразно использовать orderBy на "широких" таблицах.