ВН
Подскажите, пожалуйста, как можно прочитать json, размером 115 ГБ
Пробовал sparklyr - spark_read_json, выдает ошибку, мол, недостаточно памяти.
Я думал, что sparklyr должен его поднимать частями и писать их на диск, но диск работает только на чтение, а не на запись.
Предложеные в Google варианты относительно увеличения MemoryOverhead и maxResultSize успехом не увенчались (
Может кто-то знает, как заставить sparklyr читать данные кусками в таком случае, подскажите, пожалуйста.
Спасибо