Привет! Такой вопрос. Юзаю pyspark sql, прочитал табличку из постргреса, закешировал ее, в UI вижу что в памяти 100% размер 4 мегабайта. Потом над этим датафреймом сделал преобразование (в том числе pandas_udf) закэшировал, в UI показывается, что закэшировано 10%, типа 400кб. Запускаю в локальном режиме для тестов, под драйвер выделено 30 гигов оперативы. И что за ерунда такая?