учитвая что это временные файлы, то сильной проблемы я не вижу, также учитвая что у S3 грустно с move операцией которую спарк активно использует, то может быть даже быстрее
Народ, подскажите Я поднял на сервере в докере ванильный HADOOP в singlnode и туда на HDFS положил файлег С сервера читаю его в в spark-shell без проблем Пытаюсь с локальной машинки прочитать а мне выдается : java.io.IOException: Could not read footer for file и полный путь к файлику Порт и сервер, к которому коннекчусь - прокинуты и читаются но похоже какой то касяк с доступом или может я чтото не так прописал при попытке достучаться до файла Может у кого то есьт опыт таких плясок с бубном Ванильный HADOOP в докере на удаленном сервере
Всем привет! Был бы очень благодарен, если кто-то поделится успешным опытом использования Snowflake вместе со Spark-ом.
Есть некоторые Snowflake специфичные вопросы с которыми столкнулся и документация никак не помогает в них, а именно query queued time / execution time - который неожиданно очень сильно растет если использовать SF из Спарка
Ну он, по факту, уже есть при чём, что радует, если оператор не реализован на gpu, то он не падает, а продолжает работать на CPU. В отличие от даска того же
Ну он, по факту, уже есть при чём, что радует, если оператор не реализован на gpu, то он не падает, а продолжает работать на CPU. В отличие от даска того же
Ну он, по факту, уже есть при чём, что радует, если оператор не реализован на gpu, то он не падает, а продолжает работать на CPU. В отличие от даска того же
А есть какие-нибудь бенчмарки вроде vanilla vs gpu? На TPC-H скажем