Данные агрегированы, в результате их в дашборд отдаётся не много (не более тысячи строк). Само приложение рядом. Интересует именно быстродействие БД и возможность выполнять множество параллельных запросов с агрегацией без потери скорости.
а это по потребителям данных смотреть, какие части данных им нужны, и от этого плясать, ну например если за неделю данные берут - ну бьем по суткам, например, ну и далее вглубь идем
конечно, неприятно что могут быть сильно разные запросы и мега-оптимально для всех не сделать, но если что уж - можно и еще таблицу-копию сделать, с другим партиционированием, грубо, но сработает... но места много надо, да
а мне пока мешает высокая скорость быстрого-наспех-анализа через dplyr, тут он хорош (пока не силен в data.table), просто не думаешь - сразу получаешь нужное... правда, долго ждать - если данных много )
а мне пока мешает высокая скорость быстрого-наспех-анализа через dplyr, тут он хорош (пока не силен в data.table), просто не думаешь - сразу получаешь нужное... правда, долго ждать - если данных много )