А что предметная область? 50тб это за какое время данные? Какой типичный запрос на данные? Отчеты за последний месяц? Или нужно делать всякие условные анализы, при которых каждый день весь объем данных собираются пересчитывать?
Не индексы фуфельные, а фуфил они по сравнению с найтив колоночным хранением :))) Но вот коллеги поправляют про 2019-й меня. тут я пас, не пользовал. И не могу ничего сказать про загон этих индексов, ну то бишь таблиц на них в память, в ин-мемори, какие там ограничениЯ тоже не в курсе.
на сколько я слышу от коллег (пока еще не добрался) то дело не только в хранении данных в колоночных, но и в добавлении/обнолении/удалении записей. тут свой гемморой. особенный
на сколько я слышу от коллег (пока еще не добрался) то дело не только в хранении данных в колоночных, но и в добавлении/обнолении/удалении записей. тут свой гемморой. особенный
О да, если это делать с колоночными данными, это жесть.
на сколько я слышу от коллег (пока еще не добрался) то дело не только в хранении данных в колоночных, но и в добавлении/обнолении/удалении записей. тут свой гемморой. особенный
Ну естественно тут там есть нюансы, но это именно особенность коло ночного индекса, который дает тебе сжатие и колон очный доступ. Если ты часто меняешь данные в колоночном индексе - скорее всего ты делаешь что то не так. Они нужны обычно для истории аналитики - разбиваешь все на секции и при изменении перегружатель секцию
Ну естественно тут там есть нюансы, но это именно особенность коло ночного индекса, который дает тебе сжатие и колон очный доступ. Если ты часто меняешь данные в колоночном индексе - скорее всего ты делаешь что то не так. Они нужны обычно для истории аналитики - разбиваешь все на секции и при изменении перегружатель секцию
они везде есть. но что делать, когда надо туда смерджить данные за месяц?) я не работал с ними и холиварить не буду.
они везде есть. но что делать, когда надо туда смерджить данные за месяц?) я не работал с ними и холиварить не буду.
Есть подход. Секциями, итерационно. Размер секции должен быть адекватным. Выгружаешь новые и старые в etl и в памяти мержишь. Вгружаешь в тмп таблицу и свитчишь ее в основную таблицу
Есть подход. Секциями, итерационно. Размер секции должен быть адекватным. Выгружаешь новые и старые в etl и в памяти мержишь. Вгружаешь в тмп таблицу и свитчишь ее в основную таблицу
@yoycheg то есть у меня есть 10млн записей, которые я хочу смерджить. то надо выгрузить что есть в КолумнСторе, смерждить с тем что хочу залить, выкинуть это в темповую таблицу и потом сделать свитч партиции?
@yoycheg то есть у меня есть 10млн записей, которые я хочу смерджить. то надо выгрузить что есть в КолумнСторе, смерждить с тем что хочу залить, выкинуть это в темповую таблицу и потом сделать свитч партиции?