@kkadikin я понимаю) но вот допустим вы реализовали модель в visual studio, и сделали там fulljoin и crossjoin например на 3 терабайта данных.
Каждую ночь подливаются 100 гигов данных ( не берём в учёт что раз в неделю ещё и всю историю нужно переливать)
А теперь думаем, если не подготовить данные а предоставить это делать модели - насколько это не рациональное расточительство ресурсов...
А если не дай бог что то залагало в джойне модели- это фиаско...
А распределив данные и их подготовив и заливая потоками, можно избежать сильных проблем.
Ну как то так