Могу сказать со стороны PowerBI что человек сказавший про проблему не имеет представления BI. C 10млрд не работал, но нужно понимать, что есть база SQL, что прописываются запросы прямо в PQ и все данные разделяются, вот вам маленький пример из практики:
для управленческого учёта вытаскиваются данные за пять лет (там в основном цифры) но так же нужно было делать и дашборды для инвентаризации товара, где очень важен комментарий, который весит очень много.
Решение: один файл для инвентаризации, куда загружаются за последние несколько месяцев, а другой файл для финансового учёта, куда выгружаются за последние 5-10 лет (цифры) и выкладывается в облако два этих отчета и работают без проблем, для пользователя не имеет значения и естественно они не тяжёлые.
Подойти с этой точки зрения и всё реально!!! Размеры строк у меня были20 и 50 млн строк, работало всё норм.
И важно как организовано хранилище и модель PowerBI.
Более того Роман Шапков в BI загружал 200млн строк и у него работало, а это до 1 млрд уже не далеко! :)
И нужно понимать, что BI - это программа для анализа, а не для ведения учёта, а ещё есть SQL сервер, есть витрины необходимые...
Про витрины в одной организации оборачиваемость считается 10-15 минут (в 1:С), а в другой организации с таким же объемом данных или даже больше оборачиваемость выводится за 10 секунд.
И последнее не просто так придумали архитектор баз данных.
Вывод - не слушайте "не верных"!!! Прежде чем спорить с библией нужно сначала изучить библию, понять зачем и для чего писалась вся книга и отдельные её части, а после можно сравнивать её уже с другой книгой!!! :)))
я в таком ключе и думал, что в любом случае такой обхем будет в хранилище. а чем к нему подключаться, дело десятое.