Чат, ситуация:
* В наличии имеется примерно 1PB данных — в основном картинки и видео (и потихоньку количество данных прирастает)
* Из них ~95% нужны “холодными” где-то далеко, чтобы доставать под запрос
* 5% “свежих” данных нужны на серваках с GPU чтобы обучать на них модельки
* Всё это на on-premise железе
Задача:
* Когда приходят новые более свежие данные — текущие данные с хостов утащить в холодный сторадж (ну или сразу их туда утащить), удалив их с хоста-воркера и оставив на воркерах только “свежие” данные
* По запросу уметь притаскивать данные из “холодного стораджа” на воркеры
* Уметь всё это делать надёжно, т.е. проверять что данные не побились иесли что-то не докачалось - докачать или перекачать
* Было бы совсем круто всё это совместить с обучением моделек, чтобы условно была таска, которая умеет скачать нужные данные, запустить на них обучение и сохранить результат
Вдруг кто-нибудь подскажет как такое в мире опенсора решается? Есть ли готовые решения для этого, ну или хотя бы готовые кирпичики из чего собрать, чтобы всё самостоятельно не писать?