Всем привет! Чем лучше синхронизировать 3 млн. файлов размером 600 ГБ на бекап сервер? Сейчас это делается rsync, есть подозрение, что это можно улучшить.
Всем доброго времени суток! Сталкивался ли кто нибудь с проблемой производительности logspout при большом количестве данных попадаемых в лог docker контейнера?
В порядке бреда. Нужно только запустить скрипт, или результаты выполнения?
Передать скрипт в переменной окружения, а в контейнере его в start-hook извлекать, и запускать?
Забросить и выполнить... К примеру.. Скрипт содержит sed blablabla ... То есть открываем доступ рута по ссш ... Дальше уже работаем с контейнером как с отдельной машиной ...
Забросить и выполнить... К примеру.. Скрипт содержит sed blablabla ... То есть открываем доступ рута по ссш ... Дальше уже работаем с контейнером как с отдельной машиной ...
Если это допустимо с точки зрения секьюрности, то проще так, вероятно.
Всем привет! Чем лучше синхронизировать 3 млн. файлов размером 600 ГБ на бекап сервер? Сейчас это делается rsync, есть подозрение, что это можно улучшить.
А что именно в данном решении с rsync не нравится? Время?)
Была у меня подобная история. Переписала на питон. Multiprocessing + rsync(вернее не помню как модуль назывался для питона). Если грамотно подобрать количество процессов для копирования, то можн больше чем в 2 раза ускорить)))