Господа! Кто пользовался S3 batch operations? Меня интересует конкретно COPY. Задача: засинкать ранее существовавшие объекты в бакете со свежевключенной cross-region репликой. Вводные данные: 8 Тб, 17 миллионов объектов. Как рассчитать стоимость джобы? Верно ли, что достаточно посчитать количество джоб + объектов и это будет точная стоимость? Или надо все же считать дополнительно исходящий/входящий траффик + GET/PUT запросы и что-то еще?