спасибо! а если я размещу в crash map 2 группы хостов в 2 разных chassis (в зависимости от цода расположения), при replicated min_size 2 - это приведет к желаемому поведению?
в общем, сделал так: 1. создал две стойки 2. раскидал хосты по стойкам в зависимости от ЦОДа расположения 3. ceph osd crush rule create-simple rule-datacenters default rack firstn
В общем столкнулся с такой проблемой, что при удалении файлов из s3 объекты фактически не удаляются, а теряются. Т.е. файлы как бы удалены и radosgw-admin --bucket=support-files bucket radoslist | wc -l ноль, а место в пуле не освободилось за то rgw-orphan-list default.rgw.buckets.data находит все объекты которые раньше были в бакете. ceph version 16.2.6
radosgw-admin --bucket=support-files bucket check, radosgw-admin --bucket=support-files gc process, radosgw-admin --bucket=support-files gc list никаких ошибок или объектов не показывают
Подскажите, пожалуйста. Установил ceph (версии pacific) и все, что с ним идёт в комплекте для Debian 10. Нет пакета ceph-volume ! Как он теперь называется, через что настроить osd? Интересует именно этот шаг согласно мануалу.
О писываешь через спек файл осд для ноды, вол, дБ, дата на разных дисках. Примеряешь спеку, оно по ходу создания осд умудряется проипать одно два, при этом считает, что все создало