Size: a a a

Ceph — русскоговорящее сообщество

2020 June 16

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Виталий На Заборе
ну да. САМО не потеряет
вот, надо уточнять этот момент :)
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
blkmrkt
Почему же - хочу освоить технологию, сэкономить денег на стораже и в будущем наращивать объемы стоража.
я лет 7 уже осваиваю ceph 😅
источник

b

blkmrkt in Ceph — русскоговорящее сообщество
Виталий На Заборе
не заглохнет и ничего не потеряет, просто медленно будет
А, ну и нормас! Заодно и попробую это на собственной шкуре. После частичной потери и восстановления 5ТБ постгрес кластера я уже ничего не боюсь.
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Irek Fasikhov
radosgw-admin gc process
никакого видимого результата
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
никакого видимого результата
значит сам придет )
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
radosgw-admin gc list —include-all
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
не приходит
источник

b

blkmrkt in Ceph — русскоговорящее сообщество
Irek Fasikhov
я лет 7 уже осваиваю ceph 😅
Тогда дратути, буду здесь у вас жить!
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Irek Fasikhov
radosgw-admin gc list —include-all
там будет поле  с датой и временем, когда пойдет под нож объект
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
там пусто
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
root@ceph-01:~# radosgw-admin gc list --include-all
[]
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
значит объекты не удалил в самом s3 бакете
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
да не было у меня ни s3 ни s3 бакетов
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
был пул да пул грохнул. а место занятое осталось.
источник

b

blkmrkt in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
root@ceph-01:~# ceph df
RAW STORAGE:
   CLASS     SIZE        AVAIL       USED        RAW USED     %RAW USED
   hdd       246 GiB     234 GiB     6.4 GiB       12 GiB          5.04
   TOTAL     246 GiB     234 GiB     6.4 GiB       12 GiB          5.04

POOLS:
   POOL                          ID     STORED      OBJECTS     USED        %USED     MAX AVAIL
   .rgw.root                      5     1.2 KiB           4     768 KiB         0        74 GiB
   default.rgw.control            6         0 B           8         0 B         0        74 GiB
   default.rgw.meta               7      1002 B           5     768 KiB         0        74 GiB
   default.rgw.log                8         0 B         207         0 B         0        74 GiB
   default.rgw.buckets.index      9         0 B           1         0 B         0        74 GiB
ну и как его напинать что бы почистился?
Прошу прощения, а какой у вас юзкейс с такими объемами данных? Это одна нода с 1 ССД диском?
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
это тестовый кластер дабы над ним поиздеваться.
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
три виртуалки на каждой по две osd на 40ГБ
источник

b

blkmrkt in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
это тестовый кластер дабы над ним поиздеваться.
О, я наверное тоже сейчас в виртуалке поиграюсь для начала!
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
о. внезапно. если изначально osd создавать без .db а db добавлять потом, то db/IDENTITY как изначально создался на slow так там на всегда и останется, поскольку в компактах не учавствует. и жалобы кластера на эту osd о spillover никогда не прекратятся
источник

b

blkmrkt in Ceph — русскоговорящее сообщество
распрекраснейшая вещь, накатывает даже графану для мониторинга! https://docs.ceph.com/ceph-ansible/master/
источник