Size: a a a

Ceph — русскоговорящее сообщество

2021 September 06

AN

Andrey Nemysskiy in Ceph — русскоговорящее сообщество
Запусти принудительно scrub на всех OSD.
источник

DR

Denis Rybak in Ceph — русскоговорящее сообщество
посмотри через ceph -s, посмотри ceph df, какой пул забит
(кстати, capacity в 30 гб - мощно)
источник

DR

Denis Rybak in Ceph — русскоговорящее сообщество
плюс, как я понял, у тебя rbd, а там есть отложенное удаление
источник

DR

Denis Rybak in Ceph — русскоговорящее сообщество
rbd trash ls
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
походу накрылось все медным тазом
я почему не могу удалить replicapool
я так понял что его и нет
[root@rook-ceph-tools-77f4f75cdd-7mklh /]# rbd trash list
rbd: error opening default pool 'rbd'
Ensure that the default pool has been created or specify an alternate pool name.
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
[root@rook-ceph-tools-77f4f75cdd-7mklh /]# ceph df
--- RAW STORAGE ---
CLASS  SIZE    AVAIL    USED    RAW USED  %RAW USED
hdd    30 GiB  914 MiB  26 GiB    29 GiB      97.02
TOTAL  30 GiB  914 MiB  26 GiB    29 GiB      97.02

--- POOLS ---
POOL                   ID  PGS  STORED   OBJECTS  USED     %USED   MAX AVAIL
device_health_metrics   1    1   52 KiB        3  155 KiB  100.00        0 B
replicapool             2   32  8.7 GiB    2.32k   26 GiB  100.00        0 B
источник

W

Wild_Wind in Ceph — русскоговорящее сообщество
Дропни replicapool, он у тебя все место выжрал. Или данные в нём.
ceph osd pool remove replicapool replicapool --yes-blet
Или
rbd -p replicapool ls
rbd remove replicapool/$image_name
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
Спасибо, ожил ceph
источник

W

Wild_Wind in Ceph — русскоговорящее сообщество
Ну прост доку почитай как rbd юзать и всё. А ещё лучше смотреть стату через консольку. Надежнее и проще, дашборд порой отваливается и тупит. Им вообще я давно не пользовался...
ceph status
ceph healt detail

ceph osd tree
ceph osd df

google:
 ceph rbd usage
 ceph perfomance
 ceph troubleshooting
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
80%
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
90%
     storage: 9Gi
где 20% нужно оставлять?
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
опять та же хреть
источник

AS

Andrey S in Ceph — русскоговорящее сообщество
volume намертво повисает
источник

E

Eugene in Ceph — русскоговорящее сообщество
у тебя 30 гигабайт всего на дисках, сохраняешь ты три копии данных, тоесть 30/3 = 10Гб стореджа у тебя всего доступно, чтобы диск небыл забит, надо хранить не больше 8Гб
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
30 гб это пикокластер
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Там базы же одни по паре гигов сожрут на каждом осд
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
да не, на таких объемах не сожрут
источник

E

Eugene in Ceph — русскоговорящее сообщество
та я думаю не сожрут, там данных нет чтобы жрать :)
источник

E

Eugene in Ceph — русскоговорящее сообщество
тут больше вопрос при создании OSD сколько он от диска отожрет для резерва под базу
источник