Size: a a a

Ceph — русскоговорящее сообщество

2020 May 06

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
rasdaemon
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
У меня mcelog вообще не завелся, когда пробовал
источник
2020 May 07

k

k0ste in Ceph — русскоговорящее сообщество
timureh
ни у кого CATERR (Catastrophic Error) на супермикровских нодах небыло? Сервер начал произвольно ребутаться с такой ошибкой в health log ipmi , после того как поднял на нем монитор. совпадение или нет, хз. пока вроде закономерно
Было и не раз, супермикро же😄
источник

J

John Roe in Ceph — русскоговорящее сообщество
gino Reyansh: user has been CAS banned
источник

ag

andrew goussakovski in Ceph — русскоговорящее сообщество
Коллеги доброе утро, а подскажите можно с цефа как-то получить скорости внутренних процессов - меня в первую очередь интересует реальная скорость snaptrim
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
andrew goussakovski
Коллеги доброе утро, а подскажите можно с цефа как-то получить скорости внутренних процессов - меня в первую очередь интересует реальная скорость snaptrim
Такой информации нет.
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Есть более подробная стата через osd asock, но snatrim точно нет
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
Всем привет, подскажите пожалуйста.

Имеем 8 osd по 4 на хост, заменили 4 шт, видим следующее.

 data:
   pools:   3 pools, 1152 pgs
   objects: 389.4 k objects, 59 GiB
   usage:   91 GiB used, 1.7 TiB / 1.7 TiB avail
   pgs:     301131/778818 objects degraded (38.665%)
            110705/778818 objects misplaced (14.214%)
            521 active+undersized+degraded+remapped+backfill_wait
            371 active+undersized+remapped+backfill_wait
            158 active+clean
            101 active+remapped+backfill_wait
            1   active+undersized+degraded+remapped+backfilling

Но если монтировать что-то, то отваливается по timeout со следующей ошибкой:

mount error 5 = Input/output error
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
реплика 2 стоит, значит каждый хост со своими 4-мя osd может спокойно выходить из строя. проблема началась сразу после добавления в кластер новых osd
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Нееет, СЕЙЧАС у вас полная жопа - и выход любой одной OSD это  с вероятностью 50% писец и катастрофа, поскольку у вас undersized 892 PG из 1152
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
Artemy Kapitula
Нееет, СЕЙЧАС у вас полная жопа - и выход любой одной OSD это  с вероятностью 50% писец и катастрофа, поскольку у вас undersized 892 PG из 1152
Можете пояснить пожалуйста? Речь идет о том, что выход из строя уже имеющихся? Но не в случае когда мы удалили 4 шт и добавили новые. Верно?
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
То что выводить из строя хотя бы один osd нельзя, это понятно. Вопрос почему возникает ошибка монтирования.
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Stas Tibekin
То что выводить из строя хотя бы один osd нельзя, это понятно. Вопрос почему возникает ошибка монтирования.
А что вы вообще монтируете? CephFS? ФС с RBD? OSD? S3FS (упаси господи!!!)? Что-то еще?
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
Artemy Kapitula
А что вы вообще монтируете? CephFS? ФС с RBD? OSD? S3FS (упаси господи!!!)? Что-то еще?
cephfs
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
Монтирование как с куба не идет, так и с хоста обычной командой. Отваливается с ошибкой выше.
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Полный вывод ceph -s
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Полный вывод ceph fs list
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Проверьте состояние mds
источник

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
С вероятностью процентов 70 у вас MDS лёг
источник

ST

Stas Tibekin in Ceph — русскоговорящее сообщество
ceph -s
 cluster:
   id:     37f21920-ffaa-4859-8832-418b0b4734a1
   health: HEALTH_WARN
           104651/778818 objects misplaced (13.437%)
           Degraded data redundancy: 297513/778818 objects degraded (38.201%), 512 pgs degraded, 883 pgs undersized

 services:
   mon: 3 daemons, quorum SERVER-s3,SERVER-s2,SERVER-s1
   mgr: SERVER-s2(active), standbys: SERVER-s1, SERVER-s3
   mds: SERVER-fs-1/1/1 up  {0=SERVER-s1=up:active}, 2 up:standby
   osd: 8 osds: 8 up, 8 in; 984 remapped pgs

 data:
   pools:   3 pools, 1152 pgs
   objects: 389.4 k objects, 59 GiB
   usage:   91 GiB used, 1.7 TiB / 1.7 TiB avail
   pgs:     297513/778818 objects degraded (38.201%)
            104651/778818 objects misplaced (13.437%)
            511 active+undersized+degraded+remapped+backfill_wait
            371 active+undersized+remapped+backfill_wait
            168 active+clean
            101 active+remapped+backfill_wait
            1   active+undersized+degraded+remapped+backfilling
источник