Size: a a a

Ceph — русскоговорящее сообщество

2020 March 24

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
вот непонятно - никаких фаерволлов, пингуют друг друга по кластерной сетке
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
а сейчас в логах опять то же самое?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
fault initiating reconnect?
источник

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
да
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
ну хер знает. ну попробуй уровень дебага поднять и опять перезапустить того кто ругается
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
либо в сторону сети копай...
источник

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
а все-таки есть смысл пул мин_сайз до 1 опустить или не поможет?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
не поможет
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
они тупят, вообще понять не могут что происходит
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
надо тупняк вылечить
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
а версия какая?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
а, и посмотри, все ругаются на кого-то одного?
источник

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
13.2.6
источник

S

SlyRaccoon in Ceph — русскоговорящее сообщество
Elliot Spencer
cluster:
   id:     207605f5-38e4-4866-8c32-339ab227a0d1
   health: HEALTH_WARN
           1 MDSs report slow metadata IOs
           123169/1876554 objects misplaced (6.564%)
           Reduced data availability: 622 pgs inactive, 387 pgs peering
           Degraded data redundancy: 20447/1876554 objects degraded (1.090%), 11 pgs degraded, 11 pgs undersized

 services:
   mon: 3 daemons, quorum c5,c1,c3
   mgr: c3(active), standbys: c5, c4, c2, c1, c6
   mds: onefs-1/1/1 up  {0=c4=up:active}, 3 up:standby
   osd: 25 osds: 22 up, 21 in; 198 remapped pgs

 data:
   pools:   5 pools, 1024 pgs
   objects: 625.5 k objects, 1.7 TiB
   usage:   5.9 TiB used, 29 TiB / 35 TiB avail
   pgs:     63.867% pgs not active
            20447/1876554 objects degraded (1.090%)
            123169/1876554 objects misplaced (6.564%)
            342 active+clean
            295 peering
            187 activating
            113 remapped+peering
            52  activating+remapped
            20  active+remapped+backfill_wait
            7   activating+undersized+degraded+remapped
            3   active+undersized+degraded+remapped+backfill_wait
            2   active+undersized+remapped+backfill_wait
            1   active+clean+remapped
            1   active+remapped+backfilling
            1   active+undersized+degraded+remapped+backfilling

 io:
   client:   23 GiB/s rd, 48 GiB/s wr, 2.86 Mop/s rd, 3.48 Mop/s wr
   recovery: 11 GiB/s, 421 keys/s, 3.51 kobjects/s
а что тут сейчас?
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
если все на одного ругаются, то можно попробовать понять кто это и его вообще погасить
по принципу шаманства можно собственно наверное вообще всех просто перезапустить, всё равно уже даунтайм
источник

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
cluster:
   id:     207605f5-38e4-4866-8c32-339ab227a0d1
   health: HEALTH_WARN
           1 MDSs report slow metadata IOs
           113279/1876554 objects misplaced (6.037%)
           Reduced data availability: 659 pgs inactive, 414 pgs peering
           Degraded data redundancy: 23575/1876554 objects degraded (1.256%), 9 pgs degraded, 10 pgs undersized
           15 slow requests are blocked > 32 sec. Implicated osds 16

 services:
   mon: 3 daemons, quorum c5,c1,c3
   mgr: c3(active), standbys: c5, c4, c2, c1, c6
   mds: onefs-1/1/1 up  {0=c4=up:active}, 3 up:standby
   osd: 25 osds: 22 up, 21 in; 185 remapped pgs

 data:
   pools:   5 pools, 1024 pgs
   objects: 625.52k objects, 1.75TiB
   usage:   5.90TiB used, 29.4TiB / 35.3TiB avail
   pgs:     64.355% pgs not active
            23575/1876554 objects degraded (1.256%)
            113279/1876554 objects misplaced (6.037%)
            350 active+clean
            301 peering
            186 activating
            113 remapped+peering
            52  activating+remapped
            7   activating+undersized+degraded+remapped
            7   active+remapped+backfill_wait
            4   active+remapped+backfilling
            2   active+undersized+degraded+remapped+backfilling
            1   active+undersized+remapped+backfilling
            1   active+clean+remapped

 io:
   recovery: 20.0MiB/s, 6objects/s
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
посмотри короче кого пнуть
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
а, опять 16 ... ну выключи его вообще
источник

ES

Elliot Spencer in Ceph — русскоговорящее сообщество
host c4 osd ругаются что не могут досутчатся по кластерной сетке до ц1 и ц2
источник

ВН

Виталий На Заборе in Ceph — русскоговорящее сообщество
получится вообще без него отпириться?
источник