Size: a a a

Ceph — русскоговорящее сообщество

2016 July 15

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
то есть сервак тот же, а к первому линку добавили второй
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
с другим айпишником на нем ?
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
да
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
с другим айпи
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
то есть был один IP 10.2 допустим и теперь включаю второй интрфейс 20.2
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
a cluster network какая ? 10.2?
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
все общение по адресам кластер-сети
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
кластерная 10.2 да
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
cluster network =
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
это же оно да?
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
да
источник

DB

Dmitry Burlakov in Ceph — русскоговорящее сообщество
тогда ей собсно плевать на второй адрес )
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
оок, спасибо)
источник

PB

Pavel B in Ceph — русскоговорящее сообщество
Всем привет, есть вопрос про ceph. Столкнулся с тем, что со всех нод выпало по 2 OSD демона, при попытке поднять демон падает, при попытке вывести из кластера эту OSD падает соседняя.
источник

PB

Pavel B in Ceph — русскоговорящее сообщество
0> 2016-07-15 12:09:53.127549 7f974c8c3700 -1 osd/osd_types.cc: In function 'uint64_t SnapSet::get_clone_bytes(snapid_t) const' thread 7f974c8c3700 time 2016-07-15 12:09:53.125394
osd/osd_types.cc: 3537: FAILED assert(clone_size.count(clone))
источник

PB

Pavel B in Ceph — русскоговорящее сообщество
важный кусок и лога как мне кажеться
источник

PB

Pavel B in Ceph — русскоговорящее сообщество
[root@cephosd1 ~]# ceph -s
   cluster 3ee239a5-f8a1-49e8-8abf-d22bf81a8ab3
    health HEALTH_WARN 150 pgs degraded; 178 pgs stuck unclean; recovery 85079/5077980 objects degraded (1.675%)
    monmap e5: 3 mons at {cephmon1=192.168.2.200:6789/0,cephmon2=192.168.2.201:6789/0,cephmon3=192.168.2.202:6789/0}, election epoch 78, quorum 0,1,2 cephmon1,cephmon2,cephmon3
    osdmap e62089: 97 osds: 91 up, 91 in
     pgmap v10780822: 2700 pgs, 2 pools, 7109 GB data, 1819 kobjects
           19938 GB used, 282 TB / 301 TB avail
           85079/5077980 objects degraded (1.675%)
                 13 active+degraded+remapped
               2522 active+clean
                137 active+degraded
                 28 active+remapped
 client io 23895 kB/s rd, 6141 kB/s wr, 1010 op/s
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
Pavel B
Всем привет, есть вопрос про ceph. Столкнулся с тем, что со всех нод выпало по 2 OSD демона, при попытке поднять демон падает, при попытке вывести из кластера эту OSD падает соседняя.
по 2OSD?
источник

МS

Михаил SinTeZoiD in Ceph — русскоговорящее сообщество
как выводишь из кластера
источник

PB

Pavel B in Ceph — русскоговорящее сообщество
да по 2 диска
источник