Size: a a a

Ceph — русскоговорящее сообщество

2020 December 08

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
ну мало ли.
источник

A

Alex in Ceph — русскоговорящее сообщество
в общем, давай данные 🙂
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
атомы конечно врядли, но вдруг там x52xx какое
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
или fx
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
запускаю с серваков кластера:
fio:

[global]
ioengine=rbd
clientname=admin
pool=ssd-test-pool
rbdname=disk1
rw=randwrite
bs=4k
runtime=60
direct=1
[rbd_iodepth32]
iodepth=1
3 -сервера, 6 -SSD в серваке. разбит на 2 по 600 - итого 12 OSD на сервер.
Уровень репликации 3
ssd серии Intel4610
клиентская сеть 2x10GE(bonding), кластерная сеть еще 2x10GE RcOE(RDMA) - MTU 9000, RDMA MTU 4096
Памяти 128, CPU  Intel Gold 5120, 2x14core.

при iodepth=256- выдает 35К iops через RBD.
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
интернеты говорят что 4610 -- nvme и 1.2Т они не бывают
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
еще иногда зависает I/O и вот такие сообщения в логе:
ceph-osd.14.log:2020-12-08T18:05:23.980+0300 7f489566d700  0 log_channel(cluster) log [WRN] : slow request osd_op(client.234255.0:11868 4.3d 4:be54286e:::rbd_data.3202832b8dab8.0000000000000540:head [write 589824~4096 in=4096b] snapc 0=[] ondisk+write+known_if_redirected e1477) initiated 2020-12-08T18:03:57.304614+0300 currently waiting for sub ops
- но это при интенсивной записи - вылетает на разных osd, помогает перезапуск osd.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
интернеты говорят что 4610 -- nvme и 1.2Т они не бывают
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
остальное место под wal+rocks+bcache для hdd пула.
источник

A

Alex in Ceph — русскоговорящее сообщество
Обнови прошиву ссд
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
интернеты говорят что 4610 -- nvme и 1.2Т они не бывают
s
источник

A

Alex in Ceph — русскоговорящее сообщество
А по загрузке ссд что?
источник

A

Alex in Ceph — русскоговорящее сообщество
Вряд ли ты в иопс уперся
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
по загрузке в 1 поток?
источник

A

Alex in Ceph — русскоговорящее сообщество
Попингуй с -M do -s 8192, мож где с мту проеб
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
все равно 1.2 нет, есть 960 и 1.9.
источник

A

Alex in Ceph — русскоговорящее сообщество
Павел Савин
по загрузке в 1 поток?
Мало ли, вдруг загружен кластер
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
не, свеже установленный без клиентов. 1 пул всего для теста
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Павел Савин
еще иногда зависает I/O и вот такие сообщения в логе:
ceph-osd.14.log:2020-12-08T18:05:23.980+0300 7f489566d700  0 log_channel(cluster) log [WRN] : slow request osd_op(client.234255.0:11868 4.3d 4:be54286e:::rbd_data.3202832b8dab8.0000000000000540:head [write 589824~4096 in=4096b] snapc 0=[] ondisk+write+known_if_redirected e1477) initiated 2020-12-08T18:03:57.304614+0300 currently waiting for sub ops
- но это при интенсивной записи - вылетает на разных osd, помогает перезапуск osd.
у меня аналогичная хуйня на прошлой неделе была. грешим на свич, типа пакеты бьет.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
у меня аналогичная хуйня на прошлой неделе была. грешим на свич, типа пакеты бьет.
ну вроде с сетью проблем не было, посмотрю статистику интерфейсов...
источник