Size: a a a

Ceph — русскоговорящее сообщество

2021 January 21

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
[root@node28-11f9 ~]# free -m
             total        used        free      shared  buff/cache   available
Mem:           3940        1308        2066           0         565        2231
Swap:          7629          69        7560
вот так
и диск 10Т
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
но уже с риском для жопы
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
osd_memory_target=3221225472
bluestore_cache_size=1073741824
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
вот что у них выставлено
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
там больше в другом жопа: оно просто нихера не работает )))
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
эти одноплатники то ли зависают, то ли их сетевые интерфейсы отваливаются, то ли встроенный коммутатор выделывается
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
короче, osd постоянно падают
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
но это ещё как-то хоть жизнеспособно, а бывает вот такое:
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
2021-01-20 05:42:51.195613 mon.node18-11a4 [WRN] Health check failed: 2 slow ops, oldest one blocked for 33 sec, osd.3 has slow ops (SLOW_OPS)
2021-01-20 05:42:46.561998 osd.3 [WRN] slow request osd_op(client.81389679.0:393926901 18.37 18:ef969ae3:::9dcf66ce-e3b3-4e75-8635-513ad4cd2c86.62612.1_CH_STARSPORTSSELECT2_MS%2faudio%2faud0%2fbw128000%2f77331861038148.mp4:head [cmpxattr user.rgw.idtag (55) op 1 mode 1,call rgw.obj_remove] snapc 0=[] ondisk+write+known_if_redirected e4623) initiated 2021-01-20 05:42:15.821466 currently waiting for sub ops
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
и так может продолжаться несколько часов, в результате вся запись встаёт намертво, пока не упадёт этот osd
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
на ноде с монитором:
[root@node18-11a4 ~]# free -m
             total        used        free      shared  buff/cache   available
Mem:           3940        3603         179           0         157          49
Swap:          7629         967        6662
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
кстати, стоит 14.2.12
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
было хотел попросить забенчить это чудо, но что-то смысла наверное нет
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
оно под нагрузкой:
pool default.rgw.buckets.index id 17
 client io 597 KiB/s rd, 160 KiB/s wr, 597 op/s rd, 276 op/s wr

pool default.rgw.buckets.data id 18
 client io 2.2 MiB/s rd, 38 MiB/s wr, 125 op/s rd, 687 op/s wr
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
27 OSD по 10Т, size=3 на всех пулах, организовано в виде 4 шасси по 8 одноплатников внутри.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
основное использование - s3 + cephfs, но
pool fsdata, pg_num: 64
pool default.rgw.buckets.data, pg_num: 64
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Виталий На Заборе
было хотел попросить забенчить это чудо, но что-то смысла наверное нет
модифицировать (создать пул, например), увы, ничего нельзя, только понаблюдать могу.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
так-то идея интересная изначально, но реализация...
источник

N

Nikita in Ceph — русскоговорящее сообщество
Victor Chaplinsky
короче, osd постоянно падают
Саппорт что говорит? Avantek их все еще продает с трехлетней поддержкой.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Nikita
Саппорт что говорит? Avantek их все еще продает с трехлетней поддержкой.
Current vendor has told us they have no idea now what the issue is.
источник