Size: a a a

Ceph — русскоговорящее сообщество

2021 February 26

AK

Artemy Kapitula in Ceph — русскоговорящее сообщество
Александр 🐎
Так ты не овтеил сколько у вас
Вторая дырка сверху. У тебя тоже вторая - но снизу
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
😄
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Ну эт кстати получается в 2 раза больше..
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
😕
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Не оч впечатляет
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Artemy Kapitula
Вторая дырка сверху. У тебя тоже вторая - но снизу
Штоа? Какая еще дырка?)))
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Виталий На Заборе
Штоа? Какая еще дырка?)))
Писькомер
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Андрей Катаман
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
бля
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Ну кароч ты понял @vitalif
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Александр 🐎
Ну кароч ты понял @vitalif
Аа
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Павел Савин
Ну я уже поискал, вроде как compaction решает эту проблему.
Вопрос скорей в другом, ему 300GB мало получается, или можно что-то подкрутить чтобы он не вылазил за эти размеры?
сделай компакт в оффлайне
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
через ceph-kvstore-tool
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
А ceph daemon osd.x compact не катит?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Я сегодня в эту тему углубился, но так и не понял какого хрена оно переполняется, если у меня размер db 300 гигов и max bytes for level base по умолчанию 256.. 256х1111 получаем 284416, ещё даже запас есть.. или как раз дело в лишнем месте, и надо размер level base немного увеличить?
источник

k

k0ste in Ceph — русскоговорящее сообщество
Павел Савин
Всем привет.
Подскажите, что с этим делать?

[WRN] BLUEFS_SPILLOVER: 1 OSD(s) experiencing BlueFS spillover
    osd.1 spilled over 66 MiB metadata from 'db' device (645 MiB used of 2.0 GiB) to slow device
db 300gb, wal 2gb. OSD=14tb.
ceph daemon osd.1 bluestore bluefs available
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
k0ste
ceph daemon osd.1 bluestore bluefs available
Ну я ставил эксперименты в итоге выставил размер max level base 1.4 гига (это примерно 300гиг/211), после этого эти варнинги пропали, но ручной компакт стал 12-16 секунд вместо 2
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
@k0ste что я там должен увидеть, если место в DB разделе закончилось, о чем это говорит?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
хмм, какая-то херня походу приключилась.
Почему-то разделы перепутаны по размеру, в этом походу и дело.
{
   "dev": {
       "device": "BDEV_WAL",
       "free": 322071166976
   },
   "dev": {
       "device": "BDEV_DB",
       "free": 1745879040
   },
   "dev": {
       "device": "BDEV_SLOW",
       "free": 559969533952
   },
   "available_from_bluestore": 13162248142848
}
Должно быть 300гиг DB, и 2гига WAL..
источник

IF

Irek Fasikhov in Ceph — русскоговорящее сообщество
Павел Савин
А ceph daemon osd.x compact не катит?
не всегда. Да и быстрее делается в оффлайне
источник