Size: a a a

Ceph — русскоговорящее сообщество

2021 February 02

AN

Anna Nesterova in Ceph — русскоговорящее сообщество
@mamahtehok спасибо за помощь
источник

AN

Anna Nesterova in Ceph — русскоговорящее сообщество
🙂
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Anna Nesterova
@mamahtehok спасибо за помощь
тебе спс за фикс )
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Anna Nesterova
ладно, другой вопрос. Может просто этого недостаточно поэтому с ним оно не работает?
ganesha-rados-grace -p cephfs_metadata -n ganesha add lga-storage06.pulse.prod
не лучшая идея трогать пулы цеффс, лучше сделай отдельный пул для конфигов.
источник

AN

Anna Nesterova in Ceph — русскоговорящее сообщество
насколько я понимаю с rados_ng оно его не юзает, я его как минимум нигде не передаю. То я для rados_kw делала потестить
источник

D

Danila in Ceph — русскоговорящее сообщество
Всем привет!
Правильно я помню, что при создании DB на отдельном диске (SSD) wal создается там же (вместе с DB) автоматически ? Как это можно проверить ?
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Anna Nesterova
насколько я понимаю с rados_ng оно его не юзает, я его как минимум нигде не передаю. То я для rados_kw делала потестить
да, я не внимателен, не замтил как kv на ng поменялось )))
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Danila
Всем привет!
Правильно я помню, что при создании DB на отдельном диске (SSD) wal создается там же (вместе с DB) автоматически ? Как это можно проверить ?
да, вал будет создан на дб, если не указать иного.
источник

t

timureh in Ceph — русскоговорящее сообщество
такой Segfault падения osd кто-нить встречал?
https://pastebin.com/1vcfzgcA
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
я не видел, хз что это такое
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
напиши ещё чего делал
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
вдруг кто-то сталкивался
источник

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
bad crc in data
самое первое сообщение, наверное данные где то побились при передаче
источник

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
RAM с ECC?
источник

t

timureh in Ceph — русскоговорящее сообщество
Виталий На Заборе
напиши ещё чего делал
создал новое дерево (недефолтный рут)
добавил в него несколько бакетов, в них osd
поднял на них пул
сунул новый пул проксмоксу (там уже были другие пулы, все работало)
и начали раз в 10-15 минуть падать osd во всем кластере (но не повторялись, каждый раз новые)
потом увидел что не дал проксу кейринг для нового стораджа, сделал, 2 часа поработало думал дело было в отсутствии кейринга, но опять пара штук упала (у всех одно и тоже в логах, трейс выше)

с сетью все ок, в dmesg чисто, память с ECC
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
версии случайно не смешанные цефа?
источник

t

timureh in Ceph — русскоговорящее сообщество
падают osd из дефолтного рута, а не с нового пула
нет, везде 12.2.13
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
я видел на более новом цефе усиленное срание в лог сообщениями типа
verify_authorizer could not get service secret for service osd secret_id=...
но чем это вызывается я не понял, прошло потом как-то само
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
усиленное - это прям по 15 гигов этого сообщения было каждый день от каждого осд
источник

t

timureh in Ceph — русскоговорящее сообщество
Виталий На Заборе
я видел на более новом цефе усиленное срание в лог сообщениями типа
verify_authorizer could not get service secret for service osd secret_id=...
но чем это вызывается я не понял, прошло потом как-то само
есть понимание что за secret_id?
could not find secret_id=20257
источник