Size: a a a

Ceph — русскоговорящее сообщество

2021 March 03

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
мар 03 17:18:59 node20801 systemd[1]: Stopped Ceph object storage daemon osd.0.
мар 03 17:19:45 node20801 systemd[1]: start request repeated too quickly for ceph-osd@0.service
мар 03 17:19:45 node20801 systemd[1]: Failed to start Ceph object storage daemon osd.0.
мар 03 17:19:45 node20801 systemd[1]: Unit ceph-osd@0.service entered failed state.
мар 03 17:19:45 node20801 systemd[1]: ceph-osd@0.service failed.
мар 03 17:21:06 node20801 systemd[1]: start request repeated too quickly for ceph-osd@0.service
мар 03 17:21:06 node20801 systemd[1]: Failed to start Ceph object storage daemon osd.0.
мар 03 17:21:06 node20801 systemd[1]: ceph-osd@0.service failed.
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
НИПАНЯТНА кароч
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Надо видимо ребутать ноду, ночью сделаю.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
2021-03-03T17:26:40.687+0300 7f2db1636700 -1 osd.0 17472 *** Immediate shutdown (osd_fast_shutdown=true) ***
2021-03-03T17:26:58.557+0300 7f9bed1c1f40  0 set uid:gid to 167:167 (ceph:ceph)
....
2021-03-03T17:27:07.189+0300 7f9bed1c1f40  0 osd.0 17472 done with init, starting boot process

что-то оно у меня два раза rocksdb запускает и монтирует bluestore... Так и должно быть?
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
2021-03-03T17:27:02.353+0300 7f9bed1c1f40  4 rocksdb: [db/db_impl.cc:390] Shutdown: canceling all background work
2021-03-03T17:27:02.353+0300 7f9bed1c1f40  4 rocksdb: [db/db_impl.cc:563] Shutdown complete
2021-03-03T17:27:02.380+0300 7f9bed1c1f40  1 bluefs umount
2021-03-03T17:27:02.380+0300 7f9bed1c1f40  1 bdev(0x557cf1b3ea80 /var/lib/ceph/osd/ceph-0/block.wal) close
2021-03-03T17:27:02.530+0300 7f9bed1c1f40  1 bdev(0x557cf1b3ee00 /var/lib/ceph/osd/ceph-0/block.db) close
2021-03-03T17:27:02.666+0300 7f9bed1c1f40  1 bdev(0x557cf1b3e700 /var/lib/ceph/osd/ceph-0/block) close

```
источник

ОБ

Олександр Буржунецьк... in Ceph — русскоговорящее сообщество
Александр 🐎
мар 03 17:18:59 node20801 systemd[1]: Stopped Ceph object storage daemon osd.0.
мар 03 17:19:45 node20801 systemd[1]: start request repeated too quickly for ceph-osd@0.service
мар 03 17:19:45 node20801 systemd[1]: Failed to start Ceph object storage daemon osd.0.
мар 03 17:19:45 node20801 systemd[1]: Unit ceph-osd@0.service entered failed state.
мар 03 17:19:45 node20801 systemd[1]: ceph-osd@0.service failed.
мар 03 17:21:06 node20801 systemd[1]: start request repeated too quickly for ceph-osd@0.service
мар 03 17:21:06 node20801 systemd[1]: Failed to start Ceph object storage daemon osd.0.
мар 03 17:21:06 node20801 systemd[1]: ceph-osd@0.service failed.
В демоне же стоит ограничение частоты рестарта - не? Так не выйдет тестануть :)
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Олександр Буржунецький
В демоне же стоит ограничение частоты рестарта - не? Так не выйдет тестануть :)
Видишь ли, у него есть проблема какая-та, у меня нет вроде
источник
2021 March 04

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
Всем привет!
Кто-нибудь пользует не ванильный CEPH?
Встали перед выбором решения с поддержкой, пока нашли только Red Hat Ceph Storage и SUSE ES.
Может быть что-то пропустили?
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Хз
источник

OM

Oleg Mironov in Ceph — русскоговорящее сообщество
Alexander mamahtehok
ни чего не менял, 300 не выделял сижу кайфую )
Видимо потому что:
https://docs.ceph.com/en/latest/rados/configuration/bluestore-config-ref/#sizing

В документации пишут:
Improvements in releases beginning with Nautilus 14.2.12 and Octopus 15.2.6 enable better utilization of arbitrary DB device sizes, and the Pacific release brings experimental dynamic level support.
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Владимир Марченко
Всем привет!
Кто-нибудь пользует не ванильный CEPH?
Встали перед выбором решения с поддержкой, пока нашли только Red Hat Ceph Storage и SUSE ES.
Может быть что-то пропустили?
Вроде у canonical тоже есть с поддержкой.
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Ой блять, забыл, рестартнуть ноду.
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
🙁
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Поставил напоминалку.
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Oleg Mironov
Видимо потому что:
https://docs.ceph.com/en/latest/rados/configuration/bluestore-config-ref/#sizing

В документации пишут:
Improvements in releases beginning with Nautilus 14.2.12 and Octopus 15.2.6 enable better utilization of arbitrary DB device sizes, and the Pacific release brings experimental dynamic level support.
Именно :)
источник

DK

Denis Kondratenko in Ceph — русскоговорящее сообщество
Владимир Марченко
Всем привет!
Кто-нибудь пользует не ванильный CEPH?
Встали перед выбором решения с поддержкой, пока нашли только Red Hat Ceph Storage и SUSE ES.
Может быть что-то пропустили?
источник

DK

Denis Kondratenko in Ceph — русскоговорящее сообщество
или платить девелоперам напрямую, есть пару человек в Украине и России
источник

DK

Denis Kondratenko in Ceph — русскоговорящее сообщество
наверняка есть ещё мелкие конторы
источник

ВМ

Владимир Марченко... in Ceph — русскоговорящее сообщество
Спасибо за ответы!
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
А они переписывают и допиливают цепх или просто поддержка?
источник