Size: a a a

Ceph — русскоговорящее сообщество

2021 March 11

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
там ещё был смешной баг что для всех девайсов показывало одну и ту же статистику https://github.com/prometheus/procfs/pull/323
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
я его правил:)
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Кек
источник

AZ

Alexey Zakharov in Ceph — русскоговорящее сообщество
Да он вообще весь с какими-то приколами, и pr очень долго принимают
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
глянул bcache/stats_total/bypass у меня тоже человекочитаемый
источник

DS

Dmitry Sidorov in Ceph — русскоговорящее сообщество
Всем привет.
Подскажите, есть сборная солянка из разных жёстких дисков -
2 диска 1 ТБ
2 диска 6 ТБ (разных вендоров бл**)
1 диск 4 ТБ
1 диск 500 Гб
1 диск 250 Гб
2 диска 500 Гб SSD
2 диска 250 Гб SSD
1 диск 275 Гб SSD

И 8 серверов под это дело. Реально будет развернуть поверх этого proxmox + ceph?  Под ssd надо будет создавать отдельный пул?

Производительность не очень важна, планируется размещение мелких контейнеров, иногда миграция.
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Выкиньте все в помойку и купите дисков.
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
))
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Развернуть для тестов реально на чем угодно
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
ну зачем обязательно в помойку, там магнитики прикольные
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Vyacheslav Olkhovchenkov
ну зачем обязательно в помойку, там магнитики прикольные
и блины блестючие
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Dmitry Sidorov
Всем привет.
Подскажите, есть сборная солянка из разных жёстких дисков -
2 диска 1 ТБ
2 диска 6 ТБ (разных вендоров бл**)
1 диск 4 ТБ
1 диск 500 Гб
1 диск 250 Гб
2 диска 500 Гб SSD
2 диска 250 Гб SSD
1 диск 275 Гб SSD

И 8 серверов под это дело. Реально будет развернуть поверх этого proxmox + ceph?  Под ssd надо будет создавать отдельный пул?

Производительность не очень важна, планируется размещение мелких контейнеров, иногда миграция.
ну всё что меньше тера это да, лучше вообще выкинуть
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
но главное мне нравится - и 8 серверов!
источник

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
*картинка с 5 неграми и piper perri*
источник

А🐎

Александр 🐎... in Ceph — русскоговорящее сообщество
Виталий На Заборе
и блины блестючие
Можно под стекло своего камаза поставить
источник

DS

Dmitry Sidorov in Ceph — русскоговорящее сообщество
Ну этот вариант конечно есть, но на текущем этапе к сожалению нельзя так сделать.
Я могу просто собрать 4 прокса с Zraid1, но тогда 4 сервера будут выкинуты, а это аж 96 оперативки ) ну например тот же забикс - 80 гигов база, ну под рост - 150 гигов, вот 1 сервер можно под него заюзать целиком, тогда и диски большие не нужны.
источник

DS

Dmitry Sidorov in Ceph — русскоговорящее сообщество
вообще, средний диск под мелкий контейнер с сервисом - масимум 10 гигов, оперативки туда может требоваться 2-4-8 гигов, при необходимости длительного хранения тяжелых данных - можно NAS примонтировать.

У меня сейчас на трех гипервизорах занято под 200 гигов при загрузе RAM на 70%
источник

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
Dmitry Sidorov
Ну этот вариант конечно есть, но на текущем этапе к сожалению нельзя так сделать.
Я могу просто собрать 4 прокса с Zraid1, но тогда 4 сервера будут выкинуты, а это аж 96 оперативки ) ну например тот же забикс - 80 гигов база, ну под рост - 150 гигов, вот 1 сервер можно под него заюзать целиком, тогда и диски большие не нужны.
Я возможно задам глупый вопрос,
Зачем Вам нужен ceph при таких запросах?
источник

DS

Dmitry Sidorov in Ceph — русскоговорящее сообщество
Дмитрий Дятлов
Я возможно задам глупый вопрос,
Зачем Вам нужен ceph при таких запросах?
Мне кажется, таким образом я получу резервирование данных без использования рейда
источник

ДД

Дмитрий Дятлов... in Ceph — русскоговорящее сообщество
raid1 будет дешевле )
источник