Size: a a a

Ceph — русскоговорящее сообщество

2020 April 27

G

Glor in Ceph — русскоговорящее сообщество
А кто-то сталкивался с таким, что процесс ceph-mgr нагибает одно из ядер проца? Обновил один из мониторов до 14.2.9 и если активный мгр лежит на нем, то стабильно жрет 100% ядра. Я уже и проц ему более бодрый дал, все равно нагибает.
источник

D

DM in Ceph — русскоговорящее сообщество
Подскажите самый дешевый вариант оборудования для создания кластера с рабочим объемом 1PB
источник

k

k0ste in Ceph — русскоговорящее сообщество
DM
Подскажите самый дешевый вариант оборудования для создания кластера с рабочим объемом 1PB
Supermicro 4U+ 16TB SMR HDD = 1PB однонодовый кластер, будет тут новый рекорд
источник

KA

Konstantin Aristov in Ceph — русскоговорящее сообщество
Всем здрасьте! У меня тут друг интересуется (не я, честно!) ))
если он случайно выполнил ceph-deploy create --rgw на вполне себе живом кластере, в котором rgw уже был, и теперь у него команды
sudo rados-admin user list
sudo rados-admin bucket list
показывают палавой хуй - это сразу в морг?
При этом команда rados -p default.rgw.buckets.data ls показывает длинющий список объектов.
источник

KA

Konstantin Aristov in Ceph — русскоговорящее сообщество
я не очень понимаю, что именно они там сделали, насчет деплоя очень уклончиво отвечают ))
источник

D

DM in Ceph — русскоговорящее сообщество
k0ste
Supermicro 4U+ 16TB SMR HDD = 1PB однонодовый кластер, будет тут новый рекорд
а это сможет выжать 50gbps rand read?
источник

k

k0ste in Ceph — русскоговорящее сообщество
DM
а это сможет выжать 50gbps rand read?
Конечно, быстро, дёшево.
источник

G

Glor in Ceph — русскоговорящее сообщество
тролль.
источник

D

DM in Ceph — русскоговорящее сообщество
кто?
источник

G

Gennady [sga] Shelapugin in Ceph — русскоговорящее сообщество
Glor
тролль.
а как еще?)
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Glor
А кто-то сталкивался с таким, что процесс ceph-mgr нагибает одно из ядер проца? Обновил один из мониторов до 14.2.9 и если активный мгр лежит на нем, то стабильно жрет 100% ядра. Я уже и проц ему более бодрый дал, все равно нагибает.
у меня так )))
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
и даже знаю почему (ну с верятностью 99% )
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
DM
а это сможет выжать 50gbps rand read?
нет, но и не было такой задачи изначально )))
источник

G

Glor in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
и даже знаю почему (ну с верятностью 99% )
пощщему?
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Glor
пощщему?
балансеру трудно найти оптимальное состояние )
источник

D

DM in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
нет, но и не было такой задачи изначально )))
А что можно придумать. Кластер 1pb, их них нужно 30% в кеш на быстрый read. Я подумывал об серверах atom с ssd, но непонимаю как их запихать в стойку)
источник

AM

Alexander Mamahtehok in Ceph — русскоговорящее сообщество
Alexander Mamahtehok
балансеру трудно найти оптимальное состояние )
в моем случае
источник

G

Glor in Ceph — русскоговорящее сообщество
т.е. ты вырубаешь балансер и все нормализуется?
источник

t

timureh in Ceph — русскоговорящее сообщество
Konstantin Aristov
Всем здрасьте! У меня тут друг интересуется (не я, честно!) ))
если он случайно выполнил ceph-deploy create --rgw на вполне себе живом кластере, в котором rgw уже был, и теперь у него команды
sudo rados-admin user list
sudo rados-admin bucket list
показывают палавой хуй - это сразу в морг?
При этом команда rados -p default.rgw.buckets.data ls показывает длинющий список объектов.
как хоть этот паловой выглядит
источник

KA

Konstantin Aristov in Ceph — русскоговорящее сообщество
timureh
как хоть этот паловой выглядит
Да говорят - пустые квадратные скобочки , с этим самым палавым между ними
источник