Size: a a a

Ceph — русскоговорящее сообщество

2021 October 02

ВН

Виталий На Заборе... in Ceph — русскоговорящее сообщество
Я тестил тоже connectx4, и там короче с 5.8 на опенсорсном драйвере все збс даже с RDMA. На 5.4 и 5.6 еще ловил баги, ну там видимо этот, ОФЕД нужен
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Ну да, с офед нет проблем
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
И слава б-гу. Через несколько лет работы начинают сыпать црц ошибками, если вдруг их потрогаешь. Замена патчкордов, продувка разъемов, даже пшыкнуть контактолом помогает на время
источник

ДР

Дима Рудюк in Ceph — русскоговорящее сообщество
Жуть , тут иногда такое можно в 1г поймать представляю как это в 10г
источник

VO

Vyacheslav Olkhovche... in Ceph — русскоговорящее сообщество
Евреи, не жалейте заварку. И ничего ловить не придется
источник
2021 October 03

AN

Andrey Nemysskiy in Ceph — русскоговорящее сообщество
Да, да. Слышал много раз эти сказки и побасенки про црц через некоторое время на медных портах.
Причина обычно банальная. Не надо делать скс на меди для 10г из говна и палок и оставлять висеть провода на собственном весу. Уложите кабель на органайзеры. И не загибайте провода на 180 градусов да раз по несколько. Проблема усугубляется если задницы у серверов горячие, т.е. тепло отвод плохой, а не то что некоторые подумали, прости господи.

Нормально все работает, если все нормально сделано. Эксплуатировал такое долго и на разном железе.

Слоу пинги я видел при большой нагрузке на osd. Когда я сам задрал число процессов для рекавери, чтобы быстрее кластер привести в чувство после апгрейда мажорных версий и разных других отказов когда штатный админ их проглядел.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Интелловые медные карты, коммутаторы extreme и заводские патчкорды - не назвал бы это говном и палками :) уложено все на кабель-росты. Расстояние - несколько стоек в одном ряду.
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
Я подозреваю всё-таки, что причина - образование оксидной пленки на контактах, или ослабление этих контактов
источник
2021 October 04

J

John Roe in Ceph — русскоговорящее сообщество
Paul M. Brown: user has been CAS banned
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Всем привет.
Подскажите пожалуйста насчет объёма HDD в конфигурации 1OSD = 14TB HDD + SSD bcache.
Читал историю этого чатика, многие говорят что rebalance и/или recover с такими объемами будет занимать 2 недели.
Уже есть такие диски, вопрос стоит-ли их поменять на 4-6TB.?
источник

S

Scumtron in Ceph — русскоговорящее сообщество
rebalance сильно зависит от сети, но да, диски в идеале 4TB )
источник

ПС

Павел Савин... in Ceph — русскоговорящее сообщество
Наверное всё же скорость записи на шпиндельные диски узкое место? (ну если сеть 10GE+)
Чем обусловлен объём именно 4 ТБ, почему не 6 или 2?
источник

S

Scumtron in Ceph — русскоговорящее сообщество
Зависит от количества дисков
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
Основной ребаланс на 12т занимает сутки иногда полутора, но несколько пг могут доезжать бывало до 5 дней.
источник

S

Scumtron in Ceph — русскоговорящее сообщество
Если 4 диска, то 1 Гбит мало
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
4 магическое чесло вычесленое опытным путем @Outlingo в облаке мейл ру 🤗
источник

VC

Victor Chaplinsky in Ceph — русскоговорящее сообщество
ещё зависит от того, в какое положение крутилки выставили )
и что там с клиентским i/o
источник

S

Scumtron in Ceph — русскоговорящее сообщество
Ну и опять же, как ноды нагружены
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
ну и от положения солнца естесвенно )
источник

Am

Alexander mamahtehok in Ceph — русскоговорящее сообщество
и от положения луны понятное дело )
источник