Size: a a a

2019 December 02

AS

Anton Strukov in DevOps Moscow
Hopf
Это я хочу понять зачем люди k8s на виртуалках разворачивают если есть bare-metal или облако
а сколько подов ты запустишь на железке с 4тб памяти?
источник

AS

Anton Strukov in DevOps Moscow
а как нуму делить чтобы пенальти не было?
источник

AS

Anton Strukov in DevOps Moscow
ой, деруться за прерывания, чоделать
источник

H

Hopf in DevOps Moscow
Anton Strukov
а как нуму делить чтобы пенальти не было?
то есть у вас виртуалки жестко прибиты к ядрам, верно?
источник

AS

Anton Strukov in DevOps Moscow
Hopf
то есть у вас виртуалки жестко прибиты к ядрам, верно?
в ESXi нинужно, а так был опыт с квмом, там хайрпин, режеться 8 машин по 48 гига и 8 cpu, и 768 гиг +- одинаково утилизируются
источник

AS

Anton Strukov in DevOps Moscow
плюс есть вариант отвезти от шумного соседа, и нагрузить весь кластер правильно, но это на висфере
источник

AS

Anton Strukov in DevOps Moscow
на квме увезти — то еще удовольствие
источник

H

Hopf in DevOps Moscow
Anton Strukov
в ESXi нинужно, а так был опыт с квмом, там хайрпин, режеться 8 машин по 48 гига и 8 cpu, и 768 гиг +- одинаково утилизируются
ага, я понял, чтобы наиболее равномерно нагрузить кластер и нагрузку распределять
источник

AS

Anton Strukov in DevOps Moscow
Hopf
ага, я понял, чтобы наиболее равномерно нагрузить кластер и нагрузку распределять
ну я вот выше еще обозначил что, ты больше 500 подов очень сомнительно что сможешь крутить, на 200 порой кублету очень плохо
источник

AS

Anton Strukov in DevOps Moscow
а ты так просто 4 тб памяти не заутилизируешь никак
источник

H

Hopf in DevOps Moscow
Anton Strukov
а ты так просто 4 тб памяти не заутилизируешь никак
А почему взяты такие мощные железки?
источник

AS

Anton Strukov in DevOps Moscow
Hopf
А почему взяты такие мощные железки?
а зачем брать слабее? если вы за эффективность трат бабла не отвечаете, это понятно
но чем плотнее у тебя стойка забита и больше нагрузки в нее впихать можно на квадратный метр, тем лучше
источник

H

Hopf in DevOps Moscow
ок, как я понял, для тебя основная причина в удобной балансировке нагрузке и в том, что кубилет плохо может обслуживать более N (200+) подов
источник

GG

George Gaál in DevOps Moscow
Anton Strukov
на квме увезти — то еще удовольствие
+
источник

GG

George Gaál in DevOps Moscow
Hopf
ок, как я понял, для тебя основная причина в удобной балансировке нагрузке и в том, что кубилет плохо может обслуживать более N (200+) подов
я бы больше 100 подов на узле не запускал. И проблема не в кубелете, а в доцкере
источник

AS

Anton Strukov in DevOps Moscow
George Gaál
я бы больше 100 подов на узле не запускал. И проблема не в кубелете, а в доцкере
а какие у тебя с ним проблемы?
источник

GG

George Gaál in DevOps Moscow
Hopf
Это я хочу понять зачем люди k8s на виртуалках разворачивают если есть bare-metal или облако
лел. Потому что баре-метал разный бывает. Вот у нас ноды с полтерабайта памяти. Больше не осилили
источник

GG

George Gaál in DevOps Moscow
Anton Strukov
а какие у тебя с ним проблемы?
ну, у меня такое ощущение, что докер однопоточный. Сериализация запусков и остановок.
источник

GG

George Gaál in DevOps Moscow
А еще апиха тупит, когда в нее много запросов прилетает одновременно. В тестовых режимах - на локальной машине докер тупит свыше, чем 20+ контейнеров
источник

GG

George Gaál in DevOps Moscow
но это мощности железа сильно зависит
источник