Size: a a a

2020 December 18

АМ

Артем Мещеряков... in gcp_ru
вот это ещё можно внимательно прочитать, возможно поможет BackendConfig
https://cloud.google.com/kubernetes-engine/docs/concepts/ingress#interpreted_hc
источник
2020 December 21

ZO

Zon Orti in gcp_ru
Обновили, хорошо и детально!
источник

S

Slach in gcp_ru
Артем Мещеряков
в спеке контейнеров добавить секцию ports: и внутри указать проименованные порты контейнера - это делается и для sts
я просто помню, что гугловые хелсчеки были на это завязаны, но я не могу точно сказать, что это повлияет на тип проверок, но можно попробовать
https://github.com/kubernetes/kubernetes/issues/4332#issuecomment-448900396
так понятно
эти порты могут описываться в protocol  только как TCP / UDP / SCTP
про HTTP тут ни слова

если их прописать в container то сервис как проверял health checks по TCP так и будет проверять
источник
2020 December 26

AK

Andrey Kartashov in gcp_ru
Slach
так понятно
эти порты могут описываться в protocol  только как TCP / UDP / SCTP
про HTTP тут ни слова

если их прописать в container то сервис как проверял health checks по TCP так и будет проверять
непонятна суть вопроса. У вас сервис контроллер входящие пакеты разбрасывает по рабочим подам. Хелсчеки от лоадбалансера приходят на nodeport сервиса, а не непосредственно на под, поэтому настройка хелсчека на уровне лб не связана с подами
источник

AK

Andrey Kartashov in gcp_ru
если у вас не neg, конечно
источник

S

Slach in gcp_ru
Andrey Kartashov
непонятна суть вопроса. У вас сервис контроллер входящие пакеты разбрасывает по рабочим подам. Хелсчеки от лоадбалансера приходят на nodeport сервиса, а не непосредственно на под, поэтому настройка хелсчека на уровне лб не связана с подами
теперь я вас не понимаю
как хелс чеки приходят на NodePort сервиса, если сервису (type: LoadBalancer) важно знать какие поды живые а какие нет, чтобы правильно формировать endpoint list?
или я как то вообще не правильно понимаю как это устроено?
источник

QQ

Qe Que in gcp_ru
Slach
теперь я вас не понимаю
как хелс чеки приходят на NodePort сервиса, если сервису (type: LoadBalancer) важно знать какие поды живые а какие нет, чтобы правильно формировать endpoint list?
или я как то вообще не правильно понимаю как это устроено?
https://cloud.google.com/kubernetes-engine/docs/concepts/container-native-load-balancing

там есть пример как лб работает по-дефолту и с NEG, я так понял в вашем случае дефолт
источник
2020 December 27

AK

Andrey Kartashov in gcp_ru
Slach
теперь я вас не понимаю
как хелс чеки приходят на NodePort сервиса, если сервису (type: LoadBalancer) важно знать какие поды живые а какие нет, чтобы правильно формировать endpoint list?
или я как то вообще не правильно понимаю как это устроено?
В обычном режиме, если у вас есть хоть один живой под, то запрос на любой узел кластера будет перенаправлен на этот под. Поэтому внешнему лб не нужны хелсчеки
источник

S

Slach in gcp_ru
Andrey Kartashov
В обычном режиме, если у вас есть хоть один живой под, то запрос на любой узел кластера будет перенаправлен на этот под. Поэтому внешнему лб не нужны хелсчеки
хм, тогда я не понимаю кто мне делает TCP connect на pod и обрывает соединение ...
а у меня в логах остается connection reset by peer на приложении

если LoadBalancer просто перенаправляет входящий запрос по спискам endpoint которые составляются на основании того как kubelet healthchecks сделал для Pod

healthcheck для Pod в конкретном контейнере у меня настроен так


          readinessProbe:
           failureThreshold: 3
           httpGet:
             path: /replicas_status
             port: http
             scheme: HTTP
           initialDelaySeconds: 10
           periodSeconds: 3
           successThreshold: 1
           timeoutSeconds: 1
         livenessProbe:
           failureThreshold: 3
           httpGet:
             path: /ping
             port: http
             scheme: HTTP
           initialDelaySeconds: 10
           periodSeconds: 3
           successThreshold: 1
           timeoutSeconds: 1
источник

AK

Andrey Kartashov in gcp_ru
Slach
хм, тогда я не понимаю кто мне делает TCP connect на pod и обрывает соединение ...
а у меня в логах остается connection reset by peer на приложении

если LoadBalancer просто перенаправляет входящий запрос по спискам endpoint которые составляются на основании того как kubelet healthchecks сделал для Pod

healthcheck для Pod в конкретном контейнере у меня настроен так


          readinessProbe:
           failureThreshold: 3
           httpGet:
             path: /replicas_status
             port: http
             scheme: HTTP
           initialDelaySeconds: 10
           periodSeconds: 3
           successThreshold: 1
           timeoutSeconds: 1
         livenessProbe:
           failureThreshold: 3
           httpGet:
             path: /ping
             port: http
             scheme: HTTP
           initialDelaySeconds: 10
           periodSeconds: 3
           successThreshold: 1
           timeoutSeconds: 1
смотри что у тебя в качестве бэкендов в лб и какие там настройки healthcheck
источник

S

Slach in gcp_ru
Andrey Kartashov
смотри что у тебя в качестве бэкендов в лб и какие там настройки healthcheck
имеется ввиду kind: Service , type: LoadBalancer в k8s?

или в самом GCP в консольке посмотреть какие LB создались?
источник

AK

Andrey Kartashov in gcp_ru
Slach
имеется ввиду kind: Service , type: LoadBalancer в k8s?

или в самом GCP в консольке посмотреть какие LB создались?
В gcp
источник
2021 January 23

AO

Alexander Ovchinniko... in gcp_ru
источник
2021 February 02

A

Alex in gcp_ru
Привет. Делаю дамп из Google SQL, но он рвет коннект c ошибкой ERROR 2013 (HY000) at line 1: Lost connection to MySQL server during query

mysql -h ${IP} -u ${DB_USER} -p${DB_PASS} -e "SELECT * FROM some.table;” > some_table.csv
источник
2021 February 05

D

Dmitry in gcp_ru
здрасьте. а никто не знает как можно поменять то как отображается потребление ЦПУ при просмотре подов в gke?
источник

D

Dmitry in gcp_ru
просто с этого графика непонятно
источник

am

aleksei manzhurin in gcp_ru
Dmitry
здрасьте. а никто не знает как можно поменять то как отображается потребление ЦПУ при просмотре подов в gke?
Я бы предложил использовать графану для этих целей.
sum (rate (container_cpu_usage_seconds_total{image!="",name=~"^k8s_.*"}[1m])) by (pod_name)
источник

D

Dmitry in gcp_ru
хотелось бы, но графана для наших целей не совсем подходит поскольку мы используем alerting policies.
источник

am

aleksei manzhurin in gcp_ru
Dmitry
хотелось бы, но графана для наших целей не совсем подходит поскольку мы используем alerting policies.
понял, тогда не подскажу тк мы в свою очередь метрики в gcp для куба не собираем, скрейпим прометеусом и алертимся через pagerduty
источник

ZO

Zon Orti in gcp_ru
Dmitry
хотелось бы, но графана для наших целей не совсем подходит поскольку мы используем alerting policies.
А в стекдрейвере никак не меняется?
источник