Size: a a a

2020 February 06

YM

Yevhen Malyy in AWS_ru
Dmytro Zavalkin
Хорошо, тогда вторая часть - когда контейнер ваш получает SIGTERM от ecs agent на том инстансе что дрейнится - он делает graceful shutdown?
На что это влияет?
источник

DZ

Dmytro Zavalkin in AWS_ru
Как это? Это и есть реализация zero downtime
источник

DZ

Dmytro Zavalkin in AWS_ru
ваше контейнер должен зафейлить хелсчек чтобы на него лоадбалансер не слал новые запросы но при этом обслужить уже открытые коннекшены и закрыть их
источник

YM

Yevhen Malyy in AWS_ru
Dmytro Zavalkin
ваше контейнер должен зафейлить хелсчек чтобы на него лоадбалансер не слал новые запросы но при этом обслужить уже открытые коннекшены и закрыть их
Это с логах?
источник

DZ

Dmytro Zavalkin in AWS_ru
Или вы какую-то магию хотите от амазона?
источник

DZ

Dmytro Zavalkin in AWS_ru
Чтобы лоадбалансер каким-то магическим образом догадался когда нужно прекратить слать запросы?
источник

DZ

Dmytro Zavalkin in AWS_ru
Yevhen Malyy
Это с логах?
Логах чего?
источник

YM

Yevhen Malyy in AWS_ru
Dmytro Zavalkin
Или вы какую-то магию хотите от амазона?
Наоборот, хочу минимум магии)
источник

YM

Yevhen Malyy in AWS_ru
Dmytro Zavalkin
ваше контейнер должен зафейлить хелсчек чтобы на него лоадбалансер не слал новые запросы но при этом обслужить уже открытые коннекшены и закрыть их
Когда инстанс переходит в дрейн, он все таски тоже дрейнит
источник

DZ

Dmytro Zavalkin in AWS_ru
https://medium.com/engineering-at-grammarly/perfecting-smooth-rolling-updates-in-amazon-elastic-container-service-690d1aeb44cc вот тут начиная от Once a SIGTERM is received, a stopping task has to turn off the health check endpoint and fail all health check requests for that load balancer to move the stopping target to the unhealthy state. Тот вариант о которм я говорю
источник

DZ

Dmytro Zavalkin in AWS_ru
Yevhen Malyy
Когда инстанс переходит в дрейн, он все таски тоже дрейнит
Само собой, и поэтому конечно же нужно чтобы две копии одного контейнера были на разных нодах, иначе их может задрейнить одновременно и все равно выйдет даунтайм
источник

EK

Evgeny Khitrinevich in AWS_ru
Vasily Pantyukhin
Да, экспериментируем с этим новым форматом на Москвичах :) Просто Леша Стеков активный и все сам организовал, а живет он именно там... Если есть желание и возможность организовать комьюнити-шабаш в Питере, Киеве, Минске или еще где, вы не держите в себе, а приглашайте и организовывайте :) Мы со своей стороны поддержим.
В Питере было бы круто, но организатор из меня такой себе
источник

AS

Alexey Stekov in AWS_ru
Evgeny Khitrinevich
В Питере было бы круто, но организатор из меня такой себе
в Питере есть @varsy, и я уверен что он поможет с организаций
источник

AS

Andrey Sizov in AWS_ru
Alexey Stekov
в Питере есть @varsy, и я уверен что он поможет с организаций
абсолютно верно! давайте посмотрим как в мск пройдёт и сделаем в питере :-)
источник

ZV

Zhenya Vinogradov in AWS_ru
если я вешаю cloudformation поверх с3 бакета и использую хттп ендпойнт для с3, то между ними общение будет в голом виде по интернету ходить? или по своим защищенным сетям амазона?
источник

ZV

Zhenya Vinogradov in AWS_ru
(под cloudformatian я имею в виду cloudfront)
источник

DZ

Dmytro Zavalkin in AWS_ru
я не настоящий сварщик, но думаю амазон по максимуму использует свои кабеля - зачем им кому-то платить за траффик если есть свой кабель от edge location до датацентра
источник

AP

Alexander Patrushev in AWS_ru
Zhenya Vinogradov
если я вешаю cloudformation поверх с3 бакета и использую хттп ендпойнт для с3, то между ними общение будет в голом виде по интернету ходить? или по своим защищенным сетям амазона?
Кэш имеет два уровня: edge, это то что разбросано по городам и странам и regional, это большой кэш в ближайшем регионе.
Если данные запрашиваются в первый раз, то edge обращается в regional и regional к origin (s3).
источник

Y

YourFatMom in AWS_ru
я тут столкнулась с "особенностью" одной в aws eks, мб ктото сталкивался уже тоже: задаю свойству service.spec.sessionAffinity перед деплоем сервиса значение ClientIP, в итоге после деплоя сервис <pending>, я подозреваю что в annotations надо чтото еще добавить
Вот сервис:
apiVersion: v1
kind: Service
metadata:
 name: _SERVICE_NAME_
 namespace: _NAMESPACE_
 annotations:
   service.beta.kubernetes.io/aws-load-balancer-internal: 0.0.0.0/0
spec:
 selector:
   app: _SERVICE_NAME_
 type: LoadBalancer
 ports:
   - name: _SERVICE_NAME_
     port: 18630
     targetPort: 18630
 sessionAffinity: ClientIP
 sessionAffinityConfig:
   clientIP:
     timeoutSeconds: 10800
источник

Y

YourFatMom in AWS_ru
Если же ELB был создан до включения sticky session, то все норм.
источник