Size: a a a

2021 February 26

S

Sebor in AWS_RU
Переслано от Sebor
Подскажите, в какую сторону копать?
Есть клустер в AWS, поднятый терраформом. Поставил туда autoscaler - все работает (ноды создаются\удаляются), но теперь при попытке сделать kubectl exec в подах, созданных на нодах от автоскейлера, получаю
error: unable to upgrade connection: Authorization error (user=kube-apiserver-kubelet-client, verb=create, resource=nodes, subresource=proxy)
источник
2021 February 28

AS

Alexey Stekov in AWS_RU
#воскресное
источник

AS

Alexey Stekov in AWS_RU
источник

DZ

Dmytro Zavalkin in AWS_RU
Maxim Vynogradov
привет, есть API Gateway
и есть проблемы с корсами - они иногда падают... рандомно, на одном и том же запросе ... в чём может быть причина?
ага тоже сталкивались, у нас это происходит когда лямбда за таймаут не успевает отвечать (там в лямбде есть ну скажем так не самый удачный код который долго иногда работает и надо бы отрефакторить но клиенту и так норм)
источник

DZ

Dmytro Zavalkin in AWS_RU
Агент Печенька
Мы из-за этого поймали очень забавный баг, апигв не умеет работать с %00 в урле работать. И отдаёт на такой запрос 400 Bad request в html от CloudFront. Было забавно документировать text/html в json api доке. Впрочем с корсами это не связано.
ой да там там и другие символы есть проблемные, пришлось в cloudflare костылить чтобы такие символы не долетали до API GW. Это конечно позор какой-то что у амазона такое вообще может быть
источник

DZ

Dmytro Zavalkin in AWS_RU
Maxim Vynogradov
@vlade11115 @mmmmort
я грешу на монгуз который держет коннекшен внутри лямбд
99% это оно. Нужно глянуть сколько лямбда выполнялась и сколько в API GW ждет ответ https://docs.aws.amazon.com/apigateway/latest/developerguide/limits.html#api-gateway-execution-service-limits-table (там немного мутновато с типами)
источник

DZ

Dmytro Zavalkin in AWS_RU
Sebor
Переслано от Sebor
Подскажите, в какую сторону копать?
Есть клустер в AWS, поднятый терраформом. Поставил туда autoscaler - все работает (ноды создаются\удаляются), но теперь при попытке сделать kubectl exec в подах, созданных на нодах от автоскейлера, получаю
error: unable to upgrade connection: Authorization error (user=kube-apiserver-kubelet-client, verb=create, resource=nodes, subresource=proxy)
Такой ошибки не видел и сходу сложно сказать, а у подов в describe все норм? Сеть есть, траффик на них заходит? Я бы ещё глянул логи кублета, по ощущениям ноды то ли недозарегались в мастерах, то ли с kubeproxy конфигом что-то.
источник

S

Sebor in AWS_RU
Dmytro Zavalkin
Такой ошибки не видел и сходу сложно сказать, а у подов в describe все норм? Сеть есть, траффик на них заходит? Я бы ещё глянул логи кублета, по ощущениям ноды то ли недозарегались в мастерах, то ли с kubeproxy конфигом что-то.
В общем, нода была закордонена через node termination handler. Видимо в этом причина. Хотя текст ошибки не интуитивный
источник

DZ

Dmytro Zavalkin in AWS_RU
О интересно, спасибо - буду знать в следующий раз 🙂
источник

S

Sebor in AWS_RU
Второе открытие для меня: даже после анкордона, удаления тэинтов и рестарта кубелета нода так и не вернулась в статус ready. Пришлось ее ребутать
источник

DZ

Dmytro Zavalkin in AWS_RU
там наверное какой-то скрипт в cfn-init или ещё что-то кроме самого кублета отвечает за подключение к EKS
источник

S

Sebor in AWS_RU
Возможно, ещё не копал вглубь
источник

MV

Maxim Vynogradov in AWS_RU
Dmytro Zavalkin
ага тоже сталкивались, у нас это происходит когда лямбда за таймаут не успевает отвечать (там в лямбде есть ну скажем так не самый удачный код который долго иногда работает и надо бы отрефакторить но клиенту и так норм)
Трудно наверное отдебажить... там код банальный- один инсерт в монгу.
Я временно полечил через провизенед конкаренси...
источник

MV

Maxim Vynogradov in AWS_RU
Я грешу ещё на размер лямды ... 40 мб. Но я не уверен что это сильно влияет
источник

DA

Dmitry Aliev in AWS_RU
Так а сколько Лямбда выполняется? вот в той ссылке с лимитами говорится, что Integration timeout - 29seconds max.  Профильтруй логи лямбд  на предмет Execution time  и  понятно будет, связано или нет.
источник

MV

Maxim Vynogradov in AWS_RU
Dmitry Aliev
Так а сколько Лямбда выполняется? вот в той ссылке с лимитами говорится, что Integration timeout - 29seconds max.  Профильтруй логи лямбд  на предмет Execution time  и  понятно будет, связано или нет.
Ок, в понедельник займусь....
источник

MV

Maxim Vynogradov in AWS_RU
Спасибо! А может и раньше...
источник

PK

Pavel Krõlov in AWS_RU
Товарищи, подскажите как правильно реализовать схему логирования, когда есть множество саб аккаунтов, в каждом бегает кубер, идея установить в кубер fluent-bit и слать логи в cloudwatch, но хотелось бы слать в один отдельный саб аккаунт. Если я правильно понимаю, то с fluent-bit из коробки так не сделать и требуется использовать дополнительные компоненты, по мануалам вроде как предлагается использовать Amazon Kinesis Firehose, подскажите какой способ был бы наиболее корректный?
источник

ФТ

Федя Тагил in AWS_RU
Pavel Krõlov
Товарищи, подскажите как правильно реализовать схему логирования, когда есть множество саб аккаунтов, в каждом бегает кубер, идея установить в кубер fluent-bit и слать логи в cloudwatch, но хотелось бы слать в один отдельный саб аккаунт. Если я правильно понимаю, то с fluent-bit из коробки так не сделать и требуется использовать дополнительные компоненты, по мануалам вроде как предлагается использовать Amazon Kinesis Firehose, подскажите какой способ был бы наиболее корректный?
Kinesis Firehose как минимум будет дешевле, если логи ещё и жать в нем и складывать в S3
источник

PK

Pavel Krõlov in AWS_RU
Федя Тагил
Kinesis Firehose как минимум будет дешевле, если логи ещё и жать в нем и складывать в S3
ок то есть Kinesis адекватный вариант получается для такой задачи, спасибо
источник