Size: a a a

2020 July 31

VS

Vladimir Samoylov in AWS_RU
Vladislav Alexandrov
так это основная фишка облаков же-ж - сколько потребляешь, столько и платишь.
Нужно тебе в этот час х10 мощщей - да пожалуйста, нужно ночью все вообще убить - легко.
Так что с этим скейлингом ресурсов (а ресурсы это не только цпу/мемори, а и канал инета и доп хранилища и тп) сложно дать четкий прайс
да и наверное это прекрасно, что сложно дать четкий прайс)
источник

VS

Vladimir Samoylov in AWS_RU
мне это не нравится, но глобально это хорошо и дает многим работу
как то так:)
источник

YA

Yury Alexandrov in AWS_RU
Nikolay
Пользователи пострадают. Работали , а вдруг отвалилось
Перед тем как тачку отберут дается двухминутное предупреждение. Ну и все машины разом не помню, чтобы хоть раз отбирали.
источник

DZ

Dmytro Zavalkin in AWS_RU
Nikolay
Транзакцию оплаты
И что? Сессия хранится в редисе - даже без пропадания ноды веб запросы балансятся на разные ноды при этом
источник

DZ

Dmytro Zavalkin in AWS_RU
Al T
можно букировать от 1 до 6 часов споты чтоб не терминировались, для etl-ки нормалёк тоже
+++, так и делаем в aws batch job где импорты по крону гоняем
источник

DZ

Dmytro Zavalkin in AWS_RU
Yury Alexandrov
Перед тем как тачку отберут дается двухминутное предупреждение. Ну и все машины разом не помню, чтобы хоть раз отбирали.
На черную пятницу бывало когда амазон себе ресурсы назад загребает
источник

DZ

Dmytro Zavalkin in AWS_RU
Но это не во всех дц, и надо делать диверсификацию типов инстансов само собой, тогда будет ок
источник

S

Sebor in AWS_RU
4c74356b41
Причём эвиктов почти нет
Зависит от типа инстанса
У меня на небольших за год ещё ни разу не терминировались
А заказал один инстанс с гпу - отвалился минут через 40
источник

4

4c74356b41 in AWS_RU
Sebor
Зависит от типа инстанса
У меня на небольших за год ещё ни разу не терминировались
А заказал один инстанс с гпу - отвалился минут через 40
Логично, их мало очень
источник

VM

Viktor Mazankin in AWS_RU
Nikolay
Но сессии все же есть. Пришел он на сервис. Набрал в корзину товаров   начал транзакцию ...
Серверов минимум 2, сессии хранятся в общем Кеше, где тоже кластер.
источник

VM

Viktor Mazankin in AWS_RU
Я уже несколько лет все stateless гоняю на спотах, факапов не былр
источник

i

inqfen in AWS_RU
Viktor Mazankin
Я уже несколько лет все stateless гоняю на спотах, факапов не былр
У меня месяц назад забрали все c5.2xlarge
источник

VM

Viktor Mazankin in AWS_RU
inqfen
У меня месяц назад забрали все c5.2xlarge
Где?
источник

i

inqfen in AWS_RU
us-east-1
источник

RU

Rinat Uzbekov in AWS_RU
Тут можно статистику за месяц по прерываниям спотов посмотреть - https://aws.amazon.com/ru/ec2/spot/instance-advisor/
источник

i

inqfen in AWS_RU
Rinat Uzbekov
Тут можно статистику за месяц по прерываниям спотов посмотреть - https://aws.amazon.com/ru/ec2/spot/instance-advisor/
Когда все споты заберут а все на них, бизнесу вместо рабочего прода статистику показывать?)
источник

i

inqfen in AWS_RU
Поэтому у меня всегда стоят резервные on-demand
источник

i

inqfen in AWS_RU
С более низкими weight
источник

AK

Aleksandr Kostiuk in AWS_RU
ребят, а кто на python пишет? Немного не в тот тред пишу возможно

хочу дергать лямбду через api gw + slack slash command
согласно документации
https://api.slack.com/interactivity/handling#acknowledgment_response
я должен ответить 200 OK в течении 3 сек. Но ясное дело лямбда не успевает так быстро. Не подскажите, как я могу вернуть ответ, и продолжить выполнять лямбду?
источник

RR

Roman Roman in AWS_RU
Aleksandr Kostiuk
ребят, а кто на python пишет? Немного не в тот тред пишу возможно

хочу дергать лямбду через api gw + slack slash command
согласно документации
https://api.slack.com/interactivity/handling#acknowledgment_response
я должен ответить 200 OK в течении 3 сек. Но ясное дело лямбда не успевает так быстро. Не подскажите, как я могу вернуть ответ, и продолжить выполнять лямбду?
вызывать асинхронно другую лямбду или кинуть в очередь
источник