Size: a a a

2020 September 07

S

Salem in AWS_RU
и SSM документ тоже есть
источник

LK

L K in AWS_RU
вот нашел интересный кейс ssm + ansible - https://docs.aws.amazon.com/systems-manager/latest/userguide/integration-github-ansible.html
источник

A

Alex in AWS_RU
L K
насколько понял, packer амишку создает в регионе, так ?
а что если у меня есть dev aws акк и при переносе проекта на aws prod акк
нужно переносить и амишку ?
между акками просто шаришь, между регионами копируешь
источник

A

Alex in AWS_RU
но шарить дев в прод не совсем канонично, лучше сбилдить разные ами
источник

A

Alex in AWS_RU
из соответствующих реп/бранчей
источник

A

Alex in AWS_RU
L K
думаю что для текущей моей задачи это дополнительный гемор )
мутировать живую систему не гемор? :)
источник

A

Alex in AWS_RU
особо делать то ничего не надо, собрать всю мутацию в пакере и не париться
источник

LK

L K in AWS_RU
Alex
мутировать живую систему не гемор? :)
наверное я до того еще не дошел что бы это было проблемой или еще не столкнулся с проблемами
источник

S🕶

Sander 🕶 in AWS_RU
я запустил lambda - там есть какой-то монитроинг и cloudwatch логи,
это тоже платно?
источник

MM

Max Muravyev in AWS_RU
У каждого AWS сервиса есть своя главная страница. На каждой главной странице есть вкладка Pricing.
источник

S🕶

Sander 🕶 in AWS_RU
это понятно, но я не настраивал cloudwatch logs и monitoring для lambda,
поэтому мне не понятно сколько это будет стоить и будет ли оно стоить вообще,
к тому же мне не нужно много логов, за дня 3 или неделю достаточно, чтоб старые логи не держать и удалять,
просто оно уже там встроенное все в lambda, поэтому сколько все это там стоит мне не понятно.
источник

MM

Max Muravyev in AWS_RU
Ну это платно в целом, но я думаю для твоих целей выдут копейки.
источник

MM

Max Muravyev in AWS_RU
Там ещё tier есть.
источник

S🕶

Sander 🕶 in AWS_RU
а логи он всю ситорию держит или старое удаляет, тоже непонятно
источник

S

Salem in AWS_RU
для лог группы настрой retention
источник

S

Salem in AWS_RU
он удалит старое автоматом
источник

S🕶

Sander 🕶 in AWS_RU
как все просто и замечательно 😉
источник

AV

Alexander Valkov in AWS_RU
У меня тут задача:

1. По графику запускать импорт данных скриптом.
2. Запускать тесты на импортированных данных.
3. а. Fail тестов -> отчёт в SNS
3. b. Success тестов -> отчёт в SNS (?)
4. При 3.b. запускать другой импорт данных.

Оба импорта проходят за ~5 минут.

Думаю, как сделать.

Варианты:

1. CloudWatch Events Rule по графику -> Lambda импорт -> SNS -> тесты -> SNS -> On Success Lambda import #2

2. Комбинация AWS Batch, AWS Step Functions, ... ?

AWS Batch для быстрых заданий выходит, кажется, очень дорого, даже со спотом. 7 запусков hello world на спотах обошлись мне в $0,13
И непонятно, может ли SNS запускать Batch Jobs? И если нет, это значит Step Functions?
источник

S

Sebor in AWS_RU
А что в первом варианте не устраивает?
источник

AV

Alexander Valkov in AWS_RU
Хочется понять плюсы и минусы обоих.
источник