Господа из корпоративного сектора, а что вы думаете о больших облачных логах? Те, которые "терабайт за пару дней". Имеют ли они право на жизнь, или следует форсировать правило "не храните ничего важного в логах, т.к. они стираются по первому чиху"?
зависит от того - что у тебя в логах есть у тебя "логи, как метрики" - не храни их делай сразу метрики если у тебя "логи, как APM/дебаг" - не храни их - внедри нормальный APM если у тебя "логи, потому что регулятор требует" - храни и береги их.
- ну у кого бабло есть - dynatrace берут (есть и другие годные решения) - у кого оплаченный эластик - начинают продавать эластик APM - кому-то и jaeger заходит. Кстати, весьма неплохая штука.
с кейсом терабайт за пару дней - а что ты дальше-то с ними хочешь делать ? я не уверен, что эластик тут сильно поможет. если погрепать по id - хватит - то rsyslog в файлы.
а, нет. Скорее логи для разбора полётов, когда обнаруживаются косяки с различными интеграциями. И которые приходят через две недели после случившегося.
мой совет: 1. продумай реальную историю - как ты искать будешь. может тебе и грепа хватит. 2. Определись с размером логов 0.5Тб в сутки за 2 недели даст 7 Тб логов. диски должны быть шустры, а терпения должно хватить на время ответа. 3. Подумай - как сократить количество логов - "важное/бизнес" можно в один кластер логов, а "просто логи" и в другой.
еще, если ты реально хочешь держать 7 Тб логов - глянь еще в сторону спланка (в РФ не продают)
Лично я не хочу хранить, т.к. некоторые команды господ погромистов туда пишут всё что угодно, полезной информации там меньше процента. Вот и возник вопрос "а туда ли мы копаем". Datadog и CloudWatch предоставят объёмы без проблем, только это тупо и дорого. Ну и малоэффективно — копаться в больших объёмах.
Добрый день, не совсем понятно почему вылезает такая ошибка WARNING: Failed to process runner builds=0 error=prepare environment: Process exited with status 1 Пытаюсь настроить ci/cd для проекта чеерез gitlab-runner через ssh executor