Size: a a a

2021 June 17

ph

pl 🦑 hk in ctodailychat
gdb -p pid
> call fflush(NULL)
источник

PS

Peter Stein in ctodailychat
о, вот это что я хотел, спасибо
источник

A

Andrey in ctodailychat
источник

AI

Artificial Iv in ctodailychat
Согласен, уже думал над кафкой. Пока хочу попробовать пожить на рэббите, потому что на рэббите шишки уже более-менее собрали, а на кафке нет.

Меня еще отпугивает, что я слышал, что для правильной настройки кафки нужен чуть ли не отдельный сотрудник. Насколько это правда, не знаете?
источник

AI

Artificial Iv in ctodailychat
У нас тоже битнами.

Вообще, похоже, что у нас проблемы в большом количестве процессов в других подах на этой же ноде. Сейчас буду тестить 200к сообщений и меньше других подов

Спасибо за ссылку, кстати. Довольно интересно
источник

AI

Artificial Iv in ctodailychat
Абсолютно согласен! В вопросе я собрал все данные, которые казались полезными, ознакомился с рекомендациями в статьях разных и понял, что они к нам не относятся (например, предлагалось уменьшить кол-во коннектов, которое у нас и так маленькое). Ну и эти данные мне не помогли ответить на вопрос, поэтому написал сюда, чтобы получить подсказки по тому, куда смотреть
источник

СА

Сергей Аксёнов... in ctodailychat
Экспертизу придётся нарабатывать, это точно. Не думаю, что есть такая профессия "настройщик кафки" (как рояля), вполне можно в команде вырастить.
источник

AI

Artificial Iv in ctodailychat
Про рояль забавно. Понял, спасибо
источник

SS

Slava Savitskiy in ctodailychat
куфай кафку, куфай, станешь настройщиком
источник

A

Andrey in ctodailychat
если вы в aws можно смотреть в сторону msk
источник

A

Andrey in ctodailychat
может как сервис взять? выйдет дешевле человека, еще и в отпуск не ходит…
источник

A

Andrey in ctodailychat
чат, а вы держите statefull сервисы в k8s?
источник

AI

Artificial Iv in ctodailychat
может быть, да. Просто у нас есть кредиты в scaleway, поэтому стараемся все там держать. Да и хочется, чтобы все в одном кластере было, чтобы можно было on-premise разворачивать
источник

AI

Artificial Iv in ctodailychat
у нас есть один, но он в одной сущности
и есть еще один, но там от стейта только кэш в памяти
источник

A

Andrey in ctodailychat
у меня кладывается видение что всё statefull должно или стоять отдельно, или быть как сервис:
база данных
очередь сообщений
файлохранилище
источник

A

Andrey in ctodailychat
читай пока вы мелкие возьмите сервис - настройка займет минуты, пока мелкие стоимость небольшая, если вы большие - выделите на эту байду отдельную машину/кластер
источник

AI

Artificial Iv in ctodailychat
у меня пока не слишком много опыта в кубе, но по-моему, проблема стейтфул сервисов в том, что сложно их скейлить. А если он один работает, то +- пофиг, будет он в кубе или нет. Если не в кубе, то труднее это все хэндлить
источник

AI

Artificial Iv in ctodailychat
вообще да, я согласен, что пока маленькие, проще взять SaaS. Но у нас вот консерн в том, что в скейлвее у нас все бесплатно)
Поэтому мы платим своим временем гы
источник

A

Andrey in ctodailychat
я не понимаю такой момент: в кубе есть pod’ы - развернутые приложения(может включать в себя больше одного сервиса), pod’ы могут плавать между нодами куба (ему виднее что где), да можно руками прибить под к ноде, как state будет плавать между нодами?
источник

A

Andrey in ctodailychat
со stateless все понятно, подняли контейнер(под), перенаправили на него трафик, старый погасили
источник