Но ведь у нас веб сервер на аиснке, тогда получается у него тоже свои лимиты и это будет явно не параллельно
в качестве "входящего" веб-сервера я бы поставил nginx, который отлично справляется со своей работой (и тоже масштабируется). А дальше пусть проксирует на Python
в качестве "входящего" веб-сервера я бы поставил nginx, который отлично справляется со своей работой (и тоже масштабируется). А дальше пусть проксирует на Python
Не, с нгинкс все ясно, я про сам приемник в пайтоне
Не, с нгинкс все ясно, я про сам приемник в пайтоне
Если ты их много поставишь, то твой входящий поток разделится на несколько поменьше. И делишь так до тех пор, пока твой сервер на питоне (aiohttp, gunicorn и прочие) не перестанут задыхаться (если они задыхаются, что вряд ли)
Если ты их много поставишь, то твой входящий поток разделится на несколько поменьше. И делишь так до тех пор, пока твой сервер на питоне (aiohttp, gunicorn и прочие) не перестанут задыхаться (если они задыхаются, что вряд ли)
Ну и да, во избежание вопросов: в продакшне с ботами я всё это не проверял, т.к., к сожалению, не было такой нагрузки. Но идеи позаимствованы из рабочих ситуаций, где приходится городить вот такие балансеры