Тогда вопрос по архитектуре - допустим, у меня есть контейнер с джанго, контейнер с Celery и некоторая модель с кучей зависимостей. Мне нужно, чтобы задачи Celery могли использовать модель для infer(), при этом желательно с относительно высокой скоростью (т.е. модель должна держаться в памяти, а не загружаться при каждой отдельной задаче). Правильно ли будет следующий вариант: подцепить модель к REST API на Flask, запаковать ее вместе с зависимостями в еще один докер-контейнер и слать на ее API POST-запросы в задачах Celery?