У нас питонячьи сервисы на pytorch и tensorflow
если вы хотите воспроизводимость, по-моему, в это классно и просто умеет catalyst — сохраняет все файлы и окружение и все. Если хочется строить пайплайны (то есть сохранять результаты шагов, чтобы не пересчитывать) для работы с данными, то тут подход dvc будет интереснее, потому что позволяет поделить процесс на этапы и использовать уже обработанные данные, НО это потребует дисциплины от тех, кто пишет модели. Дисциплина заключается в том, что все должно быть разложено по правильным файлам, правильно названо и делать какую-то небольшую часть работы. То есть обучать в jupyter не прокатит больше:)
(год назад писал по этому диплом, могу где-то обладать не последними знаниями. но старался не наврать)