Size: a a a

Django [ru] #STAY HOME

2020 April 23

Z

ZHU in Django [ru] #STAY HOME
я думал сначал сделать строку и по ней сгрупировать
источник

Z

ZHU in Django [ru] #STAY HOME
Dan Tyan
тебе же надо сгруппировать по часу ?
да
источник

DT

Dan Tyan in Django [ru] #STAY HOME
старайся работать с встроенными типами данных
так как база их лучше понимает
источник

DT

Dan Tyan in Django [ru] #STAY HOME
ZHU
data = TankData.objects.filter(**query).order_by('record_time').annotate(
   date=TruncDate('record_time'),
   hour=TruncHour('record_time', tzinfo=melb)
)
я получаю дату и время а как их обьденить в одно значение
отсеки тут только минуты и секунды
источник

Z

ZHU in Django [ru] #STAY HOME
вот не знаю как
источник

DT

Dan Tyan in Django [ru] #STAY HOME
вот пример из доков
>>> import pytz
>>> melb = pytz.timezone('Australia/Melbourne')
>>> experiments_per_hour = Experiment.objects.annotate(
...    hour=TruncHour('start_datetime', tzinfo=melb),
... ).values('hour').annotate(experiments=Count('id'))
>>> for exp in experiments_per_hour:
...     print(exp['hour'], exp['experiments'])
...
2014-06-16 00:00:00+10:00 2
2016-01-01 04:00:00+11:00 1
источник

S

Stanley in Django [ru] #STAY HOME
Люди, подскажите кто как бекапы делает?
Вот у меня сервак сайты там крутятся, как бы сделать так чтобы можно было быстро все востановить без особых заморочек.
Читал что Borg отлично для этого подходит.
Кто что использует? Что посоветуете?
источник

Z

ZHU in Django [ru] #STAY HOME
Dan Tyan
вот пример из доков
>>> import pytz
>>> melb = pytz.timezone('Australia/Melbourne')
>>> experiments_per_hour = Experiment.objects.annotate(
...    hour=TruncHour('start_datetime', tzinfo=melb),
... ).values('hour').annotate(experiments=Count('id'))
>>> for exp in experiments_per_hour:
...     print(exp['hour'], exp['experiments'])
...
2014-06-16 00:00:00+10:00 2
2016-01-01 04:00:00+11:00 1
выводит так
data = TankData.objects.filter(**query).order_by('record_time').annotate(
   hour=TruncHour('record_time', tzinfo=melb)
).values('hour').annotate(experiments=dj_models.Count('id'))
источник

R

RAEman in Django [ru] #STAY HOME
кто знает как выполнить >20к вызовов вебсервиса из джанги не блокируя основной поток? без планировщиков.
источник

R

RAEman in Django [ru] #STAY HOME
на то что выдаст джанга пофигу. можно просто вывести типа запущено.
источник

R

RAEman in Django [ru] #STAY HOME
либо же как-то 20к запросов сделать асинхронно
источник

DT

Dan Tyan in Django [ru] #STAY HOME
ZHU
выводит так
data = TankData.objects.filter(**query).order_by('record_time').annotate(
   hour=TruncHour('record_time', tzinfo=melb)
).values('hour').annotate(experiments=dj_models.Count('id'))
какой запрос формируется ?
источник

DT

Dan Tyan in Django [ru] #STAY HOME
RAEman
кто знает как выполнить >20к вызовов вебсервиса из джанги не блокируя основной поток? без планировщиков.
те celery не предлагать ?
источник

R

RAEman in Django [ru] #STAY HOME
да, желательно без селери. просто вместе выполнить фигову тучу запросов. Все исходные данные у меня есть (что отправлять).
источник

DT

Dan Tyan in Django [ru] #STAY HOME
RAEman
да, желательно без селери. просто вместе выполнить фигову тучу запросов. Все исходные данные у меня есть (что отправлять).
попробуй с https://docs.python.org/3/library/subprocess.html
поиграться
источник

DT

Dan Tyan in Django [ru] #STAY HOME
ну те надо либо скрипт либо команду
написать
вызвать ее через subproccess
источник

DT

Dan Tyan in Django [ru] #STAY HOME
и проверить чтобы не блокировалось
источник

DT

Dan Tyan in Django [ru] #STAY HOME
запросы же могут в синхронном режиме выполняться ?
источник

DT

Dan Tyan in Django [ru] #STAY HOME
ну или да смотреть в сторону async
источник

R

RAEman in Django [ru] #STAY HOME
Ситуация такова:
Есть апи в котором скажем данные неких продавцов. Я с него весь массив продавцов вытаскиваю. и нужно этот массив скормить другому вебсервису. А он принимает по одному. Можно ли как-то скопом скормить весь массив вызвав один и тот же запрос фигову тучу раз
источник