Здравствуйте! Господа, подскажите, пожалуйста, можно ли как-то в Scrapy получать все коды с которыми вернулись запросы? Я понимаю, что есть Stats Collection, но он статистику выдаст только в конце работы спайдера. А можно ли получать ее (для последующей отправки, например в очередь) прямо во время выполнения?
Здравствуйте! Господа, подскажите, пожалуйста, можно ли как-то в Scrapy получать все коды с которыми вернулись запросы? Я понимаю, что есть Stats Collection, но он статистику выдаст только в конце работы спайдера. А можно ли получать ее (для последующей отправки, например в очередь) прямо во время выполнения?
Буду использовать только я, и база порядка около 10к
excel шибко умный, в нем надо осторожно данные хранить. Ученым вон пришлось белки переименовывать даже из-за этого. А еще он часто числа как даты или время воспринимает. И нули отбрасывает в начале. Лучше сразу бд, к примеру postgres - из плюсов там еще нативная она для джанго, в будущем проще будет. Либу рекомендую dataset, с ней рабоа с любой базой очень легкая, особенно с транзакциями работать как с with. https://dataset.readthedocs.io/en/latest/
excel шибко умный, в нем надо осторожно данные хранить. Ученым вон пришлось белки переименовывать даже из-за этого. А еще он часто числа как даты или время воспринимает. И нули отбрасывает в начале. Лучше сразу бд, к примеру postgres - из плюсов там еще нативная она для джанго, в будущем проще будет. Либу рекомендую dataset, с ней рабоа с любой базой очень легкая, особенно с транзакциями работать как с with. https://dataset.readthedocs.io/en/latest/
Да сталкивался с этим в excel кстати, да мне посоветовали postgress, вот начну изучение уже на днях спасибо
из того что я пока увидел - наверное нужен будет докер. и они прямо сейчас в докере переходят в какого-то популярного конта на гитхабе от юзера на более официальный. А все туторы описывают старый метод еще. И я чет в смятении