Size: a a a

2021 February 11

A

Andrii in Scrapy
источник

A

Andrii in Scrapy
Для начала ок
источник

AR

Andrey Rahmatullin in Scrapy
Bral Bral
Добрый вечер. В пайплайне в методе process_item() происходит скачивание , логгирование и тд.  Настройки concurrent_* установлены в 10.  Но само-собой , скачивание происходит последовательно, а не параллельно. Каким образом вообще можно распараллелить это все?
что такое скачивание?
источник

BB

Bral Bral in Scrapy
Andrey Rahmatullin
что такое скачивание?
get запросом получаю респонс с параметров stream=True и пишу в файл.
источник

К

Кирилл in Scrapy
код в студию
источник

AR

Andrey Rahmatullin in Scrapy
делай запросы через скрапи.
источник

BB

Bral Bral in Scrapy
https://www.paste.org/114924 Ну вот, это вчерашний чуть измененный, после того, как Вы подсказали насчет FILES_STORE
источник

AR

Andrey Rahmatullin in Scrapy
да, прикольно, тоже на тушёнку редиректит
источник

BB

Bral Bral in Scrapy
Andrey Rahmatullin
делай запросы через скрапи.
https://docs.scrapy.org/en/latest/_modules/scrapy/pipelines/files.html?highlight=defer  Нужно методы класса  FilesPipeline(MediaPipeline) переопределить ?
источник

AR

Andrey Rahmatullin in Scrapy
смотря для чего
источник

BB

Bral Bral in Scrapy
Чтобы распараллелить, а не использовать свою функцию скачивания.
источник

AR

Andrey Rahmatullin in Scrapy
я не знаю о чём вообще речь
источник

AR

Andrey Rahmatullin in Scrapy
чтобы пайплайн файлы скачивал вообще ничего делать не надо, он для этого и написан
источник

AR

Andrey Rahmatullin in Scrapy
открыл код, прикольно
источник

К

Кирилл in Scrapy
Bral Bral
https://www.paste.org/114924 Ну вот, это вчерашний чуть измененный, после того, как Вы подсказали насчет FILES_STORE
Ты переопределил process_item и сейчас он не делает что должен делать. У тебя получился простой пайплайн, который разве что дополнительно стораджи открывает
источник

AR

Andrey Rahmatullin in Scrapy
берём готовый пайплайн, выкидываем из него весь код и пишем свой
источник

AR

Andrey Rahmatullin in Scrapy
угу
источник

S

SoHard 🎄 in Scrapy
Bral Bral
Чтобы распараллелить, а не использовать свою функцию скачивания.
он уже параллельный
источник

S

SoHard 🎄 in Scrapy
а там реквестс в пайплайне)
источник

A

Andrii in Scrapy
Дурной вопрос по enumerate,
for results in li_results:
           for position, elem in enumerate(results, 1):
, как сделать что б енумерейт продолжал добавлять в новом цикле?
источник