A
Size: a a a
A
A
A
def start_requests(self):
urls = [
'http://quotes.toscrape.com/page/1/',
'http://quotes.toscrape.com/page/2/',
]
for url in urls:
yield scrapy.Request(url=url, callback=self.parse)
обрабатываются ссылки последовательно начиная с первой CONCURRENT_REQUESTS = 2
DOWNLOAD_DELAY = 3
CONCURRENT_REQUESTS_PER_DOMAIN = 2
CONCURRENT_REQUESTS_PER_IP = 2
запросов стало больше но обрабатывается все еще 1-й линк и пока не обработается 1 линк ко второму паук не перейдетi
i
A
init
селениум вынес в функцию parse
и теперь как я понимаю скрапи может запустить паралельно обработку линков, я пытаюсь так сделатьК
init
селениум вынес в функцию parse
и теперь как я понимаю скрапи может запустить паралельно обработку линков, я пытаюсь так сделатьA
A
def parse(self, response)
и эта функция запускает вебдрайвер и делает то что должна