Size: a a a

2020 April 16

VB

Vladyslav Babych in Scrapy
Andrey Rahmatullin
и ты среднее время на запрос как считал?
download_latency
источник

VB

Vladyslav Babych in Scrapy
это в parse
        self.latency_stats.append(response.meta.get('download_latency'))
источник

VB

Vladyslav Babych in Scrapy
send_message(f'Success requests - {len(self.latency_stats)}\n'
                    f'Min latency - {min(self.latency_stats)} s.\n'
                    f'Max latency - {max(self.latency_stats)} s.\n'
                    f'Average latency - {sum(self.latency_stats) / len(self.latency_stats)} s.\n'
                    f'Summary latency - {sum(self.latency_stats)} s.')
 а это результат в closed
источник

VB

Vladyslav Babych in Scrapy
Andrey Rahmatullin
и ты среднее время на запрос как считал?
Есть хотя-бы идеи почему так может быть?
источник

VB

Vladyslav Babych in Scrapy
Vladyslav Babych
Вот я вообще не понимаю в чём я ошибаюсь. У меня на 1 запрос в среднем уходит 15 секунд. При идеальных условиях за минуту я должен с 1 рекурентным запросом получить 4 страницы, с 40 - 160  верно?  Но я получаю максимум 40
И насколько это правильно?
источник

AR

Andrey Rahmatullin in Scrapy
хз, смотреть надо
источник

AR

Andrey Rahmatullin in Scrapy
может там нет 40 готовых урлов в каждый момент времени, потому что логика последовательная
источник

VB

Vladyslav Babych in Scrapy
Andrey Rahmatullin
может там нет 40 готовых урлов в каждый момент времени, потому что логика последовательная
Они изначально есть
источник

AR

Andrey Rahmatullin in Scrapy
из start_requests что ли?
источник

VB

Vladyslav Babych in Scrapy
Да
источник

VB

Vladyslav Babych in Scrapy
        for url in self.start_url:
источник

AR

Andrey Rahmatullin in Scrapy
ну так start_requests не так процессится, как коллбэки
источник

AR

Andrey Rahmatullin in Scrapy
перетащи это всё в parse для начала
источник

VB

Vladyslav Babych in Scrapy
    def start_requests(self):
       for url in self.start_url:
           yield scrapy.Request(url)
типо это вынести в отдельную функцию?
источник

VB

Vladyslav Babych in Scrapy
А потом
    def start_requests(self):
       yield self.custom_start_requests()
источник

r

r4khic in Scrapy
Ребят кто нибудь занимался парсингом сайтов букмекерских контор  ?
источник

L

Lex in Scrapy
r4khic
Ребят кто нибудь занимался парсингом сайтов букмекерских контор  ?
есть такой опыт, в чем вопрос?
источник

r

r4khic in Scrapy
Lex
есть такой опыт, в чем вопрос?
Я хотел по-обычному спарсить .Но не все так просто.Тот сайт который я хочу спарсить,данные подгружает их не на прямую а ajax'ом как я понял.И вот вопрос как лучше парсить такие сайты?
источник

r

r4khic in Scrapy
Апи вряд-ли они дают
источник

r

r4khic in Scrapy
на пример бк олимп
источник