Size: a a a

2021 January 15

СТ

Семён Трояновский... in Scrapy
привет, ребят. можете накидать сервисов где можно провериться на бота?
я на этом чекаюсь: https://bot.sannysoft.com/
мб еще есть какие-то
источник

MM

Marat Mkhitaryan in Scrapy
Georgiy
ссылка из поля initiator - должна вести на тот кусок javascript кода, который вызвал этот запрос.
Надо взглянуть туда и средствами встроеного отладчика Javascript найти то что нужно
да, походу тут что то происходит
источник

SS

Stepan Smirnov in Scrapy
А государственные сайты могут упасть от 2000 запросов в минуту?
источник

AR

Andrey Rahmatullin in Scrapy
очень уж общий вопрос
источник

AR

Andrey Rahmatullin in Scrapy
думаю могут
источник

OT

One Two in Scrapy
а какое государство вас интересует? ))
источник

SS

Stepan Smirnov in Scrapy
источник

A

Andrii in Scrapy
Жди ми6
источник

SS

Stepan Smirnov in Scrapy
AutoThrottle спасёт сайт от падения
источник

SS

Stepan Smirnov in Scrapy
наверное
источник

A

Andrii in Scrapy
Просто довнлоад делей спасает
источник

A

Andrii in Scrapy
:)
источник

S

SoHard 🎄 in Scrapy
Stepan Smirnov
А государственные сайты могут упасть от 2000 запросов в минуту?
могут от 100
источник

A

AstralRomance in Scrapy
Использую scrapyrt, хочу из другого скрипта запрос запрашивать на скрапи сервер, что я делаю не так? В ответ на код ниже получаю 400
card_price = requests.post('http://localhost:9080/crawl.json', data=json.dumps(price_parsing))
источник

A

AstralRomance in Scrapy
Реквест скормить получилось, но теперь вот такая ошибка на скрапи сервере лезет.
builtins.Exception: The installed reactor (twisted.internet.epollreactor.EPollReactor) does not match the requested one (twisted.internet.asyncioreactor.AsyncioSelectorReactor)
источник

AR

Andrey Rahmatullin in Scrapy
а зачем тебе AsyncioSelectorReactor?
источник

A

AstralRomance in Scrapy
Andrey Rahmatullin
а зачем тебе AsyncioSelectorReactor?
Спасибо, нашел. Это остатки от моей попытки подружить скрапи и аиограм в одном проекте.
источник

A

AstralRomance in Scrapy
А если мне надо итерироваться по контейнерам, в названии которых есть подстрока, мне в регулярки же дорога?
источник

AR

Andrey Rahmatullin in Scrapy
и CSS, и XPath умеют contains
источник

A

AstralRomance in Scrapy
for card_item in selector.xpath('//div[@class="hawk-results-item"]'):
           card_info['set']=card_item.xpath('.//p[@class="hawk-results-item__category"]//a/text()').get()
           card_info['condition'] = card_item.xpath('.//div[contains(@class,"hawk-results-item__options-table-cell hawk-results-item__options-table-cell--name"])/text()').get().strip()[:-2:]

Что я тут делаю не так, когда заполняю card_info['condition']? Если доставать не через contains, а просто через class=, достаются не все данные. А если как в примере - я в итоге просто пустой вывод получаю.
источник