Size: a a a

2020 June 22

Ф

Фара in Scrapy
Dr. Bot
тебе же прям ссылку написало что скачать и установить нужно Microsoft Visual Runtime
Не могли бы уточнить , Runtime или visual studio ?
источник

D

Dr. Bot in Scrapy
Фара
Не могли бы уточнить , Runtime или visual studio ?
хватит обычного runtime
источник

I

Ivan in Scrapy
Roma
не удивлюсь что у букинга или авиасейлс есть партнерка
Я думаю это правильная теория
источник

D

Dr. Bot in Scrapy
Фара
Не могли бы уточнить , Runtime или visual studio ?
попробуй https://aka.ms/vs/16/release/VC_redist.x64.exe  . возможно нужно будет сделать ребут после установки
источник

Ф

Фара in Scrapy
Dr. Bot
попробуй https://aka.ms/vs/16/release/VC_redist.x64.exe  . возможно нужно будет сделать ребут после установки
Спасибо
источник

Pu

Process user in Scrapy
Коллеги, а как сказать скрапи, что бы он прошел только одну итерацию?
источник

AR

Andrey Rahmatullin in Scrapy
итерацию чего?
источник

Pu

Process user in Scrapy
К примеру, находим ссылку на странице, переходим по ссылке и завершаем работу спайдера
источник

A

Andrii in Scrapy
Process user
К примеру, находим ссылку на странице, переходим по ссылке и завершаем работу спайдера
😮
источник

A

Andrii in Scrapy
А у тебя как ето работает?
источник

Pu

Process user in Scrapy
у меня так это и работает, просто exit вставлять как-то наверное не очень красиво
источник

SS

Stepan Smirnov in Scrapy
Process user
К примеру, находим ссылку на странице, переходим по ссылке и завершаем работу спайдера
CLOSESPIDER_PAGECOUNT = N
источник

i

ildar in Scrapy
наверное можно либо:
https://docs.scrapy.org/en/latest/topics/settings.html#depth-limit
либо
источник

i

ildar in Scrapy
да, либо вот это)
источник

Pu

Process user in Scrapy
Stepan Smirnov
CLOSESPIDER_PAGECOUNT = N
Во, благодарю!
источник

i

ildar in Scrapy
еще можно не просто exit юзать, а пробрасывать raise scrapy.exceptions.CloseSpider('my reason')
источник

A

Andrii in Scrapy
Process user
К примеру, находим ссылку на странице, переходим по ссылке и завершаем работу спайдера
Просто интересно что делает спайдер когда не находит ссЬІлку?
источник

Pu

Process user in Scrapy
ну я паршу сначала sitemap.xml и там этих ссылок много, а хочется дебажить не напрягаясь )
источник

Pu

Process user in Scrapy
Просто я как-то случайно запустил спайдера когда дебажил и положи сайтек каким-то чувакам)
источник

i

ildar in Scrapy
немного стесняюсь спросить, а как ты дебажишь?
источник