Size: a a a

2020 July 23

i

ildar in Scrapy
(надеюсь), я имел в виду что-то ленивое
источник

AR

Andrey Rahmatullin in Scrapy
что возвращает getall знает каждый кто паука отлаживал
источник

i

ildar in Scrapy
ну мало-ли, вдруг там какая-то магия в scrapy shell
источник

i

ildar in Scrapy
а вообще я эти штуки путаю - вчера только смотрел set, и щас вот не вспомню, чего он возвращает
источник

i

ildar in Scrapy
какая-то штука мне на вычитании сета из сета выдавала генератор и я такой "надо же"
источник

i

ildar in Scrapy
а не, это выдавал more_itertools.collapse, просто там рядом еще set был, короче, склероз
источник

МС

Михаил Синегубов... in Scrapy
Народ, подскажите, авита после определенного количества IP банит? Если да - по какая цифра?
источник

SS

Stepan Smirnov in Scrapy
Andrey Rahmatullin
ну, щас можно (и следовательно нужно) делать yield from response.follow_all()
вместо
       for i in range(len(urls)):
           yield scrapy.Request(
               url=response.urljoin(urls[i])
               , callback=self.parse_productpage
           )

можно написать
yield scrapy.follow_all(urls,  , callback=self.parse_productpage)

?
источник

AR

Andrey Rahmatullin in Scrapy
жесть какая
источник

AR

Andrey Rahmatullin in Scrapy
for i in range(len(urls)) не надо было писать в питоне вообще никогда
источник

AR

Andrey Rahmatullin in Scrapy
или это юмор такой?
источник

i

ildar in Scrapy
наверно человек просто с другого языка пришел
источник

AR

Andrey Rahmatullin in Scrapy
а  yield scrapy.Request(url=response.urljoin уже год или два можно сокращать до response.follow
источник

i

ildar in Scrapy
по-итогу переписал так, выкинул getall, walrus и attr(href):
источник

i

ildar in Scrapy
источник

МС

Михаил Синегубов... in Scrapy
ildar
наверно человек просто с другого языка пришел
та же старая делфя или еще что
источник

AR

Andrey Rahmatullin in Scrapy
да я понимаю что любой язык без foreach
источник

AR

Andrey Rahmatullin in Scrapy
но надо ж базовые конструкции языка понимать
источник

i

ildar in Scrapy
Stepan Smirnov
вместо
       for i in range(len(urls)):
           yield scrapy.Request(
               url=response.urljoin(urls[i])
               , callback=self.parse_productpage
           )

можно написать
yield scrapy.follow_all(urls,  , callback=self.parse_productpage)

?
yield from только в случае с follow_all
источник

i

ildar in Scrapy
просто ты витаешь в высоких материях)
источник