Size: a a a

2021 February 01

i

i in Scrapy
надо будет попробовать хоть 1 парсер на рулах написать, вдруг я открою для себя крутотень)
источник

GG

Gulnur Gunur in Scrapy
Boris Litvyakov
хз я никогда не пользовался linkextractor, мне кажется это не тот случай когда он нужен. не надо пытаться сделать универсальную функцию обработчик, раз у тебя сайты разные то и обработчики отдельно надо

что-то типа

start_urls = ['enu.kz']

def parse(self, response):
   faculty_links = response.xpath(...)
   for url in faculty_links:
         yield scrapy.Request(url, callback = process_faculty)

def process_faculty(self, response):
   do_smth

ну общая схема такая а там смотри по ситуации смотря что тебе в итоге надо, если надо зайти на определенную страницу на сайте факультета то соответственно делаешь отдельный обработчик для этой страницы
вы имеет ввиду пауков под обработчиками?
источник

GG

Gulnur Gunur in Scrapy
Boris Litvyakov
почекай примеры в документации, это тривиальная схема работы там должны быть примеры
в документации сложно разобраться если ты только не продвинутый юзер
источник

BL

Boris Litvyakov in Scrapy
Gulnur Gunur
вы имеет ввиду пауков под обработчиками?
нет под обработчиком я имею ввиду функцию-callback
источник

GG

Gulnur Gunur in Scrapy
а поняла
источник

GG

Gulnur Gunur in Scrapy
спс
источник

К

Кирилл in Scrapy
i
надо будет попробовать хоть 1 парсер на рулах написать, вдруг я открою для себя крутотень)
Откроешь)
источник

i

i in Scrapy
надеюсь не ту, что я в wsl под виндой для докера открывал тут на днях) а другую, крутую крутотень!)
источник

BL

Boris Litvyakov in Scrapy
Gulnur Gunur
в документации сложно разобраться если ты только не продвинутый юзер
хз вот в разделе "Our first spider" описывается такая же схема как я выше описал

https://docs.scrapy.org/en/latest/intro/tutorial.html
источник

DO

Daniil Okhlopkov in Scrapy
Всем привет! А кто-нибудь собирает статьи с Techcrunch? Если да, то как, поделитесь, пожалуйста.
источник

МС

Михаил Синегубов... in Scrapy
Daniil Okhlopkov
Всем привет! А кто-нибудь собирает статьи с Techcrunch? Если да, то как, поделитесь, пожалуйста.
будет ахрененным подспорьем, если ты скажешь что делал и что не получается
источник

DO

Daniil Okhlopkov in Scrapy
Михаил Синегубов
будет ахрененным подспорьем, если ты скажешь что делал и что не получается
Я понимаю, но я, видимо, решил схитрить. Я планирую это делать через несколько дней, но пока после первого просмотра я не нашел легкого способа достать статьи. Поэтому понадеялся, что кто-то просто сразу выложит все карты на стол
источник

МС

Михаил Синегубов... in Scrapy
Daniil Okhlopkov
Я понимаю, но я, видимо, решил схитрить. Я планирую это делать через несколько дней, но пока после первого просмотра я не нашел легкого способа достать статьи. Поэтому понадеялся, что кто-то просто сразу выложит все карты на стол
угу, ну, ты уже понял что я подумал (как и многие тут)
источник

BL

Boris Litvyakov in Scrapy
Daniil Okhlopkov
Я понимаю, но я, видимо, решил схитрить. Я планирую это делать через несколько дней, но пока после первого просмотра я не нашел легкого способа достать статьи. Поэтому понадеялся, что кто-то просто сразу выложит все карты на стол
открой devtools, зайди на вкладку XHR, нажми кнопку Load more, все
источник

Z

Zhandos in Scrapy
Добрый вечер!
источник

Z

Zhandos in Scrapy
подскажите пж
источник

Z

Zhandos in Scrapy
источник

Z

Zhandos in Scrapy
источник

S

SoHard 🎄 in Scrapy
Zhandos
подскажите пж
хедеры у тебя же не такие как в браузере
источник

Z

Zhandos in Scrapy
авторизовался, нужно дотянуться до json файла
источник