Size: a a a

2021 February 01

МС

Михаил Синегубов... in Scrapy
Александр
Кто пишет парсеры?
если заказ, то https://t.me/scrapy_jobs
источник

i

i in Scrapy
Gulnur Gunur
а шо, если так просто list'aми в yield бросаться - он его правильно развернет что-ли? Там точно не нужен цикл for?
источник

GG

Gulnur Gunur in Scrapy
где вы видите for?
источник

i

i in Scrapy
и шо за коллбек в кавычках. хотя я с linkextractor не работал
источник

i

i in Scrapy
Gulnur Gunur
где вы видите for?
я предполагаю его наличие где-то около yield
источник

GG

Gulnur Gunur in Scrapy
Зачем?
источник

i

i in Scrapy
Эм. А все работает?
источник

i

i in Scrapy
Если все работает, тогда незачем
источник

GG

Gulnur Gunur in Scrapy
кто работал с item_loader?
источник

S

SoHard 🎄 in Scrapy
Yuriy Gumeniu
Нарыл что спотыкается на Twisted буду искать ответ
поставь whl твистед уже скомпиленый, остальное само подтянется
источник

A

Andrii in Scrapy
Gulnur Gunur
кто работал с item_loader?
пожалуйста, сразу вопрос, без наводки
источник

BL

Boris Litvyakov in Scrapy
Gulnur Gunur
если я правильно понимаю то у сайтов enu.kz и fit.enu.kz разная структура, соответственно заходишь вначале на enu.kz, достаешь оттуда ссылку на каждый факультет и вызываешь отдельную функцию колбек для обработки страницы факультета (вот они уже вроде однотипные)
источник

GG

Gulnur Gunur in Scrapy
колбак в Rule надо прописать и отдельно прописать метод для нее?
источник

AR

Andrey Rahmatullin in Scrapy
Zack!?
Вот например пайплайн
https://dpaste.org/E4YN
А вот трейс
https://dpaste.org/DUMB
ну там написано где проблема, в aiomysql
источник

BL

Boris Litvyakov in Scrapy
Boris Litvyakov
если я правильно понимаю то у сайтов enu.kz и fit.enu.kz разная структура, соответственно заходишь вначале на enu.kz, достаешь оттуда ссылку на каждый факультет и вызываешь отдельную функцию колбек для обработки страницы факультета (вот они уже вроде однотипные)
хз я никогда не пользовался linkextractor, мне кажется это не тот случай когда он нужен. не надо пытаться сделать универсальную функцию обработчик, раз у тебя сайты разные то и обработчики отдельно надо

что-то типа

start_urls = ['enu.kz']

def parse(self, response):
   faculty_links = response.xpath(...)
   for url in faculty_links:
         yield scrapy.Request(url, callback = process_faculty)

def process_faculty(self, response):
   do_smth

ну общая схема такая а там смотри по ситуации смотря что тебе в итоге надо, если надо зайти на определенную страницу на сайте факультета то соответственно делаешь отдельный обработчик для этой страницы
источник

i

i in Scrapy
прикольно, callback в rule таки в кавычках: https://docs.scrapy.org/en/latest/topics/spiders.html#crawlspider-example
источник

AR

Andrey Rahmatullin in Scrapy
ну да, а как его ещё ловить? рул - атрибут класса, как и методы
источник

AR

Andrey Rahmatullin in Scrapy
т.е. методов в этом месте ещё нет, и селфа нет
источник

AR

Andrey Rahmatullin in Scrapy
нормальный питонизм, в орм такое постоянно
источник

BL

Boris Litvyakov in Scrapy
Gulnur Gunur
колбак в Rule надо прописать и отдельно прописать метод для нее?
почекай примеры в документации, это тривиальная схема работы там должны быть примеры
источник