Size: a a a

2020 December 20

S

SoHard 🎄 in Scrapy
Alex Python
есть товары под тегом 'div' с классом "item" или "item more", я их перебираю просто по class_ = "item", как исключить класс 'item empty' чет я тормоз сегодня
//*[contains(@class, 'a') and not(contains(@class, 'b'))]
источник

AR

Andrey Rahmatullin in Scrapy
Классы через contains неправильно
источник

AP

Alex Python in Scrapy
Спасибо, кое как через костыли разобрался сам )
источник

S

SoHard 🎄 in Scrapy
Andrey Rahmatullin
Классы через contains неправильно
это что нагуглил за 30 сек)
источник

DO

Daniil Okhlopkov in Scrapy
Ребят, опять я с вопросом.

Расскажите, как вы деплоите свои спайдеры в свои продакшены? Я видел, что есть опенсорсный https://github.com/my8100/scrapydwebscrapydweb. Вы все его используете?

Что мне надо:
Чтобы спайдеры запускались периодически, чтобы собирались логи, чтобы с Selenium дружили (как, кстати, лучше всего в проде дружить? Кластеер из браузеров?), чтобы клали результаты в бд (уже есть middleware), чтобы можно было запустить с параметрами.
источник

К

Кирилл in Scrapy
Daniil Okhlopkov
Ребят, опять я с вопросом.

Расскажите, как вы деплоите свои спайдеры в свои продакшены? Я видел, что есть опенсорсный https://github.com/my8100/scrapydwebscrapydweb. Вы все его используете?

Что мне надо:
Чтобы спайдеры запускались периодически, чтобы собирались логи, чтобы с Selenium дружили (как, кстати, лучше всего в проде дружить? Кластеер из браузеров?), чтобы клали результаты в бд (уже есть middleware), чтобы можно было запустить с параметрами.
scrapydweb нормальный вариант, есть ещё scrapy-do
источник

К

Кирилл in Scrapy
Daniil Okhlopkov
Ребят, опять я с вопросом.

Расскажите, как вы деплоите свои спайдеры в свои продакшены? Я видел, что есть опенсорсный https://github.com/my8100/scrapydwebscrapydweb. Вы все его используете?

Что мне надо:
Чтобы спайдеры запускались периодически, чтобы собирались логи, чтобы с Selenium дружили (как, кстати, лучше всего в проде дружить? Кластеер из браузеров?), чтобы клали результаты в бд (уже есть middleware), чтобы можно было запустить с параметрами.
Ну и конечно scrapinghub, там всё удобно, но платить нужно
источник

DO

Daniil Okhlopkov in Scrapy
Кирилл
scrapydweb нормальный вариант, есть ещё scrapy-do
личный вопрос: чем конкретно ты пользуешься? Просто разные варианты я тоже нагуглил)
источник

К

Кирилл in Scrapy
последний парсер деплоил с scrapydweb
источник

DO

Daniil Okhlopkov in Scrapy
спасибо
источник

К

Кирилл in Scrapy
Пока не попробуешь, не узнаешь плюсы и минусы) рекомендую все испробовать, на след проектах
источник

A

Andrii in Scrapy
Скрейпид, скрепийхаб, самопис + крон
источник

A

Andrii in Scrapy
кто знает deathbycaptcha есть какой то промод код ? а то на 10$ впадло пополнять если не покатит
источник

DO

Daniil Okhlopkov in Scrapy
А подскажите еще, пожалуйста. Вот я парсю сайт, а он стал выдавать пустые страницы. Ответ 200, но данных нет. Я хочу, чтобы спайдер, как только такое вот случилось, останавливался - и дальше не парсил. Как лучше всего это сделать? Нужно какой-нибудь эксепшн специальный выкинуть?
источник

A

Andrii in Scrapy
Daniil Okhlopkov
А подскажите еще, пожалуйста. Вот я парсю сайт, а он стал выдавать пустые страницы. Ответ 200, но данных нет. Я хочу, чтобы спайдер, как только такое вот случилось, останавливался - и дальше не парсил. Как лучше всего это сделать? Нужно какой-нибудь эксепшн специальный выкинуть?
проверь страницу на результат
источник

DO

Daniil Okhlopkov in Scrapy
Andrii
проверь страницу на результат
не понял. Что это значит?
источник

A

Andrii in Scrapy
нет твого хпатча, клоус спайдер
источник

DO

Daniil Okhlopkov in Scrapy
Andrii
нет твого хпатча, клоус спайдер
Спасибо. А как это сделать?
источник

A

Andrii in Scrapy
Daniil Okhlopkov
Спасибо. А как это сделать?
источник

DO

Daniil Okhlopkov in Scrapy
по, то, что нужно. спасибо еще раз
источник