Size: a a a

2020 December 15

МС

Михаил Синегубов... in Scrapy
1. fineproxy
2. proxys.io
3. ....
источник

AP

Ates Parmatooff in Scrapy
Вот .... этот больше всего подошел )
источник

МС

Михаил Синегубов... in Scrapy
просто их овердохрена. И те, что подходят для одного, могут не подойти для другого. И это актуально и для пользователя и для сайта
источник

AP

Ates Parmatooff in Scrapy
дык это понятно ) просто куда не кинся - большинство зарубежных АйПи, а сильно желательно только на територии РФ
источник

МС

Михаил Синегубов... in Scrapy
файнпрокси - максимальный пакет 3000 ip
источник

AP

Ates Parmatooff in Scrapy
сейчас ознакомлюсь, спасиб
источник

A

Andrii in Scrapy
помогите понять где ошибка
источник

A

Andrii in Scrapy
источник

A

Andrii in Scrapy
проблема: если не решило капчу после запуска, тогда колбек назад на решение уже не дает никакого результата (никогда)
источник

AR

Andrey Rahmatullin in Scrapy
а реквест выполняется?
источник

A

Andrii in Scrapy
да все ок, дает нормальную капчу, но решение по подходит
источник

A

Andrii in Scrapy
если после запуска с первого раза проходит - работает
источник

AP

Alex Python in Scrapy
спасибо
источник

D

Dmitrij in Scrapy
Скажите, пожалуйста, как можно установить задержку между ретрай запросами? Чтобы действовало именно для ретраев, а не для всех запросов. Пробовал переопрелелять метод RetryMiddleware используя time.sleep() - но это блокирующий способ. Нужно чтобы другие запросы выполнялись, пока для этого запроса ждём
источник

МС

Михаил Синегубов... in Scrapy
нашел какой то костыль, хз начсет рабочести
    def parse(self, response):
       nextreq = Request('http://en.wikipedia.org')
       dfd = defer.Deferred()
       reactor.callLater(DELAY, dfd.callback, nextreq)
       return dfd
источник

S

SoHard 🎄 in Scrapy
а asyncio.sleep не прокатит?
источник

AR

Andrey Rahmatullin in Scrapy
переопрелеляй метод RetryMiddleware используя reactor.callLater
источник

К

Кирилл in Scrapy
Михаил Синегубов
нашел какой то костыль, хз начсет рабочести
    def parse(self, response):
       nextreq = Request('http://en.wikipedia.org')
       dfd = defer.Deferred()
       reactor.callLater(DELAY, dfd.callback, nextreq)
       return dfd
Можно примерно так, ещё можно через non-blocking sleep, ещё можно что-то с задержкой в слотах довнлоадера придумать
источник

МС

Михаил Синегубов... in Scrapy
насчет слотов, кстати, тут народ что то ковырял
https://github.com/scrapy/scrapy/issues/802, опять же, "рояль немой" :))
источник

D

Dmitrij in Scrapy
Спасибо за идеи, буду пробовать!
источник