Size: a a a

2020 July 06

t

tfhx8 in Scrapy
я хз, я вообще примеров парсеров со scrapy не нашел, имеенно чтобы рекапчу в процессе разгадвали
источник

t

tfhx8 in Scrapy
если у вас есть примеры, кидайте ссылки)
источник

OS

Oleg Shleiko in Scrapy
У меня написан мидлвар который чекает в response капча или нет и отдельной функцией написано разгадывание
источник

OS

Oleg Shleiko in Scrapy
Как гадать - описано в доках любого антикапча сервиса
источник

t

tfhx8 in Scrapy
Oleg Shleiko
У меня написан мидлвар который чекает в response капча или нет и отдельной функцией написано разгадывание
а можешь пример кинуть? Я просто хз как это на scrapy. Пока оно разгадывает, в этот момент ходит на другие страницы и там фигачит? Мне просто интересно, неуж то и с капчей может одновременно с большом количестве потоков)
источник

OS

Oleg Shleiko in Scrapy
tfhx8
а можешь пример кинуть? Я просто хз как это на scrapy. Пока оно разгадывает, в этот момент ходит на другие страницы и там фигачит? Мне просто интересно, неуж то и с капчей может одновременно с большом количестве потоков)
Вот суть в том, что у меня поток ждёт, и я не использую мультипарсинг на скрапи
источник

OS

Oleg Shleiko in Scrapy
Вот тут немного реализации
источник

A

Alex in Scrapy
Всем привет.
Вопрос такой. Паук с такой структурой. Чет не могу понять как запускать в обработку паралельно все ссылки.

 
class MyParser(scrapy.Spider):
   name = "myparser"
   start_urls = ['https://site.net/', 'https://site1.net/', 'https://site2.net/']
   
   def __init__(self):
       self.profile = webdriver.FirefoxProfile()
       self.profile.set_preference("intl.accept_languages", "ua_RU")
       self.profile.set_preference("dom.disable_open_during_load", False)
       #self.profile.set_preference("general.useragent.override", "[Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36]")
       self.fireFoxOptions = webdriver.FirefoxOptions()
       # self.fireFoxOptions.set_headless()
       self.driver = webdriver.Firefox(firefox_profile=self.profile, seleniumwire_options=self.options)
 
   def parse(self, response):
     pass
источник

OS

Oleg Shleiko in Scrapy
Alex
Всем привет.
Вопрос такой. Паук с такой структурой. Чет не могу понять как запускать в обработку паралельно все ссылки.

 
class MyParser(scrapy.Spider):
   name = "myparser"
   start_urls = ['https://site.net/', 'https://site1.net/', 'https://site2.net/']
   
   def __init__(self):
       self.profile = webdriver.FirefoxProfile()
       self.profile.set_preference("intl.accept_languages", "ua_RU")
       self.profile.set_preference("dom.disable_open_during_load", False)
       #self.profile.set_preference("general.useragent.override", "[Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36]")
       self.fireFoxOptions = webdriver.FirefoxOptions()
       # self.fireFoxOptions.set_headless()
       self.driver = webdriver.Firefox(firefox_profile=self.profile, seleniumwire_options=self.options)
 
   def parse(self, response):
     pass
start_urls = ['https://site.net/', 'https://site1.net/', 'https://site2.net/']
они должны параллельно и так запуститься если настройки не поменял
источник

AR

Andrey Rahmatullin in Scrapy
драйвер-то один
источник

A

Alex in Scrapy
CONCURRENT_REQUESTS = 5

# Configure a delay for requests for the same website (default: 0)
# See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay
# See also autothrottle settings and docs
DOWNLOAD_DELAY = 3
# The download delay setting will honor only one of:
CONCURRENT_REQUESTS_PER_DOMAIN = 3
CONCURRENT_REQUESTS_PER_IP = 1
источник

A

Alex in Scrapy
CONCURRENT_REQUESTS = 5 - это количество запросов?
источник

A

Alex in Scrapy
Andrey Rahmatullin
драйвер-то один
а на одном драйвере, как вкладки - есть такой вариант?
или сразу несколько драйверов запускать
источник

AR

Andrey Rahmatullin in Scrapy
ничего не знаю про селениум
источник

AR

Andrey Rahmatullin in Scrapy
Alex
CONCURRENT_REQUESTS = 5 - это количество запросов?
да, но ты ж не будешь юзать запросы скрапи
источник

D

Dr. Bot in Scrapy
всё авито покоряет, далеко продвинулся ))
источник

A

Alex in Scrapy
решил прокси прикрепить
а че это ты так сарказмируешь?)
источник

К

Кирилл in Scrapy
Alex
а на одном драйвере, как вкладки - есть такой вариант?
или сразу несколько драйверов запускать
Ctrl+T открывает новую вкладку
источник

D

Dr. Bot in Scrapy
не-не, я восхищаюсь упорству...
источник

A

Alex in Scrapy
Dr. Bot
не-не, я восхищаюсь упорству...
странный ты. я сделал паука, выполняет все что мне нужно
хочу улучшить для работы с прокси
в чем упорство?
источник