Size: a a a

2020 May 22

К

Кирилл in Scrapy
Petr
У меня куча  из прокси heapq  при запрос дергаем прокси из кучи если ОК -1, если BAD +1  и таким образом остаются живые и самые хорошие прокси
Покажешь код?
источник
2020 May 23

P

Petr in Scrapy
async with session.get(url, proxy=f'http://{proxy}') as response:
               assert response.status == 200
               page = await response.text()
               await search_data_in_page(url, page)
               task_url.remove(url)
               heapq.heappush(proxy_list, ((rating - 1), proxy))
источник

P

Petr in Scrapy
что-то вроде
источник

P

Petr in Scrapy
сама куча
def proxys():
   proxy_list = [line.rstrip('\n') for line in open('lists/proxy-list.txt')]
   return [
       (random_rating(), proxy)
       for proxy in proxy_list
   ]
источник

МС

Михаил Синегубов... in Scrapy
Petr
что-то вроде
То же самое и у Кирила. Только там на время прокси в БАДы уходят
источник

A

Alex in Scrapy
Всем привет

def parse(self, response):
       num = 0
       for data in response.css('tr.cmc-table-row'):
           num += 1
           name = data.xpath(f'//*[@id="__next"]/div/div[2]/div[1]/div[2]/div/div[2]/div[3]/div/table/tbody/tr[{num}]/td[2]//text()').getall()
           
           yield {
               'Name': name
           }

паук который парсит имена крипты с коинбейса
сохраняет в файл такой структурой
{"Name": ["Bitcoin"]},
{"Name": ["Ethereum"]},
{"Name": ["XRP"]},
{"Name": ["Tether"]}

Как можно сделать, что бы структура была такой:
'Name': ['Bitcoin', 'Ethereum', 'XRP', 'Tether',}
источник

МС

Михаил Синегубов... in Scrapy
def parse(self, response):
       num = 0
           name = data.xpath(f'//*[@id="__next"]/div/div[2]/div[1]/div[2]/div/div[2]/div[3]/div/table/tbody/tr[/td[2]//text()').getall()
           
           yield {
               'Name': name
           }
источник

МС

Михаил Синегубов... in Scrapy
С телефона, так что отступы сам проставляй, примерно так.
источник

МС

Михаил Синегубов... in Scrapy
Но я вёрстку не видел
источник

К

Кирилл in Scrapy
Скобку не закрыл
источник

МС

Михаил Синегубов... in Scrapy
Кирилл
Скобку не закрыл
Если это мне...
источник

МС

Михаил Синегубов... in Scrapy
источник

К

Кирилл in Scrapy
Тебе)
источник

МС

Михаил Синегубов... in Scrapy
Кирилл
Тебе)
А, тогда не "не закрыл", а "забыл убрать"😝
источник

К

Кирилл in Scrapy
Возможно)
источник

A

Alex in Scrapy
Михаил Синегубов
def parse(self, response):
       num = 0
           name = data.xpath(f'//*[@id="__next"]/div/div[2]/div[1]/div[2]/div/div[2]/div[3]/div/table/tbody/tr[/td[2]//text()').getall()
           
           yield {
               'Name': name
           }
Спасибо!
источник

AR

Andrey Rahmatullin in Scrapy
ну вот, а я б постпроцессинга насоветовал (потому что мне было влом читать исходный вариант)
источник

G

Georg in Scrapy
Есть какие-нибудь расширенные инструменты, с помощью которых можно детально и удобно разобрать всю сетевую работу страницы?
источник

К

Кирилл in Scrapy
Вкладка нетворк?
источник

G

Georg in Scrapy
Кирилл
Вкладка нетворк?
Есть что-нибудь побольше?
источник