Size: a a a

2020 July 08

SS

Stepan Smirnov in Scrapy
Кирилл
Можно в lua_source прописать
а как это сделать?
источник

К

Кирилл in Scrapy
Stepan Smirnov
а как это сделать?
почитай ридми у scrapy-splash, там есть примеры со скриптами
источник

SS

Stepan Smirnov in Scrapy
Кирилл
почитай ридми у scrapy-splash, там есть примеры со скриптами
splash.images_enabled = false; спасибо
источник

S

SoHard 🎄 in Scrapy
Setplus Mac
а если с итемами использовать, то нет
с чего бы это
источник

SS

Stepan Smirnov in Scrapy
а можно для конкретного запроса отключить использование кэша, при этом оставить его для всех остальных в пауке?
источник

К

Кирилл in Scrapy
Stepan Smirnov
а можно для конкретного запроса отключить использование кэша, при этом оставить его для всех остальных в пауке?
dont_cache в мете запроса, или Cache-Control
источник

S

SoHard 🎄 in Scrapy
еще разок тупой вопрос по кодировкам
Санкт-Петербург, Приморский пр-т, 137к2
источник

S

SoHard 🎄 in Scrapy
как эту срань сделать нормальной
источник

AR

Andrey Rahmatullin in Scrapy
Смотря как получал
источник

SS

Stepan Smirnov in Scrapy
Я пытаюсь вытащить ссылки на все товары со страницы
https://www.abenaonline.no/Products.aspx?ProductGroupId=115000001000002520

Для пагинации спользую скрипт на lua:
lua_pagination = """
function main(splash, args)
 -- visit each page of pagination
 assert(splash:go(args.url))
 assert(splash:wait(2))

 result = {}

 -- find max page number
 max_page = splash:select_all("select>option")
 max_page = tonumber(max_page[#max_page]:text())

 for i=1,max_page do
   result[i] = splash:html()
   next_btn = splash:select("td[style='width: 85px; text-align: right;']>a")
   next_btn:mouse_click()
   splash:wait(4)
 end
 return result
end
"""

передаю его в запрос
yield SplashRequest(
   url=response.urljoin(subcategory)
   , callback=self.parse_pagination
   , endpoint='execute'
   , args={'lua_source': lua_pagination, 'timeout': 90}
)

В функцию parse_pagination приходит SplashJsonResponse, текст html кода страниц содержится в response.data[key]. Но содержится в виде str и методы вроде .xpath/.css к нему не применимы. Как из такого текста можно сделать обычный response (или просто получить возможность применять к нему стандартные методы из response)?
источник

AR

Andrey Rahmatullin in Scrapy
создать Selector, передав его
источник

SS

Stepan Smirnov in Scrapy
Andrey Rahmatullin
создать Selector, передав его
from scrapy.selector import Selector
Selector(text= response.data[key]).xpath("").get()?
источник

AR

Andrey Rahmatullin in Scrapy
Типа того
источник

OS

Oleg Shleiko in Scrapy
Всем привет. Небольшой оффтоп но по скрапи)) Кто-то знает хорошую книгу или видеокурс по скрапи?
источник

К

Кирилл in Scrapy
Oleg Shleiko
Всем привет. Небольшой оффтоп но по скрапи)) Кто-то знает хорошую книгу или видеокурс по скрапи?
Ты же уже спец, зачем тебе?)
источник

OS

Oleg Shleiko in Scrapy
Не не, я говнокодер, мне нужно постоянно совершенствоваться
источник

К

Кирилл in Scrapy
Все материалы которые видел, для самых начинающих. Дальше только исходники читать и само программирование учить
источник

OS

Oleg Shleiko in Scrapy
Прикол программухи: чем сложнее задачи - тем меньше инфы
источник

К

Кирилл in Scrapy
Сам же скрапи простой, а сложности возникают обычно уникальные, как у тебя с ssl
источник

OS

Oleg Shleiko in Scrapy
А есть способ писать логи в logstash?
источник