Size: a a a

2020 June 18

i

ildar in Scrapy
Странно, если логиниться ручками через хром, не управляя им из селениума, то там в кукисах для ulogin.ru есть токен и этот же токен ulogin и для домена сайта пишется, а если логиниться через селениум, то этих токенов нет, но при этом я там также залогинен (т.к. цены товаров отличаются и кабинет я вижу). Бредятина.
источник

SS

Stepan Smirnov in Scrapy
а google shop сильно сопротивляется парсингу?
источник

AS

Alexander Serebrov in Scrapy
Oleg Shleiko
ufw у меня не установлен, а нули пробовал. Спасибо что помогаете
если мне не изменяет память, то чтобы контейнеры видели друг друга они должны быть в одной сети
источник

AS

Alexander Serebrov in Scrapy
или уже не актуально?
источник

OS

Oleg Shleiko in Scrapy
так они в одном docker-compose
источник

AS

Alexander Serebrov in Scrapy
да, но надо еще networks объявить
источник

AS

Alexander Serebrov in Scrapy
вот на примере упрощенного docker-compose для elasticsearch/kibana https://gist.github.com/al-serebrov/ac583ac799ebfaff1f27f96a3fdcc7db
источник

AS

Alexander Serebrov in Scrapy
там есть инструкция networks для каждого контейнера и еще отдельно networks
источник

AS

Alexander Serebrov in Scrapy
и, кажется, сеть еще и надо создать)
источник

AS

Alexander Serebrov in Scrapy
источник

AS

Alexander Serebrov in Scrapy
это так, по памяти, когда-то давно в этом ковырялся))
источник

OS

Oleg Shleiko in Scrapy
Спасибо большое, завтра поковыряю
источник

AS

Alexander Serebrov in Scrapy
да, пожалуйста) let me know if it helps :)
источник

OS

Oleg Shleiko in Scrapy
Alexander Serebrov
да, пожалуйста) let me know if it helps :)
обязательно
источник

EB

Elisei Badanin in Scrapy
как из bs4 получить назад html?
источник

К

Кирилл in Scrapy
str() или obj.prettify()
источник

S

SoHard 🎄 in Scrapy
Elisei Badanin
как из bs4 получить назад html?
str()
источник

EB

Elisei Badanin in Scrapy
хм, и правда, не думал что может быть так просто, после lxml…спасибо
источник
2020 June 19

ПА

Павел Асеев... in Scrapy
Привет, подскажите пожалуйста как с помощью XPATH выбрать все <span> которые выделил на скриншоте https://prnt.sc/t2mbtg

Пробовал так:
//tr[contains(./span,"Текущие названия")]/td[2]/span

По аналогии с CSS селекторами:
tr:contains("Текущие названия") td:nth-of-type(2) span::text

Но почему то этот CSS в Scrapy не работает.

Не могу понять как решить проблему.
источник

AS

Alexander Serebrov in Scrapy
//tr/span/[contains(text(),'Текущие названия')]/td[2]/span/text()
источник