Size: a a a

2020 December 18

SS

Sergey Sergey in Scrapy
Михаил Синегубов
для яндекса попробуй proxys.io, когда то для поиска офигительно шли. 40 шт при 15 потоках каптчи с сотню за сутки набиралось
А что доя хранения используешь? Цсв или бд какую?
источник

МС

Михаил Синегубов... in Scrapy
но это было года два назад.
обязательно попроси у техподдержики на тест 1 шт (1-2 часа хватит).
и я брал именно индивидуальные
источник

МС

Михаил Синегубов... in Scrapy
Sergey Sergey
А что доя хранения используешь? Цсв или бд какую?
для небольших объемов. json, csv, mongo
для больших что то типа постгреса
источник

SS

Sergey Sergey in Scrapy
Михаил Синегубов
для небольших объемов. json, csv, mongo
для больших что то типа постгреса
Самописное сохранение или модуль готовый?
источник

МС

Михаил Синегубов... in Scrapy
для небольших - готовое, если надо - то самописная постобработка.
для больших - самописный пайп

универсальное решение по определению не может быть быстрее написанного под конкреную задачу (при условии, что оптимизацией озадачиваешся)
источник

SS

Sergey Sergey in Scrapy
Михаил Синегубов
для небольших - готовое, если надо - то самописная постобработка.
для больших - самописный пайп

универсальное решение по определению не может быть быстрее написанного под конкреную задачу (при условии, что оптимизацией озадачиваешся)
А из готового что нормальное для постгреса?
источник

МС

Михаил Синегубов... in Scrapy
хз, у меня для постгреса только самопис :)
да там и писать под конкретную задачу часа 2-4 максимум
источник

SS

Sergey Sergey in Scrapy
Михаил Синегубов
хз, у меня для постгреса только самопис :)
да там и писать под конкретную задачу часа 2-4 максимум
Я просто сам пока только монгой пользовался, вот и думаю, как правильно начать.
источник

SS

Sergey Sergey in Scrapy
Михаил Синегубов
хз, у меня для постгреса только самопис :)
да там и писать под конкретную задачу часа 2-4 максимум
Спасибо!
источник

МС

Михаил Синегубов... in Scrapy
Sergey Sergey
Я просто сам пока только монгой пользовался, вот и думаю, как правильно начать.
если тебе хватает монги - нафиг тебе постгрес.
если прям нужен SQL начни с SQLite. В районе нескольких млн записей (было пара простых таблис до 50 млн), вполне себе норм держит. Зато, нет гемора с выбором типа данных, там их всего 4 (вроде как) 😁
но это, если ты не знаешь SQL баз и что то простенькое надо
источник

A

Andrii in Scrapy
Прокси с логином и паролем как правильно вставить в селениум хром?
источник

S

SoHard 🎄 in Scrapy
Andrii
Прокси с логином и паролем как правильно вставить в селениум хром?
уу, я вчера гуглил, то что нагуглил не работало, а остальное очень костыльно выглядело
источник

S

SoHard 🎄 in Scrapy
если разберешься, напиши, пожалуйста
источник

DO

Daniil Okhlopkov in Scrapy
А я правильно понял, что скрапи не будет заходить на страницы, которые были уже открыты за текущий проход краулера? То есть я могу делать yield SeleniumRequest на все-все url, а он умный и не будет заходить дважды на то, что уже спарсил. Да?
источник

К

Кирилл in Scrapy
По дэфолтным настройкам, не будет на дубли заходить
источник

DO

Daniil Okhlopkov in Scrapy
спасибо
источник
2020 December 19

М

Максим in Scrapy
а можно с помощью него извлекать контент из закрытых групп по подписке?
источник

S

SoHard 🎄 in Scrapy
Максим
а можно с помощью него извлекать контент из закрытых групп по подписке?
источник

S

SoHard 🎄 in Scrapy
У нас тут хакирь
источник

М

Максим in Scrapy
имею ввиду, что мне надо извлекать инфу из закрытой группы. Могу ли я это делать с помощью graphql апишки, и можно вообще подписаться на эту группу как-нибудь(группа моя)
источник