Size: a a a

2021 February 08

S

SoHard 🎄 in Scrapy
Andrey Sapronov
Хотелось бы какой-то конкретики, я так-то все свои проблемы и так решаю при помощи aiohttp. Что скрапи предлагает чего нельзя/сложно решить при помощи "библиотек"
с ботами телеграмма знаком?
источник

S

SoHard 🎄 in Scrapy
разница примерно как делать бота на заросах aiohttp/requests и aiogram
источник

МС

Михаил Синегубов... in Scrapy
Andrey Sapronov
Хотелось бы какой-то конкретики, я так-то все свои проблемы и так решаю при помощи aiohttp. Что скрапи предлагает чего нельзя/сложно решить при помощи "библиотек"
оке,
aiohttp - это запросы и ничего более
scrapy - запросы, очереди, парсинг, сохранение, масштабирование всей этой хрени, легкое прикручивание всяких движкой баз, очередей, кэширования
источник

AS

Andrey Sapronov in Scrapy
Понял, благодарю. А в скрапи есть что-то типа RateLimiter для ограничение количества запросов в сек, именно в сек а не макс количества запросов в определенный момент времени?
источник

AS

Andrey Sapronov in Scrapy
И какой потолок производительности, 50-80 запросов в сек получится отправлять?
источник

МС

Михаил Синегубов... in Scrapy
Andrey Sapronov
Понял, благодарю. А в скрапи есть что-то типа RateLimiter для ограничение количества запросов в сек, именно в сек а не макс количества запросов в определенный момент времени?
есть с какой интервал между запросами.
либо самому модуль написать.

лично я видел потолок 6000 запросов в минуту
источник

S

SoHard 🎄 in Scrapy
я думаю это больше проблема в сети/сайте/сервере
источник

МС

Михаил Синегубов... in Scrapy
выше - пока не встречал. Тут вопрос - удержит ли сам сайт
источник

S

SoHard 🎄 in Scrapy
а потолок не в скрапи упрётся
источник

AS

Andrey Sapronov in Scrapy
Михаил Синегубов
выше - пока не встречал. Тут вопрос - удержит ли сам сайт
До определенного момента у меня скрапер был на requests + threading, но сейчас уперся в производительность потоков. Попробовал aihttp получилось выжать 450 RPS с uvloop.
источник

AS

Andrey Sapronov in Scrapy
Еще раз спасибо всем за информацию
источник

МС

Михаил Синегубов... in Scrapy
Andrey Sapronov
До определенного момента у меня скрапер был на requests + threading, но сейчас уперся в производительность потоков. Попробовал aihttp получилось выжать 450 RPS с uvloop.
если тебе нужна "прям ппц какая оптимизация" - то это, скорее всего, как раз, полностью самописный...
ты сами странички чем парсишь?
источник

AS

Andrey Sapronov in Scrapy
Михаил Синегубов
если тебе нужна "прям ппц какая оптимизация" - то это, скорее всего, как раз, полностью самописный...
ты сами странички чем парсишь?
orjson
источник

МС

Михаил Синегубов... in Scrapy
а, у тебя чистый json?
источник

AS

Andrey Sapronov in Scrapy
Да
источник

МС

Михаил Синегубов... in Scrapy
тогда, лови блох на реквестах и (или) либах по обработке json + как ты там сохраняешь.

прям для ловли блох - скрапи, скорее всего, тебя не устроит (ну, я так думаю). Все же, инструмент, написанный и заточенный под конкретную задачу будет шустрее, чем универсальный
источник

К

Кирилл in Scrapy
Golang 😏 или C, вот выход
источник

AS

Andrey Sapronov in Scrapy
Михаил Синегубов
тогда, лови блох на реквестах и (или) либах по обработке json + как ты там сохраняешь.

прям для ловли блох - скрапи, скорее всего, тебя не устроит (ну, я так думаю). Все же, инструмент, написанный и заточенный под конкретную задачу будет шустрее, чем универсальный
Ок, благодарю.
источник

К

Кирилл in Scrapy
Максимальная оптимизация
источник

AS

Andrey Sapronov in Scrapy
Кирилл
Golang 😏 или C, вот выход
Уже смотрел в сторону go, но пока остановился на aiohttp))
источник