В общем стоит задача парсинга поисковой выдачи. От 2 до 10 сайтов разных. Работа с прокси и в многопотоке(ориентировочно до 4к потоков). Насколько вообще scrapy подойдет для такого? Куда лучше сохранять пока из гугла пришел к выводу что в csv а потом в бд. Чтоб не захлебывалась при записи. Поисковые запросы для урлов так понял лучше через redis пустить?