а что тут странного если сайт на JS.
Если лягушка не парсит сайт - есть только 4 причины почему
1. robots.txt - перебирать useragent
2. сайт на JS - включить рендер
3. Сайт под паролем и логином - в лягушке прописать пароль и логин от сайта
4. сайт просто недоступен - отключён.
сайт не на js, просто этот сайт парсят (копируют контент) все, кому не лень. И у него куча примочек по защите от парсинга
Кстати, есть ли возможность в лягухе задать интервал пауза/старт? На минимальной скорости парсинга через некоторое время донор начинает выдавать лягухе пустые страницы (если открыть с браузера, страницы норм)
Помогло бы задать интервал: 5 минут парсит, передышка, продолжает. Есть какая-то возможность?