a
Как думаете, если много ссылок идет на урлы с параметрами типа
/page?разные_параметры=...
которые запрещены в роботс, какой метод можно использовать чтобы веса ссылок не терялись?
Если сделать склейку этих параметров через
Google.Параметры URL/Yandex.Clean-Param
- будут ли параметры очищены до блокировки урлов через роботс? Никто не проверял?