Да конечно, только читаю. Гугл, в той или иной форме, расценивает вертикали упомянутые по данной ссылке как рестрективные:
https://support.google.com/adspolicy/answer/6008942?hl=enКонкретно по фарме вот по этой ссылке:
https://support.google.com/adspolicy/answer/176031?hl=enПо b) свежий URL гарантирует что изначальный ресурс на который ведёт закупная ссылка не был из другой ниши, что само по себе может быть тригером для флага в нутри системы по вашей кансоли, и далее повести за собой мануальную проверку. Опять же флаг такого рода не критичен, но учитывая что, исходя из пояснения к изначальному посту,
@kaalka готов платить за данную ссылку, надавить на создание нового урла и свежено текст со стороны продавца, как представляется мне дешевым так и, на долгосрочной перспективе, является хорошей дисциплиной. Роль играет так же сабфолдер который используется на .edu домене для исходящей ссылки. Если из 10 - 20 рандомных постов на этом сабфолдере вы найдёте 1 случай когда якорь и текст не соответствует ресурсу на который ведёт ссылка, то, во время последующего, ежеквартального цикла апдейтов Гугла, показатели данного сабфолдера будут ниже.
C) помогает, как при рутинном скроле Гугл бота, так и при потенциально последующей, мануалной проверке. Задумайтесь над следующим примером. Вы читаете на русском языке контент, и источник вдруг даёт вам ссылку на исследование подкрепляющее этот контент но написанное на китайском языке. Вам разве не было бы удобно если бы источник предупредил вас что там, куда он вас ридеректует, все будет написано на китайском языке?
Процент риска всех пунктов выше не превышает однозначных чисел. Но эти числа имеют накопительный характер; поэтому, опять же, если вы планируете использовать ваш домен на долгосрочной перспективе; системный подход к закупкам ссылочной массы и операционная дисциплина в выявлении уязвимостей доменов которые их продают - составляют общюю массу разницы между 10-ой и 1-ой позицией при следующем Гугловом апдейте.