Пожалуйста, рассудите и подскажите кто прав: сеошники или владелец интернет-магазина? Вопрос про то как грамотно скормить страницы фильтра поисковику?
У нас на сайте примерно 6000 товаров. Вопрос по страницам фильтра. Сеошники настаивают на решении, когда страницы фильтра с выбранными 2-мя и более параметрами фильтра (пример: (
http://joxi.ru/82Qyqw5UVoKQd2), (
http://joxi.ru/82Qyqw5UVoKYd2) ), скрыты тегом <meta name="robots" content="noindex,nofollow">, а страницы с одним выбранным параметром фильтра сделать неканоническими (у них будет указана канонической страница родительской категории).
Они это мотивируют тем, чтобы мы НЕ отдавали большое количество некачественных страниц Гуглу. При этом мы получили в результате, что огромное количество страниц не индексируются теперь, например:
http://joxi.ru/BA0gRxvuv3dOV2Они предлагают отслеживать по семантике частотные запросы и, если есть соответствующие страницы на сайте – только тогда открывать их для индекса и делать каноническими. Функционал для проработки любой отдельно взятой страницы фильтра есть (можно прописать все теги, текстовое описание).
Но на практике, я считаю, невозможно это всё отслеживать и выполнять, т.к. огромное количество категорий, товаров и страниц фильтра с пересекающимися параметрами. Если бы был маленький сайт или спец сеошник инхаус у нас работал каждый день, то ещё реально. А так, как у сеошников еще куча клиентов, то я очень сомневаюсь, что они это будут нормально делать. Мне кажется они подсаживают нас на иглу, чтобы мы от них зависили и будут каждый месяц по нескольку страниц таких открывать и прорабатывать – это будет длиться долго и неэффективно.
Я сторонник того, чтобы страницы с 3-мя и более пересечениями параметров фильтров сделать <meta name="robots" content="noindex,nofollow">. При этом страницы с 1 и с 2-мя параметрами сделать каноническими сами на себя. Гугл найдёт достойные хорошие страницы и проранжирует их должным образом.
Никто не мешает при таком подходе нужные страницы фильтра прорабатывать дополнительно (прописывать теги, описание). Плюс остается возможность первыми залететь в индекс с какими-то страницами.
Я не считаю, что страницы с одним или двумя параметрами фильтра являются некачественными. У таких страниц к тегам в текст автоматом добавляются парметры фильтра, т.е. идентичных дублей с другими страницами нет. По ним нет особого спроса и трафика, но кто знает, что будет в будущем? Может они потом станут популярными. Или даже если не станут, то кто-то (пусть даже 2 человека в квартал) зайдёт на них и возможно купит что-то. Да и вообще, пусть видит поисковик, что у нас есть разные страницы фильтров с разными выбранными параметрами в пределах разумного – это же повышает вероятность удовлетворить запросы пользователя.
Еще большой плюс в том, что снимается большое объём работы по отслеживанию каких страниц, которые нужно открыть для полноценного индексирования и ранжирования поисковиком.
Кто прав в этой ситуации я или сеошники?