Size: a a a

SEO chat 🏠👨🏻‍💻

2020 September 01

IP

Ilya Perevalov in SEO chat 🏠👨🏻‍💻
Daniil Eiri
Яндекс вообще меня расстроил.  Написал красивый дескрипшен для главной, в гугл все ок, в яндексе подгрузил какие то обрубки текста где часть jsом должна подгружаться. Зачем придумывать велосипед..
попробуй вместо обрубков текста написать свой дескрипшн прям на странице, по идее яндекс должен подставить его
источник

DE

Daniil Eiri in SEO chat 🏠👨🏻‍💻
Ilya Perevalov
попробуй вместо обрубков текста написать свой дескрипшн прям на странице, по идее яндекс должен подставить его
ну такое) попробую конечно
источник

S

Seo in SEO chat 🏠👨🏻‍💻
Скорее всего идет речь о таком отображении выдачи (статьи)
источник

A

Artiom in SEO chat 🏠👨🏻‍💻
Seo
Скорее всего идет речь о таком отображении выдачи (статьи)
вы имеете в виду "Статьи АМП"?
источник

S

Seo in SEO chat 🏠👨🏻‍💻
Да
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Всем привет. Подскажите, пожалуйста,  в Яндексе появились дубли главной вида site..ru/?p=xxxx.  В этом случае Clean-param  в роботсе будет просто p?
источник

А

Александр in SEO chat 🏠👨🏻‍💻
Лучше через метатег данный динамический параметр закрыть от индекса, чем через robots
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Александр
Лучше через метатег данный динамический параметр закрыть от индекса, чем через robots
Через noindex/nofollow?
источник

А

Александр in SEO chat 🏠👨🏻‍💻
+
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Просто дело в том, что я не знаю откуда взялись эти дубли.  Фрог и паук не видит этих страниц, соответсвенно прописать им тег не получится
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Гугл их тоже не видит
источник

А

Александр in SEO chat 🏠👨🏻‍💻
У меня тоже было такое, что не выгружало таких страниц, но в вебмастере такие дубли были. Делал ТЗ прогеру и он закрывал их от индекса.
источник

КБ

Катя Бондаренко... in SEO chat 🏠👨🏻‍💻
Александр
Лучше через метатег данный динамический параметр закрыть от индекса, чем через robots
а почему через роботс хуже? Я бы через роботс.тхт закрыла да и всё
источник

КБ

Катя Бондаренко... in SEO chat 🏠👨🏻‍💻
интересно ваше мнение
источник

А

Александр in SEO chat 🏠👨🏻‍💻
Бывало такое, что когда закрываешь через роботс дин. параметры, они всё ровно попадали в выдачу. Когда закрывал через метатег - не попадали.
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Александр
У меня тоже было такое, что не выгружало таких страниц, но в вебмастере такие дубли были. Делал ТЗ прогеру и он закрывал их от индекса.
То чувство, когда ты вроде как сам им и являешься) ладно, спасибо большое, буду копаться, если что через роботс закрою и буду смотреть. Ну а вообще для site..ru/?p=xxx Clean-param: p, верно? Не будут другие урлы с таким параметром блочиться?
источник

А

Александр in SEO chat 🏠👨🏻‍💻
Верно. Думаю, может блочиться.
источник

AI

Alex Ivanov in SEO chat 🏠👨🏻‍💻
Александр
Верно. Думаю, может блочиться.
Спасибо
источник

А

Александр in SEO chat 🏠👨🏻‍💻
Не за что
источник

АЕ

Аркадий Евдокимов... in SEO chat 🏠👨🏻‍💻
Alex Ivanov
Просто дело в том, что я не знаю откуда взялись эти дубли.  Фрог и паук не видит этих страниц, соответсвенно прописать им тег не получится
Могу ошибаться, но у вас не Вордпресс ли?
источник