Size: a a a

Devaka Talk — Белое SEO

2020 November 21
Devaka Talk — Белое SEO
Ошибки в HTML-коде и SEO

Влияет ли наличие ошибок валидации HTML-кода на SEO?
Короткий ответ: it depends.

Поисковики не используют валидность кода каким либо образом у себя в алгоритмах.

Об этом говорил Мэтт Катс в 2013
https://youtu.be/j3KgrbiB1pc

Джон Мюллер в 2016
https://youtu.be/7Lku7mckTIg?t=3608

Джон Мюллер в 2020
https://youtu.be/0APf_IwEmZY?t=2522

Однако! Некоторые ошибки в коде могут создать сложности сканеру ПС корректно распознать ваш контент, технические теги или микроразметку. Либо иметь проблемы с рендерингом. Чаще всего это незакрытые атрибуты/теги или случайные теги, реже неверный синтаксис.

Если W3C валидатор показывает для ваших страниц много ошибок, то можно:
— Проверить корректность разметки данных с помощью инструмента Google
https://search.google.com/test/rich-results
— Проверить страницу через Search Console, что она доступна и удобна для мобильных.
— Проверить текстовую версию кеша. Все ли в него попадает и нет ли лишнего.
— Исправить ошибки. Это не так сложно, как кажется. Несмотря на то, что на SEO это может не повлиять, сайт станет более доступным для различных устройств.

#makeseogreatagain 32/100
источник
2020 November 22
Devaka Talk — Белое SEO
Важное дело на январь 2021
Сеошникам поставить напоминалку ⏰

Начиная с января 2021 один из ведущих мировых центров сертификации Let’s Encrypt переходит на собственные корневые сертификаты. ❌ Это значит, что все смартфоны с версией Android 7.1.1 и ниже перестанут поддерживать сертификаты, выданные центром.

То есть устройства признают недействительными все серверные сертификаты Let's Encrypt, и браузер будет постоянно сообщать о недоверенном сайте.

Людей с такими версиями Android в Google Play около 33,8% — довольно много. А сайтов с бесплатными сертификатами от Let's Encrypt в зоне .RU — 78%.

👉 Что делать веб-мастерам:
1. Оценить по данным аналитики, какое количество аудитории сайта пользуется старыми версиями Android.
2. Определить, стоит ли из-за этой доли пользователей переходить на другой платный сертификат.
3. Если стоит, то запланировать покупку на январь 2021.

Что думаете делать?
источник
2020 November 23
Devaka Talk — Белое SEO
Лучше 100 ссылок с так себе сайтов или 1 жирная ссылка, с трастового и тематического ресурса?

Сложный вопрос, так как иногда 100 сработают лучше, чем 1, а иногда одна лучше, чем 100. Полагаться на 1 ссылку, даже если она кажется жирной, не стоит. Лучше бюджет разделить так, чтобы получить несколько ссылок с нормальных сайтов, которые будут уместны для аудитории площадки, и которые помимо ссылочного веса дадут целевую аудиторию и, возможно, конверсии.

Вбухать весь бюджет на одну ссылку это очень рисковано.
Закупиться на все деньги шлаком - это другая рискованная крайность.
SEO это поиск оптимального решения.

Согласны?
источник
Devaka Talk — Белое SEO
​​🐸 Обновление Screaming Frog SEO Spider - версия 14.0

Команда Screaming Frog сообщила об обновлении SEO Spider до версии 14.0.  

Основные изменения:

📊 Экспорт данных в Google Таблицы
.

Появилась возможность добавить несколько аккаунтов Google и быстро экспортировать данные о сканированиях в любой из них. Полученные результаты появятся в папке "Screaming Frog SEO Spider" на Google Диске и будут доступны через Таблицы.

🌚 Темный режим.

Путь: Config > User Interface > Theme > Dark

🗄 Извлечение и хранение HTTP-заголовков.

Это может быть полезно при анализе различных сценариев, которые не охватываются извлечением заголовков по умолчанию, таких как сведения о состоянии кеширования, set-cookie, content-language и др. Путь: Config > Spider > Extraction и выбрать «HTTP Headers»

🍪 Извлечение и хранение файлов cookie.

Для их извлечения нужно пройти через путь: Config > Spider > Extraction, а затем выбрать «Cookies». Файлы будут показаны на вкладке «Cookies».

🌳 Агрегированная структура сайта.

SEO Spider теперь отображает количество URL-адресов, обнаруженных в каждом каталоге, в дереве каталогов (к которому можно получить доступ через значок дерева рядом с кнопкой «Export» на верхних вкладках).
Это помогает лучше понимать размер и архитектуру сайта.

⚙️ Новые параметры конфигурации.

«Ignore Non-Indexable URLs for On-Page Filters» (игнорировать неиндексируемые URL-адреса для фильтров на странице) и «Ignore Paginated URLs for Duplicate Filters» (игнорировать URL-адреса с разбивкой на страницы для повторяющихся фильтров).

Основная информация 👉 https://goo-gl.su/fm5FQZn
Полная информация в блоге Screaming Frog [ENG] 👉 https://goo-gl.su/gBPo
источник
2020 November 24
Devaka Talk — Белое SEO
Как узнать дату, с которой гугл ассоциирует страницу (может брать ее из разных источников).

1. Берем страницу. Например, вот эта полезная, но неясно, насколько актуальная статья, т.к. авторы не пишут дату
https://pixelplus.ru/samostoyatelno/stati/prodvizhenie-saytov/cheklist-seo-smi.html

2. Используем оператор before: в сочетании с оператором site:
Подбираем сначала нужный год, потом детализируем по месяцам и, если нужно, по дням.

site:страница before:2020 — страница в индексе
site:страница before:2019 — страница не в индексе

3. Находим, при какой дате нет результатов в выдаче
Простым способом находим, что дата статьи — 2 июля 2019

4. Профит!

UPD. В комментах более универсальный способ от подписчика.
источник
2020 November 25
Devaka Talk — Белое SEO
Devaka Digest #19 — свежая подборка полезных ссылок. Все, что накопилось полезного за карантин.

📊 Google Data Studio в SEO для новичков (Иван Палий)
https://bit.ly/3o7JdL5

🛠 Использование Chrome DevTools в SEO (Деми Мурыч)
https://bit.ly/3l3qOwM

📇 Schema.org своими руками: настраиваем микроразметку без программиста
https://bit.ly/2JaVWgV

🐍 Python-скрипты для автоматизации рутинных задач SEO-специалиста
https://bit.ly/362jOff

См. полный дайджест: https://devaka.ru/articles/digest-19

via @devakatalk #digest #дайджест
источник
2020 November 26
Devaka Talk — Белое SEO
Ссылка стоимостью $100

В 2007 году я продвигал один из своих проектов в бурже. С SEO тогда только начинал знакомиться, и трафик на сайт пытался получать другими разными способами.

Один из эффективных способов был — попадание в топ новостных лент.

На тот момент очень популярными web2.0 новостниками были Digg и Propeller. Можно было запостить туда свою "новость", и если она кому-то нравилась, то люди голосовали (ставили лайки) и при определенном стечении обстоятельств новость попадала на главную страницу, откуда получала все сливки. В день можно было привлечь на сайт 10-20к и более трафика. Главное, чтобы выдержал хостинг, т.к. такой трафик не распределяется равномерно на весь день.

Другой хорошей особенностью попадания в топ было — естественный перепост топ-новостей в другие издания. Мало кто знал, что лайки накручивают, поэтому топ-новости быстро распространялись по другим площадкам. За день можно было получить сотни обратных ссылок.

Говно-контент в топ, конечно же, не пускали. Если у такого контента появлялись лайки, его быстро банили, и те аккаунты, которые вносят погрешность в работу системы.

Так вот, вывести новость на главную стоило $100. Для меня это были большие деньги, так как проект приносил на тот момент не более $300 в месяц. Но я все же решился, и не пожалел. Потом заказывал подобные услуги повторно, так как затраты быстро окупались.

Мне понравились сами накрутчики, как это не странно. Так как они не берут те сайты, которые нереально накрутить, или за которые их забанят. Они консультируют, как сделать оптимально посадочную страницу, заголовок, чтобы только чуть-чуть "подбросить" сайт, а дальше сработает эффект вирусности. В то время я получил большой опыт оформления контента, понимания аудитории, а также окончательно понял, что все, что попадает в топовые новости или рекомендации в мире это результат и цель маркетинга. Топ гугла — не исключение. С того момента я стал подробней изучать SEO :)

Сейчас, из того что я вижу, оптимизаторы тратят деньги не туда. Ставят ссылки просто ради SEO и совсем не думают о пользователях и вирусности, чтобы получать качественные tier2/3-ссылки автоматом. Но если это окупается, то в целом норм.

Поделитесь в комментариях, сколько вы платите за ссылки? Это ваши кровные деньги или клиентские? Окупаются ли затраты?
источник
2020 November 27
Devaka Talk — Белое SEO
Куда потратить деньги на #blackfriday, если вера в магазины техники пропала. Конечно же на SEO софт и обучение!

SE Ranking
-30% на любую оплату до 2 дек.
https://seranking.ru/black-friday.html

Netpeak Spider, Checker, Owlymate
-60% на все планы до 4 дек
Промокод "Devaka-BFriday20"
https://netpeaksoftware.com/ru/buy

PR-CY
-40% на все тарифы Анализа сайта на месяц
Промокод "BLACKFRIDAY40" до 30 нояб
https://a.pr-cy.ru/promo/apply/BLACKFRIDAY40/

Wizard.Sape
Получение бонусных денег на счет
Промокод "BlackFriday_Devaka" до 15 дек
https://www.seowizard.ru/promocodes/

WebPromoExperts
-50% на все записи онлайн-семинаров и конференций до 30 нояб.
https://webpromoexperts.net/

sitechecker pro
-50% по коду blackfriday2020
https://sitechecker.pro/

Биржа eTXT
300 промобаллов на текстовые услуги
Промокод "eSPUTNIK"
https://www.etxt.ru/promo/

Megaindex
-50% скидки на всё
https://ru.megaindex.com/tarifs?utm_campaign=blackfriday2020

Depositphotos
100 изображений за $80 вместо $299 до 30 нояб.
https://ru.depositphotos.com/

eSputnik
-50% на товарные рекомендации
Промокод "esputnik friday"
https://esputnik.com/

Multisearch
Бесплатный доп. функционал для внутреннего поиска (стоимость без скидок $4150) для всех клиентов Enterprise
https://multisearch.io/blog/akciya-vse-i-srazu

Еще много скидок
Большая подборка от Андрея Буйлова
https://t.me/bez_seo/214

Скидки на зарубежные сервисы
Большая подборка от Мэтью Вудварда
https://internetmarketing.blackfriday

💡 Чего-то не хватает? Добавьте инфу о своих (или тех, которые вы знаете) скидках в комментариях.
источник
2020 November 28
Devaka Talk — Белое SEO
В начале нулевых в США из России переехал парень, которого звали Андрей Алиметов. Тогда он увлекался изучением JavaScript и для практики создал сайт, который выводил в режиме реального времени население планеты. Просто взял цифру роста за год, разделил на число секунд, и эта информация обновлялась на странице. Ничего сложного. Зато этот сайт через 16 лет станет одним из самых посещаемых ресурсов в мире (28 место в рейтинге Алексы на апрель 2020) - https://www.worldometers.info/

Но не спешите радоваться за парня, пока не прочитаете историю до конца

Вскоре после запуска (в 2004 году) сайт заметили на Digg, что привело к скачку  посещаемости. Конечно, не такому, как за последний год, но достаточному, чтобы Андрею предложили купить ресурс за 2000 долларов... И тот согласился

Новым владельцем стал парень по имени Дарио. Как позже признавался, он купил сайт только из-за его траста в глазах Google, чтобы поставить обратные ссылки (PageRank тогда был 6). Со временем Дарио решил все же взяться за проект. Появился раздел со статистикой потерь США в иракской войне.

В 2007 году на сайте появляется информация, что он находится под управлением некого Сэра Томассона, в 2009 указано было, что это часть “Real Time Statistics Project”, теперь же все старые имена удалили и во владельцах стоит компания Dadax. Фирм с таким названием есть две - шанхайская Dadax и америкаская Dadax LLC, директором второй которой когда-то был Дарио Паскалино. Человек с таким же именем выкупал ресурс за 2000 долларов.

Никаких точных владельцев сейчас никто не знает, владельцы не дают интервью и нигде себя не афишируют. Тем временем, посещаемость worldometers сейчас хотя и упала с апрельских значений, но до сих пор превышает 200 млн человек за месяц.

Из монетазиции стоит Adsense, а также продажа статистических данных. При нынешних показателях на контексте сайт заработал $150-400К за октябрь. Весной же цифры могли доходить до $1 млн за месяц с AdSense

P.S. Что касается Андрея Алиметова, то он сейчас работает менеджером в журнальном издательстве
источник
2020 November 30
Devaka Talk — Белое SEO
Очень сложно в коммерческой тематике удовлетворить поисковик с помощью анкора ссылки.

Какой вариант из картинки вы бы выбрали? Или сделали бы совсем по-другому? Почему?
источник
Devaka Talk — Белое SEO
В кои-то веки открыл личку на сёрче, есть неотвеченные сообщения с 2016 года 😬 Последний вопрос пришел в январе. Надеюсь, парень все же нашел ответ... и завел телеграм-канал вместо блога.
источник
2020 December 01
Devaka Talk — Белое SEO
Классные каналы, которые я обнаружил недавно. Возможно, и вам кто-то понравится.

@productseo — продуктовое SEO от Владислава Моргуна.

@seokorobka — канал Олеси Коробки

@gelo_seo — канал Олега Саламахи, создателя Serpstat

@shkolaseo — Школа SEO от Артема Пилипца, лучшего SEO-ютубера для новичков

@pavlutskiy — канал Александра Павлцкого

В ближайшее время всех добавлю в общий список
https://devaka.ru/articles/telegram-seo
Если будут предложения по другим каналам - пишите в комментариях.
источник
Devaka Talk — Белое SEO
​​Коллеги нашли новинку от Яндекса – Объявления!

Готовят убийцу Авито?

Хотя вот есть Яндекс.Недвижимость, но это какая-то немодерируемая свалка с кучей неактуальных и ненастоящих объявлений. Авито, Циан, Домофонд тоже не идеальный и имеют достаточно проблем, но все же это намного лучше сервиса от Яндекса.

Не думаю, что им удастся подвинуть Авито, ведь тут будет недостаточно даже всего того трафика, которые можно отжимать из выдачи и перенаправлять к себе.

В любом случае посмотрим, а пока что это действительно новинка, сайт почти пустой:
https://o.yandex.ru/moskva/ - 4 страницы объявлений.
https://o.yandex.ru/krasnodar/ - вообще всего 2 товара.

Что думаете?
источник
2020 December 02
Devaka Talk — Белое SEO
Google опубликовал в справке руководство по управлению краулинговым бюджетом
https://support.google.com/webmasters/answer/9689511?hl=ru

Краулинговый бюджет актуален для очень больших и часто обновляемых сайтов. Скажем, более 10к уникальных страниц и ежедневно меняющийся контент.

— Googlebot сканирует сайты так, чтобы не перегружать серверы. На скорость влияет в основном время ответа сервера.

— На время сканирования влияет размер сайта, его популярность, периодичность обновления контента и качество (уникальность) страниц.

— Если на сайте есть дублирующиеся урлы, то лучше закрывать их от сканирования, чтобы робот это время потратил на обнаружение более ценных страниц.

— Более посещаемые страницы сканируются чаще.

Чеклист от гугла:
• Управляйте страницами на сайте. Удаляйте ненужное, отдавайте 404 код ответа.
• Закрывайте неважное, избавьтесь от дублей и цепочек редиректов.
• Вовремя обновляйте сайтмап.
• Оптимизируйте страницы, чтобы они загружались быстрее.
• Проверяйте, как сканируется ваш сайт и думайте, что еще можно сделать.

Плюс еще много полезной информации на русском.
источник
2020 December 03
Devaka Talk — Белое SEO
Google опубликовал ответы на часто задаваемые вопросы по Core Web Vitals. Пока что на английском.
https://support.google.com/webmasters/thread/86521401?hl=en

— Что за метрики и почему гугл рекомендует их оптимизировать?
— Что на счет AMP страниц? Можно ли обойтись без AMP?
— Что если я использую PWA и SPA?
— Как так получается, что сайт мобилопригоден, но показатели Core Web Vitals плохие?
— Почему такая разница между показателями для мобайла и десктопа?
— Влияет ли это на ранжирование?
и др.

UPD. Уже есть перевод на сёрче:
https://searchengines.guru/ru/articles/2049630
источник
Devaka Talk — Белое SEO
Как подготовить сайт к Yati, инструкция от Мегаиндекс
https://ru.megaindex.com/blog/yandex-yati-seo

Недавно Яндекс заявил о внедрении нейросетевой архитектуры Yet Another Transformer with Improvements для ранжирования результатов поисковой выдачи. Благодаря технологии поиск Яндекса научился лучше оценивать смысловую связь между запросами пользователей и содержанием документов. Система анализирует разные блоки текста на странице сайта. Задача заключается в анализе соответствия смысла запроса и смысла текста на странице.

Алгоритм способен:
— Анализировать как короткое содержание, так очень длинные тексты;
— Определять самые значимые фрагменты текста на странице сайта;
— Учитывать порядок слов, и учитывать контекст. Важно, например, при поиске билетов.

Что рекомендуется делать оптимизаторам?
— Заняться повышением качества текстов. Учитывать похожие поисковые запросы и стримы;
— Поделить страницу на секции, так чтобы у модели или у сегментатора было больше очевидных структурных признаков, которые можно использовать при анализе.

Технология похожа на гугловский BERT. Как и "Палех" с "Королевым", но те повлияли на поиск меньше, чем YATI.

Если выключить все тысячи факторов ранжирования, но оставить новую модель YATI, то качество ранжирования по основной офлайн-метрике упадёт лишь на 4-5%. По заявлению Яндекса.
источник
Devaka Talk — Белое SEO
источник
2020 December 04
Devaka Talk — Белое SEO
История бывшего сеошника, Джахангира Латыпова
https://fb.com/jonick9414/posts/4125981287487882

"Как я продал сайт за $4200 почти 7 лет назад

Тогда я занимался SEO — продвижением в поисковых системах Google & Yandex

В те времена социальные сети не имели такого веса и трафика, как сейчас. Чтобы вы понимали — тогда люди не хотели выставлять свои фото в интернете. Это казалось чем-то диким, но а сейчас это уже норма и скорее странно — если у тебя в профиле нет живых фото.

Так вот, тогда интернет возглавляли поисковые системы. Потому что весь трафик шёл на сайты только через них. Хочешь, чтобы твой сайт посещали люди? Будь добр, угоди поисковым системам и изучи их алгоритмы, дабы пробиться в топы по трафик-запросам.

В те времена я продвинул свой первый трафиковый проект под Россию, живя в Узбекистане. Назывался он allmakiyazh.ru - Сайт о макияже.

Думаете, я разбирался в макияже? Нифига 😂 Я просто понимал алгоритмы поисковых систем и делал так, чтобы они мой сайт любили. А люди, которые туда заходят, получали полезную информацию. Спустя полгода я продал этот проект, который не имел ещё дохода, за 163.000 рублей. Напомню, что 1$ был равен 28 рублям. Это примерно $4200 на то время.

Я бы не продал, просто деньги были нужны.

Сейчас этот сайт не работает, единственное доказательство — это сделка на бирже, которая выступала гарантом при продаже.

К чему это я?

На смену поисковым системам пришли социальные сети. Основной трафик людей сейчас в них, и для того, чтобы с ним работать - так же нужно уметь работать с искусственным интеллектом, а искусственный интеллект строится на алгоритмах. А алгоритмы социальных сетей взяты из поисковых систем. Они почти похожие. Вы думаете, такой алгоритм как «Средняя длительность просмотра зрителя» изобрёл YOUTUBE? Не-а, он уже работал в поисковых алгоритмах Google 7 лет назад.

Все меняется в этой жизни. Вчера владельцем основного трафика были поисковые агрегаторы, а сегодня — социальные сети. В любой момент может произойти тектонический сдвиг и все может поменяться.

Я переехал в Москву
Ну и рубль в три раза подешевел 😂"
источник
Devaka Talk — Белое SEO
С момента внедрения закона DMCA прошло больше 20 лет и с того времени многое изменилось. Сенат США обсуждает возможные обновления. Не расслабляйтесь!

https://searchengines.guru/ru/news/2049658
источник
2020 December 05
Devaka Talk — Белое SEO
В последние недели в вебмастерких чатах активно обсуждается тема нагона ботов на сайты.
Новость на Серче: https://searchengines.guru/ru/articles/2049534

Проблема была поднята мной еще весной (https://www.facebook.com/amirhanov/posts/10223270839186378), но только в октябре-ноябре она стала действительно массовой, затронув почти всех.

Если вы давно не заглядывали в Метрику своего сайта, то сейчас самое время. Скорее всего, этой осенью у вас тоже произошел резкий всплеск якобы переходов из социальных сетей и прямых переходов. Лично у наших проектов проблема наблюдается везде, где была более-менее нормальная посещаемость.

Яндекс.Метрика с трудом распознает ботов, если судить по отчету "Роботы" (https://yandex.ru/support/metrica/reports/robots.html).

Есть сообщения от вебмастеров о снижении посещаемости. Но лично я пока к таким новостям отношусь скептически, т.к. те источники, что мне встречались, вызывали вопросы. Явных примеров я пока не видел. А снижение сейчас происходит у большинства вебмастерских сайтов и проблема вовсе не в ботах, а, например, в агрессивном продвижении Яндексом собственных продуктов (Дзен, Кью и т.д.).

Но в то же время есть вполне подтвержденные данные о бане сайтов вебмастеров за некачественный трафик на РСЯ (https://vc.ru/claim/183117-yandeks-zablokiroval-akkaunt-rsya-i-prisvoil-sebe-dengi-za-11-2020-951tys-rubley). Проблема в том, что эмулируя поведение обычных пользователей, боты периодически кликают на рекламу, не совершая на сайте-рекламодателе конверсий. И судя по всему, пока Яндекс в данной ситуации принимает позицию "я ничего не хочу знать", утверждая, что решение по бану аккаунтов вебмастеров в РСЯ пересмотру не подлежит.

Фактически это означает следующее: если вы зарабатываете в РСЯ, то присутствует повышенная вероятность бана аккаунта в ближайшие недели/месяцы. Судя по первым сообщениям от коллег: чем больше показов привлекаете в РСЯ - тем выше вероятность бана.  

Что делать с рекламой из РСЯ?
Пока самое эффективное решение - отображать рекламные блоки только пользователям из поисковых систем. Некоторые известные плагины для вывода рекламы на сайтах имеют соответствующие настройки.

А что с рекламой Adsense?
Пока все спокойно. Кажется, Google эффективнее фильтрует ботовый трафик в Адсенсе. Доход за недействительные клики просто списывает с баланса. Но подозреваю, что все равно изрядная доля ботовых кликов засчитывается.

Что это за боты такие?
Сейчас почти все, кто мониторит ситуацию, уверены, что речь идет о так называемом "нагуле профилей". Боты создают себе легенду настоящего пользователя, периодически эмулируя, что посещают различные сайты, кликают по внутренним ссылкам, вводят случайные поисковые запросы. Таким образом идет "прогрев" ботовых аккаунтов с целью дальнейшего их использования для накрутки определенных сайтов через поведенческие факторы. И именно по причине такой маскировки (а также использованию мобильных прокси и, вероятно, других ухищрений) поисковые системы испытывают трудности в выявлении ботового трафика.
источник