Size: a a a

SEO БУРЖ chat

2019 November 08

А

Алексей in SEO БУРЖ chat
не знал, что кто-то считает тексты в символах
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
Алексей
не знал, что кто-то считает тексты в символах
а в чем?
источник

А

Алексей in SEO БУРЖ chat
в словах
источник

А

Алексей in SEO БУРЖ chat
а по поводу того, сработает ли - ну хз. а что по бэклинкам страниц у конкурентов, по общему трасту сайта?
источник

А

Алексей in SEO БУРЖ chat
в коммерческих запросах вроде портянки большие не сильно работают, ну в моей нише точно
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
Алексей
а по поводу того, сработает ли - ну хз. а что по бэклинкам страниц у конкурентов, по общему трасту сайта?
2-3 беклинки dofollow в среднем
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
DR максимум 5-10
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
просто думаю можно ли как то их обогнать без беклинок качеством сайта + внутрянкой
источник

YP

Yurii Polishchuk in SEO БУРЖ chat
Олег Шварновський
просто думаю можно ли как то их обогнать без беклинок качеством сайта + внутрянкой
Ага, поставить себе сео амулет от Деваки . А если серьезно, то без внешних сигналов сложно сотворит чудо, хотя бы пару ссылок с трастовых сайтов я бы все таки прикупил ( на главную страницу так точно)
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
Yurii Polishchuk
Ага, поставить себе сео амулет от Деваки . А если серьезно, то без внешних сигналов сложно сотворит чудо, хотя бы пару ссылок с трастовых сайтов я бы все таки прикупил ( на главную страницу так точно)
не ну я понимаю, но 2-3 ссылки ето как по мне вообще ничего, плюс в них сайты почти не опимизированы
источник

YP

Yurii Polishchuk in SEO БУРЖ chat
Олег Шварновський
не ну я понимаю, но 2-3 ссылки ето как по мне вообще ничего, плюс в них сайты почти не опимизированы
Можно конечно сидеть и ждать топа, но ссылки все таки ускорили процесс (не говорю много ссылок, пару и безанкорных)
источник

ОШ

Олег Шварновський in SEO БУРЖ chat
Yurii Polishchuk
Можно конечно сидеть и ждать топа, но ссылки все таки ускорили процесс (не говорю много ссылок, пару и безанкорных)
понял, буду тестить, есть 2 сайта одной тематики точь в точь, и под один город, посмотрю что лучше работает
источник

A

Atommal in SEO БУРЖ chat
#вопрос по большому количеству 404. Есть проект возрастом год+, в конце августа мы вылили полностью новую версию (новая структура URL и новая логика работы). Почему нужно было переделать - вдаваться в детали не стану, чтобы не грузить, но это было необходимо (система завязана на статистических данных, автообновлении от разных АПИ других плюшках).
На то время было в индексе около 15К страниц, мы средиректили примерно 5% от этих страниц (у которых был какой-то траф или ссылки) на новые похожие, а на все остальные забили (да и подходящих документов для редиректа небыло).
После выливки новой версии в августе изначально было около 1000 страниц, на данный момент порядка тех же 15К. Внутрянка вылизана, скорость сайта тоже, есть автообновляемые сайтмапы всех новых страниц и гугл очень быстро индексирует контент.
Но проблема, что также в индексе до сих пор туча старых страниц. При запросе например с оператором site:XXXX сразу на второй странице есть документы, которые по факту уже давно 404-е а в выдаче все еще стрый тайтл и снипет. На такие страницы также есть заходы (т.е. % отказов соответствующий).
Все бы хорошо, но до выливки проект показывал рост, сейчас просто константный трафик, даже чуть падение (работы по внешнему фронту ведутся постоянно).
Если прикинуть на глаз, то в выдаче сих пор висит около 30% 404 страниц (со старыми мета).
Поэтому и начал смотреть в эту сторону, так как роста нет, а прошло уже пару меяцев и вроде как все "устаканилось".

Что я думал сделать:
- Собрать все эти старые страницы (такая возможность есть) и создать из них sitemap-404 который в консоли скормить гуглу
- Через время в robots для надежности прописать регулярки и закрыть для индексации такие страницы (так как структуру URL мы немного изменили, то есть возможность парой команд закрыть все такие страницы)
- На счет инструмента удаления страниц в консоли есть сомнения - читал справку и там написано, что "для таких целей его не используйте, так как если у страниц 404 статус, то она сама пропадет”, но на практике такого не видно.

Да, Гугл говорит, что “404 - это не страшно”, но все же, кто-то с чем-то подобным сталкивался, что можно сделать?
Спасибо за советы.
источник

s

shmeo in SEO БУРЖ chat
кто смотрит Nazapad? https://www.youtube.com/watch?v=Dh937DtA6Vk
источник

s

shmeo in SEO БУРЖ chat
если кто-то пропустил, то Сергей уже сделал саммари
источник

s

shmeo in SEO БУРЖ chat
SEO фристайл от Димы Бондаря.

1. Какие пузомерки используешь при выборе ниши?
В первую очередь смотрю на сайты, и как они себя ведут в выдаче. Также, смотрю на возраст сайтов, стоимость разработки... потом уже смотрится вся сеошка.

2. Ты принял решение работать в какой-то нише. Какой следующий шаг?
Набрать максимально инфы, которая есть на рынке на этой нише. Если есть возможность крутить адвордс - буду крутить адвордс, даже если в минус, чтобы прощупать нишу. Везде есть свои особенности.

3. Ок, как ты дальше ресерчишь ключи?
К сожалению, никто пока не придумал инструмента, который делает структуру сайта. Наш ресерч должен закончиться урлами, на которых какие-то ключи. Обычно я смотрю конкурентов, выпаршиваю и смотрю, сколько у них контента, насколько он качественный... Прикидываю категории, и затем уже смотрю на ключи, исходя из интента. Когда ты знаешь интент, ты уже можешь набрасывать слова.

Devaka: Интересное наблюдение: в Рунете сначала анализируют ключи, кластеризируют и на основе этого создают структуру сайта. На Западе наоборот, сначала создают структуру, а потом под нее подбирают ключи.

4. Как определить, почему конкуренты в ТОПе? Если смотреть ссылки, например, ты видишь 30% крауд и 70% аутрич, что это тебе дает?
Сначала надо посмотреть на кол-во, так как при 200 и 2000 будут разные подходы и бюджеты. Также смотрю на динамику, 3 года человек ставил ссылки или пару месяцев? Нужно учитывать, что Ahrefs показывает не все ссылки (от 30 до 70% не все), в некоторых случаях цифры из Ahrefs нужно умножать на 3.

5. Сколько сеошник должен работать до результата?
Долго. У нас раньше была метрика, если сеошник за 8 мес. ничего не добился, значит он плохой сеошник. Сейчас я оцениваю по конкретным задачам, например, как он создал контент, так как иногда Google может не пускать в топ. Ну и обычно смотрю через 4-5 мес.

Проблемы у всех людей одинаковые: ты либо не работаешь, либо не соображаешь. Я не знаю, в чем причина.

6. Какое соотношение основного и рекламного контента должно быть на сайте?
Когда вы решаете сеошную задачу, ставьте себя на место пользователя. Вы должны решить проблему юзера так или иначе. Смотрите топ3 и анализируйте, какое решение уже есть. По поводу рекламы, вы не должны отбаунсить юзера обратно.

7. Как палить сетки сайтов в Ahrefs?
В Ahrefs не получится. Есть миллион краулеров, вам нужно взять непопулярный, желательно побольше, и результаты свести в одну таблицу.

8. Как выйти из YMYL фильтра?
Google миллион раз уже описал, что делать. Контент у вас должен быть трастовый. Подтверждайте авторитет своего контента. В Рунете очень много говно-контента. Если ты не специалист, и не можешь отличить годный контент от не годного, это проблема.

9. Как боритесь с канибализацией контента?
Берешь GWT и смотришь по своим ключам, какие страницы показываются. Если показываются не те страницы, то есть проблема.

10. Как измеряете вес ссылки?
Никак не измеряем. Не понимаю, зачем его вообще измерять.

Как правильно заметили в комментариях, под Boosta надо делать отдельный день конференции. Вопросов очень много, а время сегодня ограничено.

Инсайт от Вити Карпенко: Ссылки нужно не покупать, а добывать! :)
источник

o

outside observer in SEO БУРЖ chat
Atommal
#вопрос по большому количеству 404. Есть проект возрастом год+, в конце августа мы вылили полностью новую версию (новая структура URL и новая логика работы). Почему нужно было переделать - вдаваться в детали не стану, чтобы не грузить, но это было необходимо (система завязана на статистических данных, автообновлении от разных АПИ других плюшках).
На то время было в индексе около 15К страниц, мы средиректили примерно 5% от этих страниц (у которых был какой-то траф или ссылки) на новые похожие, а на все остальные забили (да и подходящих документов для редиректа небыло).
После выливки новой версии в августе изначально было около 1000 страниц, на данный момент порядка тех же 15К. Внутрянка вылизана, скорость сайта тоже, есть автообновляемые сайтмапы всех новых страниц и гугл очень быстро индексирует контент.
Но проблема, что также в индексе до сих пор туча старых страниц. При запросе например с оператором site:XXXX сразу на второй странице есть документы, которые по факту уже давно 404-е а в выдаче все еще стрый тайтл и снипет. На такие страницы также есть заходы (т.е. % отказов соответствующий).
Все бы хорошо, но до выливки проект показывал рост, сейчас просто константный трафик, даже чуть падение (работы по внешнему фронту ведутся постоянно).
Если прикинуть на глаз, то в выдаче сих пор висит около 30% 404 страниц (со старыми мета).
Поэтому и начал смотреть в эту сторону, так как роста нет, а прошло уже пару меяцев и вроде как все "устаканилось".

Что я думал сделать:
- Собрать все эти старые страницы (такая возможность есть) и создать из них sitemap-404 который в консоли скормить гуглу
- Через время в robots для надежности прописать регулярки и закрыть для индексации такие страницы (так как структуру URL мы немного изменили, то есть возможность парой команд закрыть все такие страницы)
- На счет инструмента удаления страниц в консоли есть сомнения - читал справку и там написано, что "для таких целей его не используйте, так как если у страниц 404 статус, то она сама пропадет”, но на практике такого не видно.

Да, Гугл говорит, что “404 - это не страшно”, но все же, кто-то с чем-то подобным сталкивался, что можно сделать?
Спасибо за советы.
Средиректить все 404-ые страницы на главную?
источник

A

Atommal in SEO БУРЖ chat
outside observer
Средиректить все 404-ые страницы на главную?
ДУмал, не нравится это решение. Все таки это не PBNка, а большой продуктник, экспериментировать на нем не очень хочется. Тысячи редиректов на главную... Тем более все базовые каноны пишут "если документа нет - давай 404 или редирект на новый адрес расположения документа", но на главной этого контента нет, т.е. и редиректить туда не стоит.
Хотя, может у кого был опыт в таком и что было после?)
источник

o

outside observer in SEO БУРЖ chat
Atommal
ДУмал, не нравится это решение. Все таки это не PBNка, а большой продуктник, экспериментировать на нем не очень хочется. Тысячи редиректов на главную... Тем более все базовые каноны пишут "если документа нет - давай 404 или редирект на новый адрес расположения документа", но на главной этого контента нет, т.е. и редиректить туда не стоит.
Хотя, может у кого был опыт в таком и что было после?)
если боишься, возьми часть 404-ых страниц
штук 100
средиректи, посмотри за динамикой недели 2
потом делай выводы)
источник

A

Atommal in SEO БУРЖ chat
outside observer
если боишься, возьми часть 404-ых страниц
штук 100
средиректи, посмотри за динамикой недели 2
потом делай выводы)
Может так и сделаю. А вариант скормить карту сайта с 404ми?
источник