Резкий спад может случиться с каждым сайтом даже самым авторитетным, особенно отчетливо факт снижения посещаемости отражает график. Хотя это неприятная ситуация, но разбираться все-таки надо: сначала найти причины, после думать, как их устранить. Какие есть варианты?
Ищем помощи в статистике Google Search Console
Сервисы Гугл имеют привычку общаться с пользователями посредством электронных сообщений. Поэтому в первую очередь проверяют аккаунт на наличие новых уведомлений. В них владельцев могут оповестить о произошедших нарушениях, например, таких:
- сомнительные ссылки;
- нерелевантный контент;
- спамная микроразметка (к примеру, завышенная «звездочная» оценка товара в ИМ).
Система работает на фильтрах, поэтому согласно им, могут быть и другие сообщения, оповещающие о нарушении еще каких-то нормативов. Наличие уведомлений существенно облегчить работу сеошника, поскольку причина выясниться сразу. Что исправлять тоже ясно.
Блокировка ссылок: поисковику это не всегда нравится
Например, если сайт попал под санкции алгоритма Google Penguin, надо сделать следующее:
- Проанализировать ссылки, определить и собрать плохие в документ Google Disawov.
- Выгрузить файл.
- Сделать запрос по факту собранных ссылок и уточнений к ним.
- Ждать ответа.
- Процесс может повториться неоднократно.
Параллельно с этим можно продолжать работу над обратными ссылками. Эти исправления могут занять до месяца. Но этот алгоритм работает в ручном и автоматическом режимах. Для первого случая сообщения приходят; во втором, как повезет.
Закрыли сайт от индексации по ошибке
Человеческий фактор нередко становится причиной спада трафика. Наиболее распространенная ошибка – закрытие ресурса в файле robots.txt от индексации. Падение трафика не заставляет себя ждать, есть примеры, когда терялись миллионы уникальных посещений. Что по уже отчетливо установленным причинам, было внутренней ошибкой разработчиков.
Для таких внештатных ситуаций требуется постоянный мониторинг основных показателей сайта. Нужен инструмент, который бы не только следил, но также фиксировал значимые параметры.
Проверить наличие указанной ошибки просто. На это уйдет несколько секунд. В адресной строке набрать имя домена/robots.txt. Появится надпись следующего содержания:
User-agent: *
Disallow: «здесь будет стоять текст, который позволяет индексировать страницу/сайт или нет»
Вебмастера от Гугл и Яндекса помогут решить возникшую проблему.
Сканирование сайта на предмет внутренних ошибок
Технический аудит посредством Screaming Frog SEO Spider – еще один инструмент, который позволит пролить свет на причину проседания трафика. Приложение есть в свободном и платном доступе. Оба варианта мало, чем различимы.
Сканирование сайта в папке Summary покажет основные баги. Тщательно и первоочередно надо проверить следующее:
- появление «не ваших» внутренних ссылок;
- наличие основных тегов;
- протоколы страниц.
В списке ошибок появятся и другие варианты, их тоже проверяют на способность влиять на индексацию сайта. Для более детального понимания, стоит ознакомиться с темой пошагового технического аудита, который проводит предлагаемый сервис.
Google Analytics: проверка временных интервалов
При помощи этого инструмента определяют страницы, по которым произошло падение трафика. Анализируют их, разрабатывают комплекс мер для устранения. К сравнению берутся следующие временные интервалы:
- период, когда началось снижение посещаемости до текущего момента или предшествующего минимума;
- похожий отрезок накануне обвала.
Результаты высветятся в процентах. Страницы, тянущие сайт на дно, будут отчетливо видны. Причины могут оставаться невыясненными до конца, однако видно с какими страницами необходимо работать. Иногда случаются ошибки самого Гугл. Такие прецеденты имели место.
В продолжение предшествующей темы
Если отслеживать ежедневно позиции сайта в поисковых системах, трудно пропустить ухудшение ранжирования. Проверка мест в SERP четко визуализируется поисковиком: разнонаправленные красные и зеленые стрелочки с пометкой +/- и рядом цифрой. Интуитивно понятно, что больший плюс – это хорошо, если минус – плохо.
В таких ситуациях проверяют группы запросов. Если из самого поисковика некоторые из них удалены, то трафик по ним сокращается. Это кропотливая работа, но для поднятия сайта ее придется проделать.
Парсинг в процессе поиска причин
Видимо стоило упомянуть ранее, что доступность и индексация сайта – это 2 основополагающих фактора, изменения в которых ведет к колебаниям трафика. Сайт недоступен по каким-то причинам (неуплата, ошибки) – посещаемости нет; то же самое происходит, когда страницы вдруг теряют индексацию.
Сегодня в сети достаточно много инструментов, позволяющих отслеживать трафик не только ежеминутно, но и с точностью до сотых процента. Как вариант используют следующий прием: внесение в html-код страниц отслеживание изменений с уведомлением на почту, если наблюдаются отклонения в интересующем диапазоне (10-15%, 20%; только вверх или вниз; в обоих направлениях). Тогда приступить к действиям получится достаточно быстро, чтобы не уйти в большой минус.
Причем сегодня парсят не только сайты, страницы, их индексацию. Но параллельно с этим ключевые запросы, ссылки, прочие материалы. Опять же, если идет работа с одним сайтом, просматривать результаты удобно в ручном режиме. Когда на обслуживании десятки, а то сотни сайтов – лучше все делать в автоматически с уведомлениями на почту или другом удобном сервисе.
Причина может крыться в неполадках на сервере
Случаются и критические совпадения, когда упал сервер одновременно с попыткой Google Bot посетить сайт. Отстраниться этой проблемы можно также с помощью сервисов в интернете. Montastic, Бинокль, Site Tracker и другие будут собирать данные об uptime сайта. Они могут выдавать результаты с определенной периодичностью. В автоматических настройках есть функционал, позволяющий получать уведомление на почту об недоступности сайта.
Кроме трех перечисленных сервисов есть еще не менее десятка ресурсов, предоставляющих подобные услуги.
Доступность сайта также теряется, если как-то неправильно DNS. Ситуация точно такая же, как сервером. Поэтому здесь одна рекомендация на оба случая. Мониторинг доступности в реальном времени и вести запись истории.
Уникальность или спамность контента: причина падения трафика
Google и Яндекс принялись бороться за честный и чистый контент. Изменения в регламенты поисковиков вносятся довольно часто. При этом обе системы проявляют направленность к улучшению контента: статейного, медийного.
Одним из требований становится обязательная уникальность текста. Проверить ее можно с помощью инструментов копирайтинга. Биржевые боты, сервисы на текст.ру, адвего, Content Watch. Проверяющие системы имеют принципиально разные алгоритмы. Поэтому иногда текст имеет 100% уникальности в одной и всего 80% в другой. Когда возникает необходимость проводить тестирование разными сервисами. Стоит делать скидку на погрешности, но придерживаться оценки не ниже 85% в любом из них.
Чтобы защититься от копипаста можно использовать защиту DMCA. Также с помощью тега <iframe> запрещают копировать фрагменты контента и размещать на других доменах. Но можно и полностью заблокировать публикации копии даже на том же домене. Некоторые владельцы сайтов используют premium copyscape на предмет появления плагиата.
Ссылки: обратные и с PBN
Когда сайт активно продвигается по ВЧ запросам, имеет много конкурентов и уверенно претендует на ТОП-3, есть чего опасаться. Черный пиар просачивается самым неожиданным способом, например, посредством гиперссылок на ресурс. При этом порталы, размещающие у себя «рекламное» промо, либо обладают низкой репутацией или дают информацию о конкуренте, как о сайте для взрослых. Размещение подобных ссылок необходимо отслеживать и блокировать в момент появления. Для этого удобно применить Google Disawov Tool.
Если же ссылки берутся с PBN надо отслеживать индексацию сети, а также адреса откуда они идут. Даже авторитетные сайты иногда падают, поэтому лучше иметь отчет по таким фактам и вовремя отключать ссылки.
Поведенческий фактор: искусственный и органический
«На войне все средства хороши», к сожалению, это касается и бизнеса. Поисковик пока не может отличать: пришел на сайт настоящий клиент или «заказной». Понизить ранжирование портала - проще, чем подменить улики в суде. Если сделать заказ на одном из сайтов с заданиями, можно достичь разных результатов.
Примером, нечистой игры конкурентов выступает следующая схема:
- посетить указанный сайт;
- выразить свое недовольство любым удобным способом (в том числе и негатив написать);
- перейти на сайт конкурентов и остаться всем довольным (вплоть до покупки).
Даже, если лично владельцу сайта поведенческий фактор мало интересен, Google пока еще на него реагирует. Чтобы защититься от подобного следует изучать хотя бы азы SERM (комплексная система для поднятия репутации и рейтинга в сети).
Кратко итоги и выводы
Причин для падения трафика гораздо больше, чем указано в статье. Однако основные подходы к устранению этой проблемы имеют общие черты: постоянно вести мониторинга сайта, записывать его историю и уделять внимание поведенческому фактору гостей. Чем раньше владелец ресурса приступить к борьбе с падением, тем проще достичь положительного результата.