4 причины потери органического трафика после перезапуска сайта

  

Не всегда при разработке дизайна и программировании нового сайта удается учесть все SEO-требования и предусмотреть возможные проблемы. Поэтому нередки случаи, когда при редизайне и перезапуске сайта наблюдается значительный спад органического поискового трафика.

Итак, на что же нужно обратить внимание, чтобы этого избежать?

1. Проверьте, не изменился ли алгоритм поиска

В первую очередь убедитесь, что причиной потери трафика стал действительно перезапуск сайта, а не, к примеру, изменения в алгоритме самого поиска.

Если потеря трафика наблюдается только в одном поисковике, скорее всего, дело именно в изменении алгоритма поиска. Также есть смысл посетить тематические форумы и посмотреть, является ли изменение алгоритма популярной темой для обсуждения. А историю изменений алгоритма Google можно изучить на сайте moz.com

2. Проверьте 301 редиректы

Это один из аспектов, который упускают из внимания при перезапуске или переносе сайта, а также обычно главный виновник потери органического трафика.

301 редиректы для поисковых роботов служат уведомлением о смене адреса, то есть указывают, что старый URL перемещен на новый.

Если веб-страница на новом сайте имеет новый URL, поисковой робот все равно будет идти на старый адрес для индексации (к примеру, если на сторонних ресурсах есть ссылки на ваш старый сайт).

Без настроенного 301 редиректа, поисковые роботы не будут знать, на какой URL перемещена страница, и после безуспешных попыток проиндексировать старый URL исключат его их поискового индекса.

Чтобы проверить, верно ли настроены или спрограммированы 301 редиректы, взгляните на органический трафик отдельных страниц сайта до и после редизайна. 

Если вы обнаружили страницы с существенным спадом трафика, проверьте ее URL, введя его в адресную строку браузера. Происходит ли перенаправление? Если нет, и вы попадаете на несуществующую страницу с ошибкой 404, скорее всего, ее же видят и поисковые роботы.

Также проблема может заключаться в виде используемого редиректа. Убедитесь, что настроен именно 301 редирект, который сообщает роботам, что страница перемещена навсегда. Другие виды редиректов, как, например, 302, по правилам не должны использоваться при реструктуризации сайта.

Для проверки настройки 301 редиректа используйте специальные ресурсы — просто введите в поле старый URL.

3. Проверьте файл robots.txt

Файл robots.txt служит своеобразной инструкцией для поисковых роботов, указывая им, какие страницы можно индексировать, а какие — нет.

             

Когда сайт находится на стадии разработки, файл robots.txt используется, чтобы скрыть тестовую площадку от поисковых систем. Однако случается так, что уже после запуска готового сайта, robots.txt с тестовой площадки по невнимательности переносится на живой сервер.

Если файл robots.txt не обновлен и не позволяет поисковым роботам проиндексировать новый сайт, со временем его страницы будут исключены из поискового индекса.

Чтобы проверить файл robots.txt, в адресной строке браузера напишите адрес вашего сайта, а затем /robots.txt — и вы увидите файл вашего сайта. Директива “disallow” ответственна за закрытие от индексирования. С ее помощью можно закрыть как весь сайт, так и определенные страницы.

4. Проверьте непосредственно страницы

Помимо файла robots.txt, отдельные страницы можно скрыть от индексации с помощью мета-тега “noindex”.

Однако, как и в ситуации с файлом robots.txt, страницы с этим мета-тегом могут случайно быть перенесены с тестовой площадки на основную. Поэтому не забудьте проверить исходный код сайта на наличие мета-тега “noindex”. Он имеет следующий вид:

<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">

… и располагается перед разделяющим тегом <head>.

Не откладывайте проблему на потом

Что бы ни было причиной потери трафика, не мешкайте! Если поисковые роботы не могут найти какие-либо страницы (то есть проиндексировать их), вскоре они исключат их из индекса. Поэтому реагируйте оперативно, чтобы вернуть свои позиции. 

Автор: Джанет Дрисколл Миллер
Источник:searchengineland.com