Аудит сайта за 8 минут

Как все успевать?» — этот вопрос ежедневно встает перед множеством людей. Что уж говорить об оптимизаторах, у которых порой сплошной завал с заказами. И ведь не отложишь ничего!

Чтобы все дела выполнять вовремя, необходимо оптимизировать процесс (не зря ведь мы — оптимизаторы :-) ).

Предлагаю свое решение одной из проблем — seo аудит сайта за 8 минут. C помощью него Вы сможете выяснить, почему сайт занижен в выдаче или его вовсе нет в Гугле.

Итак, засекаем время!

00:00-0:30 — Убедитесь, что сайт есть в индексе

Всегда начинайте с вопроса — Ваша страница есть в поиске? Конечно, основной формат узнать это прост:

1

0:30-1:00 — Убедитесь, проиндексированы ли страницы

Предположим, Google знает, что Ваш сайт существует. Настало время, чтобы проверить конкретные страницы. Вы можете ввести полный путь: команду или использовать комбинацию сайта:

2

Если страницы не окажется в Google, сузьте круг задач, проверяя на наличие «/ разделы» и посмотрите, проиндексировано ли что-то на том же уровне в настоящее время. Если страница не поддается индексации, Вы можете пропустить этот шаг.

1:00-1:30 — Узнайте рейтинг страницы

Если страница проиндексирована, но Вы не можете найти ее в поисковике, вытащите фрагмент тега TITLE и сделайте поиск по точному совпадению (в кавычках). Если Вы все еще не можете ее увидеть, объедините в запросе урл сайта и титл.

3

Если страница индексируется, но нет рейтинга, вы можете пропустить следующую пару шагов (переход на 4:00).

1:30-2:00 — Проверка на наличие Robots.txt

А сейчас давайте представим, что Ваш сайт частично проиндексирован, но нужная страница в индексе  отсутствует. Причиной может быть фильтр Гугла, а может быть и плохой файл robots.txt, и это обязательно нужно проверить.

Robots.txt всегда можно обнаружить, введя урл вида http://seo-helper.ru/robots.txt.

То, что Вы ищете — исходный код, который выглядит примерно так:

4

2:00-2:30 – Проверка META тега Noindex

Другая проблема неидексации может возникнуть при наличии плохой META директивы Noindex. В заголовке — исходный код (от <head> и </ head>) ищите что-то вроде этого:

<meta name=»ROBOTS» content=»NOINDEX»/>

2:30-3:00 — Проверка на присутствие сбоя в Rel = Canonical

Это немного сложнее. Rel = Canonical — тег, сам по себе помогает эффективно канонизировать страницы и удалять идентичные по содержанию. Сам тэг выглядит следующим образом:

<link rel=»canonical» href=»http://seo-helper.ru/all/obzor-interesnyx-postov-za-nedelyu»/>

Проблема возникает, когда Вы канонизируете страницы слишком сжато. Например, если у каждой страницы Вашего сайта был прописан канонический тег с урлом http://seo-helper.ru, то Гугл возьмет это за инструкцию и свернет весь индекс сайта лишь к ОДНОЙ странице.

Специально этого не делает никто, однако некачественная CMS или непроверенный плагин легко канонизируют страницы подобным образом.

3:00-4:00 — Проверка переадресации

В некоторых случаях на странице присутствует плохо структурированная переадресация (ошибки 301/302), что мешает надлежащей индексации. Проверить это можно с помощью онлайн сервисов, которые выдают код состояния.

4:00-5:00 — Проверка дубликатов контента

Существует два основных потенциальных вида дублированного контента: дубликаты страниц на Вашем сайте и дубликаты между сайтами.

Проблема заключается в том, что Google, обнаруживая подобные дубликаты, выбирает одну страницу для выдачи, а остальные игнорирует.

Если Вы подозреваете, что контент страницы мог где-то продублироваться, введите в поисковую строчку Гугла предложение с сайта в кавычках для точного совпадения. Если Ваш сайт в выдаче не первый, его контент — дубль.

5:00-7:00 — Проверка на внутреннее дублирование

Внутреннее дублирование обычно происходит, когда у Вас для одной страницы имеется несколько урлов. Google «сканирует» Ваш сайт, видит одинаковый контент на разных страницах и исключает один из дублей из индекса.

7:00-8:00 — Проверка зеркал сайта

Адреса www.site.ru, www.site.ru/index.htm, site.ru, site.ru/index.htm — по сути одна и та же страница сайта, однако для поисковых машин все эти сайты — разные. Соответственно, ссылки, которые люди ставят не задумываясь, также делятся на разные сайты.

Поисковые машины, видя абсолютную копию сайта site.ru по адресу www.site.ru считает, что владелец сайта www.site.ru украл весь контент с сайта site.ru, делает его зеркалом и опускает в выдаче ниже, а то и вовсе не индексирует.

5

6

Хорошо, если Вы планировали свой сайт, как site.ru, а если же наоборот, хотите, чтобы сайт был www.site.ru?

Для этого нужно склеивать зеркала сайта. Делается это на хостинге, от Вас требуется лишь прописать в roboots.txt нужную директиву host и отправить хостеру письмо с запросом на редирект.

Расклейка зеркал сайта — риск при продвижении, поэтому работать с зеркалами и редиректом нужно сразу же, до начала накопления ссылочной массы.

8:00 — Время!

Конечно, для того, чтобы полностью проанализировать сайт, составить список доработок и продумать схему продвижения 8 минут не хватит. Конечно, неопытные оптимизаторы в это время не уложатся. Однако подобный экспресс аудит сайта позволит хотя бы начать глобальную работу по оптимизации собственного сайта и поможет в самосовершенствовании.

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *