Проводим SEO-аудит сайта – часть первая

06.10.2014

Проводим SEO-аудит сайта – часть перваяМногие полагают, что продвижение сайтов – это дремучий лес, в котором может лёгко заблудиться неопытный охотник за высоким трафиком. На самом же деле всё так и есть :) Однако мы настоятельно рекомендуем «не бояться волков» и погрузиться с нами в увлекательный путь по этапам анализа технических характеристик ресурса с точки зрения SEO.

Удобные сервисы для SEO-анализа сайта

Для начала неплохо бы составить общее представление о ресурсе, проанализировав внутренние и внешние ссылки, код, изображения, контент и другие составляющие сайта при помощи нескольких удобных сервисов:

  1. Яндекс.Вебмастер;
  2. Google Webmaster Tools;
  3. Xenu’s Link Sleuth;
  4. Screaming Frog SEO Spider.

Получив столько ценной информации можно «топать» дальше, чтобы рассмотреть составляющие ресурса более тщательно.

Файл robots.txt

Robots.txt, он же стандарт исключения роботов, содержится в корне сайта, используется для настройки индексации ресурса. Файл позволяет закрыть для поисковых роботов доступ к определённым страницам или к сайту целиком. Кроме того у него есть множество других полезных настроек:

  • определение главного зеркала сайта;
  • указание пути к карте сайта (sitemaps.xml) для правильной индексации;
  • количество загрузки страниц за определённое время;
  • запрет доступа для определённых поисковых систем или разных роботов того же поисковика.

Можно создать множество правил сканирования в зависимости от целей и пожеланий владельца сайта.

Из всего вышеизложенного понятно, что robots.txt архиважный атрибут продвижения. Во время анализа сайта убедитесь, что этот файл правильно настроен, а страницы-дубли или разделы с некачественным контентом не индексируются. В этом помогут всё те же «Яндекс.Вебмастер» и Google Webmaster Tools.

Sitemap

Sitemap

XML Sitemap тоже находится в корневой директории, от него зависит корректность и скорость индексации всех страниц сайта. Благодаря этому файлу поисковики узнают, какие страницы следует исследовать в первую очередь и как часто они обновляются.

Особенно важен Sitemap для сайтов с большим количеством страниц. Важно указать роботу приоритетность тех или иных разделов по отношению к остальным, поскольку сам он не всегда может отыскать все странички и определить их значимость. Проводя SEO-аудит необходимо проверить корректность кода этой составляющей сайта при помощи валидатора в инструментах для вебмастеров от Google и Яндекс.

Файл Sitemap не должен превышать размер 10 Мб и содержать более 50 тысяч ссылок. В случае превышения этого лимита необходимо создать несколько файлов Sitemap, один из которых (Sitemap Index) будет содержать списки всех карт.

Может случиться и так, что карты сайта нет, тогда её обязательно нужно создать вручную или при помощи специальных сервисов. Затем необходимо добавить путь к Sitemap в файл robots.txt и сообщить о карте поисковикам при помощи уже не раз упоминавшихся инструментов для владельцев сайтов.

Качество индексации сайта

Узнать сколько страниц сайта проиндксировал поисковик поможет команда «site:», она ограничивает поиск одним доменом. Следовательно, в выдаче будут отображаться все отсканированные странички ресурса. Введите «site:» + доменное имя, без запросов, затем сравните количество просканированных страниц с реальным количеством страниц сайта.

Ресурс хорошо проиндексирован, если оба числа практически одинаковы. Если же поиск выдал гораздо больше ссылок, чем есть на самом деле – значит, скорее всего, на сайте много дублированного контента. Может быть и так, что страниц в выдаче гораздо меньше. Вероятные причины плохой индексации:

  • на сайте много закрытых для сканирования страниц;
  • ресурс не оптимизирован для поисковиков;
  • сайт попал под санкции поисковых систем.

Страницы сайта

Обязательно необходимо проверить код состояния HTTP – отсутствие ошибок 404 (страница не найдена), 500 (внутренняя ошибка сервера), 503 (сервис недоступен) и т.д. Справиться с этим поможет удобный инструмент HTTP Header Status Checker от Monitor Backlinks, а также набившие оскомину в этой статье сервисы для владельцев сайтов от Google и Яндекс.

Требования SEO к URL сайта

В идеале все URL на сайте должны отвечать требованиям SEO:

  • состоять из легко читаемых слов;
  • иметь длину 100-120 символов;
  • содержать ключевые слова соответствующие странице;
  • разделение слов дефисами;
  • простые адреса без параметров (предпочтительнее статичные ссылки);
  • использование директорий, а не субдоменов для разделов сайта.

Проверка этих параметров и строгое их соблюдение нужны и для лучшего индексирования сайта, и для удобства посетителей.

Скорость загрузки сайта

Скорость загрузки сайта

Немаловажный аспект не только для нетерпеливых юзеров, но и для поисковиков. Последние быстрее и тщательнее индексируют шустрые ресурсы, поскольку у них лимитировано время, отведённое на сканирование.

Просмотреть отчеты о скорости загрузки страниц можно в средствах веб-аналитики Яндекс и Google. Более детальную информацию можно получить на специальных сервисах, например, на YSlow и Google PageSpeed Insights.

SEO-аудит сайта – непростой и трудоёмкий процесс, закономерно, что все его пункты не вместились в одну статью. В следующей нашей публикации мы поведаем о внешнем SEO-анализе ресурса, аудите структуры и контента сайта.

Последнее в нашем блоге