Проводим SEO-аудит сайта – часть первая
Многие полагают, что продвижение сайтов – это дремучий лес, в котором может лёгко заблудиться неопытный охотник за высоким трафиком. На самом же деле всё так и есть :) Однако мы настоятельно рекомендуем «не бояться волков» и погрузиться с нами в увлекательный путь по этапам анализа технических характеристик ресурса с точки зрения SEO.
Для начала неплохо бы составить общее представление о ресурсе, проанализировав внутренние и внешние ссылки, код, изображения, контент и другие составляющие сайта при помощи нескольких удобных сервисов:
- Яндекс.Вебмастер;
- Google Webmaster Tools;
- Xenu’s Link Sleuth;
- Screaming Frog SEO Spider.
Получив столько ценной информации можно «топать» дальше, чтобы рассмотреть составляющие ресурса более тщательно.
Файл robots.txt
Robots.txt, он же стандарт исключения роботов, содержится в корне сайта, используется для настройки индексации ресурса. Файл позволяет закрыть для поисковых роботов доступ к определённым страницам или к сайту целиком. Кроме того у него есть множество других полезных настроек:
- определение главного зеркала сайта;
- указание пути к карте сайта (sitemaps.xml) для правильной индексации;
- количество загрузки страниц за определённое время;
- запрет доступа для определённых поисковых систем или разных роботов того же поисковика.
Можно создать множество правил сканирования в зависимости от целей и пожеланий владельца сайта.
Из всего вышеизложенного понятно, что robots.txt архиважный атрибут продвижения. Во время анализа сайта убедитесь, что этот файл правильно настроен, а страницы-дубли или разделы с некачественным контентом не индексируются. В этом помогут всё те же «Яндекс.Вебмастер» и Google Webmaster Tools.
Sitemap
XML Sitemap тоже находится в корневой директории, от него зависит корректность и скорость индексации всех страниц сайта. Благодаря этому файлу поисковики узнают, какие страницы следует исследовать в первую очередь и как часто они обновляются.
Особенно важен Sitemap для сайтов с большим количеством страниц. Важно указать роботу приоритетность тех или иных разделов по отношению к остальным, поскольку сам он не всегда может отыскать все странички и определить их значимость. Проводя SEO-аудит необходимо проверить корректность кода этой составляющей сайта при помощи валидатора в инструментах для вебмастеров от Google и Яндекс.
Файл Sitemap не должен превышать размер 10 Мб и содержать более 50 тысяч ссылок. В случае превышения этого лимита необходимо создать несколько файлов Sitemap, один из которых (Sitemap Index) будет содержать списки всех карт.
Может случиться и так, что карты сайта нет, тогда её обязательно нужно создать вручную или при помощи специальных сервисов. Затем необходимо добавить путь к Sitemap в файл robots.txt и сообщить о карте поисковикам при помощи уже не раз упоминавшихся инструментов для владельцев сайтов.
Качество индексации сайта
Узнать сколько страниц сайта проиндксировал поисковик поможет команда «site:», она ограничивает поиск одним доменом. Следовательно, в выдаче будут отображаться все отсканированные странички ресурса. Введите «site:» + доменное имя, без запросов, затем сравните количество просканированных страниц с реальным количеством страниц сайта.
Ресурс хорошо проиндексирован, если оба числа практически одинаковы. Если же поиск выдал гораздо больше ссылок, чем есть на самом деле – значит, скорее всего, на сайте много дублированного контента. Может быть и так, что страниц в выдаче гораздо меньше. Вероятные причины плохой индексации:
- на сайте много закрытых для сканирования страниц;
- ресурс не оптимизирован для поисковиков;
- сайт попал под санкции поисковых систем.
Страницы сайта
Обязательно необходимо проверить код состояния HTTP – отсутствие ошибок 404 (страница не найдена), 500 (внутренняя ошибка сервера), 503 (сервис недоступен) и т.д. Справиться с этим поможет удобный инструмент HTTP Header Status Checker от Monitor Backlinks, а также набившие оскомину в этой статье сервисы для владельцев сайтов от Google и Яндекс.
В идеале все URL на сайте должны отвечать требованиям SEO:
- состоять из легко читаемых слов;
- иметь длину 100-120 символов;
- содержать ключевые слова соответствующие странице;
- разделение слов дефисами;
- простые адреса без параметров (предпочтительнее статичные ссылки);
- использование директорий, а не субдоменов для разделов сайта.
Проверка этих параметров и строгое их соблюдение нужны и для лучшего индексирования сайта, и для удобства посетителей.
Скорость загрузки сайта
Немаловажный аспект не только для нетерпеливых юзеров, но и для поисковиков. Последние быстрее и тщательнее индексируют шустрые ресурсы, поскольку у них лимитировано время, отведённое на сканирование.
Просмотреть отчеты о скорости загрузки страниц можно в средствах веб-аналитики Яндекс и Google. Более детальную информацию можно получить на специальных сервисах, например, на YSlow и Google PageSpeed Insights.
SEO-аудит сайта – непростой и трудоёмкий процесс, закономерно, что все его пункты не вместились в одну статью. В следующей нашей публикации мы поведаем о внешнем SEO-анализе ресурса, аудите структуры и контента сайта.