SEO для новичков: 10 основных пунктов технического аудита сайта

1 сентября 2018

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Находясь на начальном этапе познания поисковой оптимизации, многие маркетологи и будущие SEO-специалисты сталкиваются со шквалом разнородной информации, которую поначалу трудно упорядочить и структурировать.

Netpeak Spider

Каким аспектам SEO стоит уделить внимание в первую очередь? С чего начать оптимизацию сайта? Как провести первичный технический аудит и обработать полученную информацию? Ответы на эти и многие другие вопросы вы найдёте в данной статье.

1. Инструкции по индексации


Настройка инструкций для поисковых роботов — едва ли не первое, с чем приходится разбираться каждому начинающему специалисту, и однозначно первое, в чём допускается основная масса фатальных ошибок, препятствующих поисковому продвижению сайта.

В числе наиболее распространённых промахов можно назвать следующие:

  1. от индексации закрыты страницы, которые должны быть проиндексированы и потенциально могут приносить трафик;
  2. от индексации закрыты файлы, влияющие на внешний вид страницы;
  3. от индексации закрыты страницы, на которые выставлен перманентный редирект, или которые указаны в качестве канонических;
  4. выставлен атрибут rel=nofollow для ссылок на внутренние страницы, за счёт чего теряется часть ссылочного веса.

Определить, какие инструкции выставлены на страницах внутри вашего сайта, и нет ли каких-то проблем, связанных с неправильным указанием директив robots.txt, Meta Robots или X-Robots-Tag, можно при помощи краулера. Мы будем использовать в качестве инструмента для проведения SEO-аудита Netpeak Spider.

Итак, для анализа поисковых директив нужно сделать следующее:

  1. Запустите Netpeak Spider.
  2. Откройте в основном меню «Настройки» → «Основные».
  3. Установите настройки по умолчанию.
  4. Чтобы убедиться, что файлы .js и .css не закрыты от индексации, включите проверку JavaScript и CSS.
  5. Сохраните настройки и вернитесь к основному окну программы.
  6. Перейдите к боковой панели и откройте вкладку «Параметры».
  7. Убедитесь, что все параметры в пункте «Индексация» включены.
  8. Введите адрес сайта в строку «Начальный URL» и запустите сканирование.

По итогу сканирования вы сможете получить детализированную информацию несколькими путями:

  1. Таблица с информацией по всем просканированным URL.
    По итогу сканирования перед вами предстанет таблица с полным списком просканированных страниц. В столбце «Разрешён в robots.txt» вы увидите, не закрыт ли каждый отдельный URL от индексации, а в столбцах «Meta Robots» и «X-Robots-Tag» будут указаны применённые к данному URL директивы.

    Таблица с информацией
  2. Вкладка «Сводка» («Отчёты») на боковой панели.
    Выбрав интересующий вас признак, которому соответствуют те или иные страницы, вы отфильтруете результаты сканирования, сосредоточившись исключительно на тех URL, для которых в robots.txt прописан Disallow, или, к примеру, на которых выставлен nofollow, noindex при помощи Meta Robots или X-Robots-Tag.

    Вкладка сводка
  3. Вкладка «Ошибки («Отчёты») на боковой панели.
    На основании результатов сканирования программа определяет несколько десятков типов ошибок, в том числе — ошибки (предупреждения), связанные с инструкциями для индексации.
  4. Дашборд с данными о статусе индексируемости.
    На вкладке «Дашборд» по соседству с таблицей результатов сканирования информация об индексируемых и неиндексируемых страницах сайта будет представлена в виде круговой диаграммы. Там же можно будет найти диаграмму, наглядно демонстрирующую причины неиндексируемости.

    Каждый из сегментов диаграммы кликабелен и действует по аналогии с фильтрацией, которая была описана выше.

2. Метатеги Title и Description


Оптимизация метатегов Title и Description — один из важнейших этапов поисковой оптимизации сайта. Во-первых, их содержимое тщательно анализируется поисковыми роботами для составления общего представления о содержимом страницы. Во-вторых, именно они формируют сниппет страницы в поисковой выдаче.

В разрезе SEO-аудита сайта необходимо проанализировать:

  1. на всех ли страницах есть Title и Description;
  2. из скольких символов состоят Title (не менее 10 и не более 70 символов в среднем) и Description (не менее 50 и не более 260-320 символов);
  3. нет ли дублей, Title и Description внутри сайта;
  4. не присутствует ли на странице сразу несколько Title и Description.

Чтобы выяснить, как обстоит ситуация с данными метатегами в рамках вашего сайта, обязательно отметьте на боковой панели параметры «Title», «длина Title», «Description» и «длина Description».

Head теги

К слову, если вам нужно, чтобы Title и Description были строго определённой длины, вы можете задать диапазон допустимых значений в разделе «Настройки» → «Ограничения».

В процессе сканирования программа определит длину каждого из метатегов, а на вкладке с ошибками укажет все имеющиеся проблемы Title и Description.

Смотреть ошибки

3. XML-карта сайта

Прежде чем приступить к проверке карты сайта, ответьте себе на два вопроса:

  1. Есть ли на анализируемом сайте XML-карта сайта?
  2. Если да, то указан ли её адрес в файле robots.txt?

Если ответ на оба вопроса «да», специалисту, осуществляющему аудит, остаётся только одно: проанализировать карту на наличие разного рода ошибок. Лучше всего делать это при помощи встроенного в Netpeak Spider инструмента «Валидатор XML Sitemap». Для запуска проверки вам нужно:

  1. Запустить Netpeak Spider.
  2. В правом верхнем углу нажать «Запустить» → «Валидатор XML Sitemap».
    Валидатор xml sitemap
  3. Ввести адрес карты и нажать «Старт» для запуска.

    Вводим адрес карты
    *при клике по картинке она откроется в полный размер в новом окне

  4. Дождаться окончания сканирования и ознакомиться со списком найденных ошибок на боковой панели. Все включённые в карту сайта страницы, на которых были найдены ошибки, можно перенести в основную таблицу, нажав кнопку «Перенести URL и закрыть».

4. Время ответа сервера

Чем быстрее ваш сайт работает, тем лучше. Это касается скорости ответа сервера, который должен максимально быстро откликнуться на запрос, отправленный вашим браузером, а также скорости загрузки самого контента.

Для анализа обоих показателей мы воспользуемся краулером. Процедура сканирования производится по аналогии с той, что мы описывали выше: главное — не забыть отметить параметры «Время ответа сервера» и «Время загрузки контента» перед стартом анализа.

Время ответа сервера
*при клике по картинке она откроется в полный размер в новом окне

По окончанию сканирования слишком медленные страницы будут отмечены как страницы с ошибкой средней критичности «Большое время ответа сервера».

5. Дубликаты


Полное или частичное дублирование контента внутри сайта, пусть даже ненамеренное, может существенно осложнить путь вашего сайта к вершинам органической поисковой выдачи. Поисковые системы крайне негативно реагируют на дубли, так что в рамках SEO-аудита вам следует обратить внимание на все основные виды дублей внутри своего сайта для их последующего устранения.

Сканируя сайт в Netpeak Spider, вы сможете обнаружить полные дубликаты страницы, а также дубликаты метатегов Title и Description (мы уже говорили о них в параграфе 2), заголовков H1 и текстового содержимого.

6. Контент

Грамотно оптимизированное содержимое страницы должно включать в себя:

  1. грамотный и уникальный текст объёмом не менее 500 символов;
  2. один основной заголовок первого порядка H1;
  3. оптимизированные изображения с прописанным атрибутом ALT.

Если у вас есть чёткое понимание того, в каких рамках может варьироваться вес изображений, размер H1 и объём текста, их можно задать вручную в разделе «Настройки» → «Ограничения».

Чтобы проверить каждый из указанных выше аспектов, следует:

  1. Запустить Netpeak Spider.
  2. В списке параметров на боковой панели обязательно отметить:
    1. «Контент» → «Изображения»;
    2. «Заголовки H1-H6» → «Содержимое H1», «Длина H1», «заголовки H1»;
    3. «Показатели» → «Размер контента».
    4. Если вы хотите вдобавок проверить сайт (раздел сайта, список страниц) на предмет наличия подзаголовков H2 и H3, отметьте соответствующие параметры в пункте «Заголовки H1-H6».

  3. Ввести адрес сайта и запустить сканирование.
  4. После завершения процедуры в основной таблице с результатами сканирования вы увидите столбцы с данными по объёму контента, а также — по длине H1. На боковой панели на вкладке «Отчёты» → «Ошибки» высветятся ошибки, связанные с оптимизацией контента, включая проблемы с заголовками H1, размером контента и отсутствием атрибута ALT у изображений.

Списки URL, содержащих одну (или более) из ошибок выше, можно отфильтровать и выгрузить в виде отдельного отчёта.

7. Битые ссылки

Существует множество неоднозначных факторов поисковой оптимизации, относительно которых в экспертной среде нет однозначного мнения. Однако битые ссылки (ссылки, отдающие 404 код ответа сервера) точно не относятся к их числу: все опытные специалисты в один голос твердят об их крайне пагубном на оптимизацию сайта.

Поиск битых ссылок — процедура, которую вам предстоит выполнять на регулярной основе, а не только в рамках глобального первичного SEO-аудита.

Для анализа сайта на предмет поиска битых ссылок достаточно будет активировать всего три параметра: «Код ответа сервера», «Content-Type», «Ошибки».

Основные отчеты

По итогу сканирования вы сможете найти все страницы, отдающие 404 ошибку, в основной таблице с результатами сканирования (напротив них будет указан соответствующий код ответа сервера), на панели «Сводка», а также в списке страниц, отфильтрованных по ошибкам «Битые ссылки» и «Битые изображения».

Сводка

8. Редиректы


Установки перенаправлений, или редиректов, — обязательный этап оптимизации любого сайта. Редиректы помогают бороться с дубликатами и направлять пользователей на нужные страницы в случае перехода на уже несуществующие URL.

Важно помнить о том, что выставленный на постоянной основе редирект должен отдавать исключительно 301 (не 302) код ответа, а также не должен вести на страницу с дальнейшей переадресацией. Также не забывайте, что для успешной индексации целевой страницы поисковыми роботами она не должна быть закрыта при помощи robots.txt, Meta Robots или X-Robots-Tag.

Таким образом, в числе основных проблем, связанных с переадресацией, можно назвать следующие:

  1. Битый редирект (перенаправление на недоступную или несуществую страницу).
  2. Бесконечный редирект (перенаправление с текущей страницы на саму себя).
  3. Максимальное количество редиректов (более 4 редиректов в последовательности по умолчанию).
  4. Редирект, заблокированный в robots.txt.
  5. Редиректы с неправильным форматом URL (перенаправление с неправильным форматом URL в HTTP-заголовках ответа сервера).

В процессе проведения технического аудита вы сможете выявить на вашем сайте все вышеупомянутые проблемы, а также проконтролировать корректность указания конечных URL для переадресации.

Конечные url для переадресации
*при клике по картинке она откроется в полный размер в новом окне

9. Атрибут rel=canonical

Не исключено, что на подходе к девятому пункту вам на миг могло показаться, что всё самое важное уже осталось позади. Однако до тех пор, пока в чеклист SEO-аудита не включён анализ атрибута Canonical, его нельзя считать полноценным. Какие же проблемы могут быть связаны с неправильной настройкой Canonical?

  1. цепочка Canonical;
  2. Canonical, заблокированный в robots.txt (иными словами, приоритетная для индексации страница отдаёт код ответа, отличный от 200 OK).

Также не стоит забывать о вероятности того, что какие-то из атрибутов были выставлены по ошибке, а потому не позволяют как следует индексироваться важным страницам вашего сайта. Чтобы проконтролировать этот аспект оптимизации, мы рекомендуем воспользоваться фильтрацией по таким ошибкам (предупреждениям низкой критичности) Netpeak Spider, как «Неканонические страницы» и «Дубликаты Canonical URL».

Первая показывает неканонические страницы, у которых URL в теге указывает на другую страницу, вторая показывает страницы с дублирующимися тегами <​link rel="canonical" /​> (при использовании этого фильтра все URL будут сгруппированы по параметру «Canonical URL»).

Canonical url
*при клике по картинке она откроется в полный размер в новом окне

10. Смешанный контент

Если ранее вы совершили попытку «переезда» на безопасный протокол HTTPS, но не настроили сайт необходимым образом, вы столкнётесь с таким понятием как «смешанный контент». Оно означает, что на сайте одновременно есть страницы с безопасным и небезопасным протоколом. Чтобы проверить, относится ли это и к вашему сайту, запустите сканирование с параметрами по умолчанию.

Список страниц, протокол которых не изменился после переезда на HTTPS, можно будет найти на боковой панели на вкладке «Сводка».

Сводка http

Также они будут подсвечены как страницы с ошибкой (низкая критичность) «Не HTTPS-протокол».

Коротко о главном


Чтобы провести базовый технический SEO-аудит сайта перед началом работы над новым проектом, включите в него проверку нескольких основных пунктов:

  1. Проверка инструкций по индексации,
  2. Проверка правильности заполнения Meta Title и Meta Description,
  3. Валидация XML-карты сайта,
  4. Анализ времени ответа сервера,
  5. Поиск дубликатов,
  6. Проверка оптимизации контента,
  7. Проверка сайта на наличие битых ссылок,
  8. Проверка выставленных редиректов,
  9. Проверка атрибута rel=canonical,
  10. Поиск смешанного контента, возникшего при попытке переезда на HTTPS-протокол.

Для анализа вам понадобится краулер, в качестве которого мы использовали Netpeak Spider. который определит все ключевые проблемы сайта для их последующего устранения.

P.S. Для читателей блога действует специальная скидка на покупку лицензий Netpeak Spider – 10%. Чтобы её использовать, на этапе оплаты введите промокод 8018e2e0

Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

Десерт
* Нажимая на кнопку "Подписаться" Вы соглашаетесь с политикой конфиденциальности.

Подборки по теме

Использую для заработка

Рубрика: Как самому раскрутить сайт

Комментарии и отзывы

Евгений

Дмитрий привет,читаю твой блог.

Хочу спросить тебя по поводу как ты считаешь

1. переводные статьи из зарубежного интернета являются ли уникальными для сайта на русском например.

По всем сайтам проверочным показывает уник это понятно.Некоторые знаю переводят даже через гугл транслейт или яндекс.

Тоесть по логике они уникальные ,а как ты считаешь?

2. есть ресурс веб архив в нем куча контента уникального из сайтов которые дропнуличь и не продлили их вебмастера.По сервисам

показывает тоже что уника много.Но использовать для молодого сайта я так понимаю его не очень рекомендованно.Так как поисковики

помнят на чьих сайтах этот контент был в первый раз.Ты как считаешь по этому поводу?

Текст Вашего сообщения:

* Нажимая на кнопку "Добавить комментарий" или "Подписаться" Вы соглашаетесь с политикой конфиденциальности.

Подписаться на новые комментарии к этой статье