MegaIndex Tools — набор инструментов для вебмастеров и оптимизаторов

15 Апрель, 2013

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Совсем недавно я писал про то, что полностью поменялась главная страница Мегаиндекса, появился новый бесплатный облачный хостинг от этой компании, а так же они выпустили SEO расширение MegaIndex Bar для ряда популярных браузеров. Ну, вот. Пертурбации продолжаются и разработчики выкатили новую подборку бесплатных сервисов, объединенных под одним названием — MegaIndex Tools.

Вообщем, мое знакомство с этой системой началось с интереса к инструменту «Видимость сайта», про который я уже довольно подробно писал. Потом у них еще появилась бесплатная возможность аудита своего или чужого сайта, которая мне как-то даже пригодилась. Бесплатность и щедрость обусловлена, конечно же, тем, чтобы привлечь как можно больше пользователей к их основному инструменту — автоматическому продвижению, но тем не менее воспользоваться ими ничто не мешает.

Инструменты для оптимизаторов и копирайтеров


Правда текущая новинка намного скромнее выглядит, чем предыдущие, но, по-моему, стоит упоминания. Разработчики попытались повторить у себя на сайте все то, что вы могли бы найти на ресурсах, которые я упоминал в статье про бесплатный и быстрый анализ сайта (Pr-cy, Cy-pr):

Инструментов довольно много, но MegaIndex Tools явно еще сыроват, ибо не все работает как надо. Давайте просто пробежимся по перечню инструментов, чтобы оценить их полезность и функциональность:

  1. Генерация robots.txt — файл роботс.тхт изначально задумывался для того, чтобы запретить некоторым поисковых роботам (читайте про то, как устроены поисковые системы) индексировать некоторые части вашего сайта. Закрывают от индексации обычно файлы движка, полные или частичные дубли страниц, ну, и еще что-то, по усмотрению вебмастера.

    Google на данный момент вполне может проигнорировать прописанные в robots.txt запреты, поэтому для гарантированного не попадания дублей в индекс этой поисковой системы лучше всего будет использовать мета-тег robots, который прописывается в невидимой части Html кода вебстраницы (между тегами Head). В WordPress я для этой цели использую функционал плагина All in One SEO Pack, который заодно и канонические страницы умеет правильно определять и помечать соответствующим мета-тегом.

    Мегаиндекс же предлагает в своем инструменте лишь возможность запретить или разрешить индексацию всего сайта роботами определенных поисковых систем, ну, и позволяет задать директиву Crawl-delay, которая в идеале укажет этому самому роботу максимальную частоту, с которой ему разрешено запрашивать страницы вашего сайта при индексации (для снижения создаваемой на сервер хостера нагрузки). Инструментарий совсем не богатый.

  2. Генератор мета тегов — штука прикольная, но только в том случае, если вы создаете статичный сайт на Html страничках, которые не генерируются движком сайта на лету, а преспокойно лежат в папке на вашем хостинге в виде файликов с расширением .html и ждут, когда к ним обратится по ссылке посетитель вашего ресурса (такой вариант вполне подойдет для сайта визитки). В этом случае использовать генератор мета-тегов будет вполне удобно для создания шапки веб страниц.

    Хотя не все приведенные там мета-теги являются обязательными. Следует в обязательном порядке, конечно же, заполнять title и description, указывать кодировку текста документа (UTF 8 или Windows 1251), ну, и при необходимости закрыть данную веб страницу от индексации через уже упомянутый чуть выше мета-тег Роботс. Все остальное по желанию, но лучше не замусоривать код. Полученные мета-теги нужно будет потом вставить между открывающим и закрывающим Html тегами Head.

  3. Анализ текста — вводите адрес страницы вашего ресурса или сайта конкурента, чтобы оценить количество используемых в тексте символов, содержимое мета-тегов и полную разблюдовку по частоте использования отдельных слов в тексте. Другое дело, что такого понятия, как плотность вхождения ключевого слова в современном SEO, уже нет, а точнее оно стало очень сильно размыто, ибо в первую очередь текст должен быть естественным. А ключи нужно употреблять не нарушая этой естественности, которая поиском легко анализируется, и всяческие отклонения от норм построения предложений и употребления слов и их сочетаний в нем очень легко отслеживаются и могу привести к печальным последствиям.
  4. Синонимайзер — ну, это тоже штука архаичная, ибо подобный автоматический рерайт вряд ли обманет Яндекс или Гугл. Когда то давно такие вещи работали и многие продвигали сайты путем размещения отрерайченной статьи на сотнях каталогов статей. Сейчас это сработает, скорее всего, в минус. Использовать же автоматический рерайт на своем сайте совсем уж не стоит, ибо текст становится сложно воспринимаемым, а поиск все равно его будет воспринимать как копипаст.

    Кстати, я знаю ресурс, который занимается откровенным копипастом (иногда еще и переводом буржуйских текстов, но в основном копирует по десятку фотопостов в день) и при этом находится в фаворе у поиска (сто тысяч посетителей в сутки и пол ляма дохода в месяц по заверениям автора). Знаете такой? Правильно, Бигпикча.ру. Поэтому разговоры о том, что поисковикам важно учитывать авторство при ранжировании документов далеко от истины.

    Поиску в первую очередь важно удовлетворить запрос пользователя. Бигпикча удобна пользователю, ибо собирает и катализирует на своих страницах интересные материалы из интернета. Ну, а если я начну собирать коллекцию самых полезных статей по Сео, заработку, веб сервисам и т.п. Это будет удобно пользователю, ибо все находится в одном месте, но это будет воровством (а точнее продажей краденого), т.к. зарабатывать на этом буду я, а не тот, кто эти статьи написал.

    Нельзя даже близко ставить труд копипастера и копирайтера — последнее является в сотни раз более трудоемким процессом. Это как сравнивать труд угонщика авто и труд его владельца, заработавшего нужную сумму потом и кровью. Причем угонщики текстов не только ничем не рискуют, но и фактически поощряются поиском (в случаях подобных Бигпикче) на продолжение противоправных действий очень хорошим ранжированием их ресурсов. По-моему, это нонсенс.

  5. Массовая проверка тИЦ и PR — стандартный инструмент, позволяющий ввести список УРЛов или доменных имен, чтобы узнать значение их Тиц и ПР.
  6. Определение длины текста — а вот это удобно. Можно узнать число знаков в тексте «с» и «без» пробелов, а так же общее число слов.
  7. Проверка текста на уникальность — тема очень актуальная, ибо неуникальные тексты при прочих равных условиях ранжируются хуже, даже если копировали их не вы, а, наоборот, у вас. Коммерческие сайты по этой причине вынуждены периодически переписывать тексты, чтобы не падать в выдаче. Другое дело, что у Мегаиндекса этот инструмент, по-моему, пока не очень корректно работает, особенно в сравнение с другими сервисами антиплагиата.

Инструменты для вебмастеров и иже с ними


  1. Создание Favicon — довольно полезный инструмент, позволяющий сделать из любой имеющейся у вас картинки Фавикон — изображение 16 на 16 пикселей в формате Ico, которое при должном подключении к сайту (читайте в статье по приведенной ссылке) будет отображаться в списке вкладок и закладок многих популярных браузеров, а так же в поисковой выдаче Яндекса (имеет место быть такое явление, как апдейт фавиконов в Яндексе и это нужно учитывать при ожидании появления этой иконки в выдаче напротив вашего сайта).

    Эта иконка позволит пользователям легко выделять ваш ресурс среди других, как при поиске в Яндексе, так и при работе со вкладками и закладками в браузере. Удачная иконка повысит посещаемость и увеличит размеры заработка с сайта.

  2. Графический редактор — ну, тут ребята из Мегаиндекса вообще молодцы. Помните я писал про замечательный (без преувеличения) бесплатный графический онлайн редактор Pixlr? Я еще там сомневался — можно ли использовать его без разрешения авторов, вставляя на страницу через Iframe. В Мегаиндексе, похоже, на этот счет не сомневались и выложили его в качестве инструмента для работы с графикой на сайте.
  3. Punycode конвертер — в принципе, такую штуку можно делать и через адресную строку Гугл Хрома (вставляете кириллический домен, на вроде, «ктонановенького.рф», а при его обратном копировании в буфере сохранится уже код вида «xn--80aedhwdrbcedeb8b2k.xn--p1ai», который и нужно будет использовать во всяческих инструментах при работе с таким сайтом). Однако, мегаиндекс предлагает свои услуги по переводу кириллических доменов к общепризнанным стандартам.
  4. Генератор QR кодов — тоже, в общем-то, полезный инструмент, который позволит перевести Урл адрес или любой текст в графический формат QR кодов, которые потом можно будет разместить на сайте или визитке (футболке, кепке), откуда их легко считать и распознать посредством мобильного телефона.

  5. Шифрование — даже не знаю что и сказать. Никогда не пользовался ничем, кроме шифрования маленьких картинок с помощью base64 для уменьшения количества запросов к серверу. Шифрование Html кода для его защиты тоже не пробовал, да и, наверное, не буду пробовать. Если захотят, то все равно утащат, хотя, возможно, что я и не прав.
  6. CSS и JavaScript компрессоры — в серии статей по увеличению скорости загрузки сайта я упоминал, что важно будет объединить по возможности все подгружаемые вместе со страницей CSS файлы в один (про JavaScript файлы можно сказать тоже самое). А уже объединенные CSS и JS файлы желательно оптимизировать, удалив из них все лишние пробелы и переносы строк. Вот как раз это и может сделать инструментарий Мегаиндекса. Было бы потом еще не плохо настроить Gzip сжатие.
  7. Проверка скорости интернета и IP — ну, это вообще попсовая тема во многих подобных сервисах (читайте про популярные измерители скорости интернета, определители IP и т.п.). Никакой особой графики и красивости при измерении скорости интернет канала или определении IP не наблюдается.
  8. Анонимайзер — можно придумать много разных причин использования анонимного (без засветки своего IP адреса) серфинга по интернету, ну, например, если вас забанили на форуме, а IP адрес ваш интернет провайдер предоставляет статический, а не как у меня (динамический).
  9. Скорость загрузки — если ваш сайт грузится быстрее сайта конкурента, то это вовсе не добавит очков в ранжировании. Однако, если время его загрузки на минуты (а не на секунды) больше, чем у конкурентов, то потеря позиций и посетителей вполне возможна. Этот инструмент поможет проверить скорость загрузки сразу у многих сайтов или же многих страниц одного ресурса, список урлов которого вводится в соответствующую форму.
  10. Просмотр заголовков сервера — при переходе по Урлу браузер (и поисковый робот тоже, ибо по сути он является простейшим браузером) обращается с запросом в серверу, где размещен ваш сайт (читайте про связь Ip адресов, доменов и хостинга) и получает от него не только код запрашиваемый вебстраницы, но и формализованный ответ, который содержит код ответа и еще ряд сопроводительных параметров (кодировку текста страницы, дату ее последнего обновления и др.):

  11. Я как то уже писал про коды ответа сервера и их значения. Если кратко, то лучший вариант — код 200, что означает наличие искомого документа на сервере и его подгрузку в браузер. Однако, важно чтобы все несуществующие страницы отдавали код 404 (ну, и пользователю показывалась бы соответствующая страница ошибки 404 — см. на пример WordPress), а не 200, ибо в этом случае у вас будет огромное количество дублей.

    Кстати, именно с особенностью формирования параметра Last-Modified (время последнего обновления документа) связан миф о том, что статичный Html сайт лучше индексируется (или даже ранжируется), чем сайт работающий на ЦМС (движке). Дело в том, что при обновлении Html страницы на статичном сайте, сервер отдаст поисковому боту правильное значение Last-Modified и эта страница будет своевременно переиндексирована. Многие же ЦМС не умеют толком сообщать Last-Modified серверу и переиндексация страниц такого сайта может быть не такой оперативной.

  12. Проверка состояния сайта — кроме уже упомянутой чуть выше проверки ответа сервера здесь будет проверяться пинг (скорость ответа), а так же приведена информация Wois по домену и значения DNS записей.

Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

Еще:

Рубрики :Онлайн сервисы

Комментарии и отзывы

Алексей

Обидно, обидно и еще раз обидно за копипаст! У меня все сайты разворованы, топчусь на месте: ни посетителей, ни денег. И тексты 100% уникальные, и ссылки с хороших ресурсов. Уже ничего не хочется! Как молодым сайтам в поисковиках продвигаться...

Александр Логинов

Спасибо! Очень интересно.

Сходу для проверки изготовил 2 фавикона (16×16 и 32×32) — за пару минут.

Теперь придется разбираться — что с ними делать...

Егор

Алексей, пользуйтесь подтверждением авторства на Гугл и Яндекс.

Ваня

Дмитрий скажите пожалуйста в чем причина по вашему мнению падение посещалки у большинства ресурсов? В том числе и вашего. Раньше у вас за 20 косарей было а теперь около 10. Уж более белого и пушистого чем ваш найти трудно. Что за ерунда творится? Если можно не пригнорируйте ПЛИЗЗ!!!

Дмитрий

Ваня: у меня с Яндекса в четыре-пять раз упал трафик — похоже, что фильтр.

Александр

Сервис от Мегаиндекса по проверке качества сайта мне очень помог, привел в порядок не достатки. Поэтому благодарю их и вас за хорошие статьи.

сергей филатов

и в правду сервис мегаиндекса хороший я делаю на нем аудит и пользуюсь услагами менеджера

Подписаться не комментируя