Проверка PageRank для всех страниц сайта, а так же наличие их в основном и Supplemental индексе Google (как из него выйти)

12 Апрель, 2010

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Речь в сегодняшнем обзоре будет полностью посвящена российской версии поисковой системе Гугл и основному показателю успешности веб-проекта в его глазах — PageRank (по ссылке я подробно описал его суть и значение для вебмастеров рунета, а так же как его узнать и измерить, ну и при желании поставить себе информер его отображающий).

Вы узнаете, как можно просто и быстро проверить значение PR для всех страниц вашего вебсайта, как узнать его будущее значение (до наступления очередного апдейта), а так же качественно оценить, насколько хорошо поисковая система Google относится к вашему проекту.

Проверка значения PageRank всех страниц сайта


Не так давно случился очередной ап этого показателя. Мне сразу стало интересно узнать, как изменился ПР не только главной (это не сложно увидеть), но и всех остальных страничек моего блога. Вы ведь, наверное, знаете, что эта пузомерка рассчитывается для каждого отдельного документа в сети.

Обычно ПейджРанк главной имеет самую впечатляющую цифирьку, но при грамотной внутренней перелинковке можно получить достаточно высокие показатели и для внутренних страничек. В связи с этим встал вопрос о поиске возможности проверить для них значение этой пузомерки. К тому же, в ГетГудЛинксе очень прилично платят за ссылки с документов, имеющих высокий ПР.

Мне понравились два сервиса, позволяющие, кроме всего прочего, реализовать автоматическую проверку PageRank для всех страниц любого сайта. Им нужно будет только скормить ссылку на карту сайта в формате XML (тут читайте про sitemap подробнее). Вы не знаете, что это такое и где можно взять?

Ну это, наверное, все же маловероятно, ибо любой начинающий веб мастер буквально на каждом шагу слышит о необходимости создания карты. Правда, не все различают те, что предназначены для облегчения навигации вашим посетителям (в формате HTML) и те, что предназначены для поисковых систем (в формате XML).

Нам нужен второй вариант. Дело в том, что в этом файле (sitemap.xml), в понятном скрипту этих сервисов виде, содержится перечень всех Урлов вашего проекта. Скрипт будет поочередно определять для всех них значение Page Rank и выводить информацию на экран.

Я уже во всех подробностях писал о нюансах и перипетиях создания карты блога на WordPress, на Joomla с помощью Xmap и форума на SMF .

SlavsSoft предлагает ряд программ и скриптов, но так же имеет и раздел с набором SEO инструментов.

В открывшемся окне вам нужно будет в поле «URL файла sitemap» вставить путь до вашего файла. Затем нужно ввести защитный код и нажать на кнопку «Проверить».

Начнется работа по определению ПР для всех документов с вашего проекта, которые скрипт найдет в загруженном файле. Через несколько минут вы увидите пронумерованный список с адресами страниц и соответствующими им значениями самой главной в мире пузомерки.

Без регистрации вам будет доступна проверка только сотни значений. После регистрации это число увеличится до 300, что уже будет достаточно для многих проектов.

Я же кинул на счет 10 рублей и теперь за 50 копеек мне проверяют вообще все ссылки, что присутствуют в моем sitemap. Уже год прошел, а я еще и половины не истратил:

В самом конце списка будет выведена суммарная информация о количестве страниц вашего веб-проекта с определенными значениями PageRank. Например, для моего блога это таблица выглядит так:

К сожалению, за время прошедшее с написание этой статьи, второй сервис благополучно загнулся, поэтому информацию о нем я вынужден был отсюда удалить.

PaRaMeter — проверка PR с помощью программы


Сервисы это, конечно же, хорошо, но они могут быть по той или иной причине временно неработоспособны. В этом случае вам поможет программа PaRaMeter, которая устанавливается у вас на компьютере. Скачать PaRaMeter вы можете здесь.

Устанавливается она обычным образом. Запустите PaRaMeter и откройте из верхнего меню пункт «Tools» — «Extract URLs»:

Откроется окно «Extract URLs», где вам в поле «Starting URL» нужно указать Урл, с которого программа PaRaMeter начнет сканирование вашего ресурса в поисках всех его документов. Я ввожу в это поле адрес карты блога — так программе, наверное, будет проще найти все документы без исключения.

Для начала поиска нажмите на зеленый треугольник, а по завершению работы программы нажмите на значок дискеты, для того, чтобы сохранить все найденные Урлы. После этого окно PaRaMeter, под названием «Extract URLs», закроется.

Все извлеченные Урлы появятся на главной вкладке программы. Для определения показателей PageRank нужно нажать на зеленый треугольник:

Появится индикатор выполнения проверки. По окончании работы вы увидите список всех Урлов вашего проекта со значениями PR для них. Используя табуляторы можно, например, отсортировать получившийся список по убыванию:

PaRaMeter сохраняет результаты всех проверок и вы потом сможете сравнить, как изменился Page Rank со временем.

Supplemental Index — как узнать, насколько хорош ваш сайт


И опять речь пойдет о Google. Ну куда же без него. Несмотря на лидирующее положение Яндекса в рунете, мировой лидер очень близко к нему подобрался, и на большинстве хорошо посещаемых веб-ресурсов количество посетителей, пришедших с этих двух поисковиков, примерно равно.

А это значит, что важно знать, как относится Гугл к вашему сайту и сколько страниц уже попали в его основной индекс. Что примечательно, этот гигант может себе позволить индексировать вообще все, что сможет найти.

Но только качественные документы (по мнению Google) попадают в основной индекс, по которому ведется поиск. Все остальные находятся в, так называемом, Supplemental Index (или, по другому, сопливом индексе). Страницы попавшие в сопли не участвуют в поиске и, следовательно, на них не будут приходить посетители с этой поисковой системы.

Хотя нет, не совсем верно. Вероятность того, что на документ попавший в сопли придет посетитель с Гугла, все же есть. Это может произойти, если только в основном индексе вообще не найдется ничего подходящего под какой-нибудь экзотический запрос. Тогда поиск будет вестись по сопливому. Но это все же маловероятно.

В общем случае, чем больше ваших документов находится в основной базе, тем больше посетителей придет на ваш ресурс с этой поисковой системы. Но как узнать, сколько страниц вашего сайта проиндексировано и сколько из них попало в Supplemental Index? Вот как раз эту задачу и поможет нам решить Xseo.

Вы можете ввести в показанное поле, расположенное в центре, Урл своего проекта и нажать «Проверить». В результате вы увидите количество документов, находящихся в основном индексе Google и в Supplemental Index, а так же процентное соотношение страниц, находящихся в соплях. Например, для моего блога получается так:

Процент достаточно высокий, но статей у меня только четыре сотни, так что все в порядке, ибо все остальное это обвес.

В соплях, в первую очередь, живут документы с не уникальными текстами. Причем не важно откуда вы скопировали текст — с другого вебсайта или же со другого документа своего собственного проекта. Результат будет один — Supplemental Index.

Во-вторых, очень важно, сколько текста присутствует в документе. Если очень мало, то милости просим в сопливый индекс. Трудно однозначно сказать, какой объем текста на странице является достаточным для гарантированного непопадания в него, но иногда фигурирует цифра в полтора килобайта чистого информационного текста, без учета тегов HTML. Лично я пишу статьи, обычно, больше двадцати килобайт с учетом тегов.

Внимательно относитесь к тому, на кого ставите ссылки со своего сайта. Если на трастовые ресурсы, то это хорошо, а вот если на аутсайдеров в глазах Google (зафильтрованных, забаненных и т.п.), то опять же сопливый фильтр тут как тут. Так же вам вряд ли удастся обмануть Гугла и пропихнуть в его основной индекс статью с автоматическом переводом с какого-либо другого языка.

Посмотрите на качество переводов от самого Гугл и вы поймете, насколько хорошо он в этом разбирается. Машинный перевод от Google (тут находится обзор и сравнение онлайн переводчиков), на мой взгляд, вообще лучше, чем от любого другого игрока на этом рынке.

Ну, и так же вашу статью могут закинуть в Supplemental Index просто потому, что ее тематика сильно выбивается из основной, принятой на вашем вебсайте. Хотя это, наверное, все же меньшее из зол.

Возможно, что есть еще критерии, по которым можно судить о том, попадет данная статья в основной индекс Гугла или нет. Но здесь я привел, пожалуй, все основные правила, которые нужно соблюдать для поддержания партнерских отношений с этим колоссом.

Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

Еще:

Рубрики :Онлайн сервисы ¦ Пузомерки

Комментарии и отзывы

Юля

Всё так подробно- просто супер !

Спасибо

Ольга

PR prediction даже настоящее значение моего сайта PR правильно оценить не смог, стоит ли после этого доверять его прогнозам на будущее?

Дмитрий

Марина: с волками жить, по волчьи выть. Если быть белыми и пушистыми джентльменами, то в топе будут одни ГС, а СДЛ будут нервно курить в сторонке. По запросам Сайт и Страница, продвигаться не намеревался. Как-то это в голову не приходило, а вот по запросам pagerank и pr, да, цель такая была. Переборщил? Возможно. Подкорректируем, поправим. Спасибо за критику, обратная связь необходима для своевременной корректировки. Удачи.

Ольга

Дмитрий: Дай Бог всем так научиться ключевики вставлять. Статьи полезные для новичков типа меня. Спасибо вам, Дмитрий.

Максим

Все отлично расписано и легко читается. Спасибо за статью.

Yvan

Очень хорошая статья, всё правильно!

Но только гуугл в качестве «нормального» переводчика не пойдёт, справляется только с «лёгким текстом», а в основном сильно искажает!

Транслейт.ру!..

Летучес

Марина:

молодец марина!

evgen

спасибо, при следующем апе должно быть почти PR4, буду дальше продвигать

Алексей

Спасибо за статью! А как определить, какие именно в основном индексе, а какие в сопливом?

Андрей

Ольга: Же сказали, что всё это субъективно. Да и потом попробуйте просто перевести эту страничку в гугл хром!

yaolenka

Абсолютно верно этот сервис Supplemental немножко тоже сопливый)

Федор

Спасибо автору за хорошую статью! Очень интересует такой вопрос, вы как експерт своего дела, думаю должны об этом знать, — конкретный случай, — pr сайта равняется 4, а инструмент page rank prediction показывает 8, будет ли сайт передавать ссылочный вес равен pr8 или же все-таки 4?

Заранее спасибо! Буду ждать ответ!

garumna

Все отлично расписано и легко читается, много интересного узнала. Спасибо за статью.

Dorejshij

Спасибо за отличную статью и полезные сервисы.

Anna Plotnikova

Спасибо за полезную статью. Узнала много новых сервисов!

Саша

Очень полезная статья, особенно в свете последней индексации

Евгений

Сайт на доменной зоне .ru, возраст 10 мес., у Гугла не под фильтром 6% страниц.

Очень много страниц в ТОП-10 в Google.com, но в Google.ru нет страниц даже в ТОП-50. Трафик с Гугла около 10 чел/сут.

Пытался всё это как то связать с тем, что написано в Ваших статьях, но ничего не получилось. Если я правильно Вас понял, то в Google.com попасть гораздо труднее, чем в Google.ru

Проверил последнюю статью: в день публикации она в ТОП-10 по зоне .com Проверил около 20 предыдущих статей — все в ТОПе по .com, в зоне .ru — вообще статей в ТОПе нет.

Очень хотелось бы получить от Вас, Дмитрий, хоть какие то разъяснения.

И ещё один вопрос о машинном переводе Гугла. Меня в одной бизнес-школе по обучению блоггингу учили так: можно в буржунете по нужной тематике найти статью, взять её машинный перевод, довести текст до удобочитаемости и смело публиковать на своём сайте как уникальный контент. Иногда я использовал этот метод, а в основном писал статьи сам, но почему то всего 6% не под фильтром.

Вопрос: может ли Гугл свой машинный перевод, тщательно переделанный под хорошо читаемый текст «разоблачить» как не уникальный контент (копипаст)? Ведь это уже фактически рерайт.

Я уже длительное время не могу найти ответов на эти вопросы, поэтому, Дмитрий, Вы моя последняя надежда 🙂

http://energiya-zdorovya.ru/

alexey

Спасибо за статью! Давно искал способ определения pr всех статей сайта без ввода url каждого. Программа PaRaMeter помогла! Перепроверял на сервисах вводя адрес отдельных страниц — все точно!

Да, и неважно какая тошнотность и т.д. если в статье есть дельные советы.

Anton

Скажите пожалуйста как отнестись к это информации — 2 недели назад гугл поставил мне пр1, после чего сделал перелиновку сайта. А сейчас проверяю через Pagerank Checker = 4пр, SlavsSoft = 1пр, прогр. параметр = у главной показывает 1, а почти все остальные not/av.

аня

Мда только что-то этот сервис с проверкой сопливости не пашет не фига. Напишите как другим способом узнать сопливость сайта,а то на мой кулинарный уже полгода трафика нет с Гугла, писала им — сказали, что никаких фильтров и банов на нем нету, а трафа все равно нема

Может глянете его своим невооруженным глазом, а то не знаю уже что и делать с ним. Может домен сменить и перенести все рецепты?kulbar.ru. Спасибо. Буду ждать от вас новостей

Эдуард

Продолжаем разговор о Google PageRank (PR). Теперь я хочу представить вашему вниманию сервис, позволяющий узнать будущее значение PageRank. Сервис называется PR prediction.

http://link.ezer.com/tools/pagerank_prediction_report_check.asp

У меня указанная ссылка ведет не на Гугл ПэйджРэнк, а вообще не туда. С чем это может быть связано?

Эдуард

пардон, все нормально, это я страницу не догрузил.:)))

Цитата:

"Внимательно относитесь к тому, на кого вы ставите ссылки со своего сайта. Если на трастовые ресурсы, то это хорошо, а вот если на аутсайдеров в глазах Google (зафильтрованных, забаненных и т.п.), то опять же сопливый фильтр тут как тут. "

Вопрос: а если подобную ссылку на аутсайдера закрыть от индексации, это все равно не поможет?

Александр

Добрый вечер, Дмитрий!

Обращался в Google со своей проблемой, внятного ответа не услышал. Суть: магазин на CMS OpenCart, в robots закрыты ненужные страницы (фильтры, например).

Проверяю в site-auditor, проиндексировано Яндексом 170 страниц (правдиво), Google — 7730 (!!!). Начинаю смотреть, что это за чудеса — а по запросу «site:owlstore.ru» все, что следует индексировать, и что было скрыто robots. А также все давно затертые страницы, которых и быть в индексе не должно.

Как с этим бороться, и нужно ли?

Евгений Minsk

Благодарю автора, за прекрасную статью!

Татьяна

Добрый день, Дмитрий!

Скажите пожалуйста, вреден ли архив на сайте, как дублирование статей?

С уважением, Татьяна

Анна

Ошибка:

«обмануть Гугла и пропихнуть в его основной индекс статью с автоматическом переводом», а надо «обмануть Гугла и пропихнуть в его основной индекс статью с автоматическИм переводом»

Анна

Спасибо Вам за Ваши статьи. Многое начинаю переосмысливать. Удачи и процветания Вам.

Подписаться не комментируя