Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт

9 октября, 2013

Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой выхода из-под фильтров Яндекса и Гугла, под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

Послабление фильтров с Яндекса и Гугла


Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше, чем обычно в последнее время.

На общей картине посещаемости это отразилось примерно так:

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Мне кажется, что апдейты Яндекса не являют всеобъемлющими, т.е. не захватывают всего объема корпуса запросов, а окучивают их планомерно от апа к апу. Ну, время покажет. Я сейчас вообще ни в чем не уверен и если все бахнется обратно, то, наверное, даже не удивлюсь.

С другой стороны, если судить по отзывам на популярный форумах сео тематики, то у многих трафик возвращался сразу и в полном объеме. Тут возможны нюансы, ибо могли при этом быть всего десяток трафикогенерирующих запросов и им ничего не стоило апнуться всем сразу. Опять же, это мои домыслы.

Кстати, я так еще и не спросил у Платона Щукина — «а был ли мальчик?» Ну, в смысле, а состоялся ли выход из под фильтра. Ибо может быть всякое.

Что приятно, на рост трафика с Яндекса откликнулся и Гугл, хотя и с небольшой задержкой. Когда я угодил под фильтр зеркала рунета, то Google тоже откликнулся, но с чуть большим лагом:

Вот и гадай теперь, то ли апдейты гугловских панды или пингвина совпали так с Яндексом, то ли рост трафика с одной поисковой системы привел к изменению отношения другой. Опять же никаких соображений на этот счет у меня нет. А у вас?

Вот, кстати, наглядная демонстрацию того, что происходило с трафиком с Гугла за последние два с половиной года:

Панда и Пингвин — ссылки в Google стали влиять негативно


Давайте я вкратце поясню, что это за звери такие (панда и пингвин), если кто-то не знает, и зачем это Disavow надо. Ну, и заодно станет понятно, почему до весны 2012 оптимизаторы ругались и бранили исключительно Яндекс, а Гугл считали этаким дурачком, которому какую ссылку не сунь, он все ее в плюс для сайта обращает.

Сейчас же на форумах бранят исключительно Google и их политику «жадности», а про Яндекс все большее хорошее говорят, ну, или просто молчат. Тут все дело заключается в резкой смене политики, которая по рунету ударила особенно сильно, ибо в буржунете гайки были затянуты посильнее и ссылочное там наращивали еще тогда аккуратно и в меру.

А у нас рулила и, как не странно, продолжает рулить Сапа. Ее столько раз хоронили, что и не сосчитать, а она живее всех живых. В основном, конечно же, это обусловлено главенствующим положением Яндекса в рунете. Коммерческие запросы пользователи вводят по большей части там, а Google в основном окучивает информационные.

Продвигаться ссылками с Сапы под Гугл будет становиться со временем все сложнее и сложнее, ибо эта поисковая система реально наказывает за плохие (спамные, покупные) ссылки (тот самый пресловутый Пингвин). Яндекс же их просто не учитывает (если обнаружит, конечно же).

Произошло то, что по словам SEO оптимизатора не могло произойти никогда — обратные ссылки в ряде случаев стали злом. Раньше они имели только два возможных эффекта влияния на продвижение: либо положительное, либо никакое. Примерно так дело сейчас и обстоит в нашем отечественном поисковике.

Google же пошел дальше, добавив еще один эффект влияния на продвижение: отрицательный. Оптимизаторы говорили, что этого не могло случиться потому, что после этого начнется хаос и конкуренты начнут топить друг друга, покупая тоннами спамные дешевые ссылки на сайты друг друга.

Гугл это не испугало. Определенно есть доля истины в высказываниях тех, кто говорит, что рожденный хаос и чехарда в выдачах преследует только одну цель — заставить потенциальных клиентов отказаться от ничего не гарантирующего Сео и вливать деньги исключительно в Адвордс.

Но формально к Google придраться очень сложно, ибо хитрые ребята из этой мега корпорации предоставили всем желающим возможность убрать негативное влияние спамных ссылок с помощью инструмента Disavow links. Вас топят конкуренты? Проставили 10 000 ссылок с ГС? Не беда.

Найдите все эти плохие бэклинки, сформируйте из них текстовый файлик и сообщите о нем Google через форму Disavow links. Не пройдет и двух недель (двух месяцев или года) и все попытки вас утопить будут нивелированы. Не беда, что полгода или год вы не будет получать трафика (иметь продаж), в конце концов справедливость восторжествует.

А какие ссылки считать спамными? Какие критерии брать в рассмотрение? Как быть владельцу мелкого магазинчика, у которого нет Сео специалиста? Наверное, многие из тех, кто задается этим вопросом, через некоторое время понесут свои денежки в Адвордс, ибо там есть гарантия получения трафика. Что и требовалось доказать.

Нам же с вам в Адвордс нельзя, ибо большинство информационных проектов как раз и зарабатывает там, а точнее в его оборотной стороне под название Адсенс. Нам нужно решать эту задачку с Disavow links. Или хотя бы четко для себя определить, что этого не требуется. А как это сделать?

Как мне кажется, при возникновении проблем с гугл-трафиком, нужно попробовать как-то понять, под какой именно фильтр влетел ваш сайт, ибо это определит дальнейшую стратегию выхода из-под него.

Я довольно много читал и про Панду и про Пингвина, но думаю, что провести между ними реальную грань и дать их четкое определение могут только разработчики. Где-то они пересекаются, но в основном можно, наверное, считать, что:

  1. Пингвин наказывает за спамные ссылки, т.е. за внешние факторы чрезмерной поисковой оптимизации
  2. Панда наказывает за спамные тексты, внутреннюю линковку и накрутку поведенческих. Т.е. огрубляя — за то, что вы делаете сами на своем проекте.
  3. Оба этих фильтра накладываются и снимаются только автоматически — пингвин в свои апдейты, а Панда в свои (правда, последнее время она уже не имеет ярко выраженных апов для всех сайтов). Писать в техподдержку Google бесполезно и подавать на пересмотр тоже.

    Но есть еще и меры применяемые к сайту вручную (например, по стуку конкурентов) и от них тоже зачастую можно избавиться с помощью Disavow links. После этого нужно будет подать сайт на пересмотр в панели инструментов Гугла («Поисковый трафик» — «Меры принятые вручную»)

Панда появилась чуть раньше, но по большому счету точкой отсчета для них обоих можно назвать 2012 год. Оба этих фильтра имели в свое время четкие даты обновлений, что позволило оптимизаторам косвенно судить о том, за что получил пенальти тот или иной сайт (ориентируясь на дату, когда начал падать трафик).

Чтобы не попасть под эти фильтры оптимизаторы пересмотрели уже довольно давно политику продвижения сайтов. Анкоры ссылок с прямыми вхождениями стараются использовать ограничено, все больше становятся популярными разбавленные вхождения или же вообще безанкорные ссылки. Последнее время приходит много заявок на размещение ссылок вида http://computers.wikimart.ru/computers/tablets/, т.е. в которых в качестве анкора используется Урл.

Так же в безанкорных используются и слова «тут», «здесь», «сюда». Иногда даже размещают неактивные бэклинки, т.е. те, по которым нельзя кликнуть и совершить. Даже с прописанным внутри атрибутом rel="nofollow" покупают, ибо в естественном ссылочном профиле такие ссылки обязательно присутствует.

Многие ссылочные биржи сейчас перестраиваются под такие потребности. Например, Сапа, или все та же биржа статей WebArtex, недавно обновила свой ссылочный ассортимент, о чем я упоминал в этой публикации.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже свою страничку 404 переделать под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool.

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс, а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала статистика собираемая Метрикой от Яндекса, ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же аккаунте в Google у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина, но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам, целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас уменьшился траст сайта, хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт


Если это была Панда, то остается только ждать и надеяться, а если это был все же страшный Пингвин, то имеет смысл заморачиваться и озаботиться подготовкой списка для Disavow links. Начало этой процедуры практически при любом сценарии ее дальнейшего развития будет заключаться в том, чтобы выгрузить из Гугл Вебмастера все обратные ссылки на ваш сайт, которые данная поисковая система знает и которыми готова с вами поделиться.

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил:

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок». Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог, но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную».

Как отбирать плохие обратные ссылки для добавления в Disavow links

В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают Сео расширения для моего Гугл Хрома, делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

Тут однозначно нужна автоматизация, которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса: буржуйский от Moz под названием Open Site Explorer, а так же отечественные Solomono (Линкпад) и Ahrefs.

Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг, то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links.

Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

Подборки по теме:

Комментарии и отзывы

АлаичЪ

Доброго дня и автору и читателям.

Я бы хотел уточнить по поводу программы FastTrust и требований. Прокси нужны далеко не всегда, но я обязан всех предупредить, что они могут понадобиться. Лично я работаю без прокси. Но для больших проектов — это от 10к строк — все же будут нужны.

На счет ahrefs и платной подписки, если этого не будет — ничего страшного не случится, тогда спамность будет рассчитываться по данным соломоно. Я и сам не снимаю данные ахрефс, но не потому, что нет подписки (она у меня есть), но просто достаточно и solomono.

Дмитрий

АлаичЪ: хорошо. Спасибо за разъяснения, а то я из Вашего описание понял все буквально.

Димас

Спасибо за статью!

Вот на форуме мне парень почисти ссылки всего за 200 рублей. И то денег он не просил, но я понимаю, что любая работа должна оплачиваться и послал ему денег сам.

После недавнего апа Пингвина трафик вернулся на 85% от прежнего.

Всем советую.

Вот тема: http://www.maultalk.com/topic154857.html

Дмитрий

Спасибо за пост. Думаю пока заморачиваться с этим не стоит. Удачи Дмитрий!

Алексей

Дима, я вообще удивлён падениями твоей посещалки по гуглу.

Задача гугла давать ответы на поставленные вопросы пользователями, а твой ресурс как раз хорошо с этим справляется 🙂

Что касается текстов «Ктонановенького» — они человеческие, так что Панда тут должна отдыхать читая их.

Я продвигаю ресурсы в довольно конкурентных тематиках по гуглу и перенаспамленность текстов моих и текстов конкурентов обходящих мои ресурсы зашкаливает, по сравнению с твоей.

Так что ищешь ты, по моему, в правильном направлении... дело в птице)

А что с Письмами в Гугль?

Вот человек уже много телеграмм им написал http://seoprofy.net/2012/07/kak-vyvesti-sajt-iz-pod-filtra-google-penguin/

Андрей

А зачем покупать ссылки? 🙂

Дмитрий

Гугл, видимо, говорит, что если хотите заработать в интернете, то клепайте ГС, чтобы потом не заморачиваться с фильтрами

Андрей88

Странно, не ну реально странно. Вроде неплохой ресурс, и статьи уникальные, качественные и понятные. У меня вопрос к Диме, а с чего вообще такое мнение, что сайт под фильтром был или есть?!

Неужели не может быть другое объяснение такого скачка позиций?

Вижу три варианта всего происходящего:

1. Дима что-то недоговаривает, заигрался со своим блогом и продвижением, как результат получил за это по шапке.

2. Что-то помимио Пингви и Панды повлияло, при чем равно как в Яндексе, так и Гугле на позиции ПС.

(вот что???!!!)

3. Все таки влетел под животное гугла...

P.S.

А в таких ПС как Рамблер, или Майл смотрел показатели? Тоже просели или нет?!

Дмитрий

Алексей: ну, Гугл поддержки фактически не существует. На том форуме я уже задавал вопросы, но не получил ответов.

Андрей: а для Пингвина не важно покупали вы эти ссылки или они образовались без вашего участия. На Серче достаточно много приводят примеров, когда под фильтр попадали вообще никогда не продвигаемые сайты.

Андрей88:

1. А чем это от фильтра или пессимизации отличается? Собственно, предысторию можно почитать тут.

2. Как варианты — стук, либо намерено валили, либо совпало так. Второе или третье очень похоже на правду, ибо в бэклинках около тысячи дорвеев, которые в одном случае потырили часть статей с обратными ссылками, а в другом просто по какой-то непонятной мне причине проставили бэки на мой блог.

В общей сложности это треть от всех ссылающихся доменов. Сейчас часть из них уже померла, может поэтому и получил послабление от Гугла.

3. Хотелось бы знать. Мне один добрый человек по имени «Sascha» сразу после публикации статьи прислал на почту выгрузку из Ahrefs с 60 000 бэков для http://ktonanovenkogo.ru. Хочу высказать ему за это огромную признательность, ибо вещь оказалась очень любопытная и, надеюсь, полезная.

Я их сейчас как раз просматриваю и добавляю в список Disavow все ГС домены и то, что совсем не коррелируется по тематике.

P.S. В итоге после обработки всех шестидесяти тысяч ссылок добавил в Дисавоу 851 домен. Посмотрим, как на это отреагирует Google и отреагирует ли вообще.

Андрей

А ФастТраст бери, не пожалеешь.

Я тащусь от этой проги ...

ilia

может это конкурентов бросает в/из фильтры, соответственно у вас позиции пляшут? не?

Андрей

Здравствуйте Дмитрий!

У меня таже проблема, что и в статье написанная Вами. Дело в том что в феврале этого года поднялся трафик с 300 уников до 700, и я очень обрадовался этому. Начал заниматься перелинковкой сайта.

Сначала добавил по 10 ссылок на подобные статьи (ну похожие с одной рубрики) в конец каждой статьи, которая вышла в топ (читайте также) Затем начал вставлять ссылки в других статьях. Всего у меня 256 статей переделал примерно 150 (то есть я так понимаю это спам?)

Также в те статьи которые у меня были в топе я вставил партнерские ссылки. Сейчас с яндекса идет 350-400 уников, а с гугла в 2 раза меньше. И те статьи которые были в топе ушли аш в топ-30, а было наоборот с гугла приходил трафик больше чем с яши.

Могла ли повлиять проделанная мною работа на гугл?

Андрей

Забыл сайт указать 🙂 http://rebenok.msk.ru/

Роман

Добрый день!

Дмитрий, в свете Пингвин 3.0 хочется узнать продолжение!

Артур

Очень полезная статья, забираю, как настольную книгу. Если есть возможность, помогите пожалуйста разобраться со скрином https://yadi.sk/d/_Jf15tL9kTEMU на что это больше всего похоже?

Спасибо за внимание.

Артур

В дополнение к предыдущему комменту — с kiwis.ru 67 000 ссылок. Рубить? Могли ли они повлиять на выдачу в google?

Денис

Здравствуйте, на сайте osn точка by гугл видит проблему в файле Robots.txt, хотя все нужные разделы разрешены для индексации.

Подписаться не комментируя