Главная » Вебмастеру » Рассказ о «страшных фильтрах Гугла», о которых сам Гугл никогда не слыхал

Рассказ о «страшных фильтрах Гугла», о которых сам Гугл никогда не слыхал

Все вебмастера, вступая на тяжкий путь продвижения своих сайтов в выдаче поисковых систем, подобны неопытным диверсантам на минном поле. Естественно, их насильно на это «минное поле» никто не толкал, они вызвались осваивать его самостоятельно, и желательно в самые кратчайшие сроки. Однако, прекрасно понимая, что личного опыта у них для проведения такой опасной работы не имеется, они стараются прибегать к опыту других СЕО-мастеров, услужливо делящихся с ними своим опытом в виде миллиардов «учебных» статей на миллионах «вебмастерских» блогов. Новички тщательно изучают весь этот «опыт», накопленный и передаваемый им бесплатно (стоит это отметить особо) многочисленными СЕО-гуру, копируют все опубликованные схемы, ни на йоту не отступая от инструкций и… ничего по большей части не добиваются. Мало того – их сайты уходят в «бан» всё чаще и чаще, и как бы они не старались идти «след в след» за щедрыми на ценную информацию авторитетами, у них ничего не выходит. Кого в этом винить? Конечно же, себя в первую очередь. У кого поднимется рука бросить камень в сторону СЕО-авторитета?

Рассказ о «страшных фильтрах Гугла», о которых сам Гугл никогда не слыхал

Однако не всё так плохо, как кажется на первый взгляд. Все эти «СЕО-авторитеты» на проверку оказываются жалкими брехунами, которые, как говорится «врут и не краснеют». Естественно, врут они не от удовольствия, а из необходимости. За любые знания нужно платить, если не деньгами, так бартером. В Интернете с этим полегче – повесил на свой «вебмастерский блог» умную статью – вот тебе и дивиденды в виде признания поисковых роботов, которые оценят количество букв в статье и релевантность ключевых фраз в ней же. Чем больше таких статей – тем выше поднимается ресурс, тем больше на него заходит посетителей, тем быстрее растёт у хозяина блога число рефералов на всевозможных партнёрских программах, которые он предлагает со своей реф-ссылкой. И неважно, что все эти рефералы ничего из этих статей не вынесли полезного – со временем сами научатся, разберутся, и реферальские деньги всё равно потекут рекой. Чем больше мух попадётся в паутину, тем жирнее будет паук, потому что мухи если и умнеют, то только лишь задним числом.

Но не в этом суть моего повествования. Сегодня я хочу рассказать всем желающим меня послушать о неких мифических «фильтрах Гугла», которые выдумал вовсе не Гугл, а вот такие «СЕО-умники», заманивающие доверчивых посетителей на свои «вебмастерские сайты» халявными «знаниями». Кто-нибудь видел на сайте Гугла информацию про все эти «фильтры»? Я лично за много лет ничего подобного там не нашёл. Но тем не менее нам хором утверждают, что все эти фильтры существуют и даже процветают. Например такой широкоизвестный фильтр-пугалка, как «Duplicate content». В жизни не слышал большей глупости. Надо только вдуматься в эту фразу: «Гугл накладывает этот фильтр на все сайты, размещающие на своих страницах контент с других сайтов, и от этого становящийся неуникальным». Красиво звучит? Естественно! Такие красивые фразы рассчитаны только на развесистые уши ничего не смыслящих в СЕО-продвижении новичков, у многих из которых хоть и есть голова, но нет необходимого опыта, без которого эта голова думает в неправильном направлении. Давайте тогда подумаем вместе, вернее посмотрим: идём в Гугл по любому понравившемуся вам запросу, копируем кусок сниппета первого же сайта, вставляем его в строку поиска и нажимаем СТАРТ. В 50 случаях из 100 нам будет выдан целый список сайтов с одним и тем же сниппетом, а при ближайшем рассмотрении всех этих сайтов окажется, что на данной странице у всех стоит одна и та же статья – слово в слово, буква в букву. Ладно, если это новостной сайт – Гугл к новостям относится трепетно и бережно, но ведь там сплошь и рядом будут попадаться обычные обзорные сайты, для которых у поисковых систем никаких бонусов не предусмотрено.

Если Гугл и применяет фильтр «Duplicate content», то только лишь по отношению к сайтам и страницам по слишком уж «вкусным» и высококонкурентным темам – коммерческим, медицинским, казиношным и прочим в таком же духе. Но это уже скорее не фильтр, а метод борьбы с засильем в этих темах всякого «мусора», не представляющего из себя ничего интересного. В таком случае наличие «дублированного контента» является не решающим фактором, а вспомогательным, который действует вкупе со всеми остальными выявленными нарушениями. Самостоятельно это «фильтр» действовать никак не может, потому что полезность сайта или его никчемность определяются с помощью совершенно других инструментов, например Google Toolbar, через который в аналитический центр поисковой системы стекается вся информация, касающаяся статистики посещений того или иного сайта теми или иными пользователями этого инструмента. Если сайт под завязку набит неуникальными статьями, но тем не менее посетителям он нравится и они проводят на нём довольно долгое время, то такому сайту со стороны Гугла ничего не грозит. Резюме: делайте интересные людям сайты, и можете забыть про «фильтр» «Duplicate content» на веки вечные. Как делать интересные людям сайты? Делайте их для себя, и тогда они понравятся и остальным.

Следующая «страшилка» для новичков – «Google Bombing». Такая же нелепость, как и «Duplicate content». Чтобы в этом убедиться, даже в Гугл ходить не надо, стоит только лишь подумать. По распространённому в широких кругах убеждению, при продвижении сайта ссылками под Google, с помощью этого фильтра «тормозятся» сайты, на которые стоит множество ссылок с множества других сайтов с одним и тем же анкором (то есть текстовым оформлением гиперссылки). Например, если у меня есть сайт по продаже виагры, и на него по своей собственной инициативе несколько тысяч (а то и миллионов – чем чёрт не шутит!) проиндексированных Гуглом сайтов поставят ссылку с анкором «купить виагру», то моему сайту придётся худо – Гугл понизит его в выдаче, а то и вообще выкинет из неё. Нет, это только надо представить! Например, у меня есть конкурент, который переходит мне дорогу по многим «вкусным» запросам, касающимся виагры, и я никак не могу его обойти и поставить свой сайт в выдаче перед ним. Что я делаю? Я иду на сайт Великого Ботмастера, покупаю у него за 600 долларов США его знаменитый Хрумер и базы к нему, насчитывающие несколько миллионов всяких спам-ресурсов (форумов, блогов, гостевых книг), заряжаю в него ссылку на сайт конкурента с самым тематическим анкором, и в течение суток (а то и нескольких часов – всё зависит от ширины канала провайдера) расставляю эту ссылку на всех этих миллионах «дружественных ресурсов». Самое худшее, что грозит в этом случае моему конкуренту – это немногочисленные жалобы на его сайт хостеру со стороны не совсем адекватно мыслящих хозяев некоторых таких ресурсов. Как Гугл прореагирует на появление миллиона ссылок с одним анкором с проиндексированных им ресурсов? Об этом нам может рассказать сам Гугл. Он уже много лет подряд клятвенно уверяет всех вокруг, что никакой конкурент никогда не будет в состоянии «завалить» любой нежелательный ему сайт «руками» Гугла, и оснований не верить Гуглу нет – врать одно, а делать другое совершенно не в его интересах. Мораль, надеюсь, понятна – действие фильтра «Google Bombing» вредно в первую очередь для хороших сайтов, а значит и для Гугла. Поэтому если такой фильтр когда-то и существовал, то только лишь в воображении всяких «профессоров от СЕО-науки».

Banned-google-02

Ещё один интересный якобы «фильтр», касающийся сайтов, которые слишком быстро «обрастают» страницами. Например, поисковые роботы Гугла обнаружили на новом домене сайт, у которого насчитывается 10000 страниц. Моментально срабатывает фильтр, который загоняет такой сайт в «отстойник» на «сотые-двухсотые» страницы выдачи и не пускает его выше, пока Гугл не убедится в том, что этот сайт «белый и пушистый». А его многостраничность объясняется только тем фактом, что у его хозяина имеется очень много всякой полезной информации по теме, которую ему во что бы то ни стало надо донести до заинтересованных в ней пользователей интернета. Допустим, что такой фильтр существует. Допустим. Но почему тогда в интернете по очень многим запросам мы часто обнаруживаем многостраничные «плохие сайты», часто не несущие не только вообще никакой полезной информации, но и представляющие собой прямую опасность для компьютеров интернет-пользователей? Вы никогда не встречали в выдаче Гугла сайты, на которые сам же Гугл закрывает доступ страницей с надписью типа: «Посещение этого сайта может нанести существенный вред вашему компьютеру»? Причём эти сайты во множестве попадаются именно на первых страницах выдачи, на самых хороших позициях, и «висят» они на этих позициях достаточно долго, чтобы заподозрить Гугл в чём угодно, но только не в желании бороться со всем этим «веб-спамом». Я не поленился, и начал посещать эти сайты, но не из выдачи Гугла, блокирующего оттуда к ним доступ, а просто копируя ссылку в адресную строку. И что я начал обнаруживать? Я начал обнаруживать там обычные многостраничные «дорвеи» (1000-10000 и больше страниц), которые были нашпигованы всякими скриптами, не представлявшими для компьютера интернет-пользователя никакой угрозы, а предназначенные только лишь для того, чтобы более эффективно управлять динамикой такого сайта-гиганта. То есть Гугл банально «лоханулся», то есть принял безвредный скрипт за вредный, но не разобравшись, просто решил перестраховаться. Но не в этом всё-таки дело, а в том, что в выдаче Гугла по совершенно разным запросам спокойно «висят» целые скопления таких «многостраничников», предназначенных для обмана поисковых роботов, но не получающих совершенно никаких санкций. Стоит заметить, что в вопросе «СЕО-отимизации» многие из них и на самом деле сделаны безукоризненно, и способны обмануть любого поискового робота, да и все алгоритмы Гугла вместе взятые, но как, спрашивается, можно убедить роботов, что перед ними не огромный дорвей, а маленький и неприметный, «белый и пушистый» веб-ресурс? Я так понимаю, что в отношении этих сайтов «фильтр на многостраничность» не срабатывает, и совсем не потому, что установленные на них скрипты «отводят глаза» индексирующим роботам. Это просто глупо. Роботы – не люди. У них нет глаз, но они в состоянии отличить «многостраничник» и наложить на него пресловутый «фильтр», о котором нам прожужжали все уши различные «хорошо информированные» «СЕО-умники». Но они этого не делают. А это значит, что и этот фильтр – такая же лапша на уши, как и все остальные.

sandbox-google-03

Существует ещё множество фильтров помельче, которые якобы Гугл использует, чтобы испортить «СЕО-карьеру» многочисленным новичкам и заставить их отказаться от наполнения Интернета всякими «плохими», по разумению Гугла, сайтами. Например, фильтр «песочница» (или «Sandbox») — один из самых популярных во всём фольклоре, который свято исповедуют не только новички. Согласно мощной гипотезе, под этот фильтр обычно попадают все «свежие» сайты без исключения, то есть сайты, возникшие на новых доменах. Якобы он накладывается на домен на несколько месяцев (до полугода), а освобождает от него только в том случае, если на домене не было замечено ничего нарушающего правила. Ну, теоретическое обоснование этого «фиьтра» довольно мощное, однако в практическом плане всё не так уж и плохо. Лично я, как и многие мои друзья-оптимизаторы и другие знакомые, занимающиеся вебмастерским ремеслом, с этой «песочницей» никогда не сталкивались. Имея сотни доменов, ни один из нас не мог «похвастаться» тем фактом, что какой-то домен после регистрации и полноценной веб-жизни попадал в какую-то «чёрную дыру». Да если и поразмыслить хорошенько, то можно прийти к закономерному выводу, что в таком фильтре нет совершенно никакого смысла. Например я, вебмастер со стажем и всем необходимым опытом, сделавший и успешно «запустивший в полёт» за свою карьеру немало прекрасных и полюбившихся Гуглу сайтов, и тут начинаю попадать со своими новыми, но такими же прекрасными сайтами в какие-то непонятные «песочницы», то кто от этого выиграет, а кто проиграет? Проиграют все, начиная в первую очередь с Гугла, ТОПы которого будут всё время забиты всяким «дерьмом», в то время как настоящие хорошие сайты будут прозябать под какими-то фильтрами? На это Гугл никогда не пойдёт, как и в случае со всеми остальными своими «фильтрами», о которых ни его руководство, ни его персонал и слыхом никогда не слыхивали, и которые существуют только лишь в воображении всяких горе-вебмастеров, привыкших вешать лапшу на уши неопытному молодому поколению вебмастеров-новичков.

Спасибо за внимание, с вами был Афанасий Шнипперсон

обновлено: 31.07.2018 - 22:16

  поделитесь с друзьями:
Подписаться на почтовую рассылку*

Оставить комментарий

Авторизоваться через: 

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Нажимая кнопку "Отправить", я принимаю пользовательское соглашение и подтверждаю, что ознакомлен и согласен с политикой конфиденциальности

Сообщите об ошибке, мы исправим:

Отправить