HTML-pedia
|
|
Сообщество
|
Навигация |
Фильтры GoogleКак у любой поисковой системы, у Google есть система фильтрации своей выдачи. Большой процент сайтов в интернете создано не для людей, а для перенаправления трафика на другие сайты, для влияния на поисковую выдачу и т. п., следовательно, чтобы выдача поисковика была чистой, этот мусор нужно тщательно отфильтровывать. Отфильтровывать таким образом, чтобы не пострадали нормальные сайты. А ведь нет четких критериев "нормальности", поэтому проблема фильтрации является сложной, и она до сих пор окончательно не решена. Под фильтры часто попадают "белые и пушистые" сайты, и причины этого попадания определить бывает очень сложно. Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает практически никакой информации о своих поисковых технологиях), отчетливо видно, что названий фильтров множество, но все они сводятся практически к одному – раскручивай честно, и с сайтом будет все хорошо. Поэтому нет смысла определять с высокой точностью, как называется наложенный на сайт фильтр. Способы выхода из-под них примерно одинаковы, а знание названия ничего не изменит. 1. Sandbox, песочница. Фильтр, с которым сталкивается большинство молодых сайтов. Проявляется в том, что первые месяцы работы сайта он принципиально не может занять первые места в выдаче, как его ни раскручивай. Песочница – это не санкция, это определенный испытательный период для молодых сайтов. Причиной его введения, скорее всего, послужило желание отсеять короткоживущие дорвеи и не допустить их присутствия на лидирующих позициях в результатах поиска. До введения песочницы некоторым дорвеям достаточно было пробыть на первых местах в поиске буквально несколько суток или даже часов, чтобы принести существенную прибыль владельцу. А если таких сайтов много? Пока сайт находится в песочнице, над ним нужно работать, чтобы после снятия фильтра он сразу занял хорошие позиции. Многие почему-то просто вешают на домен заглушку и ждут, но в этом нет смысла. Есть мнение, что песочницы не существует, и ее эффект – это следствие действия комплекса других фильтров, например, прямого влияния возраста домена или траста. Так это или нет совершенно не важно, так как эффект вполне очевиден, и его можно назвать отдельным фильтром. Иногда отдельно выделяют фильтр для молодых доменов. Песочница грозит лишь англоязычным сайтам. Избежать песочницы или сократить срок пребывания в ней можно несколькими способами. Впрочем, ни один из них не дает никакой гарантии: - регулярно наращивать качественную (по возможности, естественную) ссылочную массу; - изначально купить старый домен, на котором уже был возрастной трастовый сайт; - регулярно обновлять сайт качественным уникальным контентом, отдавать его по rss. Заниматься копированием текстов в других сайтов не следует; - закрыть от индексации все лишние служебные страницы сайта, оставив лишь то, что нужно и полезно посетителям; - не использовать излишнюю текстовую оптимизацию. 2. Фильтр "минус 30". Фильтр против тех, кто слишком активно и агрессивно продвигает свой сайт. Он не призван полностью выбросить сайт из поиска, а создан, скорее, для того, чтобы намекнуть хозяевам сайта на недопустимость спамерских методов продвижения. Причинами его наложения могут быть: - стремительный рост ссылочной массы, особенно если эти ссылки стоят с "мусорных" ресурсов – немодерируемых каталогов, гостевых книг, комментариев в блогах, форумов и т. п. Поэтому не стоит активно пользоваться системами автоматической регистрации сайта в подобных сервисах. - наличие на сайте "ссылочных помоек" - больших, плохо модерируемых каталогов ссылок, блоков рекламных ссылок на страницах, статей, опубликованных специально для размещения рекламы. - использование в раскрутке клоакинга. Клоакинг – выдача разного содержимого пользователям и роботам поисковой системы. Посетителям показываются читаемые информативные материалы, роботам – оптимизированные страницы для повышения поисковых позиций. - использование редиректа при помощи java script. Следует использовать только серверные редиректы (301, 302). Конечно же, не любой java script приводит к этому фильтру, как многие считают. Избавиться от фильтра можно избавившись от вышеуказанных методов продвижения и не используя их в дальнейшем. Удалив ссылочные помойки и почистив ссылочную массу, вы снимете фильтр с сайта. 3. Google Bombing. Остановка роста позиций по конкретному ключевому слову. Причина – быстрый рост ссылок с одинаковым анкором. Целесообразность его достаточно сомнительная, особенно касаемо некоммерческих запросов. Устранить его можно, например, разбавив ссылочную массу анкорами с текстовым окружением, да и вообще усилить ее трастовыми ссылками. Причиной введения данного фильтра был собственно "гуглбомбинг" - массовая закупка ссылок (зачастую многими людьми) с одним текстом на определенный сайт затем, чтобы продвинуть его по какому-то абсурдному запросу. Классический пример – первое место у сайта Макдональдса по запросу "ближайший общественный туалет" или у сайта Дмитрия Медведева по запросу "злобный карлик". Делалось это или просто ради шутки, или для того, чтобы навредить конкуренту или же просто в качестве вирусного маркетинга. Гуглбомбинг - следствие алгоритма ссылочного ранжирования, который, при наличии мощной ссылочной массы, практически не учитывает текстовое наполнение продвигаемой страницы. Впрочем, с введением этого фильтра избавиться от данного явления полностью не удалось. 4. Google Florida. Классический вариант пессимизации сайта – резкого падения позиций по всем продвигаемым запросам и, как следствие, падение трафика на несколько порядков. Накладывается за излишнюю оптимизацию страниц – перенасыщенность текста ключевыми словами, излишнее их наличие в тегах title, h1-h6, спамные мета-теги; по большому счету, за те действия владельца сайта, которые направлены на его продвижение, а не на улучшение с точки зрения пользовательского удобства. Фильтр работает не постоянно, а периодически; накладывается, в основном, на сайты, продвигаемые по коммерческим запросам. Это привело к тому, в частности, что на первых местах по многим поисковым запросам, даже по самым дорогим с точки зрения раскрутки, на первых местах находятся информационные или образовательные сайты, а не ресурсы, вкладывающие в продвижение большие деньги. 5. Supplemental Results. Дополнительные результаты поиска ("сопли"), то, что показывается после клика по ссылке "повторить поиск, включив опущенные результаты". Главная причина этого – неуникальность во всех пониманиях этого слова, в том числе в рамках одного сайта, дублирование информации. Одинаковые по структуре и, тем более, по содержимому страницы попадают в дополнительные результаты. В зарубежном интернете многие оценивают сайты именно по проценту содержания страниц в основной выдаче Гугла. Если этот процент ниже 30-40, то сайт считается неуникальным и не очень качественным. К наложению этого фильтра могут привести плохо настроенные CMS, которые генерируют много дублирующих страниц, а также страниц, не несущих полезной информации пользователям. Такие страницы, естественно, либо вообще фильтруются, либо попадают в supplemental. Для того чтобы избежать выпадения страниц в дополнительные результаты, следует, в первую очередь, использовать качественный уникальный контент. Во-вторых, нужно по максимуму исключить дублирование текстов в рамках своего сайта, закрыть от индексации все дубли. Этот фильтр зависит от запроса; по одному запросу страница может быть в основном поиске, по другому – в дополнительных результатах. Вывести страницу из-под этого фильтра можно таким образом: - покупка на нее трастовых ссылок; - уникализация title и мета-тегов; - увеличение количества на ней уникального контента; - уменьшение "битых" ссылок на сайте и, как следствие, страниц, выдающих ошибку 404; - правильная настройка движка сайта. 6. Фильтр на неуникальный контент. Быть может, не стоит выделять его как отдельное явление, но уж очень это массово. Страница, не содержащая уникального контента, попадет на первые позиции разве что заполучив огромную и трастовую ссылочную массу, да и то через долгое время. Из множества страниц, содержащих одинаковый текст, Гугл выбирает лишь несколько, которые и выдает в основной выдаче. 7. Фильтр на нерабочие ссылки. Позиции сайта могут понижаться, если на нем содержится много битых ссылок и 404-страниц. Избавиться от него можно, соответственно, избавившись от таких ошибок. 8. Фильтр на долго загружающиеся сайты. Если роботы Гугла не получают быстрый отклик от сервера, позиции сайта понижаются вплоть до полного исключения их из поискового индекса. Несколько лет назад от этого фильтра можно было эффективно избавиться, уменьшив размер страниц и изображений, находящихся на них. Сейчас же, когда интернет стал скоростным, и страница, даже занимающая несколько мегабайт, загружается очень быстро, причины подобных задержек могут заключаться в другом. Например, в неправильно настроенных скриптах или сервере. Поэтому копать надо глубже, в том числе выяснить у хостера, не ограничивается ли доступ к сайту для роботов поисковых систем. 9. Фильтр цитирования (Co-citation Linking Filter). Суть этого фильтра сводится к тому, что ссылаться надо только на качественные сайты, которые, в свою очередь ссылаются тоже на нормальные ресурсы. Естественно, проследить всю цепочку ссылок невозможно, соответственно, следует исходить из того, что, ставя на своем сайте ссылку на другой, вы рекомендуете его посещение своим посетителям. А если рекомендуются плохие сайты, Гугл делает вывод о том, что сам сайт тоже является некачественным и таким, который не заботится о своих пользователях. Фильтр может накладываться на сайты, продающие ссылки или места под статьи в автоматическом режиме, и владельцы которых не особо тщательно фильтруют поступающие рекламные материалы. 10. Фильтр ссылочных помоек. К нему может привести активное участие в системах автоматического обмена ссылками и появление на сайте большого количества страниц, содержащих исключительно ссылки. Обмен ссылками должен быть ручным, меняться нужно только с ограниченным числом качественных сайтов. И первичным на самом сайте должен быть именно его информационное наполнение, а не каталоги ссылок, играющие вспомогательную роль. 11. Фильтр взаимных ссылок. Массовый взаимный обмен, с точки зрения Гугла, это плохо. Поэтому следует использовать более сложные схемы обмена ссылками, например, когда первый сайт ссылается на второй, второй на третий, а третий на первый. Есть и более запутанные схемы обхода фильтра. 12. Фильтр быстрого прироста контента. Если сайт обновляется слишком часто и активно, Гугл может заподозрить его в использовании генераторов или парсеров контента и, следовательно, понизить его позиции или исключить из выдачи. Поэтому при использовании подобных генераторов стоит поставить ограничение на количество добавляемого материала за определенный период времени. 13. Google Bowling. Фильтр, существование которого подвергается сомнению. Суть его заключается в том, что он отслеживает сайты, занимающиеся нечестной конкурентной борьбой с целью загнать своих конкурентов под фильтры Гугла, например, массово закупая некачественные ссылки или рассылая спам. 14. Trust Rank. Степень доверия Гугла к конкретному сайту. Собственно фильтром траст не является, но сайту с более высоким показателем проще будет достичь высоких позиций. На него влияет фактически все то, что делает сайт интересным пользователям, в том числе и возраст сайта, который может говорить о серьезности намерений вебмастера. Надо помнить одно. Качественному сайту, который делается для людей, который регулярно обновляется качественной и интересной информацией, на которой появляются естественные ссылки, большинство фильтров не грозит.
Автор: Сергей Коломиец
www.cy-pr.com
|
|
|
При использовании материалов «HTML-pedia» ссылка на сайт html-pedia обязательна. |
© 2009 «html-pedia» |