Студия веб-разработки


Личный кабинет

Имя

Пароль

Запомнить меня


Забыли пароль?
Зарегистрироваться

Разместил: Maggot   Дата: 03.11.2008 19:02   Версия для печати
Фильтры Google служат для пессимизации (понижения позиций сайта в поисковиках) или для бана сайта. Какие фильтры существуют и как с ними бороться?


Google Sandbox

Фильтр, которыми пугают новичков - «песочница» Google. В него обычно попадают все новые сайты, хотя и старые сайты иногда попадают под этот

фильтр. Поисковая система Google bcgjkmpetn специальныы механизмы, не позволяющие молодым сайтам вылезать в ТОП по конкурентным ключевым запросам. Несмотря на это, молодой сайт может высоко ранжироваться по не очень конткурентным словам.

Как обойти эту самую «песочницу»? Для подсчета рейтинга Google использует так называемую систему “trust rank”, или, говоря простым языком, «уровень доверия сайту». Если на молодой сайт ссылается старый, которому Google доверяет, значит и молодому сайту так же можно доверять и к нему поисковая система не применяет фильтр Sandbox.
Google -30

Поисковая система может оштрафовать сайт, опустив его на 30 позиций в выдаче. Наказание применяется в отношении ресурсов, замеченных в использовании спаммерских технологий (дорвеи, javascript-редиректы и прочее).

Чтобы вернуться на свое нормальное место в выдаче, обычно достаточно просто отказаться от спорных элементов оптимизации и отправить запрос на повторное включение в индекс.
Google Bombing

Этот фильтр применяется к сайтам, на которые множество ресурсов ссылается по одному и тому же ключевому слову. Поисковой системе кажется противоестественным, что большое количество сайтов указывают на сторонний ресурс одинаковой текстовой ссылкой.

Если ваш сайт попал в данный фильтр, помочь может запрос на повторное внесение в индекс поисковой системы. Если фильтр не наложен, но вы заметили, что текст обратных ссылок на ваш сайт со всех ресурсов идентичный, вы можете попросить веб-мастеров изменить тексты ссылок или купить ссылки с тем текстом, который вам понравится.
Google Bowling

Это, скорее, не фильтр, а ряд приемов Black Hat SEO, которые повлекут за собой бан вашего сайта. Обычно термин употребляется по отношению к действиям конкурентов, направленным на борьбу с популярностью вашего сайта. Как правило, такая техника проходит только в отношении новых сайтов.

Хотя Google утверждает, что завистники никак не могут повредить вашему рейтингу популярности, если вы заподозрили в вашем бане чей-то злой умысел – подавайте запрос на повторное включение в индекс поисковой системы.
Google Duplicate Content Filter

Или фильтр для ресурсов, которые используют неуникальное текстовое наполнение. Как правило, такие ресурсы не поднимаются в результатах поиска высоко, а если на них не ведут обратные ссылки, страницы могут быть отнесены к «дополнительным результатам поиска» или вовсе будут опущены за незначительностью.

Если с вашего сайта украли материалы, попробуйте связаться с "похитителями", скорее всего текты уберут, ну или хотя бы ссылочку поставят на источник. Если же это не поможет, напишите письмо в Google и другие поисковые системы. Если модераторы решат, что вы правы, сайду-вору мало не покажеться. В дальнейшем, что бы избежать таких ситуаций, лучше использовать систему copyscape (ну или сам Google) для отслеживания уникальности текстов.
Google Supplemental Results

Дополнительные результаты поиска. О том, каким образом те или иные страницы сайта могут попасть в «дополнительные результаты», мы уже писали в одной из предыдущих статей. Так или иначе, определенные страницы сайта могут быть помещены во вспомогательную базу Google. Если по некоему ключевому запросу выдача системы будет небольшой, Google обратится к вспомогательной базе, содержащей дополнительные результаты поиска.

Вывести страницы из разряда «дополнительных» можно весьма простым способом – заполучив ссылки на «пострадавшие» страницы.Возрастной фильтр для доменных имен. Фильтр похож на «песочницу» и тесно связан с понятием «высокого уровня доверия поисковой системы».

Однако можно пользоваться большим доверием поисковика, не находиться в Sandbox и все же попасть в фильтр для молодых сайтов. По логике Google, старый сайт с большей вероятностью, чем новый, будет релевантен конкурентному запросу.

Единственный способ избежать фильтрации – обрасти честными входящими ссылками с авторитетных сайтов.

Фильтрация пропущенных поисковых результатов (Omitted Search Results). Если пользователь не активирует опцию «show omitted results», то не увидит страниц, внесенных поисковой системой в этот список. В фильтр попадают страницы, содержащие неуникальные тексты, страницы, в точности повторяющие чужие теги title и description, сайты со слабой внутренней перелинковкой или без сети обратных ссылок.

Как и в предыдущих случаях, владельцу сайта предлагается бороться с внутренними проблемами, заставившими сработать механизм фильтрации.
Google TrustRank

Существует много факторов, которые влияют на формирование показателя доверия Google к вашему сайту. Подробнее о них можно почитать тут. К основным факторам относятся возраст сайта, количество обратных ссылок и уровень доверия к сославшимся на вас сайтам, количество исходящих ссылок, качество внутренней перелинковки сайта, способ генерации . К основным факторам относятся возраст сайта, количество обратных ссылок и уровень доверия к сославшимся на вас сайтам, количество исходящих ссылок, качество внутренней перелинковки сайта, способ генерации URL на вашем сайте. Через этот фильтр проходят все сайты, и если ресурс не отвечает требованиям поисковика – пеняйте на себя.

Как перехитрить фильтр: и старый, и молодой сайт могут иметь высокий или низкий уровень доверия поисковой системы. Все дело в количестве обратных ссылок с раскрученных сайтов, пользующихся доверием поисковика, разумной системе внутренних ссылок на сайте и в качестве проработки некоторых других деталей. Оптимизируйте свой сайт для посетителей и для поисковых индексаторов, и вы будете пользоваться доверием поисковой системы.
Фильтрация страниц с заголовком «links.htm»

Как правило, такое название носят страницы, где публикуются ссылки на сайты партнеров по линкообмену. Платный обмен ссылками никогда не приветствовался поисковыми системами, а на сегодняшний день это и вовсе один из самых отсталых способов раскрутки сайта. Если вы не можете отказаться от страницы links.htm, замените ее заголовок чем-нибудь близким по смыслу, например «partners.htm» или «coolsites.html».

Фильтр для сайтов, участвующих в системах платного обмена ссылками. Алгоритм Google выявляет все сети платного обмена ссылками и налагает штрафы на сайты, участвующие в таких сетях – высоким рейтингом поисковой системы они похвастаться не смогут. Тем не менее, схема платного обмена ссылками может сослужить вам хорошую службу в некоторых ситуациях. Например, если вы создаете сайт ради того, чтобы получать прибыль от рекламы в AdSense и не собираетесь тратить время на раскрутку, сеть платного линкообмена позволит вам быстро набрать большое количество обратных ссылок. Вот некоторые полезные материалы по теме: статья Джо Вайта о 15 типах ссылок поможет развить сеть входящих ссылок на сайт.

Статьи Мэтта Каттса (эта и вот эта), а также материалы на www.searchengineguide.com и www.webmasterworld.com расскажут о фильтре подробнее.
Фильтр для генераторов ссылок

Автоматическими генераторами ссылок (или link farms) называют страницы и сайты, которые содержат большой объем ссылок, как правило, не связанных общей тематикой. Если Google заметит, что ваш сайт входит в подобную сеть, в лучшем случае вы потеряете рейтинг в выдаче. В худшем вас забанят. Единственный способ обойти фильтр - это, как ни парадоксально, не участвовать в системе автоматической генерации ссылок.
Фильтр взаимного цитирования

Этот фильтр – еще одна причина быть разборчивее при выборе партнера по обмену ссылками. Скажем, сайт N ссылается на ресурсы по тематике казино и порно, а также на вашу страницу. Вы, в свою очередь, также разместили ссылку на N. Из этого Google сделает вывод, что тематика вашего сайта связана с казино или порно. Помните, что непродуманная система взаимного цитирования повредит вашему рейтингу в поисковой системе и усложнит раскрутку по нужным ключевым словам. Статья Патрика Гэвина поможет при планировании кампании по обмену ссылками.

Сайт, на который в короткие сроки появляется куча ссылок может попасть в бан за спам, поэтому лучше использовать методы раскрутки сайта с умом и не торопиться.

Существует и наказание за слишком частое добавление больших объёмов материала на сайте. Поисковой системе не понравится, если на вашем сайте каждый день будет появляться новая тысяча страниц. Вы, скорее всего, будете заподозрены в автоматической генерации материалов, и, в зависимости от отягчающих вашу вину обстоятельств, ваш сайт либо окажется в Omitted\Supplemental Results, либо в бане.

Как обойти ограничение фильтра: если вы и в самом деле автоматически создаете страницы, установите ограничение для генератора. Приемлемое значение – 5000 страниц в месяц. Если ваш сайт пользуется хорошей репутацией или очень популярен, коэффициент допустимого прироста может повыситься.

Существует и фильтр для писсимизации сайта с большим числом битых ссылок. Если на сайте нарушена внутренняя перелинковка или много удалено страниц, тогда и пользователь не найдёт нужную информацию. Лучше перепроверить всё с помощью специальных программ, но лучше (конечно, если сайт небольшой), проверить всё руками.

Наказание за слишком большое время загрузки страницы. Если во время работы паука, скачаивающего страницу, они будут загружаться слишком медленно или очень долго, робот подождёт некоторое время и продолжит сканирование сайта, но уже на других страницах. В связи с этим страница никогда не окажеться в кеше поисковика, следовательно, и в выдаче поисковой системы она никогда не окажется. Поэтому следует уделить внимание оптимизации страниц для более быстрой загрузки. Чем меньше весит ваша страница и чем больше процент соотношения графики и кода к тексту, тем лучше.

Так же не стоит уж слишком усердствовать в оптимизации страниц ключевыми фразами, поисковые роботы могут принят это за чёрную оптимизацию и либо сильно понизить сайт в выдаче, либо вообще отправить в бан. Тогда потребуется очень много времени и сил для возврата в поиск.
Google Bombing

Google утверждает, что такой фильтр будет применятся только к тем сайтам, владельцы которых не хотели бы быть найденными по соответствующим запросам (и оставляет в секрете механизм дифференциации). Достаточно посмотреть на выдачу по популярным запросам, чтобы убедиться, что остальным это пока не грозит.
Google Trustrank

Единственная внятно сказанная вещь по поводу trustrank это «чем старше, тем лучше». Остальное порождает больше вопросов, чем ответов: влияет ли текст внешней ссылки на trustrank? Может ли внешняя ссылка привести к уменьшению trustrank? Откуда изначально взялись сайты с высоким trustrank? Мнений достаточно, но автор предпочел избежать сложностей
Google -30

Это спаммерский фильтр. Поэтому «обычно» делать уже нечего. Фильтр имеет временный характер и за ним следует исключение из выдачи. А вот в тех “необычных” случаях, когда он был применен по ошибке (сначала-то слух шел про якобы болтливого сотрудника Google, который руками раздавал -30), запрос на включение может помочь. Наверное. Есть среди наших читателей такие счастливчики? :)

Как перехитрить фильтр: и старый, и молодой сайт могут иметь высокий или низкий уровень доверия поисковой системы. Все дело в количестве обратных ссылок с раскрученных сайтов, пользующихся доверием поисковика, разумной системе внутренних ссылок на сайте и в качестве проработки некоторых других деталей. Оптимизируйте свой сайт для посетителей и для поисковых индексаторов, и вы будете пользоваться доверием поисковой системы.
Комментарии: (0)   Рейтинг:


Быстрый переход
  • Услуги
  • Разработка сайтов
  • Дизайн
  • Продвижение
  • Консультация
  • Портфолио
  • Вопросы и ответы
  • Информация
  • Стоимость услуг
  • Сроки выполнения
  • Гарантии
  • Порядок оплаты
  • Порядок работ
  • Разработка сайтов
  • Поддержка и продвижение
  • Дизайн
  • О нас
  • Контакты