Войти на сайт

Апдейты поисковых машин
   
каталог


Какие фильтра использует Гугл для выдачи поиска.

rss
У Google, как и у любой поисковой системы, есть свои фильтры. В интернете большинство сайтов сделаны для перенаправления трафика на другие сайты и т. п., а не для людей, поэтому их нужно отфильтровывать для чистой выдачи поисковика. А ведь нужно отфильтровывать еще и так, чтобы не пострадали сайты, сделаны для людей. И поэтому причину попадания под фильтр определить довольно сложно, так как нету четких критериев отфильтровывания сайтов.
На самом деле названий фильтров довольно много, но сводятся к одному – раскручивай сайт честно и все будет отлично. И вот поэтому, название фильтра, наложенного на сайт, ни какого значения не имеет, и к тому же, способы выхода из них почти одинаковы.

1. Sandbox, песочница – этот фильтр проявляется в том, что сайт несколько первых месяцев своей работы не может попасть впервые места выдачи, как бы вы его при этом не старались раскрутить, и как вы уже поняли, с этим фильтром сталкиваются, как правило, молодые сайты. Это, так называемое, испытание для только что созданных сайтов.
И пока ваш сайт находится в этом фильтре, работайте над ним, чтобы после того как он выйдет из-под фильтра сразу же занял отличные места в выдаче. А вот на домен вешать заглушку не стоит, так как это ни чего не изменит. Песочница опасна только для англоязычных порталов. И чтобы сократить срок пребывания в песочнице либо избежать попадания в нее есть несколько способов, но гарантии в них нет никакой.

Это такие как:
• заполнять ваш ресурс уникальным контентом регулярно
• наращивать естественную ссылочную массу
• лишние страницы сайта закрыть от индексации, оставив только то, что необходимо пользователю
• не пользоваться лишней текстовой оптимизацией
• купить домен, на котором уже был возрастной трастовый портал.


2. Фильтр "минус 30" – этот фильтр создан для тех, кто очень быстро продвигает сайт. Он не выбрасывает сайт из поиска, а только намекает владельцу, что не нужно сайт продвигать спамерскими методами. Причины наложения:
• если на сайте есть «ссылочные помойки» - статьи для рекламы, плохо модерируемые ссылки и т. п.
• ссылочная масса растет очень стремительно, тем более, если эти ссылки с «мусорных» порталов – форумом, каталогов т. д. Поэтому не пользуйтесь системой автоматической регистрации
• пользование редиректа при помощи java script. Нужно использовать лишь серверные редиректы
• использование клоакинга в раскрутке. Клоакинг – это выдача различного содержимого роботам и посетителю. Роботам показываются только страницы, которые необходимы для повышения поисковой позиции, а посетителю – только читаемая и полезная информация.
Выйти из-под фильтра можно лишь избавившись от всех методов наложения этого фильтра, которые указаны выше.

3. Google Florida – это пессимизация сайта – стремительное падение позиций по всем запросам, по которым он продвигается. Накладывается на страницы, на которых существуют тексты, содержащие большое количество ключевых слов, спамные мета-теги, в общем, за то, что хозяин сайта делает все для продвижения, но ни как не для удобства пользователя. Этот фильтр работает не всегда, а только периодически и накладывается, как правило, на те порталы, которые продвигаются по коммерческим запросам.

4. Supplemental Results. Причиной наложения этого фильтра является не уникальный и дублируемый контент на страницах ресурса. И если у вас страницы портала не несут никакой полезной информации для пользователей или же плохо настроенные CMS, то вам не избежать попадания в этот фильтр. Как же избавится от этого фильтра?
• использовать только уникальный и качественный контент на сайте
• настроить правильно движок сайта
• покупать трастовые ссылки
• уникализация мета-тегом и title
• уменьшить количество «битых» ссылок, и тех страниц, которые выдают ошибку 404
• закрыть от индексации либо же избавится от дублирующих страниц.


5. Фильтр на уникальный контент. Те страницы, которые не содержат уникального текста могут через очень долгий промежуток времени попасть на первые позиции из-за ссылочной массы, но Гугл из одинаковых текстов выбирает только малое количество, которые и продвигает в основную выдачу.

6. Google Bombing. Наложение этого фильтра проявляется в том, что останавливается рост позиций по какому-то конкретному ключевому слову. Причина наложения фильтра Google Bombing заключается в том, что ссылки с одинаковым анкором очень быстро растут. Избавится от фильтра, можно разбавив ссылочную массу анкорами с текстовым окружением, да и, конечно же, усилив ее трастовыми ссылками.

7. Фильтр на нерабочие ссылки. Если на вашем сайте очень много страниц с ошибкой 404 или же битых ссылок, то позиции сайта резко понижаются. Так что если не хотите попасть в этот фильтр, избавьтесь, не задумываясь, от этих ошибок.

8. Фильтр на долго загружающийся сайт. Когда робот от сервера не получает отклика, то позиции сайта могут понизиться, даже до того, что ваш ресурс вообще исключат из поискового индекса. Страницы могут загружаться медленно не только из-за того, что содержат много изображений или же много весит сама страница, но и потому, что может быть неправильно настроен скрипт либо сервер. Поэтому хорошо выясняйте причину, почему долго загружается сайт.

9. Фильтр цитирования. Ссылаться нужно только на нормальные сайты, которые в свою очередь также ссылаются на качественные порталы. Так как за всем проследить нельзя, то хотя бы проверяйте те ссылки, которые размещаете у себя на страницах. Но если вы будете ссылаться на некачественные сайты, то Гугл посчитает и ваш сайт не качественным.

10. Фильтр ссылочных помоек. Не нужно пользоваться системами автоматического обмена ссылками и загружать сайт страницами, на которых находятся только ссылки. Необходимо в ручную обмениваться ссылками и только с качественными сайтами.

11. Фильтр взаимных ссылок. Для Гугла массовый обмен ссылками считается плохим. Вот почему необходимо пользоваться сложной схемой обмена ссылками.

12. Trust Rank.степень доверия Google к какому-то сайту. Он не считается фильтром, но если сайт имеет высокие показатели, то и быстрее он достигнет высокой позиции.

13. Google Bowling. О его существовании известно не много, но суть заключается в том, что он «выводит на чистую воду» те сайты, которые нечестно занимаются конкурентной борьбой, загоняя своих конкурентов под фильтры Google.

14. Фильтр быстрого прироста контента. Когда сайт активно обновляется, то Google может заподозрить его в пользовании генераторов, и поэтому может понизить его позиции либо вообще исключить из выдачи.
Поэтому запомните, что только хорошие сайты, которые сделаны для людей и несут в себе полезную информацию для посетителей, не попадут в фильтр.
 
Дата добавления: 2012-01-28 13:17:06, просмотров: 5769
Комментарии: 0
Пожалуйста, авторизируйтесь, для возможности добавить комментарий..

Copyright © 2011 - 2017
seo-assistent.net
Поддержка
ICQ: 259904151