Фильтры от Google для новых сайтов- какие есть и как из них выйти

Проект sitesnulya.ru предлагает вашему внимание несколько фильтров, под которые рискует попасть ваш сайт, особенно в начале своей деятельности,  да и потом тоже.




Фильтры, которые наиболее опасны для новых сайтов:

  • песочница — под этот фильтр Google попадают абсолютно все сайты, но выходят из него каждый по разному. Крайний срок — 3 месяца, входе которых в выдаче ваши материалы фактически не будут присутствовать. Наш проект достаточно молодой, поэтому мы на своем опыте можем оценить действие фильтра. И, как не удивительно, уже через буквально две недели после создания сайта, по нескольким низкочастотным запросам он был в первой десятке у Гугла. Вполне вероятно, на это повлияла внутренняя перелинковка, которую мы постарались создать с самого начала наполнения нашего ресурса, по мере написания статей. Так что, советуем и вам не пренебрегать этим.
  • возраст имени домена — также поисковые системы с подозрением относятся к доменам, название которых меньше года. Вариантов несколько, чтобы избежать его — купить домен на бирже или закупить несколько ссылок из сайтов схожей тематики, которые уже достаточно популярны, то есть PR достаточно высок (от 4). Примечательно, что нас этот фильтр не затронул, поскольку это имя домена ранее было активно и принадлежало другим лицам. Конечно, был риск, что к нему привязаны какие-то санкции поисковых систем, но службы поддержки Гугла и Яндекса нас заверили, что их нет.
  • дубли страниц — очень часто встречаются на новых ресурсах, у которых еще не настроено  автоматическое убирание с доступа дублей. Обратите на это внимание обязательно.
  • битые ссылки — когда в индексе Гугла есть ссылки на страницы, при переходе по которым выдается ошибка 404. Такое иногда бывает и тоже, чаще у новых проектов, поэтому проверьте свой сайт с помощью панели вебмастера Гугл и удалите такие ссылки.
  • не уникальный контент — если вы не послушали наши советы, и не наполнили сайт уникальным контентом, то ждите понижение в выдаче за это, а то и вовсе возможно исключение из выдачи. Исправляется приобретение уникальных материалов или самостоятельным их созданием.
  • переизбыток ключевых слов — как вы понимаете, это тоже довольно распространенная ошибка новых сайтов, да старые ей подвержены. Плотность ключевиков не должна превышать 5-7%, иначе Гугл посчитает текст искусственно оптимизированным, а значит не релевантным и значительно понизит его в выдаче.

Это основные фильтры от Google, которых стоит опасаться новым сайтам, но далеко не все.

Самыми опасными фильтрами являются два комплексных алгоритма, которые называются Панда и Пингвин. Первый ориентирован на борьбу с не уникальным содержимым сайтов, не релевантными статьями, искусственным переспамом ключевыми словами. Второй больше борется с сайтами, которые накручивают ссылочную массу слишком активно, что, по мнению поисковой системы, не может быть естественно, а значит вы их покупаете. Не избежать Пингвина и сайтам, у которых плотность ключевых слов превышает 7%.

На наш взгляд, по мимо основных фильтров. под которые можно попасть по началу сайту, опасаться нечего. Разве что, только Пингвин постоянно улучшает свой алгоритм действия, и может преподнести вам неприятный сюрприз. Нужно отслеживать свой трафик особенно тщательно во время официальных апгрейдов фильтра.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

  bigmir)net TOP 100  - .  E-mail: sitesnulyaru@gmail.com