Какие ошибки допускают начинающие вебмастеры

Здравствуйте, читатели блога Сайт с нуля.

Изучив много сайтов и разработав несколько проектов, мы удостоверились в одном — почти все вебмастеры, особенно начинающие, совершают одни и те же ошибки.

Поэтому, сегодня мы решили обратить ваше внимание на них.

1. Отсутствие файла robots.txt


Файл содержит рекомендации для поисковых роботов по индексации сайта. Нередко нужно запретить индексацию каких-либо страниц или разделов на сайте, для этого и нужен файл. Однако часто файл попросту отсутствует на сервере, что порой приводит в очень неприятным последствиям. Например, к присутствию в базе поисковых систем страниц с результатами поиска по сайту.

От этого напрямую зависит скорость индексации новых публикаций на вашем сайте.

2. Зеркала сайтов

Часто копии сайта лежат на нескольких доменах, в ряде случаев поисковые системы считают такие зеркала разными. Ситуацию могла бы исправить директива host в файле robots.txt (для Яндекса) и четкая прописка ссылок на внутренние страницы сайта, однако частенько вебмастера про это забывают.

В итоге может возникнуть ситуация, когда одна поисковая система знает страницы одного зеркала, другая поисковая система знает о другом зеркале, а третья знает по чуть-чуть страниц одного сайта и чуть-чуть другого. Отметим, что процесс “перезеркаливания” сайтов “обратно” порой может быть весьма продолжительным.

Такое разделение внимание поисковиков определенно будет негативно сказываться на ситуации в целом.

3. Некорректные ответы сервера

Бывает, что при попытке пользователей обратиться к несуществующим страницам сервер выдает им вместо 404-ой ошибки, код 200. Тем самым он дает понять поисковым роботам, что со страницей все в порядке и ее можно индексировать. Подобные страницы забивают индекс поисковых система, мешая корректной индексации сайта.

Подобные проблемы могут возникнуть и при некорректной работе с редиректами на сайтах. Пользователь обращается к какой-либо странице, его “перебрасывает” на другую (главную, например), однако сервер “забывает” выдать 301 ответ. В результате плодится множество дублей страниц, засоряется индекс поисковой системы.

4. Отсутствие карты сайта

Карта сайта не только позволяет пользователям легко ориентироваться по сайту, но и здорово улучшает индексацию сайта поисковыми системами, особенно, если структура сайта запутанна или сам сайт достаточно большой.

5. Хлебные крошки

Существенно упростить использование сайта пользователями позволит внедрение на сайтах дополнительной навигации, так называемых “хлебных крошек”. Попадая по ссылке из поисковых систем на какую-либо внутренную страницу сайта, пользователь порой не имеет возможности перейти на уровень выше, просмотреть другие страницы из текущего раздела. “Хлебные крошки” как раз призваны упростить жизнь посетителям сайтов. Дополнительная навигация также упрощает поисковым роботам задачу правильной индексации сайта. В идеале структура дополнительной навигации должна быть такой:

Главная / Название раздела / Название подраздела / Название страницы

При такой структуре пользователь легко сможет определить, где конкретно он находится на сайте и как ему перейти на уровень выше. Поисковые роботы также смогут использовать “хлебные крошки” для построения правильного “дерева сайта”.

6. Отсутствие текста в меню

Часто можно встретить красивые сайты с пунктами меню, выполненными в форме картинки. Никто не спорит, смотрится это очень эффектно, но вот эффективно ли это? Текстовые пункты меню могли бы значительно улучшить внутреннее ссылочное ранжирование на сайте, а значит, повысить эффективность всего продвижения сайта.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

  bigmir)net TOP 100  - .  E-mail: sitesnulyaru@gmail.com