Приводим сайт в порядок

Для чего это делать? Пожалуй отправлю к своей недавней публикации о поисковых машинах и как они строят поисковую выдачу. Там про настройку фида и есть теоретическая часть плюс ссылка на особенности поисковиков. 

Давайте по шагам как делал я.

Для начала самому копаться и искать проблемные зоны затруднительно. Воспользуемся любой системой анализа сайтов. Сам предпочитаю megaindex.ru/?from=44733. Ссылка реферальная. Хотите - цифорки уберите. Мне не жалко. Единственно нужно немного разобраться и перейти (указать вручную) бесплатный тарифный план. Про продвижение в нем особо не могу сказать. Раньше, пару лет назад, хорошо работало. Сейчас просто не пользуюсь.

Нам главное получить с них отчет и по нему исправлять косяки.

Редирект с www.

При обновлении ядра друпала заменяются базовые файлы. А ведь в них изменялись, в свое время, параметры... Естетсвенно, как большинство людей для личного блога записи изменений не делал. Ха, многие и рабочую документацию не ведут...

Посему пошел проверять всё. Да, увидел, что сайт доступен и с www и без. Соответственно, поисковики определали зеркало как хотели и склеивали, и ругались за это на вебмастера. Подозреваю, что наличие обоих вариантов "минус" от поисковика заслуживает.

Итак идем в .htaccess и настраиваем перенаправление. После редиректа с www сайт исчезает. Пару апов поисковиков и в выдаче половина дублей исчезает.

Роботс тхт.

Дубли часть исчезли. Но не все. Откуда беруться дубли? Это роботы прочитали служебную информацию, попутали анонсы с основной статьей, комментарии посчитали и столько же раз посчитали статью...

Короче нам нужно закрыть всю лишнюю информацию от поисковых ботов.Да, мы потеряем считанное количество посетителей из этого мусорного трафика, зато приобретем уважение робота. Уважение заключается в том, что чем меньше ему лопатить информацию и сравнивать её, тем быстрее он пристроит её в выдаче и, заметьте, отметку себе сделает, что этот сайт обрабатывать легче и можно чаще заходить. Предположение такое, но, судя по всему, оно не далеко от истины.

Настройки достаточно сложны. Подробно описал в статье о коректном robots.txt для друпала. Приведен сам файл и общие рассуждения. Там же найдете ссылочку на оригинальную статью с подробнейшими объяснениями. 

Пошли по друпалу оптимизировать.

Добираем "сопли" из выдачи.

Есть информация что поисковики считают страницы с ссылкой какноникал и шортлинк как разные страницы. То есть обрабатывается страница дважды. Ну и гнев поисковиков на это имеет место быть. Советуют шортлинк тег ликвидировать как класс. Что и сделал.

Микроразметка.

Уже становится хорошим тоном её настраивать.  Боты уважают её очень. Вся работа за них уже сделана. Остается только переваренную информацию разложить по полочкам и в выдачу отправлять.

Ссылки исходящие.

Эти просто проверяем, чтобы все были рабочие. Битые или в порядок приводим или удаляем. Боты обожают когда по ссылкам не выдается хлам или 40х страница. Атрибуты так же проверяем. Что-то нужно для индексации, а что-то не очень, а что-то совсем не нужно..

Отдельно стоит отметить ссылки не явные. Это всякие счетчики, ссылки в скриптах и прочее "программирование". Просмотреть. Закрыть от индекса. Лишнее удалить.

Ссылки входящие.

Да, не ослышались и не опечатка. Входящие ссылки очень интересны ботам. Что с ними можно сделать?

- Поставить заглушки на страницы, где нет информации. Проверить выдачу 40х кода.

- Перенаправить трафик по ним и ботов, соответсвенно, на другую страницу сайта. Тут смотреть на качество ссылки. Если она совсем не тематическая или с откровенного говносайта - лучше 404 ошибку выдать, чем "принять" её вес на душу.

- Убедиться в качестве материала, на который ссылаются. Иногда дописываю статьи, если вижу по ним трафик. Поведенческие факторы ботами учитываются и каждая секунда посетителя на сайте нам в плюс.

Проверяем фиды: Feed и ленты RSS.

Что в них и сколько выдается. Тут общих правил нет. Если воровства не боитесь - лучше весь материал публиковать. Если воруют через ленты, то только ананос в неё. Но быть должны они обязательно. Фид гугл очень качественно и часто кушает и использует для индексации.

Проверяем рекламу.

Где как стоит и как выводится. Может что-то убрать? Что-то добавить? От индексации закрыта?

Кеширование и скрипты.

Кешировать и объединять скрипты очень круто и заметно повышает скорость работы сайта. НО. Но поисковики не любят этого. Очень. Про кеширование не скажу, а скрипты лучше не сжимать и не объединять. Пусть поисковики смотрят, что мы чисты и лишнего не втюхиваем. Гугл обмолвился как-то, что пессимизирует сайты где скрипты не явно видны. К размышлению.

Кстати, может стоит задуматься о присвоении своим сайтам выделенного IP адреса. Сам решился. Посмотрю результат будет или нет.

Из мегаиндекса результаты получаем и анализируем.

Общий анализ. Коды не верных ответов и битые ссылки должны исчезнуть, если все выше оговоренное сделали.

Тайтл. Неудовлетворительно. Смотрим. Исправляем. Использую модуль метатег. Отключаем наследование. И вперед настраивать выдачу. В примечаниях видно что и как исправлять. Не забваем Cron и очистку кеша. Исправили.

Заголовки теперь в порядок. H1 только один на страницу. Остальное по уровням. На отлично не выйдет, но на "удовлетворительно" нужно выйти.

Далее термины правим.

Все должно стать красивым и понятным.

И, да, на заглавной странице должны быть описания. Хоть и поговоаривают, что боты их не учитывают. Не учитвыват, но читают. Думаю, они должны быть.

Приводим заголовки в порядок. Меньше слов. Лучше запрос. Точнее запрос.

И не забудем про внешние битые ссылки на сайт. То есть ссылки из интернета ведущие на не существующие страницы Вашего сайта. Про внутренние битые ссылки вроде писал уже, если нет, то можно почитать там про супер сервис по их поиску и анализу писал http://drboglav.ru/content/servis-proverki-bityh-ssylok там...

 

Помог материал - поддержите сайт рассказав у себя на страничке соцсети (кнопки слева наверху).

Всегда благодарен за комментарии и дополнения. Задавайте вопросы!

 

Вернуться на главную

 

Добавить комментарий


Поддержите развитие сайта рассказав о нем