Аудит страниц

Оптимизация сайта — аудит страниц.

Что такое аудит страницы?  Для хорошего заработка нужно много посетителей, а чтобы было много посетителей, нужно использовать сайт таким образом, чтобы все страницы учавствовали в поиске и приводили на сайт посетителей. Задача это прямо скажем не очень простая, но и не такая сложная, как может показаться, особенно если придерживаться определённого плана, чтобы что-нибудь не забыть.

Каждая страница должна быть заточена (оптимизирована) под определённый запрос, лучше всего среднечастотный и чтобы этого добиться нужно учесть все факторы, влияющие на ранжирование прямо. Факторы эти реально делятся на критические, высокой важности, второстепенные и все остальные.

Критические факторы оптимизации страницы.

Доступность страницы для поисковика.

Большинство вебмастеров к этому фактору оптимизации относится спустя рукава и даже не относит его к фактору, но на самом деле доступность страницы — это один самых важных и нестабильных факторов в силу разных обстоятельств, который может иметь множество причин: сеть, сервер, хостинг, файл robot.txt, низкая скорость загрузки и так далее. Всё это нужно проверять в первую очередь и лучше всего вручную. Надеяться на машину в этом случае не стоит, потому что она ведь не думает, а просто повторит Вашу ошибку.

Кроме того, если Вы верстаете страницы вручную, то здесь могут добавиться баги, которые срабатывают на самом хостинге, а на тестере (на локальном сервере) не просматриваются. Причин тоже может быть очень много: конфликт имён, например, или вирус какой-то. Всё это требует проверки и убедиться в том лучше самому, просто зайти на страницу и посмотреть.

Настройка файла robot.txt.

Robot.txt — это текстовый файл, который сообщает поисковому роботу что, собственно нужно индексировать, а что совсем не обязательно, ну чтобы время не тратить. Я Вам очень не рекомендую этот файл писать вручную, потому что робот может неправильно среагировать, по-сути, даже на лишний пробел и его поведение в этом случае предсказать практически невозможно, потому что каждый робот делался разными командами программистов, а угадать ход мыслей того, что в принципе никакой классификации не подлежит, задача практически невозможная.

Самый простой способ — это воспользоваться услугами генераторов такого рода файлов и обязательно убедиться, что он работает хотя бы в Яндексе. Соблюдать стандарты в общем-то всё-таки нужно и машина их соблюдает точнее всего. Проверить это очень просто на том же Яндексе в разделе «Вебмастеру».

Наличие ключевых слов в тексте.

Ключевые слова в тексте позволяют поисковому роботу правильно ранжировать страницу Вашего сайта или блога по конкретному поисковому запросу, что как раз Вам и требуется, а их отсутствие «вводит робота в заблуждение», то есть практически загружает его ненужной ему работой, что может сказаться на ранжировании.

Ключевые слова должны иметь, по возможности разные словоформы. Выделять их жирным шрифтом тоже обязательно, так ему проще будет Вашу страницу классифицировать по темам и запросам. Встречаться ключевое слово должно не менее одного раза точным вхождением.

Наличие ключевого слова в заголовке страницы.

Здесь важно чтобы было прямое вхождение ключевого слова в заголовке страницы, потому что поисковый сервер на основании заголовка конкретизирует индексацию в поиске. Отсутствие ключевого слова в заголовке говорит о том, что поисковик будет основывать свои «выводы» на основании названии сайта и заголовков нижних уровней, что будет рассеивать его внимание и Ваша страница может попасть не в ту тему, по которой Вы сделали страницу.

Чтобы этого избежать, нужно обязательно использовать ключевое слово в заголовке, а в заголовках нижних уровней использовать словоформы этого же ключевого слова. Таким образом Вы можете добиться наибольшей конкретизации темы и повысить позиции своей страницы при прочих равных условиях.

Правильное применение тега Rel Canonical.

Канонические теги для поикового робота всегда указывают на целевую страницу, а страница, на которой он находится автоматически преращается в дубликат. Дубликаты, «по мнению» тех же поисковиков, засоряют интернет и мешают правильной поисковой выдаче, за что их и не жалуют.

Решением может послужить указание правильного адреса в этом теге или вообще его удаление. Таким образом не будет никаких дубликатов, что и требуется в данной ситуации.

Дублирование ключевого слова в заголовке H1.

Правильный подбор ключевого слова или его словоформы в заголовке первого уровня H1 имеет самый высокий приоритет и если оно или его словоформа будет отсутствовать, то проблемы будут те же, что и с самим заголовком страницы.

Самый оптимальный вариант — это разбавить точное вхождение ключевого слова другими словами по теме, то есть, по-сути, увеличить среднечастотный запрос до низкочастотного, что в итоге при возрастании позиций плавно подключит и среднечастотный запрос.

На странице не должно быть больше одного заголовка H1.

Заголовок H1 имеет наивысший приоритет среди всех текстовых заголовков и его дублирование или повторение заставляет поисковик использовать дополнительные ресурсы для ранжирования, потому что не очень просто определить по какому запросу на странице раскрыта тема, а это ведёт в понижении позиций, главным образом из-за неконкретности.

Если помнить и соблюдать эти простые правила оптимизации страниц сайта, то можно быть уверенным в том, что Ваши страницы будут занимать в поиске самые высокие позиции среди сайтов с таким же ссылочным весом.


——————————————————————————

Читайте также по теме:
Заработок в интернете для новичков


*Как и где сделать себе кошелёк Webmoney

*Как привлечь рефералов, с чего проще начать
*Как новичку можно зарабатывать на биржах статей
*Самая простая работа новичку в сети интернет
*Деньги с нуля. Заработок для начинающих на кликах




Яндекс.Метрика Рейтинг@Mail.ru