Создание сайта с учетом сео

Создание сайта с учетом сео

Существует два очень важных момента, которые следует знать о поисковых машинах до начала создания вашего сайта.

Во-первых, это качество оценки посещаемости сайта. Поисковые машины зарабатывают деньги с помощью контентной рекламы. Показывать рекламные объявления пользователям — это их модель коммерческой деятельности, и чем больше у них количество пользователей, тем больше денег они получают. Основной способ привлечения новых пользователей для поисковых машин — предоставление ими высокого качества поиска. Это означает, что если ваш сайт является наиболее полезным для клиентов в вашей сфере, то поисковые машины должны выводить его в лучших результатах поиска. И действительно, ведь средства к их существованию зависят от этого.

Второе, что следует запомнить: поисковые машины — это компьютерные программы. Точнее, поисковые машины запускают программу, называемую спайдером (поуком), которая загружает ваши интернет-страницы (индексирует), просматривает текст и ссылки на этих страницах и затем решает, что делать с вашей страницей, основываясь на этой информации. Этот процесс известен как краулинг. Поисковые машины — это компьютерные программы, которые занимаются краулингом веб-страниц.

И поскольку вы пользуетесь компьютером, то знаете, что компьютерные программы иногда выходят из строя, особенно если их перенапрягать. Вы, вероятно, замечали, что компьютер начинает работать медленнее, открывает слишком много окон или приложений и, в конце концов, может просто перестать работать. То же самое происходит и с роботом поисковой машины. Если ваш сайт имеет сложное или запутанное местонахождение или если ссылки между вашими страницами трудны для поиска, то ваш сайт не будет качественно изучен и обработан поисковой машиной.

Это означает, что некоторые из ваших страниц не будут появляться в результатах поиска, или будут появляться редко, что доставит вам много неприятностей, особенно если вы хотите, чтобы эти страницы были высоко оценены в поисковых машинах. Не забывайте, что в сети Интернет существуют миллиарды страниц, и поисковой машине необходимо проводить максимально эффективный поиск среди всех этих страниц при ограниченных ресурсах и времени, которыми она располагает.

Ваша задача — сделать доступ к страницам настолько быстрым, насколько это возможно. Иначе вы рискуете быть незамеченными поисковыми машинами.

Для начала удостоверьтесь, что ваш HTML-код верен и хорошо построен. Качественный HTML-код не всегда будет способствовать повышению вашего рейтинга, но нарушенный код может затруднить для поисковых машин индексацию вашего сайта. Убедитесь, что вы закрыли все соответствующие теги, и избегайте использования исходного кода, который может сбить с толку поискового робота.

Когда вы собираетесь создавать веб-страницу, очень важно помнить, что поисковые роботы — это всего лишь компьютерные программы. Это значит, что они имеют ограничения, основанные на определенном наборе правил, и страницы, которые не соответствуют этим правилам, сами создают себе неудобства.

Фундаментальное правило для создания страниц, дружественных поисковым машинам, гласит: чем легче вы сделаете для поискового робота чтение вашего кода, тем больше ваши шансы на успех.

В целом, это означает, что следует избегать двух видов HTML-кода:

HTML, который устарел или работает только в определенном браузере (например, старый тег <blink>);

HTML, который настолько нов, что еще не распознан большинством поисковых систем (многие XML-тэги попадают в эту категорию).

Лучший способ убедиться в том, что ваш HTML-код легок для обработки — это использовать код, выведенный Wide Web Consortium (W3C). Это может показаться сложным для выполнения, но на самом деле для этого требуется всего лишь проверить ваши страницы HTML-кода валидатором (validator):

Если у вас не выявлено никаких ошибок, то вы можете быть уверены, что роботы смогут успешно обрабатывать ваши страницы без проблем.

Но опять-таки повторюсь: тестирование не означает, что страница будет занимать более высокое место в рейтинге поиска, она просто подтверждает, что ваш код не содержит ошибок, которые могли бы помешать поисковым машинам в обработке вашей страницы.

Обратите внимание, что будет легче использовать W3C HTML валидатор (validator), если ваши страницы имеют действующий DOCTYPE. Также существует утверждение, что соответствующие стандартам страницы с действующим DOCTYPE (объявление типа документа) могут легче обрабатываться как спайдерами поисковых машин, так и браузерами. Это приведет к небольшому увеличению работоспособности вашего сайта, и ваши страницы, поддерживаемые большинством браузеров, окажутся доступными для большинства ваших клиентов.

Некоторые спайдеры поисковых машин, сталкивались с трудностями при обработке XHTML DOCTYPE в прошлом, поэтому мы рекомендуем пользоваться HTML 4.01

Transitional DOCTYPE, который выглядит следующим образом:

<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»>

(Примечание: данный код должен быть весь введен одной линией.)

Чтобы узнать больше о том, как сделать DOCTYPE вашего сайта правильным, воспользуйтесь обучающей программой:

<!DOCTYPE HTML PUBLIC «-//W3C//DTD HTML 4.01 Transitional//EN» «http://www.w3.org/TR/html4/loose.dtd»>

(Примечание: данный код должен быть весь введен одной линией.)

Наверное, вы часто наблюдаете споры между приверженцами определенного вида верстки. Те, кто верстает страницы по старинке, более чем уверены, что их код также легко читается, как и код страниц, созданных по последним стандартам. С одной стороны, они правы, но если копнуть глубже — это не совсем так.

Представим банальную табличку, с помощью которой обычно верстают страницы:

<TABLE>

<TR>

<TD>

Содержимое страницы

</TD>

</TR>

</TABLE>

Это то, что мы видим на более чем 50—60% сайтов. Что же делает другая сторона?

<DIV>

Содержимое страницы

</DIV>

Очевидно, что код намного короче.

Теперь представьте, что поисковый робот находится на сайте определенное время и читает содержимое вашей страницы. Понятно, что чем короче и проще код документа, тем быстрее робот его изучит и сохранит. Конечно же, чистый и простой код страниц не даст вам видимых преимуществ перед вашими конкурентами, но это будет первым шагом к тому, что ваши страницы быстрее будут обработаны поисковым роботом.

Можно долго спорить и дискутировать по этому поводу, но практика зарубежных коллег показывает, что данный подход эффективен — взять, например, поисковую систему Yahoo, главная страница которой уже давно преобразована в более короткий и простой код.

К чему мы двигаемся все дальше и дальше? К тому, что HTML-код будет задавать лишь структуру, дизайн и все остальное можно выдавать на стороне пользователя через CSS и Java Script. В итоге, мы получаем чистую разметку с текстовым содержимым, что, естественно, будет обрабатываться поисковыми роботами намного эффективней.

Следующие элементы могут влиять на совместимость.

TITLE тэг страницы ( + )

META-тэг описания ( + )

META-тэг ключевых слов ( * )

Основной текст и плотность ключевых слов (keyword density) ( + )

Расположение текста на странице ( + )

Расположение ключевых слов (близость ключевых слов друг к другу –

Adjacency&Proximity) ( + )

Заголовки H1, H2, H3 и т.д. ( + )

Жирный текст / strong, b, em, i ( + )

Доменное имя ( + )

Некоторые элементы веб-дизайна ( + )

Атрибут ALT тэга IMG ( + )

Текст ссылок (Anchor text) / внутренняя перелинковка ( + )

Построение ссылок ( + )

Тэг комментариев (Comment Tag) ( * )

Уровень папок (domain.ru/dir1/dir2/dir3 и т.п.) ( + )

Нижнее меню ( + )

Карта сайта (sitemap) ( + )

Невидимый текст ( – )

Прозрачный GIF ( – )

Дефисы, подчеркивание и т.п. ( + )

Повторная регистрация сайта в поисковых системах (автоматическая перерегистрация) ( – )

Выделенный IP адрес ( + )

Doorway страницы (без редиректа) ( + )

Редирект ( – )

Фреймы ( * )

Динамическое содержание ( * )

Графическая навигация (меню) ( * )

Флэш ( * )

Есть и другие элементы, способные влиять на совместимость, но это — наиболее распространённые.

Примечание: В скобках даны обозначения.

+ Легальные SEO-техники

– Поисковый спам

* Не спам, но на грани с оговоркой метода использования.

В каждой ПМ разработан собственный алгоритм определения релевантности. Алгоритм представляет собой математическую формулу с сотнями параметров, которые могут ежедневно меняться, что делает практически невозможным взлом алгоритма.

В процессе сопоставления сайта запросу ПМ присваивает каждой странице определённый вес (ранг), который показывает, насколько она соответствует формуле релевантности данной ПМ.

Считается, что следующие факторы увеличивают ранг, вычисляемый ПМ:

  • наличие ключевых слов в теге <TITLE>;
  • наличие ключевых слов в названии файла, содержащего код страницы (*);
  • наличие ключевых слов в URL (*);
  • количество ключевых слов в основном тексте страницы;
  • наличие ключевых слов в заголовках и подзаголовках (Н1, Н2 и т. д.);
  • наличие ключевых слов в текстовых ссылках на странице (*);
  • наличие ключевых слов в текстовых ссылках, указывающих на данную страницу (*);
  • наличие ключевых слов в атрибуте alt тега IMG;
  • наличие ключевых слов в названиях файлов-рисунков;
  • концентрация ключевых слов на странице;
  • популярность и репутация сайтов, которые ссылаются на данный сайт;
  • релевантность запросу сайтов, которые ссылаются на данный сайт;
  • поведение позьзователей на сайте (количество просмотренных страниц, длительность пребывания на сайте и др);
  • социальные сигналы.

* с оговорками метода использования.

Главное в оптимизации — найти баланс. «Переоптимизация» может быть не менее вредна, как и недостаток оптимизации.

Наравне с факторами, способными повысить ранг сайта, существуют факторы, определённо понижающие его.

Например:

  • использование технологий, которые ПМ рассматривает как спам (это проверяется с помощью специальных фильтров);
  • переоптимизация;
  • слишком длинные URL;
  • избыточное количество исходящих ссылок;
  • избыточное количество входящих ссылок с ключевыми словами;
  • использование специальных знаков в URL (например, ?, #, $, %, &, идентификаторов);
  • использование JavaScript в навигации;
  • использование Flash;
  • содержание глубже третьего уровня вложенности (например,
  • site.ru/dir1/dir2/dir3/page.htm);
  • использование фреймов;
  • использование графической навигации;
  • переадресация URL;
  • другие факторы.

Большая часть негативных факторов — просто элементы дизайна, которые, тем не менее, мешают поисковому роботу проиндексировать сайт. Чем меньше на сайте элементов, затрудняющих индексацию, тем более он совместим с ПМ и тем выше его шансы получить высокий рейтинг по определённому запросу.

Чтобы преуспеть в получении высокого рейтинга в поисковых системах, очень важно, чтобы Вы поняли общую концепцию «рейтинга», т. е. то, что такое рейтинг глазами поисковой машины. По большому счету, рейтинг может быть как результатом, так и стратегией.

Профессиональные оптимизаторы специально конфигурируют презентацию своей страницы (т. е. то, что увидят пользователи в выдаче поисковой машины), для лучшего восприятия людьми. Если презентация успешна, люди щелкают на ссылку и создают результат рейтинга (то есть, клик). Поисковые машины часто отображают заголовок страницы (Title тэг) и Мета описание страницы (мы подробно разберем данные тэги в последующих главах) в своих результатах поиска. В связи с тем, что пользователи поисковых машин выбирают, какие ссылки щелкать, основываясь на том, что написано в вашей презентации, мы видим, что эта презентация (то есть, ваш заголовок и описание) является основой для вашего «рейтинга». Именно это мы подразумеваем, когда говорим, что рейтинг ваших страниц начинается с их презентации. Другими словами, презентация страницы формирует базу для вашей стратегии рейтинга, которая непосредственно и приносит плоды в его отношении.

Рейтинг передается тогда, когда пользователь поисковой машины фактически щелкает на вашу ссылку. Когда это происходит, база данных сервера создает примечание, что ваша ссылка была выбрана, и рейтинг вашей страницы немного повышается.

Чем больше ваши ссылки выбирались, тем более популярна будет ваша страница (по мнению поисковой машины), особенно, если пользователь остается на вашей странице в течение какого-то времени. Однако если пользователь щелкает назад, к странице с результатами поиска сервера, тогда сервер интерпретирует это действие, как случай, что ваша страница не была интересна, и это неблагоприятно сказывается на рейтинге.

Главное различие между презентацией и содержанием (контентом) — ваша презентация сайта (заголовок и Мета описание) находится в исходном коде. Если посетители вашего сайта еще могут взглянуть на заголовок вверху браузера, то Мета описание они не видят при заходе на страницу. Вместо этого они видят контент, и именно он должен считаться интересным для них, чтобы оставаться на вашем сайте в течение определенного отрезка времени («определенного» — это субъективно, но чем дольше, тем лучше).

Поэтому, разрабатывая презентацию и содержание сайта, то есть стратегию рейтинга, Вы увеличиваете ваши шансы на то, что кто-нибудь выберет вашу ссылку и будет оставаться на вашем сайте какое-то время — это и есть результат рейтинга.

Так как поисковые машины заинтересованы в том, чтобы обеспечить наиболее релевантные и интересные для пользователя результаты, они полагают, что наиболее “высокорейтинговая” страница — та, на которую заходили наибольшее количество раз. Поэтому получение вашего «рейтинга» напрямую зависит от того, как часто кликают на ваши ссылки, т.е. на ссылки, которые пользователями считаются наиболее уместными своему поисковому запросу.

Специальное краулер-ПО посещает ваш сайт и читает код страниц. Этот процесс называется «краулинг» или «спайдеринг». Затем в базу данных поисковиков заносится индекс вашей страницы. Этот процесс называется «индексирование». При индексации поисковики учитывают несколько факторов. Например, прежде чем проиндексировать вашу страницу, спайдер посмотрит, сколько других страниц из базы данных поисковика ссылаются на вас. Он также изучит текст ваших входящих ссылок, Page Rank ссылающихся страниц, а также страницы, представленные в каталогах и т.д. Эти внестраничные факторы играют большую роль при оценке поисковой машиной вашей страницы. Пока вы включаете ключевые слова везде, где только можно на сайте, не забывайте отслеживать, какие сайты ссылаются на вас. Это имеет важное значение для краулера.

Когда кто-то вносит запрос в поисковую машину, то машина выдает рейтинг вашего сайта исходя из соотношения с другими страницами в ее базе данных. Этот процесс называется «ранжирование».

Таким образом, ранжирование — позиция сайта в рейтинге результатов поисковых систем (SERP) по определенному запросу. Например, если вы вводите в поисковую форму фразу “дом чертежи”, вы увидите список результатов в порядке убывания релевантности по данному запросу.

Наиболее релевантные и важные по значимости страницы перечислены в убывающем порядке. Для поисковых систем релевантность страницы определяется тем, насколько сайт соответствует ключевому запросу. Важность страницы определяется количеством и качеством ссылок, указывающих на сайт с других страниц. Концепция качественных ссылок очень важна и будет рассматриваться детально в последующих главах.

Если ваш сайт не входит в двадцатку лучших по вашему ключевому слову, то вы можете забыть о большом притоке посетителей с поисковых систем. Так как люди редко идут дальше первой страницы результатов, вам нужно попасть в десятку лидеров.

Спорный вопрос, насколько разнится приток посетителей у сайтов, занимающих позицию №1, №3 или №10. Все, что видно на мониторе до прокрутки страницы, нажимается чаще, чем нижерасположенные ссылки.

Недавно я натолкнулся на интересное исследование, которое показывает связь места сайта в рейтинге и процента кликов. Это определялось для запросов в Google.

Первая страница:

1-я позиция: 30%

2-я позиция: 15%

3-я позиция: 7%

4-я позиция: 5%

5-я позиция: 4%

6-я позиция: 4%

7-я позиция: 2%

8-я позиция: 2%

9-я позиция: 3%

10-я позиция: 5%

Вторая страница:

  • -я позиция: 6%
  • -я позиция: 4%
  • -я позиция: 2%
  • -я позиция и ниже <1%

Как вы видите, если вы не на первых двух страницах, вы можете забыть о посетителях. Когда последний раз вы сами заходили на третью страницу, когда искали что-то в Интернете?

Существуют 2 наиболее популярных направления поиска информации в сети Интернет: через поисковые системы; через каталоги.

ПМ используют специальное программное обеспечение, так называемый поисковый робот, который автоматически «прочёсывает» сеть, следуя по ссылкам. Web- страницы при этом индексируются и заносятся в базу данных. Примерами поисковых систем могут быть Google, Yahoo, Yandex, Rambler, Aport и др.

С другой стороны, каталоги – это базы данных, составление и поддержка которых осуществляется вручную. Open Directory http://dmoz.org – это пример каталога.

Некоторые поисковые системы, например Yahoo (http://www.yahoo.com) или MSN Search (http://search.msn.com), комбинируют эти подходы. Имея собственный каталог, они также используют результаты работы поискового робота. Несмотря на это, Yahoo часто рассматривают как каталог.

По данным HitWise в 2007 году наиболее популярными поисковыми системами являются Google и Yahoo, общая доля которых составиляет 85,7% мировой интернет-аудитории.

  • Google — 65,0%
  • Yahoo! — 20,73%
  • MSN — 8,46%
  • Ask — 3,69%
  • Другие — 2,12%

Российские

  • Yandex — 48,71%
  • Google.ru — 21,8%
  • Rambler — 17,21%
  • Mail — 5,27%
  • Aport — 0,56%
  • WebAlta — 0,1%
  • Другие — 6,35%

Миллионы людей во всём мире используют мировые поисковые системы каждый день, даже если доступна региональная версия (например, Google Russia — www.google.ru). Поэтому очень важно, независимо от страны, в которой Вы живёте, или регионального рынка, на который ориентируетесь, зарегистрировать Ваш сайт во всех перечисленных системах.

Если Вы ориентируетесь на какой-либо местный рынок, например на рынок Англии или Германии, то дополнительно необходимо зарегистрироваться в локальных ПМ и каталогах.

ОСТАВЬТЕ ОТВЕТ