Особенности продвижения в Google

Особенности продвижения в Google

Вы можете добавить сайт в Google и ваш сайт будет проиндексирован в течение 1-2 месяцев, либо можете не добавлять его, и Google сам его найдет по входящим ссылкам на ваш ресурс.

Помните, однако, что Google может и игнорировать ваш запрос на добавление в течение долгого времени если на ваш сайт не будут идти ссылки с уже проиндексированных Google страниц или ваш сайт не будет соответствовать лицензии поиска. Тем не менее, если Google находит ваш сайт по ссылкам с уже проиндексированных им страниц, шансы на индексацию вашего сайта даже без добавления значительно возрастают. Шансы повышаются, если Google находит ваш сайт благодаря авторитетным каталогам, например, DMOZ.

Итак, вы можете добавить ваши страницы в поисковики, но входящие ссылки и ссылки из социальных сервисов (Twitter или блоги) — лучший путь к быстрой индексации.

Индекс Google содержит десятки миллиардов страниц. Машина постоянно добавляет новые страницы — обычно на это уходит два дня.

Google имеет много так называемых «региональных» ветвей, таких как «Google Россия», «Google Канада» и т. д. Эти ветви — модификации машины в соответствии с региональными особенностями. Добавление в «Основной Google» внесет ваш сайт во все региональные ветви после индексации Google. Не забывайте и о том, что у Google существуе и региональное деление по городам, а также персональный или пользовательский поиск, который обычно строится на рекомендациях ваших знакомых и ваших предпочтениях.

Когда в том или ином регионе пользователь вводит запрос, то Google формирует результаты, наиболее подходящие вам, определяя ваше местонахождение по IP- адресу.

Для того, чтобы посмотреть выдачу из другого региона, существуют специальные инструменты, позволяющие имитировать поиск во Франции, находясь в России.

Cуществует специальный плагин для Firefox, позволяющий вам просматривать и сравнивать результаты из разных стран на отдельных страницах. Плагин Google Global Firefox Extension позволяет вам сравнивать результаты поиска в следующих странах:

  • Великобритания
  • Ирландия
  • Канада
  • Австралия
  • Германия
  • Франция

Этот плагин очень прост в управлении, его можно запустить как из контекстного меню, так и из панели инструментов. Таким образом, вы сможете просмотреть как бесплатные, так и платные результаты поиска Google в различных точках мира.

Google имеет несколько роботов для индексации и обхода страниц. Они все называются GoogleBot, но имеют разные IP-адреса. Вы можете понять, просмотрел ли Google ваш сайт благодаря серверному журналу: просто найдите IP-адрес 64.68.xx.xx (или доменный адрес crawl2.googlebot.com, или crawl3.googlebot.com), и вы увидите результаты GoogleBot.

Google — один из главных поисковиков в мире. Он занимает лидирующие позиции практически во всех странах, кроме, России, Китая. В нем ищут информацию около 350 млн. человек в день, и он обеспечивает результаты для AOL Search, ICQ Search и Netscape Search. Именно поэтому при продвижении англоязычных сайтов многие фокусируют оптимизацию, прежде всего на Google. Говоря о российском рынке поиска, следует отметить, что поисковая машина Mail.ru, строится на основе Google с подмешиванием своих технологий.

Google предпочитает старые сайты, поэтому имеет смысл заниматься сайтом, даже не доделав все его детали. Главное, чтобы была начальная страница и важные разделы. Добавляйте новый контент и регулярно обновляйте сайт.

Это касается такого явления, как Sandbox Google, или фактора возраста сайта. Песочница — это совокупность фильтров, применяемых к новым сайтам, какие бы позиции сайт не занимал по ключевым словам, в течение 6—24 месяцев.

Чтобы индексировать ваш сайт, Google использует автоматические программы — или роботы, называемые спайдерами. Такие роботы читают каждую страницу вашего сайта, начиная обычно с вашей главной странички, и затем следуя по ссылкам на всех других страницах.

Главный спайдер Google называется Googlebot. Чем популярнее ваш сайт, чем чаще обновляется контент на вашем сайте, тем чаще на него заходит Google. Сайты с высоким рейтингом и те, кто регулярно обновляет контент, просматриваются роботами каждый день.

Google позволяет веб-мастерам самостоятельно управлять некоторыми функциями индексации сайта. Для управления индексацией можно использовать четыре способа:

Атрибут nofollow (часто называемый тегом nofollow) — тег, работающий на уровне ссылки, когда вы помещаете его в отдельную ссылку (данный тег достаточно спорен, потому что при определенных обстоятельствах перестает работать, но как один из вариантов имеет место);

Метатег nofollow — тег, работающий на уровне страницы, когда вы добавляете его в секцию <head> своей веб-страницы.

Метатег запрета индексации – другой тег, работающий на уровне страницы, когда вы помещаете его в секции <head> своей веб-страницы.

Файл robots.txt – работает на уровне сайта и контролирует индексацию всех ваших веб-страниц, когда вы его размещаете в ту же директорию, что и главную страницу сайта (т. е. в корневую директорию).

Каждый из этих инструментов выполняет свою уникальную функцию. Необходимо, чтобы вы понимали её прежде, чем приступите к управлению сбором информации с вашей страницы и её последующей индексацией и ранжированием. Мы уже обсуждали некоторые детали работы поисковых систем, давайте кратко определим четкие границы между сбором информации, индексированием и ранжированием.

Сбор информации – процесс, когда поисковая система загружает страницу, сканирует её на наличие ссылок, а затем проходит по этим ссылкам, чтобы найти больше страниц. Учтите, что, хотя поисковая система заходит на страницу, это не обязательно значит, что она в действительности сохраняет контент этой страницы на своих серверах; это также не означает, что поисковая система будет отображать страницу в результатах поиска. С технической точки зрения, это значит, что поисковая система знает о данной странице.

Индексация происходит после того, как поисковая система зашла на страницу и обработала её контент, чтобы извлечь из него ключевые слова, определяющие, о чем эта страница. Затем данные о странице сохраняются

для последующих показов в результатах поиска. Каждая проиндексированная страница должна сначала подвергнуться собору информации, но, как видите, не все страницы, прошедшие сбор информации, проходят индексацию

Ранжирование – результат расчета поисковой системы, учитывающего контент, найденный на странице, на сайте и по ссылкам, расположенным на странице и сайте, чтобы определить, где и по каким ключевым словам/фразам должна отображаться ваша страница в результатах поиска.

Итак, давайте разберем по порядку каждый из способов манипулирования поисковым роботом:

Атрибут nofollow. Главная цель этого тега, действующего в пределах ссылки — сказать поисковой системе, что ссылка не должна включаться в оценку рейтинга страницы (link juice). Вот как выглядит тег nofollow, связанный со ссылкой: <a hrеfhttр://» rel=»nofollow»>Курсы поисковой оптимизации</a>

Размещение этого атрибута в рамках ссылки означает, что ссылка не будет увеличивать рейтинг и робот не будет переходить по ссылке. Однако страница, указанная в ссылке, будет обработана, проиндексирована и все еще сможет ранжироваться в поисковых системах. Поэтому название «nofollow» немного неверно. В действительности поисковая система следует по ссылкам в большинстве случаев. Она просто-напросто не обеспечивает link juice. Может быть, лучшим названием было бы «nocredit» или «nojuice».

Нужно отметить, что официальная установка Google такова, что роботы Google не следуют по ссылкам с атрибутом nofollow. Также надо отметить, что Yahoo, Microsoft и Ask все еще следуют по ним. Что же касается Яндекса, то этот атрибут не только поддерживается, но и «работает» стабильнее, чем в родном Google. В случае с Google – переход по ссылке и индексация есть, плюс ко всему, учитывается и текст входящей ссылки, что говорит о неработоспособности этого атрибута, все это при определенных условиях, но не на уровне погрешности.

И все-таки атрибут nofollow может использоваться для того, чтобы контролировать рейтинг страниц связанных с вашим сайтом в Google. Вы можете использовать атрибут nofollow, чтобы не выделять неважные ссылки. Это сохранит ваш рейтинг для важных, заслуживающих большего внимания страниц. Примером страниц, которые не нужно подчеркивать, может послужить страница

«Контакты» или страница, посвященная политике конфиденциальности. Зачастую ссылки на подобные страницы располагаются в меню навигации или внизу страницы. В принципе, это хорошая идея, поскольку эти страницы должны быть доступны пользователю. Однако вы врядли захотите, чтобы такие малозначимые страницы превосходили по рейтингу другие, более важные страницы.

Итак, используя атрибут nofollow в ссылках на ваши менее важные страницы, вы можете благоразумно уменьшить расход рейтинга вашего сайта (из-за большого числа внутренних ссылок) и направить его на страницы, которые должны получать высокие рейтинги в поисковых результатах.

Важно также учесть, что если вы таким способом перенесли рейтинг с менее важных на более важные страницы, то увеличенного рейтинга страницы может быть достаточно, чтобы она получила дополнительный рейтинг Google к основному рейтингу.

Однако будьте осторожны с атрибутом nofollow. Если вы добавите этот атрибут в слишком большое количество ссылок, трудно будет предсказать результаты. Нередко начинающие вебмастера лишь вредят своим рейтингам, когда пытаются управлять рейтингом страниц при помощи nofollow.

Частая ошибка состоит в добавлении nofollow на большое количество собственных страниц, в надежде, что рейтинг наиболее важных страниц увеличится. Дело в том, что менее важные страницы также содержат ссылки на важные страницы сайта, и использование атрибута nofollow значит, что у менее важных страниц будет меньше PageRank чтобы передать его более важным страницам. Результатом будет падение рейтинга сайта в целом.

Эффект также может быть отрицательным, если сайт имеет много исходящих ссылок. В случае, когда уменьшение числа внутренних ссылок приводит к тому, что количество исходящих ссылок превышает количество оставшихся внутренних ссылок, доступный PageRank будет переходить больше на страницы вне сайта, чем внутри него. Другими словами, в результате ваш рейтинг страниц достанется другим сайтам.

Поэтому использовать атрибут nofollow следует аккуратно и не так часто. Начните с добавления его в страницы, добиваться высокого рейтинга для которых нет смысла. Страницы типа «О нас», «Обратная связь», «Политика конфиденциальности» и другие административные страницы попадают в эту категорию.

Метатег nofollow В действительности метатег nofollow сильно отличается от атрибута nofollow. Но, почему то, они имеют одинаковое название. Метатег nofollow означает, что ни по одной из ссылок на странице поисковая система не проследует, и рейтинг для таких страниц будет считаться с учетом ссылок на эти страницы.

<mеta nаme=»robots» content=»nofollow»>

Однако страница, содержащая этот тег, все еще может быть проиндексирована и ранжирована, а другие страницы, на которые ссылается данная страница, могут быть найдены через другие ссылки, проиндексированы и ранжированы.

Метатег nofollow используется редко. Фактически, при помощи него намного легче навредить рейтингу ваших страниц, чем поднять его. Например, если вы разместите метатег nofollow на нескольких страницах с вашими товарами, то внесете беспорядок во внутреннюю систему ссылок сайта, так как рейтинг не будет распространяться с данных страниц на другие страницы вашего сайта. Наш совет: избегайте использование этого тега, пока точно не будете знать, что делаете.

Метатег запрета индексации — означает, что поисковые системы будут собирать информацию с вашей страницы и проходить по ссылкам на ней, но страница сама по себе не будет отображаться в выдаче поисковой системы.

Если вы хотите, чтобы ваши страницы не попадали в список, но хотите разрешить оценку их рейтинга, то вы должны разместить метатег запрета индексации в секцию

<head> вашей веб-страницы:

<mеta nаme=»robots» content=»noindex»>

В действительности мы едва ли сможем найти примеры использования метатега запрета индексации. Однако если у вас есть страница, которую вы не хотите видеть в поисковой выдаче, но хотите, чтобы поисковая система следовала по ссылкам на этой странице, используйте этот метатег.

Файл robots.txt используется для того, чтобы запретить поисковым системам индексировать определенные страницы или даже целые директории вашего сайта. Это единственный файл, который поисковая система должна

«прочитать» на вашем сайте перед совершением какого-либо действия. Однако, «пауки» поисковых систем не всегда следуют правилам robots.txt – поисковая система сама решает, как собирать информацию с вашего сайта. Но в большинстве случаев поисковые системы тщательно стараются соблюдать правила, изложенные в файле robots.txt.

Если «паук» следует в каком-либо направлении, страницы, заблокированные в robots.txt, не будут подвержены сбору информации. Однако эти страницы все еще смогут получать рейтинг, поэтому robots.txt – эффективный способ контроля ранжирования страниц на вашем сайте.

Страницы, заблокированные robots.txt, все еще будут отображаться в списках Google – хоть они и не были подвергнуты сбору информации. Это происходит, потому что Google находит ссылки на эти страницы, и, следовательно, вносит их в свой список, но отображает только ссылки на эти страницы. Обычно у подобных страниц не бывает названия или описания в поисковых результатах (пока Google не найдет его в списке DMOZ), но люди все еще смогут находить вашу страницу, используя Google.

Очень важно, чтобы вы не использовали robots.txt для хранения важной информации (например, паролей). Как уже было упомянуто, robots.txt – это только предложение – поисковые системы могут индексировать и часто индексируют страницы, заблокированные в этом файле. Если у вас есть что-либо в режиме онлайн, что не должно быть известно поисковой системе, убедитесь, что вы защитили это с помощью пароля.

В этом разделе мы затронули моменты, которые легко спутать, поэтому давай упростим, резюмируем и сведем в таблицу все важные различия между инструментами, которые мы обсудили.

 

Инструмент Ранжирование Сбор

информации

Индексирование
Атрибут nofollow Нет (Яндекс) / Да (в ряде случаев текст ссылки учитывается в Google) Нет (Яндекс) / Да (Google) Да (даже Google в большем ряде случаев индексирует страницу, на которую ссылаются с атрибутом nofollow)
Метатег nofollow Нет Нет Нет
Метатег запрета

индексирования

(NoIndex)

Да Да Нет
Файл robots.txt Да Нет Нет / Да (если на страницу указывает какая-либо ссылка, то URL этой страницы отображается

в результатах поиска)

Сервис Google Инструменты для веб-мастеров (Webmaster Tools предоставляет статистику и диагностику сканирования и индексирования вашего сайта, включая инструменты управления этими функциями, а также позволяет отправить карту сайта и получить детальный отчет.

Добавление файла Sitemap и верификация сайта в сервисе Google, необходима для начала сбора статистики. Для этого нажмите на ссылку Файлы Sitemap. При создании карты сайта воспользуйтесь следующими советами

Теперь необходимо подтвердить, что вы являетесь владельцем данного сайта. Нажмите кнопку Подтвердить, и вам будут предложены два варианта верификации сайта:

Вы можете загрузить на сервер html-файл с названием, полученным от Google

Вы можете добавить метатег, полученный от Google

Рекомендую вам воспользоваться вторым вариантом.

Просто откройте сайт в режиме редактирования и добавьте необходимый HTML-метатег в раздел заголовков домашней страницы.

После добавления метатега сохраните страницу, нажмите кнопку «Верифицировать», и ваши права на сайт будут подтверждены.

Теперь вы можете просмотреть детальную статистику каждой страницы вашего сайта, получить подробную информацию о рейтинге сайта, о входящих и внутренних ссылках на сайт, а также полный анализ его работы.

С помощью этих отчетов и результатов анализа вы сможете повысить рейтинг своих страниц в системе Google.

Алгоритм ранжирования Google включает в себя более 200 различных критериев, каждый из которых имеет определенный вес. Так как алгоритм может измениться, технологии применимые ранее, могут теперь не работать. Важно это помнить, когда ваш сайт вдруг поменяет позиции по непонятным причинам. Поэтому оптимизация сайта — не однодневная задача. Вы всегда должны менять и пробовать новые способы.

Следует также отметить, что в конце 2009 года, Google и Mail.ru заключили соглашение о сотрудничестве в области поисковых и рекламных технологий, поэтому поисковая выдача Mail.ru, на данный момент, основана на технологиях Google.

В настоящее время, наиболее важными для Google являются четыре фактора.

Ранжирование страницы — это абсолютная величина, которая регулярно вычисляется Google для каждой страницы, внесенной в его индекс. Важно знать, что количество ссылок, ведущих к вам с других сайтов, имеет важное значение, так же как и качество ссылок. Последнее означает, что для того, чтобы добавить вам немного удельного веса, сайты, связанные ссылками с вашими сайтами, должны иметь высокий уровень ранжирования станицы, быть богатыми контентом и регулярно обновляемы.

МиниРенк/Локал Ренк (MiniRank/Local Rank) — это модификация Пейдж Ренк (PageRank), основанная на структуре ссылок вашего единственного сайта. Так как поисковые машины ранжируют страницы, а не сайты, некоторые страницы вашего сайта будут ранжироваться с данными ключевыми словами выше, чем другие. Локал Ренк оказывает существенное влияние на общий Пейдж Ренк.

Anchor текст (текст ссылок) — это текст ссылок, ведущих на вашу страницу.

Например, если кто-либо создает ссылку к вам со словами «посмотрите этот

великолепный веб-сайт», то данная ссылка в первую очередь будет способствовать продвижению вашего сайта именно по этой фразе фрезе. Если вы продаете автомобильные шины, и ссылка с другого сайта на ваш гласит «автомобильные шины от ведущих производителей». Такая ссылка поднимет ваш уровень ранжирования, когда кто-то ищет автомобильные шины. Однако не забывайте, что данный фактор за последние годы был очень сильно занижен из-за повального увлечения ссылками, поэтому этим нужно пользоваться «с умом».

Семантика — это новый фактор, который может создать наибольшее различие в результатах. Это понятие относится к значению слов и их взаимоотношению. Google купил компанию, называемую Applied Semantics в 2003 году, и использовали технологию для своей контекстной рекламной программы. Согласно принципам прикладной семантики, краулер пытается определять, какие слова имеют одно и то же значение и какие всегда используются вместе. Например, если есть некоторое количество страниц в индексе Google, гласящих, что рабочий стол является частью офисной мебели, Google ассоциирует эти две фразы. После этого, страница, посвященная рабочим столам, использующая словосочетание «офисная мебель», не будет показываться в поиске по ключевым словам «рабочий стол». С другой стороны, страница, которая содержит слова «рабочий стол» будет ранжироваться выше, если содержит «офисная мебель».

Текст <title> тэг (предпочтение отдается тем ключевым словам, которые идут ближе к началу тэга, индексируется до 1129 символов в title-тэге)

Текст ссылок <a href=»file.html»>Ключевое слово</a>

Текст между <noframes> tag

Текст между <html> тэгом

Текст между <body> тэгом, если не внутри других тэгов Текст между <option> тэгом

Текст между <img alt=»ключевое слово»> тэгом

Текст между <style> тэгом Текст <meta> описания

Текст <meta > кейворд

Текст между <meta http-equiv> тэгом Текст между <! — Comments —> тэгом

Поисковый результат, выдаваемый Google, складывается из следующих факторов:

PageRank страницы. Количество страниц с других сайтов, которые ссылаются на Ваши страницы и их популярность. Например, ссылка с сайта www.ru имеет больший вес, чем несколько ссылок с www.narod.ru/~vasya;

Ключевые слова в Anchor text (текст, расположенный над ссылкой, например,

<a href=»http://«>Курсы интернет-маркетинга</a>;

Плотность ключевых слов на странице;

Близость ключевых слов друг к другу;

Ключевые слова имеют больший вес, если они выделены жирным, имеют большой размер, либо находящиеся внутри тэга H1;

Уникальность контента, размещаемого на сайте.

К несчастью, в поисковых системах должна быть только одна копия результата поиска. Когда появляется дубликат, системы поиска вычисляют, какая страница является «настоящей» — каноническая или более авторитетная версия страницы, выгружая так называемые дубликатные страницы из результатов поиска.

Документ «Finding near-replicas of documents on the web» дает некоторое представление о том, как поисковики оперируют дублированным контентом:

  • кластеризация точных копий по контрольной сумме (checksum);
  • расчет по всем составляющим документа;
  • конечный документ разбивается на несколько маленьких частей;
  • сортировочный подход;
  • сортировка и нахождение наложений (подобий);
  • подход, основанный на вероятностном подсчете;
  • сравнение вероятности дублированного контента на основе маркеров (в документах) различных типов.

Google или любая другая поисковая система накладывает санкции за дублированный контент на отдельные страницы вашего сайта. Однако на сегодняшний день Google гораздо лучше других поисковых систем умеет распознавать дубли и убирать их из своего основного индекса. Очень часто дублированный контент появляется не потому, что веб-мастера его копируют с других ресурсов, а из-за технических настроек работы сайта.

Например, разные URL могут вести на одну и ту же страницу:

http://www.website.ru/product.php?item=firstitem

http://www. website.ru /product.php?item=first-item&category=cat1 http://www. website.ru /product.php?item=firstitem&trackingid=1234&sessionid=5678

Идентификаторы сессий, путей, параметры сортировки базы данных, страницы для печати и навигации по URL — всего лишь малая часть создания дублирующего контента.

Очевидно, проблема в том, что «поисковики не всегда выбирают нужную страницу». Кроме того, если у вас множество подобных дублирующих страниц, остается риск, что некоторые страницы вашего сайта вообще не смогут правильно переиндексироваться поисковыми машинами, потому что индексирующие боты тратят время на индексацию ваших дубликатов страниц.

Раньше решение проблемы требовало особых манипуляций с файлом robots.txt и серверными переадресациями.

Недавно Google, Yahoo и Microsoft анонсировали новый тег, который можно использовать для того, чтобы сообщить поисковикам, какой URL имеет данная страница. Это тег rel=»canonical». Вам не придется больше быть асом программирования, чтобы решить проблемы с дубликатами вашего сайта. Просто поставьте этот тег в секцию <HEAD> дубликатных страниц. С мая 2011 года, данный метатег учитывается и в Яндекс.

<link rel=»canonical» href=»http://www.website.ru/real-page/«>

В секции <HEAD> также расположены теги «заголовок» и «метаописание». Поместите этот тег на страницы, которые не должны индексироваться, т. е. на дубликатные страницы. В строчке <HEAD> обозначьте URL страницы, которую система должна принять за «настоящую», т. е. версия, которая должна индексироваться (рекомендую использовать абсолютные ссылки, такие как: <a href=»http://www.domain.com/page.html«>вместо относительных <a href=»page.html»>). Это предотвращает от индексирования неверных версий страниц, в то время как ссылки, отмеченные на дубликатных страницах, переходят на основную страницу (что очень хорошо).

В этом случае новый тег rel=»canonical» перемещает эту специфическую функцию, которая была необходима, внутрь robots.txt и 301-й переадресации. Имейте в виду, что поисковые роботы и пользователи физически не переадресовываются. Канонический тег обеспечивает определение ссылки в правильное место с целью избегания дубликатов.

Нужно учесть, что канонический тег является всего лишь предложением для поисковой системы, а не командой. Системы могут игнорировать этот тег (так же, как и игнорировать robots.txt, если они его выберут). Возможные исключения, когда они игнорируют тег, включают в себя:

  • каноническая страница переходит на страницу с ошибкой «404 Page Not Found»;
  • каноническая страница не проиндексирована;
  • каноническая страница является дубликатом другой канонической страницы.

В каждом из этих случаев системы поиска будут возвращаться к своим старым методам определения «настоящей» страницы — во всяком случае пока каноническая страница, специализируемая на этом теге, не будет найдена.

Другая причина, по которой тег может быть игнорирован, — каноническая страница находится на другом домене. Другими словами, канонический тег работает только на тех страницах, которые находятся в одном домене (или субдомене этого домена).

Поэтому если условия таковы, что вы должны расположить страницу в разных доменах как каноническую, то 301-ая переадресация — лучший подход.

Хоть этот новый тег и сделает жизнь легче, рекомендую пользоваться им не так часто на первых парах, тестируя его на малых секциях сайта, чтобы убедиться, что он не повлечет за собой непредвиденных результатов. И, невзирая ни на что, он не будет компенсировать слабую архитектуру сайта.

В идеале, постарайтесь максимально упростить работу поисковым роботам, убрав все дубликаты своими руками и с помощью средств программирования, лишь потом, в случае необходимости, прибегать к данному тегу.

В конце февраля 2007 года Google анонсировал комбинирование результатов поиска Google Personalized Search, Google Personalized Homepage, and Google Search History в основные результаты поиска.

Это означает, что когда вы заходите в свой Google-аккаунт (например, Gmail), Google будет выдавать вам не обычные результаты поиска, а несколько модифицированные результаты. Эти результаты базируются на ссылках, на которые вы кликали ранее, на ваших закладках (Google Bookmarks) и т.п.

Недовольство SEO-специалистов вызвано тем, что теперь будет сложно сказать, какой сайт находится на первой позиции в выдаче Google по определенному ключевому слову, а какой — на втором. Очень скоро каждому пользователю будут выдаваться свои собственные результаты поиска. Больше всего это пугает SEOшников, которые обещают своим клиентам раскрутку сайтов и определенные позиции в поисковой выдаче, например, если вы уверяете клиента, что его сайт будет на первом месте по какому-нибудь ключевому слову в результатах Google, а его поиск покажет, что он находится на 4-м или 40-м месте.

Конечно же, все эти волнения понятны, однако, не нужно уж очень сильно расстраиваться по этому поводу по следующим причинам.

Во-первых, Google и так уже давно этим занимался, люди получали персонализированные результаты с июня 2005 года, когда данная программа была придумана. Большинство людей даже не заметили изменений, т.к. они были очень незначительными. Единственная вещь, которая изменилась сейчас, так это то, что Goolge увеличил количество ресурсов для индивидуализации, которые будет учитывать.

Во-вторых, мы и так получаем различные результаты в Google, в зависимости от нашего местоположения, т.к. используются различные data-центры. Уже давно пора заканчивать работать с чистым SEO, а начинать использовать интернет-маркетинг. Интернет-маркетинг подразумевает не только привлечение трафика с поисковиков, но и превращение привлеченных посетителей в покупателей.

В конце концов, переход на персонализированный поиск станет еще одной причиной для написания наилучших Title-тэгов и Meta Description для каждой страницы сайта, т.к. эти тэги, если пользователи сочтут их наиболее интересными, принесут наибольшее количество кликов, а ведь именно клики и будут решающим фактором, которые влияют на персонализированный поиск. А также не забывайте про качество контента. Уже давно у всех на слуху главный постулат Google — Content is a King (Контент — это король). Будет у вас уникальный и интересный пользователям контент — ваш сайт будет занимать достойное место в выдаче Google.

В последнее время становится популярным заявлять свой блог как dofollow блог. Это можно даже назвать растущим dofollow- движением. На сайтах, входящих в движение dofollow( начатое дизайнером Рандой Клэй), вы можете увидеть картинку U Comment, I Follow:

Это означает, что данный сайт является общественно-ориентированным и вы, оставив полезные комментарии, будете вознаграждены dofollow ссылками.

Проверить использует ли блог атрибут NoFollow или нет довольно просто. Просмотрите исходный код предыдущих блог-постов данного сайта. Проверьте код исходящих ссылок в предыдущих комментариях. Прямые ли это ссылки с таким кодом, как <a href=»http://«>Текст ссылки</a>, или там присутствует атрибут nofollow: <a href=»http://www.» rel=»nofollow»>Текст ссылки</a>? Если этот атрибут присутствует, то перед вами nofollow ссылка, которая не будет учитываться в PageRank.

Существуют специальные плагины, например, SearchStatus для Firefox. Этот плагин выделяет все nofollow- ссылки на странице, и вы сможете с одного взгляда определить, является ли блог nofollow или dofollow.

Для того, чтобы отыскать dofollow блоги, воспользуйтесь следующей тактикой:

Воспользуйтесь поиском изображений и введите фразу U Comment I Follow.

Вы обнаружите десятки dofollow блогов, на которых можно оставлять комментарии и таким образом продвигать свой сайт.

Посетите такие директории блогов dofollow, как DoFollowBlogs или BlogsThatFollow Это развивающиеся сайты, перечисляющие десятки блогов dofollow, на которых вы сможете разместить свои комментарии.

Посетите обновленный список блогов dofollow на сайте Rajaie Talks. В этом списке приводятся PR- значения каждого блога.

Воспользуйтесь специальными поисковыми механизмами, посвященными поиску dofollow-блогов. Просто введите нужную тему или ключевое слово и составьте собственный список.

Важно: не переусердствуйте с этим вариантом получения ссылок. В апреле 2012 года, Google ввел новый алгоритм – Penguin, задачей которого было отсечение некачественных ресурсов, под удар попали именно блоги и каталоги статей, которые были одним из источников получения ссылок

ОСТАВЬТЕ ОТВЕТ