Антология поисковой оптимизации

Антология поисковой оптимизации

1997–1999 гг. — период зарождения поисковых машин. SEO-специадисты занимались тем, что добавляли сайты в поисковики. Отголосок прошлого слышен и поныне, когда работающие по старинке SEO-компании предлагают зарегистрировать ваш сайт в тысячах возможных поисковых системах. Программы индексации, используемые поисковиками (роботы, спайдеры), просматриваются через HTML-код страницы и используют некоторые алгоритмы Page Rank, Trast Rank и другие, которые держатся в секрете.

Те дни были блаженством для спамеров, и было гораздо проще добиться высоких рейтингов сайтов. Вы могли использовать ключевые слова сколько угодно раз в теле контента, в META-тэгах, комментариях и т.д. Можно было также спрятать все это от глаз посетителей, сделав текст невидимым с помощью специальных HTML-уловок. Поисковая машина не обладала достаточными технологиями, чтобы распознать данный спам, поэтому такие сайты легко становились на верхние позиции рейтингов. Сегодня тоже встречается такая примитивная оптимизация (однако, сегодня такие проекты чаще всего банятся (удаляются из индекса)).

Исключением всегда был Yahoo, где человек проводил индексацию и исключал спамерские страницы.

Со временем поисковые машины стали способны отличать спамовые страницы и штрафовать за использование спамовых методов. Тем не менее, оптимизаторы поисковиков всегда были на один шаг позади поисковиков в обнаружении новых способов обмана алгоритмов индексации. Именно поэтому поисковики доставляют нам только релевантные результаты, избавленные от различных спамерских трюков. Некоторые машины начинают применять различные способы индексирования.

Внестраничные факторы как новое решение

В середине 1999 года поисковые порталы стали пытаться использовать логику обычного интернет-серфера, чтобы улучшить поисковые результаты. Один из таких независящих от контента страницы (а значит, в какой-то мере и от спама) способов — это отслеживание кликов пользователей. DirectHit представила технологию, которая отслеживала, какие сайты выбирают пользователи Интернет. Если посетители часто выбирают один и тот же сайт по определенному ключевому слову, то, скорее всего, этот сайт поднимется в рейтингах.

Еще один способ сделать алгоритмы индексирования более эффективными — это отслеживать количество сайтов, ссылающихся на данную страницу. Это правило пришло из системы библиотек и архивов, и до сих пор играет важную роль в притоке посетителей на сайт. Этот способ был назван «ссылочной популярностью» (link popularity) и остается одним из основных факторов в ранжировании.

Оба из перечисленных параметров известны как внешние факторы («off-the-page»), так как это факторы, не зависящие от контента вашей страницы. Такие страницы свободны от спамерского влияния.

Индустрия SEO нашла выход в создании так называемых ссылочных ферм (link farm). Идея заключается в следующем: если поисковые машины учитывают количество входящих ссылок на сайт, то можно создать специальную внешнюю ссылочную страницу, которая будет полезна спайдерам. На этой странице можно размещать много ссылок на нашу страницу и на другие подобные страницы, и эти ссылки сделают свое дело, когда робот начнет их индексировать.

Подобные ссылочные страницы имеют ссылки друг на друга. Официальной целью подобных ссылочных ферм было создать сообщество, объединенное ссылками. Не столь явная, но понятная цель — достижение высоких позиций в рейтингах для своих сайтов.

Пока ссылочные фермы наслаждались своей популярностью и разрабатывался софт для обмена ссылками между фермами, спайдеры поисковиков уже знали обо всем этом. Сегодня поисковики уже не дают большого преимущества от использования этих методов.

Издаваемые сообществами каталоги

Yahoo была первой поисковой машиной и до сих пор остается одной из самых популярных. Поскольку каталоги Yahoo создаются людьми, поисковик столкнулся с нехваткой человеческих ресурсов. Редакторы Yahoo все равно стремятся достигнуть максимального количества охваченных страниц.

Издаваемые сообществами каталоги впервые появились в 1999 году. Эта система позволяет тысячам редакторов, объединенных сетью Интернет, постоянно обновлять каталоги. Первая из таких сетей — это каталог Netscape Open, а каталог www.go.com стал еще одним лидером.

Каталог Netscape Open, помимо того, что издается сообществом редакторов, является также каталогом открытого доступа. Любой желающий, имеющий намерение улучшить работу своего поискового портала, может получить доступ к этому каталогу. Показателен один только факт, что к 2000 году списки из каталога Netscape Open стали появляться во многих поисковиках.

Когда издаваемые сообществами редакторов каталоги имеют не только количественную, но и качественную сеть ссылок, они становятся весовыми игроками на поисковом пространстве. Созданные человеком, каталоги играют роль своего рода поисковых адвокатов, так как они обеспечивают очень релевантные результаты поиска. С увеличением значения таких каталогов к 2000 году маркетологи стали концентрироваться на сфокусированной, целевой и качественной оптимизации сайтов.

Подъем Google

Google начал свой путь к званию Короля поисковиков в 2000 году, а в 2002 году он уже с полным правом мог себя так называть, так как 70 % поиска в Интернете происходило через него. Пока другие поисковики стараются быть как можно более универсальными, Google остается простым и уникальным — с простым интерфейсом и релевантными результатами.

Google также умеет искать и индексировать файлы формата PDF (portable document format) и SWF (shockwave flash). Кроме того, благодаря внестраничным технологиям, Google устойчив к спаму. Преобладание Google закрепилось, когда в 2000 году Yahoo переключился на него с Inktomi в качестве второго поисковика. Сейчас Yahoo использует комбинацию результатов Overture и собственного поискового софта, то есть здесь нет доминирования Google.

Теперь Google предлагает множество инструментов и сервисов, о которых стоит рассказать. Вот те из них, которым мы решили уделить внимание: карта сайта Google (SiteMap), Google Analytics, Google Website Optimizer, iGoogle, Создатель страниц (Page Creator) и многие другие.

Карта сайта Google (SiteMap)

Google представил новую программу для ускорения процесса «ползания» по большим сайтам. Технология SiteMap — еще один способ проинформировать Google о вашем сайте и рассказать его спайдерам об основной информации на сайте (количество страниц, частота обновлений, страницы для индексации). Технология также обеспечивает статистические данные о сайте. Все, что вам нужно сделать, — это создать файл карты сайта XML, поместить его в корневой каталог и дать об этом знать по адресу http://google.com/webmasters/sitemaps/siteoverview. Всю информацию об этой технологии можно найти здесь:

http://www.google.com/webmasters/sitemaps/docs/en/about.html.

Google Analytics

Google Analytics (analytics.google.com) — это относительно новый инструмент, который может дать важную для вашего бизнеса информацию: вы можете определить, откуда к вам приходят посетители, какие ссылки наиболее значимы в плане привлечения посетителей, сколько времени проводят посетители на страницах вашего сайта, на какие ссылки они нажимают, узнать ключевые слова поиска по сайту и др. Google Analytics может быть использован прямо из интерфейса AdWords. Тогда вы можете даже получать соответствующие данные и отчеты. Чтобы подписаться на эту услугу, посетите сайт http://www.google.com/analytics/sign_up.html.

Website Optimizer от Google – бесплатная платформа для тестирования, которая с лёгкостью позволяет создавать тесты и анализировать полученные результаты.

В процессе тестирования происходит сравнивание элементов на сайте или в рекламной кампании с целью увидеть, какое изменение лучше всего убедит посетителей сделать то, что от них требуется. Примером таких действий может быть покупка, проявление определенной инициативы, подписка на рассылку новостей, или даже просто щелчок как следующий шаг в процессе продажи (или в процессе покупки). Тестирование включает в себя эксперимент либо в формате A/B, либо в любом из многовариантных форматов.

Сайт инструмента http://www.google.com/websiteoptimizer

iGoogle – это сервис индивидуализированной стартовой страницы (Personalized Homepage). Цель этого сервиса – создать для каждого пользователя собственную стартовую страницу Google, на которой была бы только та информация, которая ему интересна: погода в выбранном регионе, RSS-новости с любимых сайтов, курсы валют, текущая дата и время и т.д.

Сайт сервиса http://www.google.ru/ig

Создатель страниц (Page Creator)

Недавно у Google появилась новая программа — Создатель страниц (Page Creator). Этот инструмент дает возможность публиковать различные варианты своих страниц в сети (http://pages.google.com) и постоянно обновлять их. Конечно, это не сайты с профессиональным дизайном, а просто странички, например, для тех, кто хочет выложить свои фото с каникул. Для использования этого сервиса вам не нужно устанавливать никакого дополнительного оборудования, вам нужен только браузер с разрешением использования cookies и JavaScript, а также аккаунт Gmail (если у вас его нет, зайдите сюда www.gmail.com). Google будет бесплатно обслуживать ваш сайт, а его спайдеры будут индексировать его каждые несколько часов (однако у сайта не будет преимуществ в области SEO). Вся информация о сервисе доступна на http://pages.google.com/-/about.html.

SEO и SEM (search engine marketing) сегодня

Если вы до сих пор думаете, что продвижение сайта может выполняться только путем автоматического программного обеспечения, то вы ошибаетесь. SEO требует усовершенствования качества и популярности сайта. Чтобы сайт мог достигнуть топовых позиций в рейтингах, вы должны опираться на анализ целевой аудитории, анализ работы конкурентов и копирайтинг. Поскольку тенденции постоянно меняются, SEO-специалисты должны отслеживать все направления в этих вопросах.

Сегодня только неопытные оптимизаторы будут использовать спам для раскрутки коммерческого сайта. В большинстве случаев спам и так называемые черные методы поисковой оптимизации распознаются автоматическими спайдерами, которые становятся все умнее. В конце Базового SEO курса мы вернемся к так называемым черным методам оптимизации и опишем спамовые методы, но только для того, чтобы вас предупредить о них. Мы не рекомендуем их использовать, так как они не только не гарантируют помощь, но и портят репутацию вашего ресурса.

Есть одно древнее высказывание: «Есть только одна вещь, которая тяжелее зарабатывания денег — сохранение этих денег». Эта жемчужина мудрости распространяется и на поисковые системы. Единственная вещь, которая тяжелее получения рейтинга — это его сохранение.

Мудрые люди, которые делают деньги, знают, как их хранить, а мудрые поисковые оптимизаторы — как зарабатывать и поддерживать рейтинг. Таким образом, они развивают стабильные системы и стратегии, которые поддерживают их успех.

«Быстро разбогатеть» и «быстро подняться в рейтинге» — это глупые сказки. Ветер фортуны — переменчивая штука, поэтому надо думать о долгосрочных планах. Те, кто лидирует благодаря быстрым и коротким стратегиям, обречены быть обогнанными мудрыми старыми «черепахами», которые просчитали долгосрочный путь. Звучит скептически? Хорошо, давайте, исследуем некоторые факты.

Стабильная SEO против нестабильной

Не секрет, что мы, поисковые оптимизаторы, всегда имели много способов манипулировать результатами поисков. Некоторые из «манипулирующих» стратегий ненавидимы поисковыми системами, а некоторые — любимы. Примеров слишком много, достаточно сказать, что такие стратегии, как уместные входящие ссылки, ключевые слова в Title-тэгах, изобилие уникального контента — это стратегии, которые работают сегодня, и будут работать всегда, т.к. они не только помогают рейтингам, но также поощряются поисковыми системами, потому что они помогают им выдавать наиболее релевантные результаты.

Стратегии, которые используют искусственные входящие ссылки (нетематический обмен ссылками, покупные ссылки и т. д.), переполнение ключевыми словами и т. д., работали раньше и, возможно, все еще работают, если ими воспользовались грамотно и втайне от поисковых систем, но все это относится к игре с огнем, т.к. в любой момент все ваши старания и достигнутые результаты могут рухнуть, и вы останетесь ни с чем.

Различие между этими примерами в том, что первые содержат стратегии, которые любят поисковые машины, потому что они помогают им поддерживать релевантность в пределах индекса. Последние примеры находятся в числе тех стратегий, которые поисковые машины ненавидят, потому что они скандально предназначены лишь для того, чтобы управлять результатами поиска, не добавляя ценный или уместный контент.

А теперь мы поделимся с вами секретом. Нам все равно, любят или ненавидят поисковые системы ту или иную специфическую тактику. Необходимо заботиться о стабильных результатах, потому что, если стратегия или система не в состоянии давать стабильный результат, тогда поисковики рано или поздно уничтожат сайт, который ее использует. Это весьма досадный факт. Почему? Потому что сайт закроется, возможно, даже навсегда.

В прошлом, если сайт был замечен в плохих делах, можно было вернуть незапятнанную репутацию. Но сегодня у поисковых машин нет причин делать поблажки «плохим парням». Поисковые машины, конечно, можгут вернуть сайт в индекс, но на таком сайте будет стоять клеймо былых «заслуг», поэтому высокого места они не займут.

Давайте разберем на примере Google, поскольку именно эта поисковая система имеет максимальные возможности для анализа. Сегодня Google имеет доступ к данным о PageRank, AdSense/AdWords, множеству персональных сервисов (Google Desktop, Gmail), а также информации из других источников типа Alexa, DMOZ, Yahoo Directory, Веб-архив (archive.org) и др..

Таким образом, они могут знать:

  • полную историю вашего сайта;
  • о любой странице, когда-либо индексированной их сервисом; ваш контент;
  • любые «фишки», которыми вы пользовались на странице; любую страницу, на которую вы ссылались;
  • любую страницу, которая ссылалась на вас;
  • точную структуру ваших входящих и внутренних связей.

Google владеет историей, которую изменить, увы, нельзя. Так что, учтите это, когда будете использовать нелюбимые Google стратегии. Прячьте их тщательнее.

В последнее время выходят на арену и становятся популярными две стратегии поисковой оптимизации, о которых нам бы хотелось сейчас рассказать. Быть может, вы уже слышали о них: это линкбэйтинг и социальные сети.

Линкбэйтинг и социальные сети стали двумя наиболее широко распространенными специальными словами в поисковой оптимизации и по вполне понятным причинам. Помимо удобства, перекрестных связей между участниками, они обеспечивают стратегию построения ссылок, которая одобрена поисковыми системами, и могут создать сотни настоящих ссылок за меньшее время, чем этот процесс отнимал ранее при использовании старых, плодящих бесполезные взаимные ссылки методов.

Начнем с линкбэйтинга… что же это такое? Linkbaiting — «приманка» для ссылок, т. е. создание контента для сайта, который будет заставлять людей ссылаться на него. Данный метод раскрутки позволяет как бы управлять шумихой, которая крутится вокруг вашего сайта. Это одна из самых быстрых и сильных стратегий из доступных на сегодняшний день, с помощью которой очень быстро можно создавать множество ссылок, в то время как типы контента, которые хорошо работают для линкбэйтинга, меняются в зависимости от области его применения, например, использование юмора, страха, противоречий и т. п.

Создание хорошего контента, который способствует получению ссылок — не новая идея. Существует две основных причины, почему это может очень быстро повысить рейтинг сайта в поисковых системах. Во-первых, в свете повышающейся популярности социальных информационных сайтов их содержание «путешествует» намного быстрее и проще, чем прежде. Новый контент может принести более тысячи ссылок за день. Вторая причина — то, что ссылки, принесенные линкбэйтингом, обычно являются естественными. Они следуют от реальных людей, связывающихся с вами по доброй воле — вирусный маркетинг в самой чистой форме!

Примерами социальных сетей могут быть:

http://www.digg.com

http://www.habrahabr.ru

Важный момент в процессе внесения в списки социальных сетей — продемонстрировать свой контент столь большому количеству людей, как это возможно, надеясь, что некоторые из них согласятся поставить на вас ссылку. Например, появление на главной странице такого гиганта социальных сетей как сервиса www.digg.com даст вам значительное увеличение трафика, вплоть до 5-10 тысяч человек за первые несколько часов нахождения вашего сайта на первой странице Digg. Однако этот прирост трафика будет крайне недолговечным, и лишь немногие из этих людей вернутся снова на ваш сайт.

Так что забудьте о том, чтобы что-нибудь им продать. Вместо этого вам следует основываться на принципе, по которому чем больше людей увидят ваш сайт, чем больше он им понравится, тем больше вероятность, что кто-нибудь из них захочет провести ссылку к вам на сайт. Если 10 тысяч человек посетит ваш сайт и найдет ваш контент интересным, то маловероятно, но возможно, что хотя бы сто из них захотят поставить на вас ссылку.

Это означает для вас сто настоящих ссылок, о которых вам даже не придется просить. Все, что вы делаете в данном случае — создаете контент и демонстрируете его огромной группе людей, и некоторым из них он нравится настолько, что они ставят ссылку на него. Это как раз тот самый тип ссылок, которому поисковые системы отдают предпочтение, ранжируя страницы в результатах поиска.

Сегодня поисковая оптимизация и поисковый маркетинг похожи на приключенческий сериал (с элементами мыльной оперы). Как и в любой продолжительной саге, нужно разбираться в событиях, чтобы понимать, что происходит. Если что-то упустить, то можно безнадежно отстать.

Огромная проблема SEO/SEM в том, что слишком много противоречивой и устарелой информации может сильно навредить. Информацию нужно фильтровать. Наша работа как раз в том, чтобы применять такой фильтр и предоставлять вам только хорошую и полезную информацию. Для начала мы поможем вам завоевать высшие позиции, а затем — удержать их!

Будущее поискового маркетинга

Поисковые машины постоянно развиваются. В перспективе развития ПМ — возможность распознавания и индексирования ими не только HTML, но и графики, аудиоконтент, организация поисковых результатов в логические категории и т. д. Чтобы изнутри взглянуть на будущее поисковиков, зайдите на Google Labs (http://labs.google.com). Это зона, где Google представляет свои новые технологии.

Таким образом, поисковый маркетинг становится все более похожим на традиционный маркетинг. В целом, маркетинговый успех поисковиков в будущем будет зависеть от трех составляющих: рекламы и аналитики, оптимизации сайта и контента и внестраничных факторов продвижения. Когда все сказано и сделано, вы получите ожидаемый приток посетителей, пусть даже ваши рейтинги низки. Ваш рейтинг может быть ниже, чем у конкурента, но процент посетителей вашего сайта, совершающих покупки у вас, может быть больше.

ОСТАВЬТЕ ОТВЕТ