Девиз поисковой оптимизации гласит: «Давай хороший
код и хорошее, желательно уникальное, содержание». Тот, кто запомнит это
правило, имеет реальные шансы попасть со своим сайтом на верхние места
списков.
Под «хорошим кодом» подразумеваются два свойства HTML-кода вебстраницы.
Во-первых, он должен быть качественным в отношении синтаксиса, во-вторых, в
нем следует употреблять определенные HTML-элементы. Важными
для Googleявляются прежде всего теги <title>, <p>,<strong>, а также теги
заголовков <hl>...<h6>. В <title> содержится
краткое описание документа. Этот тег необходимо заполнить правильно,
разместив в нем только важную информацию. С помощью <р> форматируются
абзацы, <strong> позволяет выделить текст жирным, а
внутри тегов <hl>...<h6> следует
писать заголовки, причем лучше, если они будут повторять ключевые слова, по
которым продвигается сайт. Важно использовать заголовок <h1> только один
раз, а остальные, например, <h2> или <h3>, чаще.
Еще одной важной предпосылкой оптимизации
результатов поиска является терпение. Владельцы некоторых сайтов с умом
размещают ссылки, постепенно повышая PageRank, а вместе с тем и
популярность страниц.
Тюнинг: Linkbuilding
Терпение дано не каждому. Но есть еще одно полезное
средство — оставлять ссылки на свою страницу в блогах и на форумах. Однако
ссылки в комментариях блогов, как правило, автомати-
чески сопровождаются параметром rel=«nofollow». Это означает,
что Googleне следует по этой ссылке и не считает ее
голосом при вычислении PageRank.
В появлении такого правила виноваты спамеры, которые
используют бот-программы, заполняющие блоги и форумы бессмысленными текстами и
многочисленными ссылками.
Linktracking: голосование
с помощью кликов
Поисковый гигант Googleне стал бы гигантом, если бы не занимался оценкой поведения
пользователей. Анализируя щелчки по ссылкам, можно выявить популярные
результаты поиска.
Но количество кликов вряд ли внесет изменения в
ранжирование сайтов, однако и такую возможность нельзя исключать. При этом
следует помнить, что единственный действенный способ получить большое число
кликов состоит в том, чтобы дать своему ресурсу хорошее название и описание.
Googleвыбирает в
качестве заголовка содержимое тега <title>. А для краткого описания сайта, который
отображается под ссылкой, следует использовать HTML-метатег, где вводится краткое описание
документа. Оно может содержать всю важнейшую информацию страницы и привлечь
читателя.
Если у страницы нет такой «выжимки», Googleвыбирает фрагмент текста и использует его в качестве описания.
Black
Hat SEO: какобманутьGoogle
У каждой системы или программы есть слабые места —
даже у Google. С тех пор как поисковые системы стали предлагать пользователям вебсайты,
«черные овцы» пытаются всеми способами повлиять на результаты поиска. Это
стало причиной долгой борьбы между спамерами и владельцами поисковиков.
«Черныеовцы»,так называемые BlackHatSEO, используют упомянутые
лазейки в своих целях. Основные методы
спамеров — это ContentSpamи LinkSpam. Оба варианта
привлекают пользователя на сайт, который занимает в рейтинге Googleочень высокое место. Поскольку
на таких ресурсах рекламные объявления представляютсобойединственный | осмысленный элемент
содержания, посетитель кликает по ссылке — и приносит спамерам деньги. Существует
несколько разновидностей ContentSpam. Самый простой способ
— заполнить текст повторяющимися ключевыми словами. Правда, этот метод,
называемый KeywordStuffing, уже не оказывает
такого действия, как прежде, когда поисковые системы просто подсчитывали
частоту появления тех или иных ключевых слов. С тех пор Googleи другие компании приняли против него серьезные меры (www.
google,com/support/webmas-ters/bin/answer.py?answer=66358).
«Противоядие» заключается в соотнесении числа
ключевых слов в тексте с его общим объемом (KeywordDensity). Начиная с
определенного процента текст может быть расценен как спам.
Еще одна попытка обмана, с которой Googleтоже пришлось столкнуться, — это скрытый текст. Спамеры пишут белый
текст на белом фоне — читатель ничего не заподозрит, но поисковой системе
подсовывают сотни или даже тысячи ключевых слов. Скрытый текст уже распознается
поисковиками.
Часто встречается Scraping(«снятие сливок»), при котором используют содержание чужих сайтов,
чтобы обозначить свое присутствие в Интернете. Спамеры применяют этот метод в
отношении службы GoogleAdsense, чтобы заработать
деньги с помощью объявлений. Scrapingвредит прежде всего сайтам, которые содержат оригинальные тексты. При
определенных обстоятельствах Scrape-страница может
получить более высокий рейтинг, чем оригинальный сайт. Но и с этой бедой
антиспамовая команда Googleнаучилась бороться.
Linkspamming: мусор
в блогах
Держателям блогов и форумов приходится иметь дело с
еще одним методом«черной» оптимизации—LinkSparnming. Поскольку
генераторы ссылок (LinkFarm) не работают так
хорошо, как раньше, спамеры засыпают списками ссылок блоги, форумы и
веб-сайты. Преимущество же спамеров в том, что используемые ими страницы не
внушают подозрений. А если Googleвсе же примет какие-то меры против «засоренного сайта», спамерам это
не помешает.
Единственное средство для борьбы с этим злом —
интерпретированный Googleатрибут «nofollow» для тегов <anchor>. Ссылки,
имеющие такое обозначение, Googleигнорирует. В блог-программе WordPressатрибут «nofollow» включен с самого начала. Он не препятствует
спаму, но делает его недейственным. Спамерам это не очень важно — они
по-прежнему забивают мусором комментарии блогеров в надежде встретить
онлайн-дневники, которые не применяют «nofollow».
Некоторые спамеры создают собственные блоги, с
помощью которых пытаются «подсунуть» Googleсвой контент. В принципе это не что иное, как классический генератор
ссылок. С этим Googleуже давно успешно борется.
Cloaking: новая
любовь спамеров
Cloak— по-русски
«прикрытие». Этим словом называется технология спамеров, паразитирующих на
поисковых системах. Истинное «лицо» веб-страницы при этом остается скрытым.
Спамер преподносит поисковой системе совсем не то содержание, которое видит
пользователь.
Как только Cloaking-сайт распознает
бот Google, он «скармливает» поисковой системе специально подготовленный контент.
Это могут быть, к примеру, сотни предложений текста, которые в разных вариантах
содержат одно или несколько ключевых слов. Если пользователь посетит такую
страницу, он найдет совсем другое содержание, рассчитанное на широкую публику и
имеющее мало общего с первоначальным поисковым запросом.
По похожему принципу действует Redirect, или
«перенаправление». С помощью метатега или Java-скрипта после
загрузки одной страницы идет перенаправление на другую. Поскольку
Googleне интерпретирует JavaScript, бот Googleостанавливается на первой странице и получает подставной контент, в то
время как обычный читатель переадресуется к «настоящей» странице.
DuplicateContent: спам
поневоле
Веб-мастер может руководствоваться самыми добрыми намерениями
и, тем не менее, попасть в черный список Google. Одной из причин
может быть «двойной контент», который особенно заметен на сайтах большого
объема.
DuplicateContentвозникает по двум причинам. Во-первых, речь может действительно идти о
повторе. В частности, если страница, предназначенная для браузера и печати,
дважды индексируется Google. На обеих страницах — один и тот же текст. Впрочем, скорее всего,
впредь Googleбольше не будет
считать это нарушением.
Еще один путь к двойному контенту ведет через URL. Если одна и та же
страница доступна под несколькими доменными именами, это может быть принято за
нарушение — как и разные пути файлов, которые имеют одно и то же назначение.
Когда статья доступна Hawww.mysite.xy/article.php?id=lи www. mysite.xy/cool-header-1/, для Googleэто два разных адреса, а следовательно, и два разных документа. Но они
имеют одинаковое содержание, поэтому в индексе страница будет отброшена вниз.
Эту проблему можно решить с помощью обходного маневра — перенаправления. Если
пользователь введет www.mycoolsite.xy, он будет перенаправлен наwww.mysite.xy.
На серверах Apacheтакое перенаправление осуществляет модуль modrewrite. Необходимый код нужно внести в файл .htaccess, который должен
находиться в корневом каталоге веб-сайта. Весь механизм переадресации заключен
в трех строках кода:
RewriteEngineon
RewriteCond %{HTTP_HOST} !^www\.mysite\. xy$
RewriteRule ^(.*)$http://www.mysite.xy/$1
[R=permanent]
Первая строка включает механизм перезаписи URL. После этого RewriteCondпроверяет название вызванной страницы. Если
ее имя не www.mysite.xy, третья строка перенаправляет все запросы на www.mysite.xy. В качестве статуса перена-правлениявыбранозначение«регтапепг». Это
дает знать поисковым системам, что новый адрес действителен постоянно. Такая
переадресация сложна для владельцев веб-сайтов, но пока существуют спамеры,
она не станет проще.