Меню


 
  Категории каталога
Заработок в сети [4] Раскрутка сайта [4]
Обзор игр [27] Уроки по FotoShop [42]
Разное [342] Новости софта [10]
Новости игр [14]


 
  Опрос
Каким антивирусом пользуетесь
Всего ответов: 100


 
  Реклама





 
Главная » Статьи » Раскрутка сайта [ Добавить статью ]

Советы по оптимизации сайта для Google

SEO: поисковая оптимизация

 

Девиз поисковой оптимизации гласит: «Давай хороший код и хорошее, жела­тельно уникальное, содержание». Тот, кто запомнит это правило, имеет реаль­ные шансы попасть со своим сайтом на верхние места списков.

Под «хорошим кодом» подразумевают­ся два свойства HTML-кода веб­страницы. Во-первых, он должен быть качественным в отношении синтак­сиса, во-вторых, в нем следует употре­блять определенные HTML-элементы. Важными для Googleявляются прежде всего теги <title>, <p>,<strong>, а также теги заголовков <hl>...<h6>. В <title> содержится краткое описание докумен­та. Этот тег необходимо заполнить пра­вильно, разместив в нем только важную информацию. С помощью <р> форма­тируются абзацы, <strong> позволяет выделить текст жирным, а внутри тегов <hl>...<h6> следует писать заголовки, причем лучше, если они будут повторять ключевые слова, по которым продвига­ется сайт. Важно использовать заголовок <h1> только один раз, а остальные, например, <h2> или <h3>, чаще.

Еще одной важной предпосылкой оптимизации результатов поиска является терпение. Владельцы некото­рых сайтов с умом размещают ссылки, постепенно повышая PageRank, а вместе с тем и популярность страниц.

 

Тюнинг: Linkbuilding

 

Терпение дано не каждому. Но есть еще одно полезное средство — оставлять ссылки на свою страницу в блогах и на форумах. Однако ссылки в коммента­риях блогов, как правило, автомати-

чески сопровождаются параметром relnofollow». Это означает, что Googleне следует по этой ссылке и не считает ее голосом при вычислении PageRank.

В появлении такого правила виноваты спамеры, которые используют бот-программы, заполняющие блоги и форумы бессмысленными текстами и многочисленными ссылками.

 

Linktracking: голосование с помощью кликов

 

Поисковый гигант Googleне стал бы гигантом, если бы не занимался оценкой поведения пользователей. Анализируя щелчки по ссылкам, можно выявить популярные результаты поиска.

Но количество кликов вряд ли внесет изменения в ранжирование сайтов, однако и такую возможность нельзя исключать. При этом следует помнить, что единственный действенный спо­соб получить большое число кликов состоит в том, чтобы дать своему ресурсу хорошее название и описание.

Googleвыбирает в качестве заголовка содержимое тега <title>. А для краткого описания сайта, который отображается под ссылкой, следует использовать HTML-метатег, где вводится краткое описание документа. Оно может содер­жать всю важнейшую информацию страницы и привлечь читателя.


 

<meta name="description" content="Закачайся-лучшыйпортал"/>  

  

 

Если у страницы нет такой «выжим­ки», Googleвыбирает фрагмент текста и использует его в качестве описания.

 

Black Hat SEO: какобмануть Google

 

У каждой системы или программы есть слабые места — даже у Google. С тех пор как поисковые системы стали предла­гать пользователям веб­сайты, «черные овцы» пытаются всеми спосо­бами повлиять на резуль­таты поиска. Это стало причиной долгой борьбы между спамерами и вла­дельцами поисковиков. «Черные   овцы»,   так называемые BlackHatSEO, используют упомянутые лазейки в своих целях.  Основные методы спамеров — это  ContentSpamи LinkSpam. Оба варианта привлекают пользователя на сайт, который занимает в рейтинге Google очень высокое место. Поскольку на таких ресурсах рекламные объявления  представляют  собой  единственный | осмысленный элемент содержания, посетитель кликает по ссылке — и приносит спамерам деньги. Существует несколько разновидно­стей ContentSpam. Самый простой спо­соб — заполнить текст повторяющими­ся ключевыми словами. Правда, этот метод, называемый KeywordStuffing, уже не оказывает такого действия, как прежде, когда поисковые системы про­сто подсчитывали частоту появления тех или иных ключевых слов. С тех пор Googleи другие компании приняли против него серьезные меры (www. google,com/support/webmas-ters/bin/answer.py?answer=66358). «Противоядие» заключается в соотне­сении числа ключевых слов в тексте с его общим объемом (KeywordDensity). Начиная с определенного процента текст может быть расценен как спам.

Еще одна попытка обмана, с которой Googleтоже пришлось столкнуться, — это скрытый текст. Спамеры пишут белый текст на белом фоне — читатель ничего не заподозрит, но поисковой системе подсовывают сотни или даже тысячи ключевых слов. Скрытый текст уже распознается поисковиками.

Часто встречается Scraping(«снятие сливок»), при котором используют содержание чужих сайтов, чтобы обозна­чить свое присутствие в Интернете. Спамеры применяют этот метод в отно­шении службы GoogleAdsense, чтобы заработать деньги с помощью объявле­ний. Scrapingвредит прежде всего сай­там, которые содержат оригинальные тексты. При определенных обстоятель­ствах Scrape-страница может получить более высокий рейтинг, чем оригиналь­ный сайт. Но и с этой бедой антиспамовая команда Googleнаучилась бороться.

 

Linkspamming: мусор в блогах

 

Держателям блогов и форумов прихо­дится иметь дело с еще одним методом«черной» оптимизации—LinkSparnming. Поскольку генераторы ссылок (LinkFarm) не работают так хорошо, как рань­ше, спамеры засыпают списками ссылок блоги, форумы и веб-сайты. Преимущество же спамеров в том, что используемые ими страницы не внуша­ют подозрений. А если Googleвсе же примет какие-то меры против «засорен­ного сайта», спамерам это не помешает.

Единственное средство для борьбы с этим злом — интерпретированный Googleатрибут «nofollow» для тегов <anchor>. Ссылки, имеющие такое обозначение, Googleигнорирует. В блог-программе WordPressатрибут «nofollow» включен с самого начала. Он не препятствует спаму, но делает его недейственным. Спамерам это не очень важно — они по-прежнему забивают мусором комментарии блогеров в надежде встретить онлайн-дневники, которые не применяют «nofollow».

Некоторые спамеры создают собствен­ные блоги, с помощью которых пыта­ются «подсунуть» Googleсвой контент. В принципе это не что иное, как классический генератор ссылок. С этим Googleуже давно успешно борется.

 

Cloaking: новая любовь спамеров

 

Cloak— по-русски «прикрытие». Этим словом называется технология спамеров, паразитирующих на поисковых системах. Истинное «лицо» веб-страницы при этом остается скрытым. Спамер преподносит поисковой системе совсем не то содер­жание, которое видит пользователь.

Как только Cloaking-сайт распознает бот Google, он «скармливает» поисковой системе специально подготовленный контент. Это могут быть, к примеру, сотни предложений текста, которые в разных вариантах содержат одно или несколько ключевых слов. Если пользователь посетит такую страницу, он найдет совсем другое содержание, рассчитанное на широкую публику и имеющее мало общего с первоначальным поисковым запросом.

По похожему принципу действует Redirect, или «перенаправление». С помощью метатега или Java-скрипта после загрузки одной страницы идет перенаправление на другую. Поскольку

Googleне интерпретирует JavaScript, бот Googleостанавливается на первой стра­нице и получает подставной контент, в то время как обычный читатель пере­адресуется к «настоящей» странице.

 

DuplicateContent: спам поневоле

 

Веб-мастер может руководствоваться самыми добрыми намерениями и, тем не менее, попасть в черный список Google. Одной из причин может быть «двойной контент», который особенно заметен на сайтах большого объема.

DuplicateContentвозникает по двум причинам. Во-первых, речь может действительно идти о повторе. В частности, если страница, предназна­ченная для браузера и печати, дважды индексируется Google. На обеих стра­ницах — один и тот же текст. Впрочем, скорее всего, впредь Googleбольше не будет считать это нарушением.

Еще один путь к двойному контенту ведет через URL. Если одна и та же страница доступна под несколькими доменными именами, это может быть принято за нарушение — как и разные пути файлов, которые имеют одно и то же назначение. Когда статья доступна Hawww.mysite.xy/article.php?id=lи www. mysite.xy/cool-header-1/, для Googleэто два разных адреса, а следовательно, и два разных документа. Но они имеют одинаковое содержание, поэтому в индексе страница будет отброшена вниз. Эту проблему можно решить с помощью обходного маневра — пере­направления. Если пользователь введет www.mycoolsite.xy, он будет перенаправ­лен наwww.mysite.xy.

На серверах Apacheтакое перенаправ­ление осуществляет модуль modrewrite. Необходимый код нужно внести в файл .htaccess, который должен находиться в корневом каталоге веб-сайта. Весь механизм переадресации заключен в трех строках кода:

 

RewriteEngineon

RewriteCond %{HTTP_HOST} !^www\.mysite\. xy$

RewriteRule ^(.*)$http://www.mysite.xy/$1

[R=permanent]

 

Первая строка включает механизм пере­записи URL. После этого RewriteCondпроверяет название вызванной страни­цы. Если ее имя не www.mysite.xy, третья строка перенаправляет все запросы на www.mysite.xy. В качестве статуса перена-правлениявыбранозначение«регтапепг». Это дает знать поисковым системам, что новый адрес действителен постоянно. Такая переадресация сложна для вла­дельцев веб-сайтов, но пока существуют спамеры, она не станет проще.

 

Категория: Раскрутка сайта | Добавил: denisus (02.12.2008)
Просмотров: 1008 | Комментарии: 1 | Рейтинг: 0.0/0 |
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]
  Поиск


 
  Друзья сайта


 
  Счётчик

Онлайн всего: 1
Гостей: 1
Пользователей: 0