splint forum. Адрес нового форума: http://friends-club.info/forum


Советы по оптимизации сайтов - Форум
[ Новые сообщения · Участники · Правила форума · Поиск · RSS ]
  • Страница 1 из 1
  • 1
Модератор форума: l00l  
Советы по оптимизации сайтов
splintДата: Пятница, 15.02.2008, 02:09 | Сообщение # 1
Admin
Группа: Администраторы
Сообщений: 2079
Репутация: 3
Статус: Offline
http://www.searchengines.ru/articles/cat_ioaoae.html
 
SvilityДата: Среда, 27.02.2008, 20:26 | Сообщение # 2
Генерал-майор
Группа: Супермодератор
Сообщений: 32
Репутация: 0
Статус: Offline
Не там ты ищешь! вот где нужно:
http://pr-cy.ru/faq/
http://pr-cy.ru/tools/


Моя ХомПага
 
splintДата: Четверг, 28.02.2008, 00:49 | Сообщение # 3
Admin
Группа: Администраторы
Сообщений: 2079
Репутация: 3
Статус: Offline
Svility, спасибо за совет.
 
l00lДата: Пятница, 29.02.2008, 00:04 | Сообщение # 4
Генерал-полковник
Группа: Модераторы
Сообщений: 690
Репутация: 2
Статус: Offline
Вебмастеру: Как поисковые боты(роботы) индексят сайты.

Итак.
В ответ на запрос пользователя бот выдает результат поиска. Ищет он в собственном индексе. В индексе у него лежат сайты в том виде, в каком бот их понимает. У каждого бота это понимание свое, но общие черты прослеживаются.

Индекс образуется двумя путями.

Первый - web-маз сам просит бот проиндексить его сайтец. Так поступают чаще всего с популярными и уважаемыми ботами. Для Рунета это: Яндекс, Рамблер и Апорт. Причем именно в такой последовательности. Хотя Рамблер с Яндексом соперничают в этом плане. На остальные боты можно не тратить время. Это мое мнение.

Второй путь - боты сами в «свободное от работы время» ползают по Инету и вынюхивают изменения. С новыми сайтами они поступают по разному. Чаще всего они принюхиваются к ним какое-то время, а потом, если, по мнению бота, со страницей все в порядке (посетители иногда появляются, спама нет и др.) - они его индексят. То есть заносят информацию о нем в свой индекс (базу данных).
Самый тормозной в плане принюхивания - это Рамблер. Он принюхивается по несколько месяцев. Самый непридирчивый - Яндекс. Можно создать левый сайт и посмотреть, как скоро он самопроизвольно появится в том или ином поисковике. В Яндексе… ну, через месяц-два.

Кроме этого, боты следят за состоянием своего индекса. То есть за его соответствием реальному положению дел в Инете. Сайт может измениться, исчезнуть и т.д. Поэтому боты его обычно реиндексируют. Правда, можно запретить это мета-тегами и цивилизованные боты не будут этого делать.
Самый скоростной по реиндексированию - Яндекс. Скорость реиндекса - несколько дней, а то и чаще, если ресурс популярный. Самый тормозной - Апорт. Скорость реиндекса страниц с посещаемостью 50-100 хостов в сутки - до полугода!
У меня был сайт, который переехал. Так Апорт по запросу старый адрес еще несколько месяцев выдавал, хотя по этому адресу уже несколько месяцев ничего не было! И соответственно, посещаемость - 0. А Апорту все равно!

Дальше.
Результат поиска по запросу пользователя чаще всего выдается по релевантности. Чем выше релевантность, тем выше позиция страницы в результате работы поисковика. Страница с наиболее высокой (по мнению бота) релевантностью отображается первой. Релевантность - это степень соответствия содержимого индекса бота запросу пользователя.
Например, пользователь вводит «анекдоты». Бот выдает страницы проиндексированных сайтов, где встречается это слово. Причем не просто встречается, а встречается в тех местах, которые бот индексит.
Но об этом позже.
Яндекс, например, чаще всего выдает только одну страницу с сайта и ссылки на то, что есть еще страницы с того же сервера. Замечали, наверное. Другие боты могут по несколько страниц с одного сервака на один запрос выдавать. Это не очень образованные боты, но их тоже юзают.

Продолжим с примером про «анекдоты». Бот выдает результат поиска по релевантности. То есть, если на странице имеется 100 слов и 4 из них - «анекдоты» (в именительном падеже, множественном числе), то релевантность страницы по запросу «анекдоты» 0.04. Четыре процента. Соответственно, если слов будет 10, и 4 из них - «анекдоты», то релевантность будет 40 %. То есть в 10 раз выше.
Это грубоватый пример, так как слова в заголовке (то что между <title></title>) и в тексте страницы имеют для бота разный вес, равно как слова в падеже и числе, указанном в запросе и имеющемся на странице. Но для понимания понятия «релевантность» вполне сойдет.

Поясню про падежи и числа.
Если запрос «анекдоТЫ», а на странице встречаются только слова «анектоТ, анекдоТОВ» и т.д. то релевантность страницы по этому запросу будет ниже, чем тех страниц, на которых прямо написано слово «анекдоТЫ». Но в любом случае страница все равно найдется по запросу «анекдоТЫ» (но в с конце списка ответа поисковика).

Из сказанного следует, что страница должна содержать поменьше слов, и слова должны быть, в основном, ключевые.

Куда же девать инфу, которая в 10-20 слов никак не поместится?
Ответ - страницы с инфой и страницы для ботов - это «две большие разницы».

Страницы с инфой- это те страницы, на которые попадаешь по ссылке со стартовой страницы. А стартовая страница (другие названия - индексная, заходная, doorway и др.) - это страница которая как раз и содержит 10-20 слов (включая заголовок и мета-теги). То есть эта страница, созданная специально для бота. И больше ни для кого.

Обычно, на стартовой странице размещают лого, иногда еще несколько слов - чтобы пользователь понял, куда попал, и кнопочку «Вход». Иногда вместо кнопочки «вход» - ссылки на разные разделы сайта. То есть несколько входов.
Если без текста на индексной странице, ну, никак не обойтись, можно запихнуть его в картинки. Так Мелкософт (www.microsoft.com) поступает, например. Правда, им-то чего о релевантности заботиться?

Важно, чтобы бот по запросу нашел хоть какую-то страницу на сайте. Важно также, чтобы навигация на ВСЕХ страницах позволяла попасть в КРАТЧАЙШИЙ срок в любое место сайта.
По крайней мере, ссылка на главную страницу, по моему мнению, должна стоять на каждой странице.
Если бот начнет индексить, он надет одну страницу и дальше пойдет по ссылкам на ней. Нужно облегчить ему эту задачу. Причем, чем больше ссылок на ту или иную страницу (с разных страниц, ясен тетя), тем выше ее «ценность» с точки зрения бота.

Итак.
Стартовая страница делается для бота. На ней нет инфы, только ссылка (ссылки) и куча хитростей (см. ниже) для заманивая ботов.
Страницы с инфой должны содержать ссылки друг на друга, нормальный информативный заголовок и приемлемые мета-теги. Все. Их цель - дать инфу и не препятствовать боту запихнуть их в свой индекс. Они не должны первыми появляться по запросу пользователя. Так как в данном случае это как раз те два зайца, за которыми никак не угнаться, да и не надо.

Дальше.
Понятное дело, что есть не одно, а несколько ключевых слов, по которым web-маз хочет, чтобы искался сайт. Чтобы этого добиться, по хорошему, нужно делать столько стартовых страниц, сколько желаемых web-мазом ключевых слов. Внешне эти страницы ничем не должны отличаться. Ну, может, title`ом. Отличаться должна служебная инфа, о которой речь пойдет ниже.

Например, у меня есть сайт для фирмешки, продающей стартеры для иномарок. Я сделала с десяток-два индексных страниц для наиболее популярных моделей иномарок. Внешне страницы отличаются только тем, что на одной в заголовке написано «Стартеры для Мерседеса», а на другой - «Стартеры для Вольво». Все. Конечно, отличаются мета-теги, alt`ы (подписи к картинкам) и т.д. Об этом ниже. Каждую индексную страницу я индексила в ботах отдельно.

Итак.
Что же индексит бот?
У каждого бота свой характер, но в целом примерно так.
Во-первых title. Это самая важная часть. Слова в title`е имеют самый большой вес. Большой вес имеют слова в alt`ах (подписях к картинкам), слова между <h1> </h1>, <h2> </h2> и т.д. в порядке убывания значимости, слова между <b> </b>.
Кроме того, слова, расположенные ближе (выше) к title`у, имеют больший вес, чем слова расположенные ниже. То есть, чем выше слово, тем выше его вес при определении релевантности.
Полнотекстовые боты (то есть практически все современные) индексят еще и сам текст. В основном, на предмет наличия в тексте слов, указанных в заголовке и метах. Но если текста нет или очень мало - соответственно.

Итого, как заставить бот выдавать твою страницу первой по запросу, например, «варез»?

Пишем:

<html>
<title>Лучший варез</title>
<title> Софт Варез Нелегальный софт</title>

То есть пишем второй title.
После второго title`a нужно поставить знак неразрывного пробела -   или  . Так как Яндекс, например, выдаст оба заголовка как один и без пробела последнее слово первого заголовка сольется с первым словом второго заголовка.
Разумеется, ключевые слова (2-6) можно выдумать и другие.

На той же странице пишем дальше:

<meta name="keywords" content="Варез, софт, нелегальный софт">
<meta http-equiv="keywords" content="Варез, софт, нелегальный софт">
<meta name="description" content="Лучшие программы">
<meta http-equiv="description" content="Лучшие программы">

В keywords`ах должно быть не более 10-ти слов, необходимо использовать варианты (не более трех) наиболее частых падежей и чисел: (например: программы, программ, программа), чередуя их с другими словами (например: программы, софт, программ, варез, программа).

В description - несколько слов (5-8 слов, не более 170 символов), емко характеризующих сайт. В Апорте и Рамблере это описание появится рядом с результатом поиска по запросу. В настоящее время при индексировании содержимое description на релевантность не влияет. По крайней мере, в рассмативаемых поисковиках.

Главное: МЕНЬШЕ СЛОВ! Преимущественно ключевые.

Name и http-equiv должны полностью совпадать. Одни боты понимают name, другие - http-equiv.

Дальше на той же странице:

<meta name="robots" content="index,follow">
# Роботам - индексировать страницу и идти дальше по ссылкам на ней.
# Аналогично сработает: <meta name="robots" content="all">

Дальше:

<meta name="resource-type" content="document">
#Если бот видит, что ресурс - это документ,
# он приступает (должен) к его индексации.
<meta name="document-state" content="dynamic">
# Если тип документа - динамический - бот запомнит что сюда
# нужно периодически возвращаться.
<meta name="revisit-after" content="10 days">
# Это пожелание боту, как часто реиндексировать документ.
# Пожелание - не более. Бот может послушаться, а может и нет.
# Если, например, он разок вернется через 10 дней и увидит,
# что страница и впрямь изменилась, может и еще разок вернется
# через 10 дней. А если написать revisit-after 1 day и не менять
# страницу вообще - бот может обидеться и посчитать это попыткой
# его спама. Он занесет такую страницу в черный индекс
# (точнее, сначала - в "серый"). Это плохо.

Дальше для Рамблера (только):

<!--<h1>Варез, софт, нелегальный софт</h1>//-->

То есть в тегах комментария в заголовке первого уровня пишем ключевые слова. Яндекс то, что в тегах комментария не индексит, а Рамблер ест как миленький.

Потом, все картинки, что ни есть, должны содержать alt`ы с ключевыми словами.

Можно даже в неприметном месте страницы однопиксельных прозрачных гифов запихать (не очень много - 3-4) и alt`ы к ним нужные прикрутить. Это считается спамом поисковика (как и два title`а, впрочем), но по опыту - они (боты) этого в упор не видят.

Вообщем, «легальные» способы кончились дальше идут «нелегальные».

Можно сделать для IE:

<div style="visibility: hidden">
<h1>Программы, варез, софт, программа</h1>
</div>

Для NN:

<layer visibility="hide"> <h1>Программы, варез, софт, программа</h1> </layer>

Это не очень удобно. Нужно ставить скриптину, определяющую тип браузера. Но боты глотают эту наживку и в «черный» список не запихивают.

Проще:

<font color="#цвет фона"><h1>Варез программа</h1></font>

Но это боты грозятся определять. Ничего не знаю по этому поводу. Может, и определяют - они сейчас умные пошли.

Еще можно вот что сделать. Где-нибудь неприметненько запихиваем прозрачные gif-чики и делаем из них ссылки. Бот и alt`ы проиндексит и по ссылкам пойдет, особенно, если сами ссылки по дизайну на страницу никак не поместить.

Примерно так:

<a href="первая ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="Варез, софт, нелегальный софт"></a>
<a href="вторая ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="Софт, варез"></a>
<a href="третья ссылка"><img src="images/gif_1.gif" width="1" height="1" border="0" alt="варез, софт"></a>
и т.д.

Ну, и нужен специально обученный человек, который будет следить за эволюцией ботов, изменениями позиции страницы в поисковиках и предпринимать сответствующие действия. Не каждый день, но раз в недельку-две тестирование в поисковиках своим страницам нужно устраивать.

И вот еще что! Если релевантность _слишком_ высока, Яндекс обижается и не выдает страницу по запросу. За остальными не замечала. Другие страницы того же сайта с меньшей релевантностью может выдавать («серый» список). Так что, если на странице только слова «варез варез варез» - это не выход. Релевантность должна быть не более 30 %. И одинаковые слова подряд лучше не повторять.

А Батва меня навел на мысль, что можно делать по 2 страницы на одно ключевое слово. На одной странице релевантность по ключевому слову 10 % (для подозрительного Яндекса), на другой - порядка 30 % (для остальных).

И вот когда все это извращение готово - 10-15 стартовых качественно написанных страниц - идешь на http://www.design.ru/free/addurl/ и каждую страницу индексишь одной пимпой в нескольких наиболее популярных поисковиках. При этом видишь ответы серверов, и, если не прошло - идешь индексить вручную.
Об остальных поисковиках спокойно забываешь, толку от них… Работы больше.
Описание к каждой странице - разное, ясен тетя. Емкое, краткое состоящее из ключевых слов.

Можно, и вручную добавлять сайт в каждый поисковик, но это геморройно и не сильно выгодней. Впрочем, это мое мнение.

И последнее.
В корень (только в корень) помещаешь файт robots.txt (именно так и никак иначе) со следующим содержимым:

User-agent: * # Первая строка.
# Комментарии, понятное дело, убрать
# Строка говорит, что любой бот может индексить ресурс
# Между первой и последующими -
# не должно быть переводов строк
Disallow: /cgi-bin/ #Не индексировать то, что в каталоге cgi-bin
Disallow: /images/ #Не индексировать то, что в каталоге images
Disallow: /scripts/ #Не индексировать то, что в каталоге scripts
# И далее по смыслу. В конце каждого имени каталога - слеш.
# Нече там ботам ползать. Нагрузку на сервак повышать. smile


Свобода одного человека кончается там, где начинается свобода другого человека.

 
SvilityДата: Суббота, 01.03.2008, 12:42 | Сообщение # 5
Генерал-майор
Группа: Супермодератор
Сообщений: 32
Репутация: 0
Статус: Offline
Вот есть хорошая таблица по которой высчитывается pr т.е. скоко нужно ссылок с морд чтоб поднять pr.
Я её знаю наизусть т.к. всегда нужна, и вам советую если хотите раскручивать форум.
http://xap.ru/google-pr.php


Моя ХомПага
 
l00lДата: Воскресенье, 02.03.2008, 02:54 | Сообщение # 6
Генерал-полковник
Группа: Модераторы
Сообщений: 690
Репутация: 2
Статус: Offline
Полезные статьи и книги по раскрутке сайта

Итак, что мы имеем на данный момент? Стильный сайт, забитый полезной информацией и сногсшибательной рекламой. Эй, стоп! Куда побежали выкладывать все это в Сеть? Рано еще! Потому как несмотря на все достоинства вашего сайта, толпа посетителей на него не хлынет… пока.

Думаю, вы не сильно удивитесь, если я сообщу, что большая часть посетителей приходит на любой сайт с поисковиков. У меня лично дня не проходит, чтобы меня не занесло по каким-то делам на Яндекс, думаю, вы тоже туда частенько наведываетесь. Так вот, если вы хотите настоящей популярности своему ресурсу – необходимо оптимизировать его таким образом, чтобы в результатах поиска на любом поисковике он был на первой, ну, хотя бы на второй-третьей странице. (дальше обычно никто не смотрит…) А для этого мало просто заполнить сайт качественным контентом.

Вообще, об оптимизации сайта нужно писать книгу, а не статью. Это сложный и кропотливый процесс, заниматься им нужно постоянно, затрачивая кучу времени и интеллектуальных усилий, искать материалы, проводить исследования... Словом, если вы решитесь всерьез заняться этим самостоятельно, ни на что другое у вас не хватит времени. К тому же поисковые системы сейчас объявили войну оптимизаторам. Они постоянно обновляют алгоритмы, отслеживают сайты, которые по их мнению занимаются поисковым спамом – и беспощадно банят их. В результате, если вы случайно, по незнанию, намудрите что-то не то – вы просто можете лишиться посетителей с поиска раз и навсегда.

Плюс, не надо забывать, что для вас оптимизация сайта под поисковики – не самоцель. Да, конечно, круто быть на первой странице в результатах поиска Яндекса. НО! Вам еще нужно заниматься своим бизнесом, вести переписку с клиентами, придумывать новые примочки для сайта и подбирать для него новые материалы, создавать новые продукты и услуги, и еще черт знает что делать!.. Вы просто не успеете все и сразу. Посему я сейчас изреку фразу, которая вас скорее всего не слишком обрадует:

«Не заморачивайтесь с оптимизацией сами, доверьте это дело профессионалам! Они быстро и качественно сделают из вашего сайта вкусную конфетку для поисковиков и будут и дальше поддерживать и совершенствовать его в этом плане… за энную, прямо скажу, не маленькую для среднестатистического рунетчика сумму»

А, у вас нет этой самой «энной суммы»? Вы, собственно, ради нее-то всю эту возню с кибер-коммерцией и затеяли? smile Ладно, не горячитесь! smile Давайте пока рассмотрим основные штучки, которые помогут вам привести сайт в более менее привлекательный для поисковиков вид.

Итак…

Мета-тэги. Это специальные HTML-тэги, которые содержат информацию о содержании страницы. Пользователям они не видны, зато любимы поисковыми роботами.

Выглядят они таким вот образом:

<meta name="название_тэга" content="содержимое_тэга">

И вставляются вверху страницы между тэгами <head> и </head>, после тэга <title>заголовок_страницы</title>

Вообще-то мета-тэги должны бы использоваться для управления позиционированием и описаниями в результатах поиска, но сейчас поисковики придают им гораздо меньше значения, чем раньше. Некоторые поисковики вообще не обращают на них внимание. И за все это спасибо товарищам поисковым спамерам, которые забивают тэг Keywords левыми словами, не имеющими отношения к странице, но популярными в Рунете, повторениями по 200 раз одного и того же слова, и вообще извращаются как могут.

Впрочем, большая часть поисковиков по прежнему не обходит мета-тэги вниманием и учитывает их при ранжировании. Так что и вам я не рекомендую о них забывать.

Наиболее важные тэги – Тitle (заголовок), Description (описание) и Keywords (ключевые слова).

Тэг <title>. Сюда помещается заголовок страницы. Заголовок должен быть лаконичным, не более 60 знаков, но информативным и эффектным, т.к. он выводится в результатах поиска в виде ссылки. Используйте в заголовке ключевые слова. Можно два раза: один раз в начале, и один – в конце фразы. Но ни в коем случае не пишите их подряд, это будет однозначно воспринято как поисковый спам! Не забывайте и о пользователе – заголовок должен зацепить его взгляд. Если он будет оптимальным для поисковика, но неказистым и непривлекательным для человека – это тоже не есть хорошо.

Тэг <keywords>. Здесь пишутся ключевые слова, описывающие содержание этой конкретной страницы. Очень часто составляют общий список ключевых слов для всего сайта – и вставляют их во все страницы, особо не заморачиваясь с т.н. «индивидуальным подходом». Это совершенно бессмысленное убийство времени! smile Ключевые слова нужно подбирать индивидуально для каждой страницы. Хотя бы потому, что слово, внесенное в тэг <keywords> обязательно должно встречаться на странице, и желательно не один раз. А иначе поисковый робот его просто проигнорирует.

Каждый раз, отбирая ключевые слова, задавайте себе два вопроса:
насколько данное слово важно для понимания текста и как часто оно встречается?

насколько велика вероятность того, что пользователь будет использовать именно это слово, составляя запрос для поисковика?

Не стоит использовать слишком общие и чересчур популярные слова, типа «бесплатно», иначе ваш сайт просто затеряется в толпе. В то же время слишком специфичные слова и фразы значительно сузят вашу потенциальную аудиторию. Ищите золотую середину smile

Ключевые слова пишутся с прописной буквы, через пробел, в порядке уменьшения их значимости и весомости (сначала самые весомые, потом менее и т.д.) Не используйте более 10, ну максимум 15 ключевых слов, с каждым лишним словом падает релевантность страницы. Знаки препинания тоже не стоит использовать. Робот читает определенное количество знаков, часто не более 200, и бесполезные запятые только зря занимают место. К тому же несколько слов, идущих подряд без знаков препинания, могут быть восприняты как фраза. Встречаемость ключевых слов на странице должна приближаться к 5% для каждого, но не больше, иначе это опять же будет воспринято как спам. Не используйте одно и то же ключевое слово более 2 раз, даже в разных вариантах.

Тэг <description>. Здесь все просто – краткое, не более 200 знаков, описание содержимого странички. Лаконичное, информативное, но при этом привлекательное и интересное. Содержимое этого тега выводится в результатах поиска после ссылки. Некоторые поисковики выводят только первые 170 знаков из этого тэга, хотя читают больше. Некоторые вообще игнорируют его и выводят первые 200 знаков текста, так что смотрите, чтобы начало текста на ваших страницах было информативным, «цепляющим» и содержало ключевые слова.

Так, с тэгами более-менее разобрались, теперь возьмемся за сам текст. Что? Мы за него уже брались? smile Так это мы брались за его привлекательность для читателя, а теперь неплохо бы сделать его привлекательным и для поисковика smile

Итак…

Содержание страницы не должно быть слишком большим, оптимально 500-600 слов. Впрочем, на практике этого часто бывает чертовски мало, чтобы передать все что нужно. Просто старайтесь не помещать на одной странице текст размером с «Войну и Мир». Вас не поймут ни читатели, ни поисковики smile Абзацы небольшие, максимум семь предложений. Следите за тем, чтобы ключевые слова встречались достаточное количество раз, и текст при этом не терял привлекательности, стилистической правильности и смысловой нагрузки.

Поисковые роботы особенно чутко реагируют на слова и фразы, помещенные в тэги заголовков (<h1>…<h6>), <strong> или <b> (жирный шрифт), <i> (курсив). Посему текст нужно начинать с заголовка, помещенного в теги <h1></h1>. В заголовке желательно использовать ключевые слова. Встречающиеся дальше в тексте подзаголовки помещайте в тэги <h2>, <h3> и т.д., в зависимости от их важности и весомости. Ключевые слова и фразы, встречающиеся в тексте, выделяйте жирным шрифтом или курсивом. Однако не переусердствуйте – если половина текста будет выделена жирным шрифтом, это будет очень плохо восприниматься читателем, у него просто начнет рябить в глазах через полминуты.

Если вы используете на странице графику, не забывайте снабжать ее alt-тэгами с описанием картинки, включающим ключевые слова. Это легко и просто делается во FrontPage. Правой кнопкой по рисунку => «Свойства рисунка» => вкладка «Общие» => графа «Текст», пишите все, что считаете нужным.

Html-код выглядит следующим образом (пример):

<img border="0" src="FEM1.gif" width="188" height="223" align="left" hspace="20" alt="Fast Easy Money I – убойный инструмент для кибер-коммерсанта!">

Сам файл картинки тоже лучше назвать ключевым словом.

Ссылки, встречающиеся в тексте, тоже лучше оформлять в виде ключевых слов и фраз. Используйте в ссылках описание (title). Опять же: «свойства ссылки» => кнопка «Подсказка», пишите все, что считаете нужным, не забывая про ключевые слова.

Html-код (пример):

<a title="12 CD для создания вашего бизнеса! Создай свою интернет-империю!" href="12CD.htm">Едем дальше!</a>

Итак, подводим итог. Страница должна быть ориентирована на 3-4 основных ключевых слова, с частотой встречаемости около 5%. Сама страница также должна называться ключевым словом. Ключевые слова должны повторяться в <title>, <keywords>, в тэгах заголовков (<h1>…<h6>), в самом тексте, в ссылках, в alt-тэгах. Содержание <description> и <keywords> не должно совпадать!

И последнее, на что хотелось бы обратить внимание в плане тэгов. На ваших страницах наверняка много «мусора». Скрипты, счетчики, кнопки и прочая ерунда, не относящаяся к контенту документа. Если все это находится в конце html-кода – еще ничего, если же в начале – беда. Потому как надписи из описания ссылок и прочие ненужные вещи будут фиксироваться поисковиком раньше, чем полезный текст, и выводиться в результатах поиска. А это вам совсем ни к чему. Чтобы ненужные элементы не индексировались, обрамляйте их тэгами <noindex></noindex>.

Так, теперь поговорим об управлении индексацией.

Все документы на вашем сайте можно разделить на два типа: рабочие, с релевантным содержанием, и вспомогательные (графика, архивы, страницы, где текста мало и он неинформативный, служебные каталоги). Индексацию последних лучше запретить, т.к. она снизит общую релевантность сайта. Да и индексация рабочей группы затормозится. Кроме того, на вашем сайте могут оказаться папки с секретными материалами, которые вам захочется спрятать.

Для таких случаев существует файл robots.txt. Точнее, будет существовать, когда вы его создадите smile С его помощью можно запретить индексировать отдельные файлы и каталоги (или все сразу) всем поисковикам, либо некоторым, выборочно.

Содержание файла robots.txt формируется всего из 2 строчек: User-agent – имя робота, и Disallow – перечень закрываемых каталогов. Если в строке User-agent стоит * – значит рекомендация относится ко всем поисковым роботам, если, скажем, Yandex – то только к Яндексу. Слэш (/) в строке Disallow означает, что запрещается индексировать все файлы и каталоги на сайте. Пустая строка Disallow – значит индексировать можно все.

Запрещаем Яндексу индексировать все:

User-agent: Yandex
Disallow: /

Запрещаем Яндексу и Апорту индексировать каталог /cgi-bin/:

User-agent: Yandex Aport
Disallow: /cgi-bin/

Запрещаем всем индексировать каталоги /cgi-bin/, /img/ и /faq/ и файл faq.htm:

User-agent: *
Disallow: /cgi-bin/
Disallow: /img/
Disallow: faq

Если вы пишете в строке Disallow слово, не обрамляя его слэшиками, то под запретом на индексацию окажется не только каталог, но и все файлы, в названии которых это слово присутствует.

Можно накладывать ограничения и на отдельные файлы:

User-agent: *
Disallow: /zoo/slon.html

Запрещаем всем все, кроме Яндекса:

User-agent: Yandex
Disallow:

User-agent: *
Disallow: /

Ну, думаю здесь все ясно.

Управлять индексацией можно и с помощью мета-тэга <robots>.

Выглядит это дело так:

<meta name=”robots” content=”значение_тэга”>

В content должно стоять что-то из следующего:

Index – эту страницу нужно индексировать
Noindex – эту нельзя индексировать
Follow – прослеживать ссылки на странице
Nofollow – не прослеживать
All - = index, follow
None - = noindex, nofollow

Для примера, если эта строка у вас будет выглядеть так:

<meta name=”robots” content=”noindex,follow”>

… то сама страница индексироваться не будет, но робот будет прослеживать на ней ссылки, чтобы проиндексировать по ним остальную часть сайта.

Мета-тэг <robots> имеет приоритет над указаниями, содержащимися в файле robots.txt. Если в robots.txt разрешается индексировать все файлы в каталоге, то мета-тэг <robots> может запретить индексирование конкретной страницы в этом каталоге.

С управлением индексацией мы разобрались, хотелось бы напоследок сказать пару слов о такой вещи как индекс цитирования.

Для начала разберемся, что это вообще такое. Индекс цитирования определяется по количеству ссылок на ваш сайт с других сайтов. Чем их больше, тем он, соответственно, выше, и тем лучше для вас, потому как этот показатель также существенно влияет на положение ваших ссылок в результатах поиска. Кстати, имеет значение не только количество сайтов, которые ссылаются на вас, но и их авторитетность. Т.е. ссылка на вас с одного посещаемого авторитетного ресурса стоит десяти ссылок с сайтов типа «vasya_pupkin.narod.ru» smile

Есть куча способов повысить индекс цитируемости. Регистрация в каталогах и рейтингах, размещение ваших ссылок на форумах и досках объявлений, специальные сервисы по обмену ссылками, раскидывание ссылок по FFA, использование специальных программ для автоматической регистрации вашего сайта в каталогах, FFA и прочей ерунде в этом роде, типа PagePromouter и SubmitWolf… Эффективность некоторых из этих способов находится под большим сомнением, другие имеют свои подводные камни. К примеру, FFA вообще создаются по большей части для того, чтобы собирать адреса для спамерских баз. Так что пользы от них чуть, а вот гора спама вам обеспечена.

На мой субъективный взгляд, есть два относительно эффективных способа повысить индекс цитируемости.

Обмен ссылками в индивидуальном порядке. Находите через тот же Яндекс сайты со сходной с вашей тематикой, но не прямых конкурентов. Так как конкуренты, ясное дело, меняться с вами не захотят. Да и вам это зачем? Шерстите первые 3-5 страниц на предмет нужных вам сайтов. Среди этих сайтов отбираете наиболее качественные и посещаемые ресурсы. Здесь нужно не забыть об одном моменте: никто не станет меняться с вами ссылками, если обмен не равноценный. Т.е. владелец более раскрученного и профессионального ресурса с вероятностью близкой к 100% не захочет меняться с вами, ему это не выгодно. Разве что вы ему за это заплатите smile Шутка!.. Старайтесь выбирать сайты одного уровня с вашим, или на худой конец са-амую чуточку ниже.

После того как список сайтов готов, начинайте переписку с web-мастерами. Постарайтесь показать те преимущества, которые получит предполагаемый партнер, если разместит ссылку на ваш ресурс, распишите, чем ваш сайт будет полезен его посетителям. Только не надо путать деловую переписку с рекламным текстом, таки это разные вещи… Если согласие на обмен получено, обязательно обсудите, как будет выглядеть ваша ссылка. Лучше всего перешлите готовый код. Если это неприемлемо, напишите, что бы вы хотели видеть внутри тэга <a> и дайте краткое описание ссылки. Если вам нужно повысить индекс цитирования какой-то конкретной страницы – обсудите и это. Есть вероятность, что партнер согласится разместить ссылку на эту конкретную страницу, а не на сайт в целом.

Публикации в рассылках и на других сайтах. Эти ссылки – наиболее ценные. Публикация ваших материалов на чужих сайтах и в рассылках не только повысит индекс цитирования вашего ресурса, это еще и бесплатная реклама, ведь в конце каждой статьи вы имеете полное право разместить небольшой рекламный блок плюс к ссылке на свой ресурс. Зря вы что ли трудились? smile Кроме того, вы создаете себе репутацию как профессионал в определенной области, ваше имя запоминают и узнают. Еще один плюс этого метода: ссылки на ваш сайт будут односторонними, а они имеют больший вес, чем взаимные.

Однако не все коту Масленица. Этот способ и самый трудоемкий. Вам придется не только вести переписку с потенциальными партнерами, но и готовить материалы к публикации. И готовить качественно, иначе никто их просто не возьмет! Вам придется облазить Subscribe.Ru и Content.Mail.Ru на предмет рассылок по интересующей вас тематике. Придется шерстить архивы выпусков, искать там имена и мэйлы ведущих. Искать через поисковики сайты, где вас могли бы опубликовать, причем опять же качественные и посещаемые.

Кстати, ведение собственной рассылки на Subscribe.Ru или Content.Mail.Ru (а еще лучше и там и там) – тоже отличный способ повысить индекс цитирования. Материалы, выпускающиеся через Subscribe.Ru и Content.Mail.Ru, хорошо индексируются поисковиками. К тому же в собственной рассылке вы сможете указывать какие угодно ссылки и оформлять их как вам надо. Впрочем, о ведении собственной рассылки мы будем говорить отдельно, сейчас речь не об этом…

Если вы не хотите уже через пару недель безнадежно запутаться – заведите небольшую базу данных. Фиксируйте, с кем из web-мастеров и ведущих рассылок вы переписываетесь (имена, мэйлы, адреса сайтов и названия рассылок). На какой стадии находятся переговоры: вам отказали в размещении ссылки/статьи, согласились, но еще не разместили, согласились и уже разместили, переговоры в процессе и еще не ясно, откажут вам или согласятся. Не забывайте фиксировать точные адреса страниц, где размещена ваша статья или ссылка на вас. Такие страницы лучше сразу же подсовывать поисковикам на предмет переиндексации. Делается это просто – через форму индексирования, которая есть в любой поисковой машине.

Да кстати, кое-какой толк может быть и от внутренних ссылок. По возможности перелинкуйте страницы сайта между собой. Ну и, ясно дело, на каждой странице должны быть ссылки на все основные разделы и страницы сайта.

На этом стоит остановиться, статья и без того вышла непомерно большая smile

Автор: Сергей Вечеровский
sergey@virtlex.com


Свобода одного человека кончается там, где начинается свобода другого человека.

 
  • Страница 1 из 1
  • 1
Поиск:

Заглянули на огонек :
Анализ сайта Rambler's Top100
Сайт создан в системе uCoz