Автор статьи: ev1
Всегда выбирайте самый трудный путь —
там вы не встретите конкурентов.
Шарль де Голль
Согласно исследованию японских ученых, люди, пользующиеся компьютерами каждый день, к тридцати годам практически полностью теряют способность что-либо запоминать.
|
Катастрофа? Жизненное фиаско? Вовсе нет, им приходят на помощь поисковые машины: если что-то нельзя вспомнить, это можно найти. Эта горстка сайтов, любовно называемая поисковиками и искалками, играет огромную роль в современном мире. Достаточно взглянуть на врезку <Корзина с фактами>, чтобы понять, что многие из нас уделяют времени поисковикам значительно больше, чем своей жене и детям. Эта статья — еще один шанс немного обделить вниманием близких людей для тех, кто мечтает о толпах посетителей в гуще своего сайта.
Рассказать о поисковиках непросто — в этом безумном мире запросов и ответов информация устаревает едва ли не в момент появления. Поэтому я попытаюсь избежать советов <как надо сделать, чтобы…> Надо учиться искать и думать. Где искать, что искать и о чем думать — да, вы угадали, именно этим вопросам посвящена статья.
Что такое успешная оптимизация?
Цель оптимизации сайта — получить максимум целевых посетителей, то есть тех, которые что-то купят, заполнят анкету или заинтересуются темой сайта. Как достичь этого? Давайте думать.
Если сайт нацелен на какой-то регион, логично сделать упор на местные поисковики. При этом выбор поисковика резонно делать на основе его посещаемости, которую можно узнать из рейтингов MediaMetrix и Nielsen/NetRatings, а в русскоязычном интернете — Rambler’s Top100, Рейтинг@mail.ru (бывший TopList) и SpyLog.
Впрочем, и тут не обошлось без подводных камней. Взгляните на рейтинг MediaMetrix: кажется, что Google — не лучший выбор для раскрутки сайта.

Но давайте думать. из таблицы альянсов поисковиков обнаруживается, что кроме своего сайта Google присутствует на Yahoo и Netscape, а это уже сила.
По информации SearchEngineWatch на 2001 год |
Следовательно, выбирая поисковик, нужно смотреть не только на посещаемость, но и на тех, кто использует его механизм поиска. Получается, что для целей оптимизации стоит исследовать максимум 5-7 поисковых механизмов: Google, Inktomi, AltaVista, FAST и др., а среди русскоязычных — Яндекс, Рамблер и Апорт.
Оценивая позицию в результатах поиска, помните, что около 60% пользователей ограничиваются первой страницей результатов поиска, и почти 90% — первыми тремя. Поэтому место ниже 30, как правило, не результат, хотя по самым популярным запросам оно может давать сотни посетителей.
Алгоритмы
Откуда брать информацию об алгоритмах?
Если алгоритмы поиска станут известны всем, тут же появятся <идеальные> странички, про которые поисковик подумает <До чего ж хороши!> и поставит их на первые места вместо страниц, которые ожидал найти пользователь. Отсюда ясно, что никогда, нигде ни один поисковик не откроет своих настоящих алгоритмов, за исключением трех случаев:
- Публикация научных статей.
- Когда информационная закрытость компании противоречит целям рекламы или (спрашивайте сотрудников поисковиков на форумах и читайте их интервью).
- Когда маленькие человеческие слабости — желание поделиться информацией с другом или похвастаться достижениями поисковика на форуме — берут верх.
Откуда еще можно брать информацию? Давайте думать.
- исследования и эксперименты других специалистов обычно описываются в статьях, пресс-релизах, на форумах.
- Статистические и аналитические сайты, казалось бы, не имеют отношения к методике оптимизации. На практике же они могут дать очень много информации, скрываемой поисковиками — кто ищет, где, какие запросы задает, как часто и т. д., что может существенно облегчить раскрутку сайта.
- ваши собственные эксперименты — об этом чуть ниже.
А мне недавно сказали…
Когда кто-то говорит о новом факторе ранжирования, часто следует вопрос: правда это или нет? Давайте думать. Чтобы ответить на него, нужно знать, к чему стремятся алгоритмы поиска, какая у них цель и какие проблемы.
Эффективность поиска принято оценивать по двум основным критериям: полноте и точности. Чем больше процент релевантных (соответствующих запросу) документов среди всех найденных, тем выше точность. И чем больше найдено релевантных документов среди всех, что хранятся в базе поисковика, тем лучше полнота. Основная же проблема — ресурсоемкость поиска (нужно хранить много данных и до-о-о-олго их обрабатывать).
Следовательно, если <новый фактор ранжирования> может улучшить показатели точности или полноты, не вызвав резкого увеличения потребности в ресурсах, он правдоподобен. Например, именно из-за затрат времени не индексируются JavaScript-код и Flash, хотя технически реализовать и то, и другое не так уж сложно.
<Пора в путь-дорогу…>
С точки зрения оптимизации сайта у крупного поисковика существует три основных источника информации для вычисления релевантности страницы: 1) содержание страницы и сайта, 2) другие веб-сайты, 3) поведение пользователей. Если первым источником легко манипулировать, второй поддается только ограниченному воздействию, то влиять же на третий крайне сложно. Поэтому поисковики придают большой вес последним двум источникам.
Оптимизируя сайты, всегда проговаривайте про себя вопрос: <Как поисковик будет действовать в момент запроса?>, очень часто это помогает найти новые решения. Простой пример. Когда пользователь задает слово запроса строчными буквами, Яндекс находит все вхождения слова, независимо от его регистра; но если слово написано с прописной буквы, Яндекс будет искать только такие варианты. Следовательно, начиная с прописной буквы в тексте страницы все слова, которые пользователь часто пишет с большой буквы, вы повышаете вероятность нахождения страницы по всем видам данного запроса.
Содержание страницы и сайта
Текст страницы
Поисковик интересуется, прежде всего, тем, насколько часто встречается слово из запроса в документе по сравнению с другими словами. Если слов в запросе несколько, то вес каждого из них тем больше, чем в меньшем количестве документов базы оно содержится. В то же время, страница со слишком часто встречающимся словом запроса считается спамом, и ее позиция в результатах поиска заметно понижается.
Каким образом следует выбирать ключевые слова для оптимизации? Давайте думать. Во-первых, чем чаще их запрашивают, тем лучше. Во-вторых, чем меньше конкурирующих сайтов, тем легче добиться хорошей позиции. В-третьих, так как вес слова тем больше, чем реже встречается оно в других документах, то при оптимизации под запросы из нескольких слов выгодно делать упор на редкие слова.
Теги и мета-теги
Откуда пошли мифы про чудодейственную силу мета-тегов? из истории поисковиков. Когда поисковики были маленькими, а веб-мастера неопытными, кто-то подумал: а зачем городить эти сложные алгоритмы вычисления релевантности, если можно попросить веб-мастеров описать словами в специальных тегах их сайт? Уж человек-то наверняка разбирается в том, какие темы его сайт охватывает! Возможно, первое время так и было. Веб-мастера скромно писали в мета-тегах <личная страничка, Вася, Пупкин, кошка Люся> и были счастливы, видя свой сайт вверху результатов поиска по запросу <кошка Васи Пупкина>. Но прошло время, веб-мастера узнали, что такое баннер и как его можно продать, и началось: <рефераты рефераты рефераты>. Наивные поисковики стали находить по слову <рефераты> все, что им предлагали. В итоге, сегодня Рамблер не учитывает мета-теги совсем, Яндекс — только если соответствующие им слова часто встречаются в тексте страницы, и Апорт незначительно поднимает вес страницы при совпадении запроса со словом из мета-тега.
Alt-теги изображений учитывают далеко не все поисковики, но некоторые к ним внимательно прислушиваются, так что забывать о них не стоит.
Но есть один особенно важный тег — это тег