Переводные статьи

-

Развитие поисковых систем - приговор оптимизаторам?

В последнее время я занимался изучением, того насколько долго будет возможна оптимизация сайтов с целью выведения их на первые страницы основных поисковиков, таких как Google, Yahoo, и Msn. Если вы читали мою предыдущую статью, опубликованную на SEOChat.com, то вы должны знать, что Google сейчас активно экспериментирует, предлагая пользователям, новые возможности для поиска, которые основываются на их предпочтениях.

Автор: Clint Dixon

    

   В последнее время я занимался изучением, того насколько долго будет возможна оптимизация сайтов с целью выведения их на первые страницы основных поисковиков, таких как Google, Yahoo, и Msn. Если вы читали мою предыдущую статью, опубликованную на SEOChat.com, то вы должны знать, что Google сейчас активно экспериментирует, предлагая пользователям, новые возможности для поиска, которые основываются на их предпочтениях.

   Сейчас несколько экспериментов проводятся одновременно. Первый, заключается в добавлении дополнительной ссылки над рекламными объявлениями. Другой, состоит в том, что первые три результата заменяются ссылками на сайты, которые находятся на 6, 7, 8 местах по родственному (иногда коммерческому) запросу. И, конечно же, они размещают спонсорские ссылки вверху результатов поиска.

   Причины "улучшений" в работе поисковых систем

   Многие годы работы в области оптимизации сайтов и онлайн маркетинга изменили мое мнение о человеческой природе... Бывали моменты когда эта самая человеческая природа заставляла меня истерически смеяться. Например, когда сталкиваешься с людьми, которые считают, что они умнее, чем команда разработчиков Google. Одно я могу сказать с уверенностью - если человек заявляет, что он умнее разработчиков Google и может обойти их алгоритм, то этот человек скорее всего непроходимый дурак. Люди, которые работают на Google, являются лучшими специалистами в своих областях. Более того, их работатдатели заботятся о них лучше, чем некоторые матери заботятся о своих детях.

   Google - это настоящая нирвана или Ксанаду для инженеров и программистов. Отношение к ним поистине королевское, чего очень часто не могут понять другие работодатели. Только несколько корпораций предоставляют своим работникам такие же условия для работы. Тот факт, что 20% своего оплачиваемого времени работники Google тратят на свои собственные проекты - это только вершина айсберга. Большинство компаний не могут предоставить своим сотрудникам и 20 секунд на собственные нужды, и очень далеки от того, чтобы позволить своим работникам потратить целый рабочий день на разработку собственных идей.

   На многих из форумов посвященных оптимизации часто можно встретить вопрос: "Использует ли Google спам репорты или нет?". Дискуссия часто отклоняется от темы и перерастает в дискуссию на тему, стоит ли стучать на спаммерские сайты или не стоит… На, самом деле, Google пользуется спам репортами - и это ответ на вопрос. Хотя обычно, они не убирают сайта из результатов поиска вручную. Google использует спам репорты для того чтобы улучшить работу своего алгоритма, который и сделает необходимую работу по очистке результатов поиска от спаммерских сайтов.

   "Исправления"

   Обычно, разработчики Google просматривают спаммерский сайт, чтобы выяснить как именно он обошел работу алгоритма и попал на топовые позиции в результатах выдачи. Это необходимо для того чтобы переконструировать алгоритм и работу Google бота, для того чтобы они смогли определить такого рода спаммерские сайты и не учитывать их в дальнейшей работе. Я представляю радость разработчиков, когда они запускают переработанную версию алгоритма и говорят спаммерскому сайту "пока-пока".

   После недавней глобальной чистки Google, те из вебмастеров, которые считали себя умнее команды разработчиков Google, изобрели новый 100% метод попадания на первую страницу результатов. Появились настоящие адепты черных методов раскрутки сайтов, которые создали невероятное количество дорвеев. После того, как поисковики научились отделять настоящие сайты от дорвеев, люди скоро выяснили, что ссылки и есть тот способ, который позволяет оказаться на первой странице и тут же начали меняться ссылками, в надежде, что это улучшит их позиции.

   Затем, эксперты по онлайн маркетингу решили, что обмен ссылками и покупка ссылок - методы, которые работают и с этого момента, на всех ресурсах посвященных оптимизации только об этом и говорили. Единственной проблемой было то, что те, кто занимался продажей и покупкой ссылок забыли об одной важной вещи - люди в другой команде, тоже работают… Google уловил эту тенденцию и дал задание программистам исправить ситуацию. Это случилось не скоро, но все же случилось, и те из вебмастеров, которые занимались активной покупкой и обменом ссылками, вскоре заполнили форумы, постами вопрошая, почему они теряют свои позиции.

   После такого глобального фиаско, наиболее продвинутые из оптимизаторов, выяснили, что контент - это король. Они решили, что добавление все новых и новых страниц с оптимизированным контентом даст им желаемые позиции в результатах выдачи и соответственно увеличит их доходы. Эти "гении" создали специальные программы, которые позволяли копировать контент с других сайтов и таким образом добавлять новые страницы на собственный сайт. Разработчики Google довольно скоро уловили и эту тенденцию и менее чем за два месяца, исправили ситуацию, таким образом, что сайты заимствующие информацию с других сайтов потеряли свои позиции.

   Спасибо всем, кто использовал черные методы

   Лично я хочу поблагодарить всех тех, кто использовал черные методы оптимизации. Делая как раз противоположное, тому, что делали вы, ни один из моих клиентов не пострадал ни от одного фильтра и не был наказан как-нибудь иначе. Главная причины этого в том, что я твердо знаю, что я не умнее тех, кто работает в Google. Я знаю, что такое сбор и обработка данных, я знаю, что такое оптимизация и поисковый маркетинг; но, пожалуй, самая главная вещь из того, что я знаю это то, что со своим уставом в чужой монастырь не ходят. Так почему кто-то думает, что Google позволит, кому-либо вмешиваться в их работу?

   Я также хотел бы поблагодарить этих "гениев", за то, что они помогли уничтожить одну очень важную вещь. Брэнд Google строился на том, что в результатах выдачи присутствовали сайт действительно релевантные запросу. В то время, Google никак не зарабатывал на этом, но они знали, что такой подход, со временем это станет настоящей золотой жилой.

   Спасибо всем этим "гениям" за то, что количество купленных ссылок теперь не имеет значения, а одна, но по настоящему качественная ссылка теперь значит по настоящему много. Спасибо также и за то, что все мета теги, кроме title теперь не имеют никакого значения для Google. Спасибо за то, что теперь каждый новый сайт тщательно проверяется Google, с тем, чтобы выяснить стоящий ли это ресурс или нет, и такая проверка часто занимает ни один месяц. Благодаря всем этим умникам, мы теперь должны осторожно добавлять новые страницы и контент, учитывая частоту добавления и прочие факторы.

   Те из вас кто думает, что Google не использует Google Sitemaps beta для определения надежности сайта (а всего лишь для того, чтобы быстрее и проще проиндексировать содержание сети), должны пересмотреть свою точку зрения.

   Благодаря тому, что все эти оптимизаторы так настойчиво пытались обмануть Google, его разработчикам пришлось изучить лимеризацию, морфологический поиск, символический поиск, процессы фильтрации. Вся эта математика используется, для того чтобы вычислить вес слова (Term Weight). Формула для определения веса слова (запроса) помогает поисковикам определить тематику сайта.

   В дополнение ко всему этому, Google использует и другие данные для определения места, на котором будет стоять сайт в результатах поиска. Эти данные включают в себя: направление чтения, грамматическое построение, автоматическую категоризацию названий (позволяет поисковику классифицировать страницы во время анализа текста), использования онтологических методов. Более того, поисковики теперь обращают внимание и на то, насколько совпадает контент страницы с запросом, время проведенной пользователем на странице, данные, предоставляемые тулбарами, и другие данные, которые предоставляют пользователи (отношение числа посетителей к количеству кликов ими совершенных), количество посетителей. Если честно, то только одна вещь может помочь в попадании на первую страницу по запросу, и эта вещь - трафик. Почему Google Yahoo или MSN должны рекомендовать страницу, которую никто не посещает?

   Оптимизация, которая так и не успела достигнуть пика в своем развитии
Все эти нововведения привели к медленному умиранию оптимизации...

   Дорвеи

   Первый - создавать дорвеи под любые запросы, для которых имеется коммерческая выдача на PPC-поисковиках и продвигать их в результатах поиска больших поисковиков. Пользователь, увидев ссылку на "дор" в результатах и кликнув по ней, автоматически перенаправляется на выдачу PPC-поисковика по тому же запросу, т.е. для него происходит лишь небольшая подмена - вопрос задал в одной поисковой системе, результат получил почему-то в другой. И, естественно, выдача эта представляет собой аналогичный описанному выше набор однотипных коммерческих предложений.

   Так как подобная технология представляет собой самое настоящее воровство - пользователь, автоматически переброшенный из результатов поиска на PPC, никогда не кликнет по аналогичной рекламе, предоставляемой большим поисковиком, и не принесет денег ему - поисковые системы активно борются с дорвеями такого типа.

   Одним из способов уничтожения доров является обычный "стук" в поисковую систему, и им активно пользуются как конкуренты-дорвейщики, так и веб-мастера, имеющие представление о спамдексинге. Это заставляет производителей дорвеев использовать наиболее низкочастотные запросы, а также запросы смежных тематик.

   Фиды

   Фид (от слова feed - кормушка) - это результаты PPC-поисковика, транслируемые на другом, партнерском сайте. Партнер, показывая фид своим посетителям, зарабатывает тем же способом, что и дорвейщик - с каждого клика по ссылкам фида, ему отчисляются комиссионные.

   Фид лучше всего размещать на каталожных сайтах, попросту "надстраивая" им соответствующую рубрику. Создать каталог с минимальным первичным наполнением просто, но "раскрутить" его до известности и постоянной аудитории - очень сложно. Поэтому естественным источником пользователей для таких "каталогов" опять же являются поисковые системы. И опять же - наиболее легко в такие каталоги привлекать трафик по средне- и низкочастотным запросам.

   Поисковые системы не приветствуют в своих топах ссылки на страницы каталогов, но их становится настолько много, что уследить за всеми довольно сложно.

   И "фидовые" проекты, и дорвеи, рассчитанные именно на партнерские программы от PPC-поисковиков, в Рунете уже появились. В ближайший год, скорее всего, следует ожидать взрывного роста подобных технологий, а также увеличения количества PPC-поисковых систем.

   Напомню, что все они основаны исключительно на возможности манипулировать результатами поиска популярных больших поисковых систем.
Выводы, которые можно сделать, анализируя сложившуюся сегодня ситуацию...     

Разместил: garry | Дата: 22.07.2006


Рейтинг статьи

Средняя оценка: 4.22/9Средняя оценка: 4.22Всего голосов:9

Отлично
Хорошо Нормально Пойдёт Плохо
Нет комментариев. Почему бы Вам не оставить свой?
Вы не можете отправить комментарий анонимно, пожалуйста зарегистрируйтесь.