история GoogleБеспрецедентно успешным стало детище Сергея Брина и Ларри Пейджа — поисковая система Google. На сегодняшний день этот крупнейший поисковик способен находить документы на 191 языке и обрабатывать информацию основных форматов (PDF, Word, Excel и прочие). Каким же образом осуществляется ранжирование страниц Google в поисковой выдаче?

Исторические вехи

1998 год отмечен в истории Google как год рождения этой поисковой системы. Именно в это время был создан PR (Page Rank), алгоритм которого основывается на передаче ссылочного веса, включающий в себя два параметра:

•    Вес, передаваемый ссылками, тем выше, чем выше PR ссылающейся страницы.
•    PR и позиция в поисковой выдаче возрастает в прямой зависимости от количества ссылок, которые ведут на страницу.

Другими словами, Page Rank первой страницы А будет тем выше, чем большее число иных страниц Б, владеющих PR, будут на нее ссылаться. Именно так родилось ссылочное ранжирование, позволившее Google значительно улучшить качественные показатели поиска в сравнении с предложениями конкурентов. И сегодня алгоритм PR остается одним из основополагающих факторов ранжирования поисковиком Google. Многими оптимизаторами и вебмастерами показатель PR заботливо наращивается в надежде на повышение позиций ресурса до первых строк поисковой выдачи. Компанией Google Inc еще 4 сентября 2001 года, владельцем торговой марки PageRank был запатентован свой алгоритм. Официальным изобретателем PR был признан Лари Пейдж, а владельцем патента назван Стэнфордский университет.

Весьма любопытно, что многими название PageRank переводится как «ранг страницы», в то время как на самом деле перевод звучит как «ранг Пейджа», поскольку алгоритм носит имя изобретателя. Несколько позже многими поисковыми системами PageRank был взят за основу собственных разработок аналогов PR и иных качественно-количественных показателей ранжирования страниц.

2000 год. Компанией Google проводится презентация нового алгоритма Hilltop, призванного осуществлять более точный расчет PR. Алгоритмом учитываются новизна документа и география. Поисковиком начинают рассылаться предупреждения вебмастерам о нежелательности размещения ссылок на линкопомойках и прочих подозрительных ресурсах.

2001 год. Поисковой системой патентуется Hilltop, использующий при расчетах PR динамический ранг документации. В этом же году были разделены поисковые результаты для некоммерческих и коммерческих запросов.

2003 год. По результатам своей выдачи Google, словно ураганом, пронесся новым алгоритмом Florida, сильно понизив либо совсем удалив из нее страницы, которые оказались перенасыщенными ключевыми словами. В том же день SEO-специалистами, которые приспособились к Hilltop, были отмечены следующие причины понижения позиций ресурса в выдаче:

•    Перенасыщение заголовков и текстов ключевыми словами.

•    Неуникальный контент.

•    Покупные (неестественные) внешние ссылки.
2005 год. Компанией Google осуществлена первая попытка персонализации выдачи с помощью формирования ее на базе более ранних запросов конкретного пользователя.

2006 год. Запущен алгоритм на основе другого алгоритма Orion – результате деятельности студента из Израиля. Поисковиком Google стали обнаруживаться страницы, близкие по тематике запроса, но не содержащие ключевых фраз либо слов. В настоящее время Google просит уточнить запрос, демонстрируя подсказку, что еще ищут со словом запроса.

2007 год ознаменован запуском алгоритма Austin. Этим алгоритмом учитывается трастовость ресурса и осуществляется понижение в выдаче менее трастовых ресурсов по важным для пользователей тематикам. Новорожденные ресурсы, не успевшие набрать траст, обычно не могут попасть в ТОП-5.

2009 год. Компанией Google вводится алгоритм Caffeine. Рост производственных мощностей позволяет поисковому гиганту осуществлять более частую индексацию ресурсов и ускорить формирование результатов выдачи. Новым алгоритмом незначительно затронута формула расчета релевантности, однако, изменения налицо:

•    Постоянная индексация интернет-пространства обеспечивает динамику выдачи Google, которая может быть изменена в течение дня.
•    Частота обновления ресурса и содержание контента выходят на первый план.
•    Доверие Google к ресурсу повышается вследствие внутренней оптимизации (внутренней перелинковки, повышение уровня удобства пользования ресурсом).
•    Вводятся санкции за распространение спама.
•    Появляются санкции за проблемы с технической областью ресурса. К примеру, битые ссылки и долгосрочно загружающийся ресурс теперь могут стать весомыми причинами для понижения сайта в выдаче.
•    Уделяется внимание различным ресурсам и ссылкам из Twitter, Googlenews, Googleblog.

2011 год.
Компанией Google запущен алгоритм под именем Panda, по своей сути являющегося своеобразным «мусорщиком» собственной выдачи. Panda очищает поисковую выдачу от «нехороших» ресурсов: сателлитов, дорвеев, сайтов, созданных исключительно для размещения ссылок и рекламы, от ресурсов, содержащих неуникальный контент.

Создатели алгоритма Амит Сингал и Мэтт Катс поясняют, что при сортировке всех ресурсов на «плохие» и «хорошие», алгоритмом учитываются:

•    Шаблонность контента, т.е. схожее содержание статей, написанных под различные ключевые слова.
•    Уникальность контента в процентном соотношении на каждой конкретной странице ресурса и на всем сайте в целом.
•    Релевантность рекламных материалов содержимому ресурса.
•    Наличие стилистических, грамматических, орфографических ошибок в текстах.
•    Соответствие содержания мета-тегов и тегов содержимому страниц.
•    Перенасыщение страницы ключевыми словами.
•    Качественные показатели исходящих и входящих ссылок.
•    Действия пользователей (время пребывания на ресурсе, число просмотренных страниц, показатели отказов, процент возвратов на ресурс).

Можно с уверенностью утверждать об учете поисковыми системами поведенческих факторов при ранжировании. Чем интереснее ресурс для пользователей, чем больше времени, проводимом на нем, тем более высоко будет ранжироваться сайт в выдаче.

Похожие записи:

  1. Апдейты Google: история до наших дней
  2. 500 изменений в алгоритме обещает Google
  3. Панда и Пингвин – еще не все от Google!
  4. Отчет о последних изменениях в алгоритме представлен Google
  5. Google Panda готова представиться общественности
  6. «Антирекламный» алгоритм Google: подробности работы
  7. «Антиспамный» алгоритм от Google
  8. Пессимизировать за рекламу начинает Google
  9. Мэтт Каттс: удаляются ли сайты из выдачи Google вручную?
  10. Избегаем санкций «Пингвина» — нового алгоритма Google