Алгоритмы Google: история развития

Тема в разделе "Поисковые системы", создана пользователем ROFI, 23 Апрель 2018.

Реклама
  1. ROFI

    ROFI Профессионал

    Сообщения:
    101
    Симпатии:
    16
    Пол:
    Мужской
    Алгоритмы Google: история развития

    Вступление
    Алгоритмы Google, основа работы поисковой системы Google. Созданный Ларри Пейджем и Сергеем Брином, Google сегодня способен найти документы на двух сотнях языках и произвести обработку данных базовых форматов (Microsoft Word, PDF, Excel и т.д.). В этой статье вспомним главные этапы развития алгоритмов Google, созданных для ранжирования веб-страниц в поисковой выдаче Google.

    Алгоритмы Google: история развития
    1998 год. В этот год был основан поисковик Google. В то же время был создан Page Rank (PR), алгоритм работы которого основывался на передаче ссылочной массы и имел два основных параметра.

    1. Чем больше количество ссылок, ведущих на ту или иную страницу, тем выше уровень Page Rank и место, занимаемое в поисковой выдаче.
    2. Чем выше уровень Page Rank ссылающихся веб-страниц, тем больше масса, передаваемая ссылками.
    Официальным создателем PR является Лари Пейдж, а владельцем патента на данное изобретение – университет Стэнфорда.

    Интересный факт – многие считают, что Page Rank переводится как «ранг страницы». На самом деле это словосочетание переводится как «ранг Пейджа», создатель изобретения дал ему свое имя. В дальнейшем многие поисковики переняли идею Page Rank в качестве основы, разработав собственные аналоги инструмента.

    Начало века
    2000 год. Компания Google представляет широкой общественности новую разработку – алгоритм под названием Hilltop, который позволяет наиболее точно рассчитать уровень PR. Данный алгоритм читает географию и степень новизны того или иного документа. После этого Google начинает оповещать веб-мастеров о том, чтобы они не оставляли ссылки на подозрительных веб-сайтах и «линко-помойках».

    2001 год. В этот год компания Google регистрирует патент на алгоритм Hilltop. На этом же этапе поисковая система делит результаты поиска для некоммерческих и коммерческих запросов.

    2003 год. 15.11.13 запускается новейший алгоритм Florida, который убирает из выдачи либо понижает место страниц, содержание которых перенасыщено ключевыми фразами и словами. В этот день специалисты в области SEO поняли, что новый алгоритм поисковика понижает рейтинг страниц по следующим причинам:

    • не уникальный либо низко уникальный контент;
    • высокое содержание ключевиков в заголовках и текстах;
    • ссылки неестественного вида (покупные).
    2005 год. Специалисты Google впервые пробуют персонализировать поисковую выдачу, задав за основу предыдущие запросы того или иного пользователя.

    2006 год. Компания запускает усовершенствованный алгоритм, базирующийся на алгоритме под названием Orion – детище студента из Израиля. Поисковая система теперь может находить совпадающие по тематике запроса веб-страницы, не содержащие ключевиков.

    С этого момента Google начинает «уточнять» запросы пользователя, предлагая варианты, которые чаще всего ищут с данным словом. К примеру, пользователь набирает в поисковой строке слово «круг». Система предлагает ему такие варианты запроса, как «круг песни», «круг для купания новорожденных» и т.д.

    2007 год. Этот год ознаменован запуском нового алгоритма Austin. Новинка способна учитывать уровень трастовости того или иного веб-ресурса и понижать в поисковой выдаче ресурсы с меньшим показателем трастовости. Таким образом, веб-сайты, которые не успели набрать траст.

    Новое в 2009 году
    2009 год. Разработчики Google внедряют в работу поисковой системы новый алгоритм Caffeine. Прошлые алгоритмы Google стали не соответствовать, возросшим производственным мощностям. Благодаря чему поисковик начинает намного чаще производить индексирование сайтов.

    Во много раз ускоряется формирование страницы с результатами поисковой выдачи. Caffeine не сильно повлиял на формулу рассчёта релевантности, тем не менее стали заметны следующие изменения:

    Постоянная индексация всего пространства всемирной паутины позволила поисковой выдаче Google стать гораздо динамичнее и меняться в течение дня.

    • На первый план вышли содержание и частота обновления веб-сайта;
    • Оптимизация, проведенная внутри сайта (удобство пользования, грамотная перелинковка) заметно повышает доверие поисковой системы к тому или иному ресурсу;
    • Появляются определенные санкции за публикацию и рассылку спама;
    • Появляются определенные санкции за наличие технических неполадок. К примеру, долгая загрузка веб-сайта или «битый» формат ссылок могут понизить ресурс в поисковой выдаче;
    • Google начинает уделять больше внимания ресурсам и ссылкам таких сайтов, как Googlenews, Twitter, Googleblog.
    Второе десятилетие нашего века
    2011 год. Специалисты пополняют алгоритмы Google своим «мусорщиком». Это запуск алгоритма под названием Panda – первый серьезный чистильщик выдачи. Новый алгоритм «чистит» поисковую выдачу от «плохих» сайтов:

    • сателлитов,
    • дорвеев,
    • сайтов, содержание которых представляет собой лишь рекламу и ссылки,
    • сайтов с низкой уникальностью контента.
    Создатели усовершенствованного алгоритма Мэтт Катс и Амит Сингал отмечают, что их новое детище учитывает следующие моменты:

    • Процентный показатель уникальности содержания определенной страницы и на ресурсе в целом;
    • Уровень шаблонности содержания, то есть схожесть текстов, написанных под различные ключевики;
    • Наличие стилистических, грамматических и орфографических ошибок;
    • Релевантность представленной на ресурсе рекламы к тематике размещенных текстов
    • Соответствие содержания тегов и метатегов веб-страницы к ее контенту;
    • Степень насыщенности размещенных текстов ключевиками;
    • Уровень качества исходящих и входящих ссылок;
    • Действия интернет-пользователя (длительность посещения сайта, число просмотренных веб-страниц, количество отказов и возвратов на ресурс).
    Сегодня можно с уверенность отметить, что практически все современные поисковые системы учитывают данные факторы, в особенности – поведенческие. Чем интереснее контент сайта для интернет-пользователя, тем больше он проведет времени на данном ресурсе. Тем выше данный веб-сайт будет ранжироваться на странице поисковой выдачи.

    Калибри
    2013 год. В октябре алгоритмы Google пополнились новейшим алгоритмом «Колибри» — Hummingbird. Новшество данного алгоритма заключается в том, что он способен понимать даже скрытый смысл запросов. К примеру, если вы введете «купить что-либо около дома» Hummingbird по мет, что имеются в виду оффлайн-магазины.

    А из интернет-магазинов он выберет лишь те, на сайтах которых максимально подробно описана информация об условиях доставки и их преимуществах. Помимо этого, алгоритм Hummingbird предпочитает длинные, подробные запросы. Но при этом по тем запросам, по которым Google не сможет «пофантазировать», выдача не изменилась.

    И еще один важный момент – неуникальное, низкоуникальное и сгенерированное содержание теперь не работает.

    В завершение всего стоит отметить, что российский Google – один из наиболее удобных вариантов работы поисковой системы.

    В России Google не использует большую часть своих «карательных» санкций. Благодаря этому продвижение сайтов для данной системы в России намного проще, чем для других поисковиков.

    Пингвин и Панда, что дальше
    Алгоритмы Google: история развития

    4.10. 2013 вышел алгоритм Пингвин 2.1

    Как и ранее поисковик Google обращает внимание на подозрительные сайты и анкор-листы. Данное обновление алгоритма отразилось на ранние попадавшие под санкции алгоритма сайты. Затронуло 1% запросов.

    19.05. 2014 год вышло обновление Панда 4.0

    Самое серьёзное обновление данного поискового алгоритма. Затронуло 7.5% поисковых запросов.

    24.08. 2014 год, алгоритм Голубь

    Алгоритм обратил внимание на геозависимые запросы. Теперь, при получении геозависимого запроса поисковик Google дает наиболее информативные, локальные результаты поиска для пользователя.

    23.09. 2014 год. Обновление алгоритма Панда 4.1

    Данное обновление основывалось на обобщении всех жалоб и комментариев от пользователей по алгоритму Panda 4.

    17.10. 2014 год. Алгоритм Пингвин 3.0

    Данный апдейт поисковика Google опять дал понять, что поисковик отрицательно относится к веб-спаму. Много сайтов просело в выдаче.
     

    Понравился пост? Поделись с друзьями!

Реклама