Алгоритмы ПС

Поисковые системы на основании ключевиков рассчитывают релевантность того или иного ресурса относительно поисковых запросов. Как описано в алгоритме, поисковая система проводит анализ содержимого ресурса, находит там ключевики и назначает ему подходящую позицию.

Каждый поисковик имеет свои уникальные алгоритмы, базирующиеся на общих принципах работы алгоритмов.

Алгоритмы Google

Первый раз слух об алгоритмах появился, когда поисковая система Гугл ввела собственный механизма поиска (Индекс Цитирование). ИЦ был создан с целью определения позиций страниц ресурсов, которые зависели от числа и качества внешних ссылок. Так возник определенный стандарт расчет релевантности сайтов по итогам поиска. Данная технология очень скоро стала весьма успешной и сделала Гугл одной из популярнейших поисковых систем в мире.

Изначально основополагающим фактором, учитываемый Google при ранжире страниц был PR, также большое значение имела внутренняя наполненность страниц сайтов. Спустя время в данный перечень прибавилось распределение по регионам и актуальность информации.

В 2000 году с целью улучшить расчет PR, Кришной Бхарат было предложено ввести алгоритм «Hilltop». Так, уже в 2001 году Гугл начал различать страницы с коммерческой и некоммерческой целью, потому алгоритм снова был изменен. В этом же году был введен фактор, который делал ссылки с трастовых ресурсов куда более значимыми.

В 2003 году был создан и введен в эксплуатацию алгоритм «Florida», вызвавший к себе крайне негативное отношение оптимизаторов. Дело в том, что данный алгоритм совершенно не реагировал на стандартные на то время методы раскрутки и сайты с громадным числом ключевиков на страницах с повторяющимися анкорами.

В 2006 году Гугл заинтересовался разработанным алгоритмом студента из Израиля Ори Алона, который назывался «Орион». В этом же году он был введен в эксплуатацию. Его отличие от остальных алгоритмов Гугл было в том, что он учитывал качество индексируемых страниц.

В 2007 году вступил в работу алгоритм «Августин», который серьезно отличался от своих предшественников и сильно видоизменил поисковую выдачу.

В 2009 году был разработан алгоритм «Caffeine», который позволил не только улучшить поисковую выдачу Гугл, но и увеличить число проиндексированных страниц.

В 2011 году был разработан совершенно новый алгоритм, который получил название «Panda». Он рассчитан в первую очередь на то, чтобы повысить позиции сайтов, которые содержат действительно качественную и полезную для пользователей информацию на своих страницах.

Алгоритмы Яндекса

В июле 2007 года Яндекс официально заявляет, что их ранжир будет существенно изменен. Первый алгоритм, получивший название 8SP1, был запущен в 2008 году (до этого времени алгоритмы существовали, но они не имели названий, а изменения, которые вносились оптимизаторами, определялись лишь посредством тестирования и ошибок).

16 мая 2008 года был разработан и введен в работу новейший алгоритм с названием «Магадан», имеющий в своем распоряжении возможность переработки аббревиатур и транслитераций. Чуть позже, в том же году появился еще один алгоритм, названный как «Находка». Данный алгоритм примечателен тем, что после его релиза выдача стала отображать информационные ресурсы, такие как, к примеру, всемирно известная Википедия.

В апреле 2009 года был введен в эксплуатацию алгоритм «Армазас», основной особенностью которого стало продвижение по регионам. Также он примечателен новыми фильтрами для ресурсов, у которых присутствовали всплывающие баннеры, так называемые кликандеры и попандеры.

В ноябре того же года свет увидел новый алгоритм с названием «Снежинск», споры по которому не утихают и по нынешнее время. Данный алгоритм стал первым, где был введен метод машинного обучения «Matrixnet». Так как в работе появились новые настройки ранжира, технология раскрутки сайтов стала куда более сложной, поскольку оптимизация сайтов отныне должна была проходить комплексно.

В декабре 2009 года появился алгоритм «Конаково», который являлся, по сути, обновленной версией «Снежинска». Появление данного алгоритма позволило сайтам ранжироваться в 19 регионах и более чем 1200 городам Российской Федерации.

В сентябре 2010 года был выпущен алгоритм «Обнинск», которым был способен проводить комплексную оценку текстового содержания ресурсов и более качественно определять истинное авторство текстов. Отныне избыток ключевиков стал расцениваться как спам и подпадал под фильтры, а искусственные ссылки потеряли свою значимость и практически перестали воздействовать на ранжир ресурсов. Это привело к рассвету копирайтерского ремесла, данная профессия обрела ценность и стала пользоваться повышенным спросом.

В декабре 2010 года был разработан алгоритм «Краснодар» с внедрением специальной технологии «Спектр». Это позволило значительно улучшить качество выдачи за счет разделения запросов на объекты, к примеру, названия, модели и проведения их систематизации (лекарства, техника). Оптимизаторы при работе стали уделять больше внимания факторам поведения пользователей.

В августе 2011 года был введен в работу алгоритм «Рейкьявик», основной задачей которого было совершенствование поиска при запросах на английском языке.

Описание

Ранее поисковики находили всю нужную информацию посредством обработки некоторых элементов сайтов, к примеру, заголовков, ключевых слов или количества контента. Однако резкий всплеск сферы оптимизации и создание множества ресурсов, содержащих переспам, стало мешать работе, и вынудило поисковики улучшать собственные алгоритмы, которые помогали бы отправлять в игнор «неполезные и пустые» и продвигать качественные сайты. Поэтому обновление алгоритмов можно назвать не чем иным, как реакцией на непозволительные «черные» методы оптимизации.

Комментарии

ОтменитьДобавить комментарий