Новый алгоритм определения текстового спама Баден-Баден

В блоге компании Яндекс, который создан специально для вебмастеров, 23.03.17 вышла информация о появлении нового алгоритма, с названием «Баден-Баден». Такое название выбрано неспроста, Яндекс уже почти 10 лет именует новые программы в честь городов России, но здесь фигурирует немецкий, в нем повторяется два слова. Это подчеркивает специфику данной поисковой программы. Хотя исключения были и раньше, вспомним хотя бы Рейкьявик, который появился в 2011-м и занимался предпочтениями юзеров в языке.

В информации по этому алгоритму указывается, что результатом его запуска будет снижение рейтинга сайтов, страницы которого слишком оптимизированы. Анализ сайтов, которые подпадают под данное определение, подтверждает указанные данные, алгоритм действительно ухудшает ранжирование некоторых страниц по определенным запросам.

Не так давно в Минске проходила конференция «Неделя Байнета 2017» и 7-го апреля М. Сливинский, руководитель службы, которая занимается работой с вебмастерами компании Яндекс, сказал о предстоящем втором этапе поисковой программы «Баден-Баден». Этомероприятие традиционно считается местом, где Яндекс может анонсировать какие-либо нововведения. Там свое начало берут отключение ссылочного ранжирования по определенному классу коммерческих запросов, запуск программы «Минусинск», которая борется со ссылками SEO и вот сейчас еще одна громкая новость.

На втором этапе действия программы обещают накладывать санкции сразу на весь сайт, указывая переоптимизацию в виде причины. Сливинский заявил, что под санкции попадут тысячи ресурсов.

Менеджер компании Е. Першина обозначает эти два этапа:

1 – «Баден-Баден в виде алгоритма»

2 – «Баден-Баден в виде нарушения».

Видимо, санкции к ресурсу будут применять в случае, когда критическое количество страниц переоптимизировано и имеет низкий балл от алгоритма. Так что второй этап не будет означать изменения в самой программе, а просто увеличит силу наказания.

Интересно, что во время анонса было указано, что данная программа будет частью общего алгоритма определения рейтинга ресурса в списке выдачи. Хотя аналог «Баден-Бадена», который вышел 6 лет назад, считался надстройкой и даже не имел названия. В последнее время, в основное ядро программы, которая занимается ранжированием, перетекает антиспам все чаще. В сентябре прошлого года компания Гугл заявила, что «Penguin», алгоритм антиспама, переходит в ядро главного алгоритма, определяющего место ресурса в списке выдачи по запросам, и будет обновляться в режиме онлайн.

При попадании алгоритмов антиспама в основное ядро, становится гораздо сложнее определять граничные значения для запуска санкций. Пороги срабатывания, например, антиспама для текста, зависят не только от текстовых свойств, но и от иных параметров. Потому Сливинский и сказал, что по анализу текста, который попал под санкции, сложно будет создать технический путь, который мог бы обойти программу.

Можно сказать, что сама суть текстовых анализаторов является ошибочной. Ведь они стараются отыскать наиболее приемлемые характеристика текста, учитывая запрос и усредняя значения параметров некоторых характеристик текстов, которые находятся на верхних строках выдачи. Такой подход  не учитывает тот факт, что у страниц, которые находятся в ТОПе, не обязательно будут идеальные тексты. На рейтинг влияет множество факторов и вполне возможно, что у некоторых сайтов прекрасно все, кроме текста, который больше идет в недостаток, но текстовый анализатор учтет его характеристики как идеальные. И если поместить похожий текст на другом ресурсе, то он может не подняться в верха, как ожидалось, а уйти еще ниже. Так что информация, которую дают текстовые анализаторы, далеко не всегда полезна.

Текстовым анализаторам удалось бы сделать еще один шаг для поиска безукоризненной текстовой характеристики интересующего объекта тогда, когда была бы возможность их применения в анализе выдачи, целиком очищенного от любого рода примеси и построенного при минимуме влияния факторов иного рода. Например, не так давно, при помощи такого оператора, как intext, была возможность «обнуления» значений ссылочного фактора. Ознакомиться подробнее вы сможете при прочтении статьи «». Но как оказалось, в наше время такой оператор не функционирует, а жаль.

Мне кажется, что «Баден-Баден» первоочередной целью действия метит технологию, что называется «выжигание семантики». Такую технологию автоматизируют разные SEO-сервисы, с помощью которой массово воздействуют на выдачу. Первым делом проходит сбор семантического ядра, после чего происходит кластеризация в групповые запросы, что сами по себе имеют привязку к различным страничкам. А сам же текстовый анализатор, основываясь на анализе топа выдачи по различным запросам, показывают рекомендованную простейшую текстовую характеристику. После чего выполняется работа по написанию SEO-текста в огромном количестве. Причем такого рода статьи пишутся не для ознакомления людей с основной их идеей и темой, а для выполнения установленных текстовым анализатором численных характеристик.

Могу с уверенностью предположить, что подобная технология в нынешней среде шансов для выживания практически не имеет. Кажется, что в скором времени поисковики будут заинтересованы в другой функции технологии «выжигания семантики». Это генерация огромной численности вариаций листингов разнообразных товарных предложений, которая основывается на использовании фильтрации по различной характеристике. Именно такая генерация является причиной возможности превышения количества листингов на веб-странице относительно численности товара.

Декабрь 2014-го года запомнился санкциями за накручивание поведенческих факторов. После чего был введен алгоритм «Минусинск» с санкциями за накручивание ссылочных факторов. Это говорит о том, что поисковая система Яндекс показывает нам, как глупо в нынешнее время рассчитывать на перспективу существования любого рода массового искусственного SEO-решения, котороеникоим образом не касается улучшения качества контента на сайте.

Комментарии

ОтменитьДобавить комментарий