Об оценке качества контента компанией Google
20 июль 2017

Об оценке качества контента компанией Google

Все поисковики, включая Google, борются за то, чтобы получаемые пользователями страницы в списке выдачи были хорошего качества и оставляли людей довольными. Если страница кажется поисковику низкокачественной, не удовлетворяет ее контент, то вряд ли она попадет на хорошие позиции при ранжировании.

Анализируют контент и страницы множеством способов, все из них известны только самой компании. Здесь мы поговорим о тех методах анализа Google, о которых известно достоверно и рассмотрим пару концепций, которые могут помочь владельцам сайтов в улучшении их страниц.

Что нам известно об оценке качества контента компанией Google

Как уже было сказано, поисковиком используется огромное количество критериев, по которым проводится оценка качества. В этот список попадают читабельность, частота внедрения ключей, уровень однородности контента, количество рекламы, время загрузки веб-страниц ресурса и другие факторы.

Весь анализ направлен на то, чтобы пользователи поисковика получали только действительно полезные сайты, которые они и искали. О некоторых алгоритмах мы поговорим дальше.

Панда

Каждый человек, который хотя бы немного знает о SEO, первым делом вспомнит об алгоритме «Панда», если разговор пойдет об анализе контента и его качестве.

Этот фильтр запустили в начале 2011-го года, после чего он несколько раз обновлялся, спустя пять лет после выхода его встроили в основной алгоритм поисковика.

Во время своего создания, Панда бороласьсресурсами, на которых размещен бесполезный контент, сайтами с большим количеством плагиата и страницами, где полностью скопировано все наполнение у других с других источников.

Со спамом фильтр борется и сейчас, но код сделали в разы сложнее. Теперь он уже встроен в главный алгоритм и принимает участие в комплексном анализе контента и страниц на качество.

Но есть и другие аспекты, влияющие на качество страниц и их контента.

Проверка асессорами вручную

Уже давно, в 2001-м году в интернете появилось руководство, которым пользуются асессоры Google. Многие полагают, что утечка не была случайностью, однако, ценность сложно переоценить, ведь это пошаговая инструкция того, как оценить вручную качество страницы.

Команда асессоров занимается определением качества и отправляет данные инженерам Google, которые разрабатывают и улучшают алгоритмы. Например, если возникла идея обновления алгоритма, то асессоры оценивают, улучшатся ли результаты поиска.

После той самой первой утечки инструкции для асессоров, раскрывалась информация и по обновлениям руководства. В конце концов, в 2015-м компания решила сделать доступ к мануалу открытым.

Подобные страницы будут получать плохие позиции в списке выдачи, так как их контент содержит в себе только старую информацию. Изменить ход событий может лишь появление чего-то нового, к примеру, экспертное мнение или отзывы пользователей.

Если контент, содержащийся на странице, будет давать как можно больше ответов на популярные вопросы, то и ранжирование сайта будет выше.

PageLayout и превышенное количество рекламы

В начале 2012-го года в Гугл начали снижать рейтинг ресурсов, где слишком большое пространство отведено под рекламу, особенно в верхней части страниц из-за чего съезжает основной контент.

Чтобы узнать попал ли под этот фильтр сайт, следует рассчитать процент верхушки сайта, который занимает реклама. Если ее слишком много, то позиции при ранжировании будут ниже, чем могли бы быть.

Также компания владеет патентом, с помощью которого можно определять раздражающую и неприятную рекламу и веб-страницы.

Время загрузки

То, насколько быстро загружается страница очень важно для людей, которые заходят на сайт, соответственно, Гугл будет показывать на лучших позициях те сайты, пользоваться которыми удобно и комфортно.

В 2010-м году поисковик стал понижать рейтинг медленных ресурсов, на тот момент такое решение затронуло лишь каждый сотый сайт. Но, когда скорость загрузки страниц очень медленная, повышается процент отказов, соответственно, страдает поведенческий фактор и сайт падает все ниже и ниже.

Скорость на мобильных устройствах

В июне прошлого 2016-го года было заявлено, что теперь при ранжировании также учитывается и скорость загрузки страниц на смартфонах и планшетах. Представитель компании Д. Мюллер советует оптимизировать сайты так, чтобы страница грузилась не более трех секунд.

Рекомендации на сайте разработчиков Гугл гласят, что верхняя часть сайта должна прогружаться на компактных устройствах меньше, чем за одну секунду.

Однако скорость не является главным фактором по которому определяется позиция в списке выдачи, хотя это и не означает что этим параметром стоит пренебрегать, ведь даже если у сайта большое количество посетителей, вряд ли будет высокая конверсия, если контент приходится ждать очень долго.

Анализ языка

Анализ языка – это попытка поисковика научиться понимать точнее намерения людей, и это влияет на список выдачи.

RankBrain – это система искусственного интеллекта, которую запустили в 2015-м году, она занимается анализом языка в сети и помогает поисковику лучше оперировать словами и фразами, которыми пользуются люди и которые содержатся в страницах сайта.

Лучше понимая пользователей, поисковику проще выдать список из наиболее подходящих ресурсов по запросу. Часто используется выделение языковых паттернов, которые помогают сделать лучшую подборку.

Этот аспект играет огромную роль в анализе страниц и помогает показать только те сайты, которые больше всего соответствуют введенной в строке поиска фразе.

Читабельность

То, насколько хорошо читается текстовый контент, размещенный на странице веб-сайта очень важно для пользователей. Самый известный способ определить читабельность – это формула оценки Флеша-Кинкейда.

Все сводится к тому, что рассчитывается сколько в среднем в предложении слов и сколько в каждом слове слогов. Этот тест не определяет требуемый уровень образования для чтения, как думают многие, он всего лишь замеряет количество усилий мозга, нужных для чтения.

Оценить то, насколько удобно читается контент можно и с помощью специальной опции в MicrosoftWord. Нужно понимать, что не существует идеального уровня читабельности, которому должен соответствовать весь контент, все индивидуально и зависит от специфики ресурса и размещенных статей.

Используют ли поисковики такой анализ непонятно, однако, с помощью теста на читабельность можно выдавать более подходящие ресурсы, исходя из сложности запроса.

Например, если человек ищет «От чего зависит курс доллара», то это значит, что ему интересно разобраться в финансовых процессах, значит лучше подойдет текст с высоким уровнем чтения. А вот если человек вводит в строку поиска «Курс доллара сегодня», значит, все, что ему интересно – это узнать цифру, так что читабельность текстового контента может быть низкой.

Даже если Гугл и не использует этот анализ, все равно нужно стараться создавать статьи, которые будут как можно более просто читаться, от этого зависит удовлетворенность пользователя, поведенческие факторы и конверсия.

Вывод

Поисковики стараются выдавать своим пользователям только те сайты, на которых размещен свежий, интересный и уникальный контент. Если понимать, как проводится анализ страниц, то можно сделать не только сайт лучше, но и добиться для него более высокого места в списке выдачи.

 

Комментарии

ОтменитьДобавить комментарий