Фильтры поисковых систем Google

Google Pigeon

Фильтры поисковых систем регулируют правила, по которым любой контент в интернете может быть проиндексирован и затем показан вам в результатах поисковой выдачи

Google Pigeon (голубь) создавался как геолокационный помощник пользователю, в 2014 году. В его алгоритме было заложено определять местонахождение человека и предоставить на его запросы сайты организаций, находящиеся ближе всех. Например, при вводе запроса «посмотреть фильм Аватар в 3D» пользователь получал в выдаче подборку из ближайших к дому кинотеатров. Аналогичным образом алгоритм помогал пользователю найти ближайшие кафе, магазины, ателье.

фильтры поисковых систем

В 2015 году, когда все обзавелись смартфонами, появился Google Mobile friendly. Он выводил в мобильный ТОП сайты, которые отвечали общим требованиям Гугла и одновременно были хорошо оптимизированы под все мобильные устройства: без технических проблем открывались на смартфонах с экранами от 4 до 7 дюймов, на планшетах и фаблетах, на андроид, симбиан и ios.

 

Mobile friendly понравиться несложно. Достаточно оптимизировать сайт под все мобильные устройства, позаботиться о быстрой загрузке текстовых и графических элементов на странице и сайта в целом. Нужно позаботиться о шрифте, чтобы он не был мелким и не портил зрение владельцам современных гаджетов.

 

Гугл придирчив к техническому исполнению сайтов и смотрит на него глазами пользователей, поэтому юзабилити нужно продумать до мелочей. В идеале, чтобы посетитель смог попасть на любую страницу сайта максимум в 3 клика.

Google Rank Brain.

Google Rank Brain. Этот алгоритм заработал с октября 2015 года. Его научили определять релевантность запроса относительно тематики. С тех пор выдача стала релевантней для поисковых запросов. Делает он это, взяв за расчет поведение человека на сайте. Если человек попал на сайт по конкретному запросу из поисковой страницы, но тут же ушёл, Rank Brain делает вывод, что предложенный материал не соответствует введенному запросу. Больше эту страницу Гугл не выведет в ТОП, пока она находится в том виде.

 

Пользователь продолжает дальше искать нужную информацию по введенному запросу, а фильтр продолжает анализировать поведение человека. Как только пользователь находит то, что искал, так фильтр сразу добавляет эту страницу в индекс как релевантный запросу материал. В дальнейшем страничка будет выводиться в ТОП по конкретному запросу до тех пор, пока не появится более релевантная статья. Чтобы это произошло, сессия пользователя на другой страничке должна превысить сессию на предыдущей. И это бесконечный процесс. Вечная борьба сайтов за позиции. Работа Rank Brain сводится к простому: максимально удовлетворить запрос пользователя с первого раза, чтобы он не ушел искать информацию в другой поисковик. Гугл — это ведь тоже один большой поисковый сайт, который наряду со всеми борется за внимание пользователей интернет.

 

Rank Brain пессимизирует страницы при низкой релевантности или плохом качестве материала. Например, текст содержит кучу ошибок или в нем отсутствует элементарное форматирование для удобства чтения.

Слишком мелкий шрифт может стать причиной пессимизации, несмотря на высокое качество материала. И вроде бы все современные браузеры оснащены функцией увеличения размера текста, но мало кто об этом помнит, знает, а кому-то лень. Проще закрыть страницу и пойти на следующий сайт. В экономике есть такое понятие «отрицательный рост», когда она несёт убыток, а в IT-среде — «отрицательный пользовательский опыт», когда пользователь пришёл, а через секунду ушёл.

О поисковом фильтре Панда читать тут 

Google Possum

В сентябре 2016 года появился новый алгоритм, который назвали Google Possum.


Принцип его работы был похож на предыдущий геолокационный Google Pigeon с той лишь разницей, что последний стал определять нахождение пользователя на данный момент времени. То есть, предыдущий алгоритм понимал геолокацию пользователя по регистрационным данным, который пользователь сам предоставлял, либо по частым поисковым запросам вроде «заказать Пиццу в Москве в Люблино». Алгоритм понимал, что пользователь, который часто ищет товары и услуги с дополнительным словом «Люблино», скорее всего, живёт или работает в Люблино.

Алгоритм Possum научился определять местонахождение в режиме реального времени, например, пользователь перемещался по городу, и предоставлять в выдачу искомые организации, которые на данный момент времени находятся ближе всего к электронному устройству, из которого вводился запрос.


В марте 2017 года был запущен Google Fred. Этот алгоритм создали для борьбы с низкосортными коммерческими сайтами, на которых не было полезного контента, и создавали их под продажу ссылок и баннеров. Именуемые у веб-мастеров ГС улетели под фильтр.


Как сегодня не попасть под фильтры Freda? Нужно свести продажу рекламных мест на сайте к минимуму. Чем меньше исходящих баннеров и ссылок, тем выше сайт в ПС. Переспам из ключевых слов по тексту он тоже распознаёт, даже при отсутствии исходящих ссылок.


Чтобы избежать штрафных санкций от алгоритма при продвижение сайта, достаточно делать сайты для людей, а к монетизации относиться с умом. Создатели всех поисковых систем знают, что цель любого проекта — извлечение прибыли, и реклама на сайтах не запрещена. Запрещён только переспам из рекламы. Поэтому к монетизации нужно подходить без фанатизма. Иногда достаточно одного большого сквозного баннера на всём сайте, вместо нескольких тысяч маленьких, которые веб-мастера пытаются вставить в начало каждой статьи/страницы. В идеале, если сначала пишется полезная статья, цель которой дать информацию, а только потом приходит идея «каким образом её можно монетизировать?». Если сначала создаётся ключ (будущий анкор), а под него пишется статья, то она получается сухой. Написать интересный текст, когда мысли заняты обдумыванием расстановкой ключа-анкора и будущей коммерческой прибыли, практически невозможно.

В этом плане полезно перенять опыт у печатных изданий. Например, журнал Cosmopolitan вряд ли переживает, что останется без рекламодателей. И каждый день редакторов интересует только интересный материал для расширения своей аудитории. Редакторы не занимаются поиском рекламодателей. Что такое «сео-ключ» они вообще не знают. Редакторы ищут и выбирают лучший материал для будущего номера, чтобы он получился интересным, а главная страничка (обложка номера) привлекала своей сочностью издалека. Это прямой пример того, как забить свои мысли качеством статей, чтобы пользователь буквально «завис на сайте» на несколько часов, читая взахлёб одну статью за другой. И даже если какой-то баннер отвлёк внимание и переместил на соседнюю вкладку браузера, интерес к предыдущему сайту не был потерян и заставил вернуться назад.


Главный совет для успешного seo-продвижения от Гугл можно сформулировать так:


Боритесь за внимание пользователей, а не рекламодателей. Если на сайте будет большая посещаемость, рекламодатели такой ресурс сами найдут.

Если сайт всё же попал под фильтры Гугл при качественном контенте, нужно провести его анализ целиком. Возможно, причина кроется в какой-нибудь ссылке, которая ведёт на сайты с клубничкой, пиратскими программами.

Дима Снегур
Дима Снегур
Поделиться в facebook
Facebook
Поделиться в twitter
Twitter
Поделиться в linkedin
LinkedIn