Knowledge-Based Trust: Google планирует отключение и замену ссылок? Попытаемся разобраться в этом
Буквально вчера в интернете появилась новость о том, что Google намерен полностью заменить ссылочное ранжирование новым алгоритмом под названием Knowledge-based Trust. Прошло не так много времени, но вебмастера и интернет-маркетологи уже начали активно обсуждать заявление Google, который к тому же выложил соответствующий pdf-документ с подробным описанием работы будущего алгоритма.
На форумах и тематических порталах в рамках обсуждения новости каждый выдумывает всё, что позволяет фантазия и, к сожалению пока нет однозначной точки зрения, каким образом будет работать новая концепция корпорации и как сильно это отразиться на органической выдачи с учетом того, что все более-менее хорошие сайты держатся на платных ссылках с трастовых ресурсов.
Попытаемся подробно разобраться в этом и дать адекватную оценку, основанную на доказательствах. И правда ли, что Google будет оценивать сайты на основе фактов, а не количества ссылок.
Как будет работать новый алгоритм Knowledge-based Trust и заменит ли он ссылки и измерение Google Page Rank (PR)
Факт №1.
Напомним, что в 2013 году последний раз состоялось обновление PR. По словам аналитика поведения вебмастеров Google Джон Мюллер, Page Rank больше обновляться не будет, хотя после его слов, всё-таки обновление произошло. На вопрос в Twitter Нильса Боша руководителю команды по борьбе с поисковым спамом Мэтт Каттсу о том, будет ли 2014 году обновление PR, тот ответил, что очень удивится, если это произойдет. Об этом же и, по всей видимости уже окончательно в прошлом месяце заявил снова Джон Мюллер, что PR обновляться больше не будет. Учитывая, что обновление своего рода рейтинга ресурсов происходит всё реже, можно было предположить, что в скором времени он вовсе исчезнет, или будет заменен на совершенно новую метрику расчета качества ресурсов.
Принцип нового алгоритма Knowledge-based Trust основан на ранжировании сайтов, контент на которых максимально соответствует действительности и является достоверным. Иными словами, Google начнет измерять качество сайтов не только ссылками, но и достоверными фактами. Интернет нафарширован мусорными сайтами, новости на которых постоянно перекручиваются и искажают реальные факты. В итоге, пользователь получает недостоверную информацию. Соответственно, если у сайта существует мало внешних фактов, которые берутся из новой базы Google (об этом мы поговорим далее), подтверждающих правдивость размещенного контента, позиции ресурса могут быть ниже, чем у тех, чей материал более правдивый. Соответственно, задача Google исправить распространение заведомо ложной и не правдивой информации.
Еще 3 года назад в каждой из своих статей мы неоднократно говорили о том, что ключевая роль при ранжировании веб-ресурсов будет отведена качеству контента. Насколько он полезен и уникален в своем роде? Насколько данную информацию можно внедрить на практике, получив соответствующие результаты? Сайты становятся своего рода интеллектуальным продуктом своих владельцев. Только теперь, к качественному контенту прибавится уровень его достоверности. Отлично! У сотен ресурсов больше не останется шансов обманывать своих покупателей и дезориентировать их, вводя в заблуждение высосанными из пальца фактами.
Как работает ранжирование сейчас и действительно ли Google собрался отключить ссылки
Факт №2.
Это наиболее острый вопрос, который сегодня интересует широкий круг отраслевых специалистов. В настоящий момент Google для оценки качества ресурсов использует ссылочный фактор. Чем больше, качественнее и с правильной ссылкой (или ключевой фразой) ресурсов ссылается на Ваш сайт, тем больше у него шансов попасть в ТОП. Это тот Google, который мы знаем сегодня. Но, к сожалению, это не застраховывает посетителей и пользователей интернет-страниц от дезинформации. Ведь что мешает владельцу странички или интернет-маркетологу написать заведомо выдуманную новость с преувеличенными достижениями и разместить за деньги на стороннем ресурсе? Ничего. И такие сайты поднимаются в рейтинге. Выходит, что эффект даёт игра бюджетов и возможностей, но никак не чистой правды и прозрачной деятельности фирмы. Поэтому, цель нового алгоритма Google будет состоять в том, чтобы бороться с неправдоподобным спамом, распространяющимся в интернете, словно пожар.
Таким образом, команда разработчиков Google усовершенствует данную модель, которая будет оценивать достоверность страницы, а не ее популярность в интернете. Вместо подсчета количества ссылающихся ссылок на страницу, новый алгоритм Google будет измерять количество правильных и неправильных фактов. В случае, когда количество неверных фактов будет минимальным, у web-сайта будет существовать больше шансов продвинуться в рейтинге.
Что будет с рынком и почему на смену SEO придет TEO?
Я не удивлюсь, если в скором времени, социальные кнопки из «Твитнуть», «Понравилось» заменят на «Правда», «Ложь». Разумеется, у Google нелегкий путь. По всей видимости, если корпорация приняла решение бросить вызов распространению ложной, или правильнее выразиться — искаженной информации, придется создать базу данных людей, компаний и т. д., которая будет содержать в себе неопровержимые факты и доказательства. И именно их за основу будет брать новый алгоритм Google и сопоставлять с контентом, представленным на веб-сайтах. Если так, тогда у Wikipedia скоро могут появиться огромные проблемы. По всей видимости, первое время работать над базой будут в ручном режиме, как сейчас происходит в той же «Википедии» или каталоге Dmoz. В то же время, как мы все с Вами знаем, редакторы и в первом и во втором ресурсах — люди с разных уголков земного шара. И многим известны факты подкупа редакторов соответствующих рубрик в Dmoz с целью добавления сайта. Если в новой базе будет то же самое, тогда вообще нет смысла революции от Google. В случае, если данная работа будет полностью автоматизирована и выполняться новым своего рода ботом, тогда он должен быть сверх умным и органическую выдачу с запуском новой модели ранжирования ресурсов ждет переполох, который по своим масштабам будет еще более существенным, нежели после прихода «Панды» и «Пингвина».
Разумеется, полностью отказаться от ссылочного ранжирования никто не собирается. Паника оптимизаторов на различных форумах не имеет под собой никакой логической цепочки. В таком случае, вся концепция Google об органическом и естественном поиске попросту утратит свою актуальность. А к такому, мы к сожалению еще не готовы. Вряд ли корпорация с многомиллиардной прибылью намерена терять заработок на контекстной рекламе Google Adwords, которая на данный момент является основным инструментом прибыли. Не будут же вебмастера в контексте рекламировать выписки и заметки из «Базы фактов Google». Теперь основной упор будет осуществляться не на поисковый инжиниринг, а на фактор достоверности размещаемой информации. И любые попытки ее исказить будут подвержены понижению позиций ресурса.
Преимущества нового алгоритма Knowledge-Based Trust Google и как это повлияет на поиск
Правда и ничего, кроме правды
Качество ресурсов и их достоверность станут факторами №1. Если раньше влияние оказывалось на робота, который сканирует и фиксирует ссылки, с приходом нового алгоритма все дружно станут подстраиваться под робота, который сканирует достоверность размещенной информации. То есть ему нужны будут факты, при обзоре которых он найдет подтверждение размещенной информации. Соответственно, данные факты он будет откуда-то брать. По-крайней мере определенный процент придется в любом случае черпать из сторонних ресурсов, на которых размещены ссылки на Ваш ресурс.
Иными словами, если Вы написали в статье, что предоставляете самые лучшие в городе адвокатские услуги в области криминалистике, Вы должны предоставить информацию, подтверждающую данное заявление. Если такой информации нет, Ваш сайт может быть понижен, либо просто заменен сайтами, вернее результатами выдачи, у которых такие факты присутствуют.
Иными словами, при достаточном совпадении количества информации из источников Google, Ваш сайт будет признан авторитетным в своей области.
Отметим, что по заявлению команды разработчиков, алгоритм успешно прошел испытания и проанализировал 2.8 миллиарда фактов, которые были найдены в интернете и определил 119 миллионов результатов для 5.6 миллионов сайтов.
Успокоим многих вебмастеров. По заявлению самих разработчиков нового алгоритма, по своей специфике алгоритм Knowledge-based Trust будет применим исключительно для ресурсов определенных тематик, а не всех подряд. По всей видимости речь идет о информационных порталах, исторических ресурсах, государственных институтах и т. д. Вряд ли это коснется того же сайта, который продает корм для попугаев, или онлайн-магазина, осуществляющего доставку алкоголя ночью.
Преимущества нового алгоритма Knowledge-Based Trust Google и как это повлияет на поиск
В итоге, новый алгоритм будет брать факты из своей «Базы Знаний». В результате, если он не найдет подтверждение того, что Иванов Иван самый крутой адвокат в городе с учетом доказательств, что тот самый адвокат буквально на прошлой неделе выиграл успешное дело в пользу своего Клиента, сайт этого адвоката будет понижен в результатах выдачи.
Подтасовка фактов, искажение информации могут быть чреваты для ресурсов. Из корпорации зла многим компаниям придется переквалифицироваться в империю добра и достоверности. Открытость и прозрачность станут решающим фактором при ранжировании сайтов в рамках нового алгоритма Google. Разумеется, что пока это всё лишь догадки, но Google будет стремиться к этому.
Комиссия присяжных или интеллектуальный алгоритм?
Сайты с ложной информацией и недобросовестными владельцами могут уйти в небытие. Попытаемся ответить на вопрос, что будет с теми ресурсами, у которых представлен практически идентичный контент с абсолютно дублированным количеством найденных подтверждений. Приведем самый понятный многим пример. Предположим, в интернете появился новый конкурент из числа Ваших бывших сотрудников или партнеров, которые особо в направлении не разбираются, но решили подзаработать денег, выдавая Ваши результаты (Вашей компании) за свои. Вы легко сможете пожаловаться в Google, предоставив соответствующие факты в виде договоров с клиентами, даты регистрации фирмы, переписки по e-mail, свидетельство о регистрации ТМ и многое другое. И такой сайт будет понижен за распространение ложной информации. В итоге, решение будет принимать или заумный робот Google или специальная комиссия своего рода присяжных. Соответственно, чем меньше конкуренты будут использовать достоверных фактов, тем меньше у них шансов попасть в ТОП.
Существует и второй вариант, который выглядит более реальным. В итоге, в качестве оценки и измерения таких веб-страниц во внимание попадут другие факторы, которые, возможно имеют вес в настоящий момент — популярность сайта с учетом количества посетителей в день, количество внешних ссылок и трастовость ссылающихся доноров, поведение пользователей, социальные факторы и т.д.
Единогласное соглашение фактов Google и аналоги, похожие на истину, размещаемые на веб-сайтах станут ключевым звеном при ранжировании страниц в условиях нового алгоритма. В случае, если сайты будут содержать противоречивую и поддельную информацию, которая не соответствует действительности фактов из базы Google, такие ресурсы будут понижены поисковой системой. По всей видимости, как Google, так и Microsoft плотно взялись за создание электронного института фактов, который в последующем можно будет использовать, не только при оценке интернет-ресурсов, но и в судебной системе.