Утечка кода «Яндекса» потенциально способна привести к крайне неприятным последствиям для поисковой системы. SEO-специалисты всего мира уже с интересом изучают доступные материалы — выяснилось, что в коде имеются крайне важные данные, включая факторы поискового ранжирования.
Источник изображения: Lucian Novosel/unsplash.com
Утверждается, что утечка не стала результатом взлома — сработал человеческий фактор, из местного репозитория предположительно украл данные бывший сотрудник компании. Как заявил один из специалистов по поисковой SEO-оптимизации, говоря об утечке, это «возможно, самая интересная вещь, которая случалась в SEO за последние годы».
Безусловно, «Яндекс» не является техногигантом масштаба Google. Тем не менее эксперты подчёркивают, что сотрудники обеих компаний посещали одни и те же мероприятия, активно общались, а сотни из них успели поработать и в «Яндексе», и в Google. Вполне вероятно, что в Google используются многие из перечисленных алгоритмов, а значение утечки для русскоязычного рынка SEO трудно переоценить. Кроме того, утечка позволяет лучше понять, как работают поисковые системы вообще.
Как известно, на одном из хакерских форумов появилась торрент-раздача с 44,7 Гбайт данных, предположительно украденных у компании в 2022 году. Не исключается, что база содержит почти весь исходный код компании. В компании подчеркнули, что репозитории предназначены для хранения кода и работы с ним. Персональные данные пользователей в таких хранилищах обычно отсутствуют. Сейчас проводится внутреннее расследование для выявления источников и причин публикации исходного кода. Впрочем, в компании заявили, что не видят угрозы производительности платформы и пользовательским данным.
Сегодня в Сети можно обнаружить список из 1922 факторов ранжирования. Ожидается, что «Яндекс» попытается по мере возможностей ограничить доступ к этой информации в Сети. Например, как сообщает Search Engine Land, портал публиковал ссылку на Dropbox, но уже скоро она перестала работать. Так или иначе, пока код присутствует в общем доступе и вряд ли удастся полностью изъять его из оборота.
Источник изображения: Surface/unsplash.com
В числе учитываемых при поисковой выдаче алгоритмов указывается «вес» страницы PageRank с учётом ссылок на неё, релевантность текста, свежесть контента, надёжность хоста и другие факторы, некоторые сайты вроде «Википедии» получают приоритет. Имеется и масса других значимых факторов, включая, например, число уникальных посетителей и процент «органического» трафика.
Утверждается, что 244 фактора маркированы, как неиспользуемые, а 988 как устаревшие — это означает, что 64 % факторов либо не применяется активно, либо заменено другими. Впрочем, по словам эксперта Майкла Кинга (Michael King) с портала Search Engine Land, внимательно изучившего код, на деле «ставки» намного выше — речь идёт не о 1922 факторах, а о 17 854, каждый из которых добавляет либо положительный, либо отрицательный «вес» ресурсу или странице.
Источник: 3DNews