
Обновлённые алгоритмы выявления неорганического трафика исключили из статистики значительную часть посещений, которые ранее ошибочно засчитывались как реальные. Это дало более точную картину, но одновременно снизило общий объём просмотров.
Однако, по мнению аналитиков, не только пересмотр учёта стал причиной снижения. Всё больше пользователей получают ответы напрямую в поиске — через AI-функции вроде ChatGPT и Google SGE. Люди всё реже переходят по ссылкам, предпочитая готовые краткие ответы, которые формируют нейросети.
ИИ меняет привычки пользователей
Сервисы на базе искусственного интеллекта становятся основным способом поиска информации. По данным Search Engine Journal, это влияет на весь рынок знаний — от энциклопедий до экспертных блогов. Такие проекты, как Википедия, превращаются в источники данных для языковых моделей, теряя часть прямого трафика.
В то же время сайты, создающие оригинальные исследования и аналитические материалы, могут укрепить позиции в Google Discover — если адаптируются под новые требования поиска и научатся работать с AI-системами.
Wikimedia отмечает, что не намерена конкурировать с искусственным интеллектом. Организация стремится к партнёрству с разработчиками, чтобы обеспечивать точность информации, которую используют модели. Тем не менее, снижение трафика показывает, что формат потребления контента стремительно меняется.
«Мы видим устойчивый сдвиг интереса — пользователи хотят получать ответы быстрее, без перехода по ссылкам», — заявили в Wikimedia Foundation.
Для SEO-специалистов и издателей это сигнал к перестройке стратегии. Как отмечалось в статье «SEO в эпоху AI: меняются правила игры», поисковый трафик всё чаще перераспределяется в пользу платформ с генеративными ответами. Чтобы остаться на виду, сайты должны доказывать экспертность, достоверность и уникальность контента.
Источник: Wikimedia Foundation, Search Engine Journal