AI-контент в Google

Почему AI-статьи не удерживаются в топе Google — результаты эксперимента

В последние месяцы стало заметно, что сайты всё чаще публикуют десятки и сотни статей, созданных с помощью AI. На первый взгляд это выглядит как быстрый способ захватить поисковый трафик — но реальная картина оказывается сложнее.


Исследование Search Engine Land и SE Ranking показало: AI-контент без доработки быстро индексируется и получает трафик, но уже через несколько месяцев почти полностью теряет позиции. Эксперимент длился 16 месяцев и охватил 20 сайтов.

Речь идёт о практическом тесте: было создано 20 новых сайтов без авторитета, ссылок и истории. На каждом — по 100 статей, полностью сгенерированных AI без редактирования. Всего — 2000 материалов. После публикации сайты не развивались: без SEO, ссылок и обновлений.

Что показал эксперимент

На первом этапе результаты выглядели обнадёживающе. Уже в течение месяца около 71% страниц были проиндексированы, а сайты начали получать показы и первые клики.

Более того, большинство сайтов ранжировались по сотням и даже тысячам ключевых запросов. Это создаёт иллюзию, что AI-контент способен быстро масштабировать SEO без дополнительных усилий.

Это важно, потому что именно на этом этапе многие делают вывод: «AI работает». Но эксперимент показал, что это лишь временный эффект.

Примерно через 3 месяца ситуация резко изменилась. Доля страниц в топ-100 упала с ~28% до 3%. Контент оставался в индексе, но фактически переставал получать видимость.

Если упростить, Google сначала «тестирует» такой контент, но затем снижает его позиции, если не хватает качества и сигналов доверия.

Почему AI-контент не удерживает позиции

Главная причина — отсутствие ключевых факторов ранжирования. В эксперименте у сайтов не было:

— ссылочного профиля и авторитета
— экспертности и авторов
— уникальной ценности контента
— структуры и внутренней перелинковки

В контексте SEO это означает, что одного текста — даже большого объёма — недостаточно. Поисковик оценивает не только содержание, но и его происхождение, доверие и полезность.

Отдельно стоит отметить YMYL-тематики (финансы, здоровье), где индексирование было значительно ниже. Это подтверждает усиление требований к качеству в чувствительных нишах.

Интересный момент: добавление нового AI-контента спустя год давало краткосрочный рост показов старых страниц. Это говорит о том, что свежесть сайта влияет на видимость — но не решает проблему качества.

Для сайтов это приведёт к необходимости пересмотра стратегии: массовая генерация без редакции не даёт устойчивого результата.

Для пользователей это означает, что Google продолжит фильтровать поверхностный контент, даже если он массово создаётся.

Для индустрии это подтверждение тренда: SEO смещается от количества к качеству и экспертности.

На практике это означает, что AI остаётся инструментом ускорения, но не заменяет полноценную работу с контентом.

Если рассматривать ситуацию шире, это логичное продолжение курса Google на усиление E-E-A-T. Похожая логика уже наблюдается в темах вроде AI в поиске Google и падения позиций сайтов.

В итоге главный вывод остаётся сдержанным: AI-контент может дать быстрый старт, но без стратегии, экспертизы и SEO он не обеспечивает долгосрочного трафика.

Источник исследования: Search Engine Land

Ответить

Ваш адрес email не будет опубликован. Обязательные поля помечены *