В последние месяцы стало заметно, что сайты всё чаще публикуют десятки и сотни статей, созданных с помощью AI. На первый взгляд это выглядит как быстрый способ захватить поисковый трафик — но реальная картина оказывается сложнее.
Исследование Search Engine Land и SE Ranking показало: AI-контент без доработки быстро индексируется и получает трафик, но уже через несколько месяцев почти полностью теряет позиции. Эксперимент длился 16 месяцев и охватил 20 сайтов.
Речь идёт о практическом тесте: было создано 20 новых сайтов без авторитета, ссылок и истории. На каждом — по 100 статей, полностью сгенерированных AI без редактирования. Всего — 2000 материалов. После публикации сайты не развивались: без SEO, ссылок и обновлений.
Что показал эксперимент
На первом этапе результаты выглядели обнадёживающе. Уже в течение месяца около 71% страниц были проиндексированы, а сайты начали получать показы и первые клики.
Более того, большинство сайтов ранжировались по сотням и даже тысячам ключевых запросов. Это создаёт иллюзию, что AI-контент способен быстро масштабировать SEO без дополнительных усилий.
Это важно, потому что именно на этом этапе многие делают вывод: «AI работает». Но эксперимент показал, что это лишь временный эффект.
Примерно через 3 месяца ситуация резко изменилась. Доля страниц в топ-100 упала с ~28% до 3%. Контент оставался в индексе, но фактически переставал получать видимость.
Если упростить, Google сначала «тестирует» такой контент, но затем снижает его позиции, если не хватает качества и сигналов доверия.
Почему AI-контент не удерживает позиции
Главная причина — отсутствие ключевых факторов ранжирования. В эксперименте у сайтов не было:
— ссылочного профиля и авторитета
— экспертности и авторов
— уникальной ценности контента
— структуры и внутренней перелинковки
В контексте SEO это означает, что одного текста — даже большого объёма — недостаточно. Поисковик оценивает не только содержание, но и его происхождение, доверие и полезность.
Отдельно стоит отметить YMYL-тематики (финансы, здоровье), где индексирование было значительно ниже. Это подтверждает усиление требований к качеству в чувствительных нишах.
Интересный момент: добавление нового AI-контента спустя год давало краткосрочный рост показов старых страниц. Это говорит о том, что свежесть сайта влияет на видимость — но не решает проблему качества.
Для сайтов это приведёт к необходимости пересмотра стратегии: массовая генерация без редакции не даёт устойчивого результата.
Для пользователей это означает, что Google продолжит фильтровать поверхностный контент, даже если он массово создаётся.
Для индустрии это подтверждение тренда: SEO смещается от количества к качеству и экспертности.
На практике это означает, что AI остаётся инструментом ускорения, но не заменяет полноценную работу с контентом.
Если рассматривать ситуацию шире, это логичное продолжение курса Google на усиление E-E-A-T. Похожая логика уже наблюдается в темах вроде AI в поиске Google и падения позиций сайтов.
В итоге главный вывод остаётся сдержанным: AI-контент может дать быстрый старт, но без стратегии, экспертизы и SEO он не обеспечивает долгосрочного трафика.
Источник исследования: Search Engine Land




