В исследовании участвовали более 250 руководителей и digital-лидеров из 12 отраслей. По данным отчёта, масштабирование AI-контента оказалось выше в списке приоритетов, чем структурированные данные, авторитетные длинные руководства и оригинальные исследования. Такой ответ стал главным на всех уровнях зрелости: от компаний, которые только начинают работать с видимостью в AI-поиске, до организаций, где AEO/GEO уже стало частью общей digital-стратегии.
Парадокс в том, что та же задача названа и главным вызовом. Бренды хотят производить больше контента под AI-поиск, но не всегда понимают, как делать это без потери качества, одинаковых текстов и риска санкций. Особенно это важно на фоне того, что однотипный AI-контент уже становится SEO-проблемой для сайтов, которые пытаются заменить стратегию объёмом публикаций.
AEO/GEO стал главным маркетинговым приоритетом
Conductor отмечает, что 94% крупных организаций планируют увеличить инвестиции в AEO/GEO в 2026 году. Более того, это направление стало маркетинговым приоритетом №1, обогнав платные медиа и платный поиск.
Для рынка это сигнал: компании больше не рассматривают AI-поиск как эксперимент. Они пытаются заранее занять место в ответах LLM, AI Overviews, AI Mode и других интерфейсах, где пользователь получает не список ссылок, а готовый ответ. Поэтому контент становится не только инструментом привлечения трафика, но и источником, из которого AI-системы могут брать факты, мнения и объяснения.
Однако массовая публикация текстов сама по себе не даёт преимущества. В статье подчёркивается: если AI может создать материал на основе публичной информации, то такой же текст может получить любой конкурент. Настоящая ценность появляется там, где есть собственные данные компании, опыт, позиция экспертов и редакционная работа.
Google смотрит не на AI, а на ценность материала
Позиция Google в статье описана как последовательная: проблема не в использовании AI, а в слабом контенте без оригинальности, усилий и добавленной ценности. John Mueller связывал злоупотребление AI-контентом с обновлениями Google Quality Rater Guidelines: страницы, где почти весь текст автоматически создан без заметного вклада автора, могут получать самую низкую оценку качества.
Эта логика совпадает с тем, как Google всё чаще объясняет роль опыта и экспертности в поиске. Ранее компания уже показывала, что сайты с AI-контентом оцениваются не по факту использования технологии, а по тому, есть ли в материале реальная польза для пользователя.
Отдельно в статье приводится выступление Danny Sullivan на Google Search Central в Торонто в апреле 2026 года. Он разделил контент на два типа: массовый, который AI может собрать из открытых источников, и уникальный, который требует личного опыта, действий, собственного знания или экспертного мнения. Именно второй тип Google считает конкурентным преимуществом в эпоху AI.
Массовый AI-контент уже приводит к рискам
В материале приводятся несколько предупреждающих примеров. Pedro Dias сообщал, что в июне 2025 года Google начал выдавать ручные меры за злоупотребление масштабированным контентом. По его словам, сайты в Великобритании, США и ЕС получали уведомления в Search Console о “large-scale content abuse”.
Lily Ray также отмечала случаи, когда сайты теряли поисковую видимость после агрессивной стратегии публикации AI-контента. Иногда падение происходило почти сразу. Её вывод сводится к простой редакционной логике: если что-то легко сделать, это не значит, что это стоит делать.
Ещё один риск связан с распространением ошибок. В статье описан кейс, когда Perplexity выдал отчёт о несуществующем “September 2025 Perspective Core Algorithm Update”, опираясь на AI-сгенерированные публикации SEO-агентств. Такой сценарий показывает, как слабые материалы могут попадать в цепочку цитирования и возвращаться пользователям уже как будто подтверждённый факт.
Как крупным брендам использовать AI без потери качества
Главная рекомендация статьи — не заменять редакторов и профильных специалистов AI-инструментами, а усиливать их работу. AI может ускорить подготовку материалов, структуру, черновики и обработку данных, но только если на входе есть экспертиза, собственные исследования и жёсткий редакционный контроль.
Это особенно актуально для отраслей, где масштабируемый контент давно существует: туризм, ecommerce, маркетплейсы, каталоги товаров, страницы локаций и описания услуг. В таких случаях AI может ускорять процессы, которые уже были частью контент-модели. Но даже там конкурентное отличие создаёт не объём, а точность, полезность, стиль и данные, которых нет у других.
Для SEO это меняет подход к производству материалов. Компании должны думать не только о ключевых словах и индексировании, но и о том, почему именно их контент должен быть процитирован AI-системой. В этом смысле подготовка к новой поисковой среде уже требует связки SEO, редакции, аналитики и экспертного знания, о чём всё чаще говорят в контексте SEO и искусственного интеллекта.
Вывод для брендов простой: AI ускоряет то, что уже есть. Если у компании есть экспертиза, данные и сильная редакционная модель, она сможет выпускать больше качественного контента. Если этого нет, AI лишь быстрее масштабирует пустоту — и делает проблему заметнее для Google, LLM и пользователей.
Источник: Search Engine Journal
