5 честных фактов о SEO в эпоху ИИ: что на самом деле работает в Google

Автор: | 15 ноября, 2025 | 25
влияние ИИ на SEO

На онлайн-саммите News & Editorial SEO Summit (NESS), который прошёл 21–22 октября, специалисты New York Times, NewzDash и Polemic Digital показали свежие данные о том, как искусственный интеллект влияет на поиск и видимость контента. Я пересмотрел свои подходы к SEO в эпоху AI Overviews и ещё раз убедился: паника вокруг «смерти SEO» сильно преувеличена.

В этой статье я собрал пять неудобных, но полезных истин про влияние ИИ на SEO, которые помогут выстроить стратегию не на ближайший апдейт, а на 2026 год и дальше.

Начну с главного: мир меняется быстро, но базовая логика поиска остаётся прежней. Google экспериментирует с AI Overviews, LLM-ответами и новым интерфейсом, однако по-прежнему нуждается в качественном, структурированном контенте, который можно безопасно показывать пользователям и использовать как «топливо» для ИИ.

На NESS много говорили про страхи издателей и владельцев сайтов: «AI заберёт весь трафик», «новости больше не нужны», «всё будет решать только ИИ». Но когда показали реальные данные, картина оказалась куда спокойнее.

Первый важный инсайт: AI Overviews почти не трогают по-настоящему срочные новости. По данным NewzDash, доля крупных трендовых новостных запросов, где вообще появляется AI Overview, остаётся около пары процентов. Грубо говоря, большинство горячих сюжетов по-прежнему отрабатывают классические блоки Top Stories и обычная выдача.

Интересный момент — время появления ИИ-обзора. Он чаще включается не в сам пик события, а через несколько часов, когда хайп прошёл, а тема всё ещё интересна, но уже перестаёт быть чистым «брейкингом». В этот момент AI Overview как будто подводит итог: собирает контекст, даёт общую картину и отвечает на более широкие запросы типа «что случилось с…».

Если вы уже читали мой материал про то, как исключение из AI Overviews может ударить по веб-трафику, то здесь логика похожая, но с другой стороны: для новостников самый ценный трафик — в первые часы после события, и в этот момент AI-слой далеко не всегда вообще участвует в игре.

Вывод для редакций и новостных сайтов простой: оперативка, глубина проработки темы и внятные заголовки по-прежнему решают больше, чем любые попытки «оптимизировать текст под ИИ». Важнее дать понятный, структурированный, быстро обновляемый материал, чем пытаться угодить ещё одному блоку в выдаче.

Вторая точка боли — Core Web Vitals. За последние годы вокруг CWV вырос почти культ: все гонятся за идеальными показателями, зелёными индикаторами и мифическими «100/100 ради SEO». На NESS эту тему тоже аккуратно, но жёстко приземлили.

Честная версия такая: достаточно привести сайт в состояние «в основном зелёный» и не убивать UX откровенно тормозными страницами. Дальнейшая шлифовка ради +2 миллисекунд или ещё одного условного балла редко даёт ощутимый прирост ни по трафику, ни по деньгам.

Core Web Vitals остаются скорее индикатором здоровья сайта. Если всё красное — у вас проблемы. Если всё более-менее в норме — гораздо выгоднее инвестировать ресурсы в контент, структуру и смысл, а не доводить показатели до идеала ради галочки в отчёте.

Третья иллюзия — культ «чистого кода». Многие разработчики, особенно с бэкграундом старого веба, до сих пор верят, что именно максимально тонкий HTML, минимум символов и супер-минимализм исходника дают SEO-преимущество. На практике Google уже давно живёт в другой реальности.

По сути, поисковику всё равно, сколько у вас отступов в коде и насколько идеально вы выровняли теги. Куда важнее — семантика: понятный <article>, логичная разметка заголовков, явное разделение блоков <section> и навигации <nav>. Машинам нужно не «красиво», а «осмысленно».

Именно поэтому я всегда говорю: не тратьте недели на «уборку» HTML только ради эстетики. Намного разумнее вложиться в структуру контента, проработку смысловых блоков и семантическую разметку. Это помогает как классическому поиску, так и новым AI-режимам, о которых я писал, например, в статье про SEO в эпоху AI.

Четвёртый важный момент, который очень хорошо прозвучал на саммите, — роль контент-чанкинга. ИИ-системы всё чаще используют подход retrieval-augmented generation (RAG): модель не просто «выдумывает» текст, а подтягивает куски проверенного контента из внешних источников, разбитых на логические фрагменты.

Грубо говоря, если ваш текст — одна сплошная простыня без подзаголовков, логических блоков и чёткой структуры, то вы делаете плохо не только пользователю, но и ИИ. А когда материал аккуратно разложен на смысловые фрагменты, каждый блок отвечает на конкретный вопрос, снабжён ясным заголовком и контекстом — вероятность «попасть» в набор данных для RAG повышается.

Отсюда родился новый практический принцип: писать статьи так, чтобы их было удобно «кушать» не только людям, но и машинам. Чёткие подтемы, короткие абзацы, явные ответы на конкретные вопросы, минимум воды — всё это уже не просто «хороший тон копирайтинга», а прямое условие выживания в AI-поиске.

Пятый момент — ИИ-«фишки» для SEO. Каждую неделю появляются новые «волшебные» методики: подсветить текст для ИИ, вставить специальные токены, написать промпт в стиле «пойми меня, Google», сгенерировать тысячу статей и «закрыть нишу». На NESS на это смотрели предельно трезво: да, ИИ можно использовать как инструмент, но он не отменяет базовой логики поиска.

Google по-прежнему пытается отсеивать мусор и шаблонные тексты, пусть иногда и не идеально. AI-помощники здорово ускоряют рутину, помогают генерировать черновики, собирать идеи и даже строить гипотезы. Но когда речь идёт про доверие, экспертизу и долгосрочную видимость, выезжать на голом ИИ-контенте становится всё опаснее. Об этом я подробно разбирал в материале о видимости сайта на платформах искусственного интеллекта, и тенденция только усиливается.


Что это меняет для SEO в 2026 году

Если собрать все эти наблюдения в одну картину, получается довольно цельная стратегия на ближайшие годы. Во-первых, не стоит паниковать из-за AI Overviews: для горячих новостей и живых тем классическая поисковая выдача всё ещё доминирует. Гораздо важнее скорость реакции, глубина и качество материала.

Во-вторых, Core Web Vitals нужно привести в адекватное состояние и дальше перестать с этим бороться каждый день. Нормальный UX и отсутствие откровенных «тормозов» важнее, чем мифические «100/100 ради SEO».

В-третьих, вместо фетиша «идеального кода» имеет смысл сфокусироваться на семантической структуре: понятные блоки, корректные теги, логичная иерархия. Это одновременно помогает и классическому Google Search, и тем самым AI-режимам, которые пытаются понимать, где в вашем тексте что находится.

В-четвёртых, контент стоит писать так, чтобы его было легко «нарезать» на куски: для ИИ, для сниппетов, для подстановки в разные интерфейсы. Здесь выигрывают те, кто умеет аккуратно отвечать на конкретные вопросы, а не просто лить полотно на 10 000 знаков.

И в-пятых, любые «секретные» AI-методики для SEO стоит пропускать через фильтр здравого смысла. Если подход не опирается на понимание того, как работает поиск, и не усиливает ваш бренд, экспертизу и доверие, его срок жизни, скорее всего, ограничен одним-двумя апдейтами.


Материал подготовлен на основе докладов и аналитики, опубликованных на сайте Search Engine Land, с адаптацией под русскоязычную аудиторию и практику работы с SEO в 2025–2026 годах.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *