Google в январе 2026 выкатил «Authenticity Update» — и половина сайтов с ИИ-контентом просела. Мои статьи на galson.pro не просели. Вот что я делаю иначе.
Почему ИИ-статьи перестали ранжироваться в Google
Сначала контекст. Semrush провёл исследование AI Overviews по 3 000+ ключевикам. Результаты жёсткие:
- Ни один запрос не показывал одни и те же URL в AI Overview каждый день
- 96% AI Overviews меняли домены в выдаче
- 91% URL выкидывали из AI Overview хотя бы раз за месяц
- Только 43% вернулись обратно
Короче, даже если ты попал в AI Overview сегодня — завтра тебя там может не быть. А январский апдейт 2026 года добавил ещё одну переменную: Google теперь отличает контент с реальным опытом от ИИ-пересказов.
Сайты, которые просто генерили статьи через ChatGPT и прогоняли через «гуманизаторы» — полетели вниз. Потому что Google начал смотреть не на текст, а на паттерны: есть ли у автора экспертиза, ссылается ли он на реальные источники, совпадают ли утверждения с фактами.
Как я использую ИИ для SEO-статей на galson.pro
Я не против ИИ в контенте. Я сам использую Claude (Opus и Sonnet) для каждой статьи на galson.pro. Разница в том, как использовать.
Мой процесс выглядит так:
Шаг 1. Ресерч — руками, не промптом. Я сам ищу 3–5 источников по теме. Читаю, выписываю цифры, нахожу противоречия. ИИ не умеет отличать свежее исследование от пересказа пятилетней статьи.
Шаг 2. Структура — по скользкой горке. Каждая статья начинается с хука: факт, цифра или ситуация, которая цепляет. Потом контекст, разбор, практика. Не «введение — основная часть — заключение», а горка, с которой читатель скатывается до конца.
Шаг 3. Черновик — Claude с моим голосом. У меня есть файл voice-style.md на 200+ строк. Там описано, как я говорю, какие слова использую, какие конструкции запрещены. Claude пишет черновик, но через фильтр моего стиля. Никакого «стоит отметить» и «давайте разберёмся».
Шаг 4. Редактура — я. Убираю ИИ-паттерны (три параллельных предложения, одинаковые по длине абзацы, hedge-фразы). Добавляю свой опыт, свои цифры. Статья должна быть такой, чтобы её нельзя было приписать кому угодно.
Шаг 5. Публикация — автоматически. Git push, Vercel деплоит, статья на сайте через минуту.
Что Google хочет видеть в ИИ-статьях в 2026 году
После январского «Authenticity Update» Google оценивает контент по нескольким новым сигналам. Я собрал главные из того, что реально влияет на ранжирование.
Первый: реальный опыт автора (E-E-A-T)
E-E-A-T — это Experience, Expertise, Authoritativeness, Trustworthiness. Google добавил первую «E» (Experience) в конце 2022 года, но в 2026 она стала критичной.
Если ты пишешь про ИИ-инструменты — покажи, что реально ими пользуешься. Скриншоты, конкретные цифры, описание процесса. Не «Claude помогает писать тексты», а «я написал 14 статей за месяц через Claude Opus, вот мой воркфлоу».
Я на galson.pro пишу только про то, что реально использую. Фабрика контента — это мой рабочий процесс, не теоретическая модель. 7 паттернов промпт-инжиниринга — это то, что я применяю каждый день.
Второй: топикальная глубина вместо ключевиков
Keyword density больше не работает. Исследования по 1 500+ поисковых выдач показали: нет корреляции между плотностью ключевиков и позицией в топе. Топовые страницы часто имеют меньшую плотность ключевых слов.
Что работает — топикальная авторитетность. Это когда у тебя не одна статья про SEO, а целый кластер: статья про ИИ-контент, статья про промпты, статья про автоматизацию, статья про инструменты. Google видит, что ты глубоко в теме, и доверяет больше.
На galson.pro я строю именно такие кластеры. Эта статья — часть кластера про ИИ и контент, который включает статью про автопостинг в Threads, разбор ИИ-агентов и гайд по OpenClaw.
Третий: поведенческие сигналы
Google в 2026 году сильнее опирается на то, как люди взаимодействуют с контентом. Время на странице, глубина скролла, возврат к поиску. Если человек открыл статью, прочитал два абзаца и вернулся в Google — это плохой сигнал.
Поэтому скользкая горка — не просто красивая метафора. Это SEO-стратегия. Чем дольше человек читает, тем лучше поведенческие метрики, тем выше позиция.
Мой чек-лист SEO-статьи с ИИ: 8 пунктов
Вот что я проверяю перед публикацией каждой статьи:
-
Заголовок до 60 символов с ключевым словом. «SEO с ИИ: как писать статьи, которые попадают в топ» — ключевик в начале, понятно о чём.
-
Описание до 160 символов. Это то, что видно в поисковой выдаче. Должно быть конкретным, не «в этой статье мы рассмотрим».
-
Хук в первом предложении. Никаких «в современном мире ИИ играет всё большую роль». Факт, цифра, провокация.
-
H2 с ключевиками. Каждый подзаголовок — потенциальный сниппет в Google. «Как я использую ИИ для SEO-статей» ищется, «Мой подход» — нет.
-
Внутренние ссылки (1–3). На другие статьи блога. Это строит топикальную связь и помогает Google понять структуру сайта.
-
Внешние ссылки на источники (2–5). Исследования, первоисточники. Google проверяет, совпадают ли ссылки с утверждениями.
-
Нет ИИ-паттернов. Проверяю: нет параллельных троек, нет «стоит отметить», абзацы разной длины, предложения от 3 до 20 слов.
-
Мой опыт внутри. Хотя бы 2–3 конкретных примера из своей практики. Не теория, а «я сделал — вот что вышло».
Какие ИИ-инструменты для SEO реально помогают
Честно? Большинство SEO-оптимизаторов в 2026 году бесполезны. Они сравнивают твою статью с топом и говорят «добавь слово X ещё 4 раза». Это не работает после январского апдейта.
Что я реально использую:
Claude (Opus/Sonnet) — для черновиков и ресерча. Бесплатный Claude или подписка за 20$/мес. Не нужен отдельный «ИИ для SEO» за 100$/мес, если умеешь писать промпты.
Google Search Console — бесплатный. Показывает, по каким запросам тебя находят, где проседает CTR, какие страницы растут.
Собственная система на OpenClaw — мои агенты автоматизируют ресерч, сбор фактов и публикацию. Но финальный текст всегда проходит через мою редактуру.
Платные SEO-оптимизаторы типа Surfer, Clearscope и подобные — я пробовал, потом отказался. Они создают иллюзию контроля, но не дают реального преимущества. Свежий контент с реальным опытом побеждает любой оптимизатор.
Три ошибки, которые убивают ИИ-контент в SEO
Ошибка: генерировать и публиковать без редактуры. Даже лучшие модели оставляют ИИ-следы. Одинаковые по структуре абзацы, hedge-фразы («стоит отметить», «безусловно»), ровно три примера на каждый пункт. Google видит эти паттерны, и люди тоже.
Ошибка: оптимизировать старый контент вместо создания нового. После января 2026 я наблюдаю один и тот же паттерн: люди пытаются «дооптимизировать» просевшую статью — добавляют ключевики, переписывают абзацы. Не помогает. Лучше написать новую статью с нуля, с актуальными данными и своим опытом.
Ошибка: игнорировать AI Overviews. Google всё чаще отвечает прямо в выдаче. Если твой контент подходит для AI Overview — формулируй ответы чётко, используй структурированные данные, делай списки и таблицы. Это увеличивает шанс попасть в блок ответа.
Как выглядит мой процесс создания SEO-статьи от идеи до публикации
Покажу на примере этой статьи. Весь путь занял около двух часов.
Выбор темы. У меня есть контент-план в markdown-файле. Темы расставлены по приоритету. «SEO с ИИ» стояла следующей — потому что январский апдейт Google сделал тему горячей.
Сбор источников. Нашёл 4 источника: исследование Semrush по AI Overviews, разбор январского «Authenticity Update» от FWD Digital, анализ iovista.com по стратегиям 2026 года и честный обзор SEO-инструментов от selfmademillennials.com (автор — практик с 5 годами в теме). Все данные проверил на пересечение: если два источника говорят одно и то же — значит, скорее всего, правда.
Написание. Claude Opus получил мой voice-style.md, собранные факты и структуру. Первый черновик — 20 минут. Потом я час редактировал: убирал ИИ-паттерны, добавлял свои примеры и цифры, проверял каждый факт.
Проверка. Прогнал через grep на запрещённые паттерны (AI вместо ИИ — кроме названий продуктов, стрелки, канцеляризмы). Проверил длину заголовка, описание, внутренние ссылки.
Публикация. Git commit, git push. Vercel подхватывает изменения и деплоит за минуту. Статья на сайте.
Весь этот процесс у меня автоматизирован через систему ИИ-агентов на OpenClaw. Агент-копирайтер умеет делать ресерч, писать черновик и даже деплоить. Но я всегда проверяю финальный результат. Потому что ИИ не знает, что я думаю по теме. А именно позиция автора — то, что отличает статью, попавшую в топ, от очередного пересказа.
Что дальше: SEO в эпоху генеративного поиска
Генеративный поиск меняет правила. Google теперь сначала выбирает источники, а потом генерирует ответ. Это значит, что быть в топ-10 уже недостаточно — нужно быть тем самым источником, которому Google доверяет.
Для этого работают три вещи:
Топикальная авторитетность — много качественного контента на одну тему. Не одна статья, а кластер из 5–10.
Настоящий опыт — Google обучает свои модели отличать реальный опыт от пересказа. Пиши про то, что делаешь сам.
Регулярность — одна статья в полгода не даст результата. У меня на galson.pro выходит 1–2 статьи в неделю. Каждая — часть общей системы.
ИИ — это усилитель, не замена. Он ускоряет ресерч, помогает со структурой, генерирует черновики. Но финальный продукт — это всегда человек с опытом и позицией. Google это понимает. Читатели тоже.
Я вижу, как многие паникуют из-за апдейтов. Мол, ИИ-контент умер, SEO умер, всё бесполезно. Это не так. Умер только ленивый подход: нажал кнопку — получил статью — опубликовал. Работающий подход — использовать ИИ как инструмент, а свой опыт как фундамент. Тогда Google не просто не накажет — он наградит.
За полтора месяца 2026 года я опубликовал больше десяти статей на galson.pro. Трафик растёт, позиции стабильны. Не потому что я нашёл секретный промпт. А потому что каждая статья — это мой реальный опыт, упакованный в структуру, которую легко читать и легко ранжировать.
Система важнее героических усилий. Один раз настроил процесс — и он работает каждую неделю без мучений.
Кайф?