~/content-factory
Все статьи
10 марта 2026 г. 7 мин

Claude Code Review: ИИ-агенты Anthropic теперь проверяют код за разработчиков

Claude Code ИИ агенты код ревью Anthropic разработка
Claude Code Review: ИИ-агенты Anthropic теперь проверяют код за разработчиков

Anthropic вчера запустили штуку, которая меняет правила игры для всех, кто пишет код с ИИ. Называется Code Review — и это не очередной линтер с ИИ-обёрткой.

Это мульти-агентная система, которая натравливает команду ИИ-агентов на каждый пулл-реквест. Каждый агент проверяет код с разного угла, потом финальный агент собирает находки, убирает дубли и ранжирует по важности.

Звучит знакомо? Мне — да. Примерно так же устроена моя Фабрика Контента — команда агентов, где каждый отвечает за своё. Только Anthropic применили этот подход к ревью кода.

Почему Anthropic это сделали

Цифра, которая объясняет всё: выработка кода на одного инженера в Anthropic выросла на 200% за последний год. Claude Code генерит столько кода, что люди физически не успевают его ревьюить.

До запуска Code Review только 16% пулл-реквестов получали содержательные комментарии. Остальные 84% проходили по верхам — бегло глянули, вроде норм, замёрджили.

После запуска — 54% получают нормальный разбор. Это в три раза больше.

Кэт Ву, глава продукта Anthropic, рассказала TechCrunch: «Нас постоянно спрашивают корпоративные клиенты — Claude Code теперь создаёт кучу пулл-реквестов, как нам их эффективно проверять?» Code Review — их ответ.

Как это работает внутри

Когда разработчик открывает пулл-реквест, система запускает несколько агентов параллельно. Каждый ищет баги независимо. Потом агенты перекрёстно проверяют находки друг друга — чтобы отсеять ложные срабатывания. В конце финальный агент ранжирует всё по серьёзности.

Результат появляется прямо на пулл-реквесте в GitHub: один общий комментарий с обзором плюс инлайн-комментарии к конкретным строкам кода.

Три уровня серьёзности по цветам:

Система фокусируется на логических ошибках, не на стиле. Anthropic специально убрали замечания вроде «переименуй переменную» — разработчики от такого устают. Только то, что реально может сломать продакшн.

Цифры, которые впечатляют

Anthropic гоняли Code Review на своих собственных репозиториях несколько месяцев. Статистика:

На больших PR (больше 1000 строк) — 84% получают находки, в среднем 7.5 проблем на ревью. На маленьких (до 50 строк) — 31% получают замечания, в среднем 0.5. Логично — чем больше код, тем больше мест где можно ошибиться.

И вот что важно: меньше 1% находок разработчики отмечают как неправильные. То есть система почти не ошибается.

Один конкретный кейс из Anthropic: однострочное изменение в продакшн-сервисе. Выглядело рутинно — типичный diff, который обычно быстро аппрувят. Code Review пометил его как критический. Оказалось, что изменение ломало аутентификацию всего сервиса. Инженер потом признал, что сам бы не заметил.

Кейс с Firefox: 22 уязвимости за две недели

Отдельная история — пилот с Mozilla. Claude Opus 4.6 просканировал кодовую базу Firefox и нашёл 22 уязвимости. 14 из них — высокой степени серьёзности.

Для контекста: всё мировое сообщество исследователей безопасности находит около 70 таких багов в Firefox за целый год. ИИ нашёл 20% от годового объёма за 14 дней.

Один из найденных багов — переполнение буфера в библиотеке CGIF. Он жил в коде десятилетиями. Традиционные инструменты его не находили, потому что они ищут известные паттерны. Claude анализировал логику алгоритма LZW-сжатия и нашёл ошибку через рассуждение, а не через сопоставление шаблонов.

Сколько стоит

Code Review — не бесплатный. Один ревью стоит от 15$ до 25$ и занимает около 20 минут. Цена зависит от размера и сложности пулл-реквеста.

Для сравнения: час работы мидл-разработчика стоит от 20$ до 60$. Серьёзный ручной ревью большого PR может занять от часа до нескольких. Если Code Review ловит баг, который бы ушёл в продакшн — 15-25$ за ревью окупятся в первый же раз.

Есть контроль расходов:

Доступно пока в research preview для планов Teams и Enterprise. Обычным Pro-подписчикам нужно ждать.

Что Code Review НЕ делает

Важный нюанс: система не аппрувит пулл-реквесты. Это сознательное решение Anthropic — финальное одобрение остаётся за человеком.

Code Review — это усилитель для ревьюера, не замена. Он находит проблемы и объясняет их. Решение — за разработчиком.

Это согласуется с тем, что я вижу в работе со своими ИИ-агентами. Агент может написать пост, проанализировать данные, сгенерировать карусель. Но финальное «да» или «нет» — всегда за мной. ИИ — усилитель, не замена.

Зачем это нужно тем, кто не пишет код

Если ты не разработчик, тебе может показаться что это не про тебя. Но посмотри шире.

Anthropic создали систему, где команда ИИ-агентов работает параллельно над одной задачей. Каждый смотрит на проблему с разного угла. Потом результаты объединяются и фильтруются.

Этот подход работает не только для кода. Он работает для контента, маркетинга, аналитики — для любой задачи, где нужна глубокая проверка. Я использую похожую архитектуру уже несколько месяцев — 13 агентов, каждый со своей зоной ответственности.

Мульти-агентность — это не хайп. Это инженерный подход, который Anthropic валидировали на собственном продакшне.

Claude Code растёт как бизнес

Контекст для этого запуска: выручка Claude Code превысила 2.5 миллиарда долларов в годовом выражении. Подписки выросли в четыре раза с начала года. Среди клиентов — Uber, Salesforce, Accenture.

Code Review — это сигнал: Anthropic строит не просто языковую модель, а полноценную платформу для разработчиков. Сначала генерация кода, теперь ревью. Следующий шаг скорее всего — автоматическое тестирование и деплой.

Для тех кто выбирает между Sonnet и Opus — Code Review доступен на обеих моделях через Claude Code.

Как попробовать

Пока Code Review доступен только для Teams (от 25$/мес за пользователя) и Enterprise. Для обычной Pro-подписки (20$/мес) нужно ждать.

Для админов: включить Code Review в настройках Claude Code (claude.ai/admin-settings), установить GitHub App, выбрать репозитории.

Для разработчиков: после включения ревью запускаются автоматически на каждый новый пулл-реквест. Настраивать ничего не нужно.

Документация Claude Code Review — если хочешь разобраться в деталях.

Что это значит

Мы вошли в фазу, когда ИИ не только пишет код, но и проверяет код, написанный ИИ. Звучит рекурсивно — и так оно и есть.

Разработчики теперь могут писать в разы больше кода с помощью Claude Code, а Code Review будет следить чтобы этот код не ломал продакшн. Замкнутый цикл.

Для тех кто строит продукты с ИИ — это ещё один аргумент в сторону Claude. Anthropic создают экосистему, где весь цикл разработки покрыт ИИ-инструментами. Не отдельные чат-боты, а полноценный рабочий процесс.


Источники:

ФАБРИКА КОНТЕНТА

Контент на неделю за 2 часа. Без команды, без выгорания.

ИИ-конструктор, который учится писать как ты. Посты, сценарии, карусели — твой стиль, твои смыслы. Плюс еженедельные эфиры и закрытое комьюнити.

Получить доступ в Фабрику

Первый месяц 2 990₽. Далее 1 490₽/мес. Отмена в любой момент.

Бесплатный контент про ИИ — в Telegram

Кейсы, разборы инструментов, закулисье

Подписаться