Anthropic вчера запустили штуку, которая меняет правила игры для всех, кто пишет код с ИИ. Называется Code Review — и это не очередной линтер с ИИ-обёрткой.
Это мульти-агентная система, которая натравливает команду ИИ-агентов на каждый пулл-реквест. Каждый агент проверяет код с разного угла, потом финальный агент собирает находки, убирает дубли и ранжирует по важности.
Звучит знакомо? Мне — да. Примерно так же устроена моя Фабрика Контента — команда агентов, где каждый отвечает за своё. Только Anthropic применили этот подход к ревью кода.
Почему Anthropic это сделали
Цифра, которая объясняет всё: выработка кода на одного инженера в Anthropic выросла на 200% за последний год. Claude Code генерит столько кода, что люди физически не успевают его ревьюить.
До запуска Code Review только 16% пулл-реквестов получали содержательные комментарии. Остальные 84% проходили по верхам — бегло глянули, вроде норм, замёрджили.
После запуска — 54% получают нормальный разбор. Это в три раза больше.
Кэт Ву, глава продукта Anthropic, рассказала TechCrunch: «Нас постоянно спрашивают корпоративные клиенты — Claude Code теперь создаёт кучу пулл-реквестов, как нам их эффективно проверять?» Code Review — их ответ.
Как это работает внутри
Когда разработчик открывает пулл-реквест, система запускает несколько агентов параллельно. Каждый ищет баги независимо. Потом агенты перекрёстно проверяют находки друг друга — чтобы отсеять ложные срабатывания. В конце финальный агент ранжирует всё по серьёзности.
Результат появляется прямо на пулл-реквесте в GitHub: один общий комментарий с обзором плюс инлайн-комментарии к конкретным строкам кода.
Три уровня серьёзности по цветам:
- Красный — критические баги, исправлять обязательно
- Жёлтый — потенциальные проблемы, стоит посмотреть
- Фиолетовый — проблемы в старом коде, на который повлиял пулл-реквест
Система фокусируется на логических ошибках, не на стиле. Anthropic специально убрали замечания вроде «переименуй переменную» — разработчики от такого устают. Только то, что реально может сломать продакшн.
Цифры, которые впечатляют
Anthropic гоняли Code Review на своих собственных репозиториях несколько месяцев. Статистика:
На больших PR (больше 1000 строк) — 84% получают находки, в среднем 7.5 проблем на ревью. На маленьких (до 50 строк) — 31% получают замечания, в среднем 0.5. Логично — чем больше код, тем больше мест где можно ошибиться.
И вот что важно: меньше 1% находок разработчики отмечают как неправильные. То есть система почти не ошибается.
Один конкретный кейс из Anthropic: однострочное изменение в продакшн-сервисе. Выглядело рутинно — типичный diff, который обычно быстро аппрувят. Code Review пометил его как критический. Оказалось, что изменение ломало аутентификацию всего сервиса. Инженер потом признал, что сам бы не заметил.
Кейс с Firefox: 22 уязвимости за две недели
Отдельная история — пилот с Mozilla. Claude Opus 4.6 просканировал кодовую базу Firefox и нашёл 22 уязвимости. 14 из них — высокой степени серьёзности.
Для контекста: всё мировое сообщество исследователей безопасности находит около 70 таких багов в Firefox за целый год. ИИ нашёл 20% от годового объёма за 14 дней.
Один из найденных багов — переполнение буфера в библиотеке CGIF. Он жил в коде десятилетиями. Традиционные инструменты его не находили, потому что они ищут известные паттерны. Claude анализировал логику алгоритма LZW-сжатия и нашёл ошибку через рассуждение, а не через сопоставление шаблонов.
Сколько стоит
Code Review — не бесплатный. Один ревью стоит от 15$ до 25$ и занимает около 20 минут. Цена зависит от размера и сложности пулл-реквеста.
Для сравнения: час работы мидл-разработчика стоит от 20$ до 60$. Серьёзный ручной ревью большого PR может занять от часа до нескольких. Если Code Review ловит баг, который бы ушёл в продакшн — 15-25$ за ревью окупятся в первый же раз.
Есть контроль расходов:
- Месячные лимиты на всю организацию
- Включение/выключение по конкретным репозиториям
- Дашборд с аналитикой — сколько PR проверено, процент принятых замечаний, общие расходы
Доступно пока в research preview для планов Teams и Enterprise. Обычным Pro-подписчикам нужно ждать.
Что Code Review НЕ делает
Важный нюанс: система не аппрувит пулл-реквесты. Это сознательное решение Anthropic — финальное одобрение остаётся за человеком.
Code Review — это усилитель для ревьюера, не замена. Он находит проблемы и объясняет их. Решение — за разработчиком.
Это согласуется с тем, что я вижу в работе со своими ИИ-агентами. Агент может написать пост, проанализировать данные, сгенерировать карусель. Но финальное «да» или «нет» — всегда за мной. ИИ — усилитель, не замена.
Зачем это нужно тем, кто не пишет код
Если ты не разработчик, тебе может показаться что это не про тебя. Но посмотри шире.
Anthropic создали систему, где команда ИИ-агентов работает параллельно над одной задачей. Каждый смотрит на проблему с разного угла. Потом результаты объединяются и фильтруются.
Этот подход работает не только для кода. Он работает для контента, маркетинга, аналитики — для любой задачи, где нужна глубокая проверка. Я использую похожую архитектуру уже несколько месяцев — 13 агентов, каждый со своей зоной ответственности.
Мульти-агентность — это не хайп. Это инженерный подход, который Anthropic валидировали на собственном продакшне.
Claude Code растёт как бизнес
Контекст для этого запуска: выручка Claude Code превысила 2.5 миллиарда долларов в годовом выражении. Подписки выросли в четыре раза с начала года. Среди клиентов — Uber, Salesforce, Accenture.
Code Review — это сигнал: Anthropic строит не просто языковую модель, а полноценную платформу для разработчиков. Сначала генерация кода, теперь ревью. Следующий шаг скорее всего — автоматическое тестирование и деплой.
Для тех кто выбирает между Sonnet и Opus — Code Review доступен на обеих моделях через Claude Code.
Как попробовать
Пока Code Review доступен только для Teams (от 25$/мес за пользователя) и Enterprise. Для обычной Pro-подписки (20$/мес) нужно ждать.
Для админов: включить Code Review в настройках Claude Code (claude.ai/admin-settings), установить GitHub App, выбрать репозитории.
Для разработчиков: после включения ревью запускаются автоматически на каждый новый пулл-реквест. Настраивать ничего не нужно.
Документация Claude Code Review — если хочешь разобраться в деталях.
Что это значит
Мы вошли в фазу, когда ИИ не только пишет код, но и проверяет код, написанный ИИ. Звучит рекурсивно — и так оно и есть.
Разработчики теперь могут писать в разы больше кода с помощью Claude Code, а Code Review будет следить чтобы этот код не ломал продакшн. Замкнутый цикл.
Для тех кто строит продукты с ИИ — это ещё один аргумент в сторону Claude. Anthropic создают экосистему, где весь цикл разработки покрыт ИИ-инструментами. Не отдельные чат-боты, а полноценный рабочий процесс.
Источники: