Anthropic сказала Пентагону «нет». Пентагон назвал Anthropic «угрозой цепочке поставок». Трамп написал капслоком пост про «радикальную левую компанию». А пользователи в ответ удалили ChatGPT и поставили Claude на первое место в App Store.
Звучит как сценарий сериала, но нет — это реальные события марта 2026. И касаются каждого, кто работает с ИИ.
Что произошло: хронология за 3 недели
Anthropic и Пентагон сотрудничали с 2024 года. В июле 2025 Anthropic подписала контракт на 200 миллионов долларов с Министерством обороны. Компания стала первым ИИ-разработчиком, чьи инструменты развернули в засекреченных сетях правительства.
Всё шло нормально до момента, когда пришло время пересматривать условия контракта.
Пентагон хотел использовать Claude для «любых законных целей». Anthropic поставила две красные линии:
- Никакой массовой слежки за американцами
- Никакого автономного оружия без участия человека
Переговоры зашли в тупик. А дальше всё посыпалось.
Февраль 2026: эскалация
27 февраля. Дарио Амодей, CEO Anthropic, публично отказался уступить. В заявлении компании он написал:
«Anthropic понимает, что военные решения принимает Министерство обороны, а не частные компании. Мы никогда не возражали против конкретных военных операций. Однако в узком наборе случаев мы считаем, что ИИ может подорвать, а не защитить демократические ценности.»
Трамп не стал ждать. В тот же день он опубликовал пост на Truth Social:
«МЫ будем решать судьбу нашей Страны — НЕ какая-то неконтролируемая, Радикальная Левая ИИ-компания, управляемая людьми, которые не понимают реальный Мир.»
Федеральным агентствам приказали прекратить использование Claude в течение шести месяцев.
Источник: CNBC — Anthropic sues Trump administration over Pentagon blacklist
«Угроза цепочке поставок» — впервые для американской компании
5 марта Пентагон официально присвоил Anthropic статус «supply chain risk». Раньше этот ярлык вешали на Huawei и другие китайские компании. Это первый случай, когда такое сделали с американской фирмой.
Что это значит на практике: любой подрядчик Пентагона обязан доказать, что не использует модели Claude в работе с военными. Если используешь — теряешь контракт.
BBC процитировала сенатора Кирстен Джиллибранд:
«Назвать Anthropic угрозой цепочке поставок — это близоруко, саморазрушительно и подарок нашим противникам. Правительство открыто атакует американскую компанию за отказ скомпрометировать собственные меры безопасности. Такое мы ожидаем от Китая, а не от США.»
Источник: BBC — Anthropic officially designated a supply chain risk by Pentagon
9 марта: Anthropic подаёт в суд
Anthropic подала иск в федеральный суд Северной Калифорнии. В документах компания называет действия правительства «беспрецедентными и незаконными».
Финансовый директор Anthropic Кришна Рао написал в связанном документе, что потери могут составить «миллиарды долларов» в 2026 году. Контракты уже начали отменять.
9 марта компания также подала заявление в апелляционный суд в Вашингтоне для пересмотра решения Министерства обороны.
OpenAI тут же перехватила контракт
Пока Anthropic стояла на своём, OpenAI действовала быстро. 28 февраля Сэм Альтман объявил о сделке с Пентагоном, включающей доступ к моделям OpenAI в засекреченных системах.
Альтман заявил, что соглашение содержит «больше защитных механизмов, чем любой предыдущий контракт на засекреченное ИИ, включая контракт Anthropic». Звучит красиво. Но люди отреагировали иначе.
ChatGPT: удалений на 295% больше, Claude — первое место в App Store
На следующий день после объявления сделки OpenAI с Пентагоном удаления ChatGPT выросли на 295%. Это данные Sensor Tower. Обычный уровень удалений — 9% в день. Тут — почти в 30 раз больше.
Одновременно скачивания Claude в США подскочили на 37% за пятницу и на 51% за субботу. Claude обогнал ChatGPT и стал приложением номер один в App Store.
Источник: TechCrunch — ChatGPT uninstalls surged by 295% after DoD deal
Сотни сотрудников Google и OpenAI подписали открытое письмо в поддержку позиции Anthropic. Просили своих руководителей тоже не отступать в вопросах автономного оружия и слежки.
Почему это история про каждого, кто использует ИИ
Можно подумать: ну, военные, Пентагон, Трамп — это их дела. Меня это не касается.
Касается. Вот почему.
1. Компании выбирают между этикой и деньгами
Anthropic отказалась от контракта на 200 миллионов и потенциально потеряет миллиарды. Это прецедент. Либо ИИ-компании держат свои красные линии, либо нет. Пока Anthropic — единственная, кто сказал «нет».
OpenAI согласилась. Microsoft подтвердила, что продолжит работать с Anthropic на невоенных проектах, но отказалась от военных. Каждая компания выбирает сторону.
2. Настроение пользователей меняется
295% рост удалений ChatGPT — это не баг. Это сигнал. Люди голосуют кошельком и удалениями. Этические позиции ИИ-компаний начинают влиять на выбор инструмента так же, как цена и качество.
Для тех, кто строит продукты на API — важно знать, что ваш ИИ-провайдер стабилен. Anthropic сейчас судится с правительством. OpenAI связала себя с Пентагоном. У обоих есть риски.
3. Claude работает и будет работать
Важный момент, который многие упускают. Ограничения распространяются ТОЛЬКО на подрядчиков Пентагона в их работе с военными. Для обычных пользователей, бизнеса, стартапов — ничего не меняется. Claude доступен. Подписки работают. API работает.
Более того — Anthropic стала ещё популярнее. Больше миллиона человек в день скачивают Claude. Как я писал раньше, Claude Code один приносит 2.5 миллиарда долларов в год.
Nvidia запускает NemoClaw — свой ответ на агентов
Пока Anthropic и Пентагон разбирались в суде, Nvidia тихо анонсировала NemoClaw — открытую платформу для корпоративных ИИ-агентов.
Дженсен Хуан, CEO Nvidia, назвал OpenClaw «вероятно, самым важным релизом программного обеспечения в истории». И решил сделать свою версию для бизнеса.
NemoClaw позиционируется как безопасная и контролируемая среда для запуска ИИ-агентов в компаниях. Партнёры — Salesforce, Cisco, Google, Adobe, CrowdStrike. Платформа будет открытой. Работать будет на любом железе, не только на GPU Nvidia.
Это интересный ход. Пока OpenClaw взрывает Китай (250 000 звёзд на GitHub за два месяца), Nvidia берёт корпоративный сегмент.
Что делать прямо сейчас
Если пользуешься Claude — ничего не делай. Всё работает. Подписка, API, Claude Code — без изменений. Единственное ограничение — если ты подрядчик Пентагона, тебе придётся убрать Claude из военных проектов. Вряд ли это про тебя.
Если пользуешься ChatGPT — решай сам. Продукт тоже работает. Но если для тебя важна позиция компании по этике ИИ — теперь ты знаешь, кто где стоит.
Если строишь на API — диверсифицируйся. Не сиди на одном провайдере. Используй Claude для контента и аналитики, OpenAI для embeddings, локальные модели для чувствительных данных. Один конфликт с правительством — и всё может измениться.
Если просто следишь за темой — это поворотный момент. Впервые ИИ-компания пошла против самого крупного заказчика ради принципов. И получила поддержку миллионов пользователей. Это задаёт планку.
Что будет дальше
Суд Anthropic против Пентагона — это месяцы. Юристы оценивают, что статус «supply chain risk» вряд ли переживёт первую серьёзную судебную проверку. Ведь то же правительство использовало Claude в иранской операции буквально через часы после объявления запрета.
Палантир открыто заявила, что продолжает использовать Claude. Microsoft — тоже (вне военных проектов). Большинство компаний ждут решения суда.
А пока Claude каждый день скачивает больше миллиона новых пользователей. Anthropic оценивается в 380 миллиардов. И явно не собирается отступать.
Интересные времена для ИИ.