3 марта 2026 года Anthropic тихо раскатила обновление, которое меняет сам формат работы с кодом. Теперь в Claude Code можно говорить. Зажимаешь пробел, произносишь задачу голосом, отпускаешь — и текст появляется в терминале.
Не плагин. Не костыль через сторонний сервис. Встроенная функция прямо в CLI.
Пока доступно примерно 5% пользователей. Остальные получат в ближайшие недели. Но уже сейчас понятно — это не просто “прикольная фича”. Это сдвиг в том, как люди взаимодействуют с ИИ-ассистентами.
Что такое Claude Code и зачем ему голос
Claude Code — это ИИ-ассистент Anthropic для разработчиков. Работает прямо в терминале. Умеет читать и редактировать файлы проекта, запускать команды, вносить изменения в десятки файлов одновременно.
Не автокомплит, как GitHub Copilot. Полноценный агент, который может взять задачу от начала до конца — написать фичу, пофиксить баг, настроить деплой.
В феврале 2026 выручка Claude Code превысила 2,5 миллиарда долларов в годовом исчислении. Число пользователей удвоилось с января. Инструмент стал стандартом для тех, кто работает с кодом через ИИ.
И теперь к нему добавился голосовой ввод.
Как работает Voice Mode — по шагам
Включается одной командой. Набираешь /voice в терминале Claude Code. Всё.
Дальше механика простая:
Зажимаешь пробел — микрофон включается, начинает слушать.
Говоришь — описываешь что нужно сделать. Своими словами, как объясняешь коллеге.
Отпускаешь пробел — речь превращается в текст и появляется там, где стоит курсор.
Ключевой момент: голос не заменяет набранный текст, а дополняет его. Можно напечатать первую часть промпта, потом проговорить сложную середину голосом, и дописать конец руками.
Никаких всплывающих окон, подтверждений, отдельных интерфейсов. Сказал — текст на месте. Claude Code выполняет.
Что можно делать голосом
Практические сценарии, где голос реально быстрее клавиатуры:
Описание багов. Видишь проблему, мысленно уже понимаешь что происходит. Но перевести это в структурированный текст — отдельная работа. Голосом можно проговорить: “Дропдаун рендерится нормально при первой загрузке, но когда возвращаешься на страницу, состояние сбрасывается к дефолту, хотя URL-параметры сохранились — проверь useEffect в FilterPanel.tsx”.
Быстрое прототипирование. Когда перебираешь подходы и не хочешь коммититься к одному: “Попробуй сначала как React-компонент, но если стейт-менеджмент станет сложным, переключись на vanilla JS с простым pub-sub”.
Рефакторинг. Описать высокоуровневую цель голосом, а Claude Code сам разберётся с 20+ файлами.
Длинные промпты. Чем сложнее задача, тем больше контекста нужно передать. Печатать абзац текста в терминале — не самое приятное занятие. Проговорить — быстрее и подробнее.
Почему это не “ещё одна фича”
Три причины, почему Voice Mode меняет расклад.
Скорость. Средний человек печатает 40 слов в минуту. Говорит — 130-150. Для длинных, контекстных запросов к ИИ голос выигрывает в 3 раза.
Точность передачи мысли. Когда печатаешь, невольно упрощаешь запрос. Лень набирать все нюансы. Голосом проще передать “попробуй вот так, но если не получится — тогда вот эдак, и учти что вот этот кейс тоже важен”.
Здоровье. Часы набора текста каждый день — это нагрузка на руки и запястья. Голосовой ввод даёт физическую разгрузку без потери продуктивности.
И бонус: токены транскрипции не считаются в лимиты тарифа. Голосовой ввод бесплатный для всех платных подписчиков — Pro, Max, Team, Enterprise.
Гибридный ввод — главная фишка
Самое ценное в Voice Mode — не сам голос. А то, что его можно смешивать с клавиатурой в рамках одного промпта.
Пример. Печатаешь путь к файлу (точное название), потом зажимаешь пробел и голосом объясняешь что с этим файлом сделать, потом снова набираешь конкретный параметр руками.
Клавиатура — для точных вещей: пути, имена переменных, параметры. Голос — для “мутного”: описания логики, рассуждений, пожеланий. Вместе они покрывают 100% спектра задач.
Примеры голосовых команд на практике
Чтобы было понятнее, вот реальные сценарии. Не абстрактные “вы можете сказать…”, а конкретные ситуации.
Сценарий 1: Утренний деплой.
Открываешь терминал. /voice. Зажимаешь пробел: “Проверь что все тесты проходят, обнови версию в package.json, сделай коммит с сообщением ‘release 2.4.1’ и запусти деплой”. Отпустил — Claude Code пошёл выполнять.
Сценарий 2: Код-ревью. Смотришь на пулл-реквест коллеги. Голосом: “Открой файл src/auth/middleware.ts, найди функцию validateToken, объясни что она делает и предложи как улучшить обработку ошибок — сейчас при невалидном токене возвращается 500 вместо 401”.
Сценарий 3: Документация. Зажимаешь пробел: “Пройдись по всем файлам в директории src/components, прочитай каждый компонент и сгенерируй README с описанием каждого — что делает, какие пропсы принимает, примеры использования”. За 5 минут — документация на десятки компонентов.
Сценарий 4: Контент-задачи. Для тех, кто не программист: “Найди все markdown-файлы в папке content/articles, проверь что у каждого заполнены теги keywords и description, если пустые — предложи варианты на основе содержимого”. SEO-аудит за минуту.
Суть простая: чем сложнее и длиннее запрос, тем выгоднее голос.
Кто ещё добавил голос
Claude Code не единственный. OpenAI добавили голосовой ввод в Codex CLI (версия 0.105.0, 26 февраля 2026). Рынок ИИ-кодинга движется в сторону голосового управления одновременно.
GitHub Copilot, Cursor, Google — все борются за внимание разработчиков. Voice Mode — один из фронтов этой борьбы.
Anthropic при этом растёт быстрее остальных. После того как компания отказала Пентагону в использовании Claude для слежки и автономного оружия, мобильное приложение Claude взлетело на первое место в App Store США, обогнав ChatGPT.
Репутация + продукт = рост.
Где это пригодится не-программистам
Я не пишу код руками. Но Claude Code использую каждый день для контент-задач — автоматизация контента, деплои, работа с файлами проектов.
Voice Mode открывает интересные возможности. Представь: идёшь на прогулку с наушниками и диктуешь задачу агенту. “Обнови описания на сайте, добавь в каждую статью блок с внутренними ссылками, проверь что все meta-теги заполнены”. Вернулся — а задача сделана.
Для тех, кто работает с OpenClaw и агентами — это ещё один способ ставить задачи быстрее. Голосом поставил — агент пошёл делать.
Voice-first разработка — тренд или реальность
Идея писать код голосом не нова. GitHub Copilot Voice был представлен ещё в 2023 году. Несколько стартапов пытались делать голосовые IDE. Но все они упирались в одну проблему: распознавание речи было недостаточно точным для технических терминов.
Сейчас ситуация другая. Качество транскрипции выросло настолько, что можно диктовать имена функций, пути к файлам и технические параметры без постоянных исправлений.
Полностью голосовая разработка вряд ли случится в ближайшие годы. Код — это визуальная штука. Нужно видеть структуру, видеть отступы, видеть diff. Но голос как дополнительный канал ввода — уже реальность. Особенно для взаимодействия с ИИ-агентами, где задачи формулируются естественным языком.
Для людей с ограничениями подвижности рук это вообще прорыв. Программирование становится доступнее, и это хорошо.
Ограничения и нюансы
Пока известно не всё. Anthropic не раскрыла:
- Есть ли лимит на количество голосовых запросов
- Какая технология транскрипции используется (возможно ElevenLabs — с ними Anthropic вела переговоры)
- Как режим работает на разных языках (пока тестируется преимущественно на английском)
Режим push-to-talk — нет “всегда включённого” микрофона. Никакого фонового прослушивания. Контроль за пользователем.
Доступно пока только в терминальной версии Claude Code. В claude.ai голосовой режим для обычного чата работает с мая 2025 года — но это другая функция.
Что делать прямо сейчас
Если у вас уже есть Claude Code:
- Обновите до последней версии:
npm update -g @anthropic-ai/claude-code - Запустите
claudeв терминале - Если на приветственном экране есть упоминание Voice Mode — введите
/voice - Если пока нет — подождите пару недель, функция раскатывается постепенно
Если вы ещё не пробовали Claude Code:
Нужна подписка — Pro ($20/мес), Max ($100/мес или $200/мес), Team или Enterprise. Установка через npm. Разобраться можно за вечер.
Голосовой режим — бесплатный бонус к любому тарифу. Дополнительных денег не берут.
Сравнение с конкурентами
| Инструмент | Голосовой ввод | Тип | Цена |
|---|---|---|---|
| Claude Code | Voice Mode (push-to-talk) | CLI-агент | от $20/мес |
| Codex CLI (OpenAI) | Native Voice Input | CLI-агент | от $20/мес |
| GitHub Copilot | Copilot Chat (текст) | Автокомплит + чат | от $10/мес |
| Cursor | Нет встроенного | IDE-агент | от $20/мес |
| Gemini CLI | Нет | CLI-агент | Бесплатно (лимиты) |
Claude Code и Codex добавили голос почти одновременно. Это не совпадение — обе компании видят, что будущее кодинга с ИИ лежит за пределами клавиатуры. Cursor и Copilot пока отстают, но наверняка подтянутся.
Куда всё движется
2,5 миллиарда долларов выручки. Удвоение пользователей за два месяца. Голосовой ввод. Claude Code перестал быть “инструментом для гиков” и превращается в стандартный рабочий инструмент.
Я наблюдаю за этим переходом каждый день. Ещё год назад ИИ-ассистент для кода был экспериментом. Сейчас это базовая инфраструктура — как IDE или Git.
Голосовой режим — логичный следующий шаг. Клавиатура никуда не денется. Но теперь у неё появился напарник.
Если вы уже работаете с ИИ-агентами или строите свою систему автоматизации — Voice Mode стоит попробовать. Это не революция. Это эволюция. Но из таких эволюций складывается будущее, где код пишется быстрее, чем мы привыкли думать.