Claude 1M контекст GA: Anthropic убирает наценку за длинный контекст
13 марта 2026 Anthropic объявила о переходе 1M-токенного контекста в general availability для Opus 4.6 и Sonnet 4.6 без доплат. Что это меняет для разработчиков?

Claude 1M контекст GA: Anthropic убирает наценку за длинный контекст
13 марта 2026 года Anthropic сделала неожиданно щедрый шаг: 1 миллион токенов контекста перешёл в general availability для Claude Opus 4.6 и Claude Sonnet 4.6 без какой-либо наценки. Стандартные цены, стандартный API — просто отправляй 1М токенов и плати по обычному тарифу.
Что именно объявила Anthropic
До 13 марта 1M-контекст у Claude был доступен в ограниченном бета-режиме с premium-наценкой для enterprise-клиентов. Теперь:
- Claude Opus 4.6: $5/$25 за 1М токенов (input/output) — полная 1M-окно по стандартной цене
- Claude Sonnet 4.6: $3/$15 за 1М токенов — аналогично
- Медиа-лимиты: расширены до 600 изображений или PDF-страниц на один вызов
- Никакой premium за длину: раньше запросы с большим контекстом могли стоить в 2–5x дороже
По данным Anthropic, Claude Opus 4.6 показывает 78.3% на MRCR v2 (Multi-hop Recall and Comprehension) — метрике для оценки качества работы с длинными документами. Для сравнения, Gemini 3 Pro набирает 26.3% на том же бенчмарке.
Почему 1M токенов — это важно
Миллион токенов — это примерно:
- 750 000 слов обычного текста
- Весь роман «Война и мир» + ещё несколько книг
- 100–150 крупных PDF-документов
- 10 000–15 000 строк кода в большом проекте
- Несколько часов расшифровки переговоров или звонков
В корпоративных применениях это открывает сценарии, которые раньше требовали сложных систем чанкинга и RAG:
Анализ контрактов. Загружаешь весь пакет юридических документов — контракты, приложения, переписку — и спрашиваешь Claude найти противоречия или риски. Раньше нужно было делать это по частям или строить сложный pipeline.
Аудит кода. Можно передать весь репозиторий среднего размера и попросить найти security-уязвимости, понять архитектуру или предложить рефакторинг.
Корпоративные отчёты. Годовые отчёты, финансовые документы, рыночная аналитика — всё в одном контексте для глубокого анализа.
Медицинские записи. История болезни пациента за годы, вся документация — без разбивки на куски.
Как это работает технически
Трансформерные модели исторически страдают от проблемы «середины контекста» (lost in the middle): информация в начале и конце документа обрабатывается хорошо, а из середины длинного документа детали теряются.
Anthropic решала эту проблему несколько лет. Высокий MRCR v2 (78.3%) показывает, что Claude действительно работает с длинным контекстом, а не просто принимает его.
Технические детали архитектуры Anthropic не раскрывает, но известно, что используются:
- Специальные позиционные эмбеддинги для длинных последовательностей
- Оптимизированное внимание (attention) с механизмами сжатия
- Post-training alignment именно под long-context задачи
Сравнение с конкурентами
| Модель | Макс. контекст | Цена (input/1М) | Long-context без наценки |
|---|---|---|---|
| Claude Opus 4.6 | 1M | $5 | ✅ Да |
| Claude Sonnet 4.6 | 1M | $3 | ✅ Да |
| Gemini 3 Pro | 2M | $1.25 | ✅ Да |
| GPT-5 | 128K | $5 | ✅ Да |
| GPT-5.4 mini | 128K | $0.15 | ✅ Да |
Gemini 3 Pro имеет 2M контекст при меньшей цене, но качество работы с длинными документами у Claude значительно выше по данным бенчмарков.
Практические ограничения
Важно понимать, что «1М токенов» не значит «1М токенов мгновенно и дёшево»:
Скорость. Обработка полного 1M-контекста занимает десятки секунд. Для интерактивных применений это слишком долго.
Стоимость. $5/1М input означает $5 за один запрос с полным контекстом. Для регулярного использования нужно считать бюджет.
API-лимиты. Rate limits на Anthropic API по-прежнему существуют, хотя и были увеличены.
Оптимальность RAG. Для многих задач хорошо настроенный RAG всё ещё дешевле и быстрее, чем заливать весь корпус в контекст.
Для кого это меняет всё
Юридические компании. Мгновенный анализ пакетов документов без дорогостоящего RAG-инжиниринга.
Консалтинг. Анализ объёмных отчётов и данных за один вызов модели.
AI-стартапы. Можно строить MVP без инвестиций в сложную векторную инфраструктуру.
Исследователи. Анализ больших корпусов научных статей, расшифровок интервью, исторических документов.
Итог
Anthropic убрала барьер за 1M-контекст — и это важный сигнал всему рынку. Компания конкурирует не только по качеству модели, но и по прозрачности ценообразования. Для разработчиков это означает: можно строить продукты с длинным контекстом без страха неожиданного счёта.
Держите руку на пульсе AI-новостей — подписывайтесь на @AI_and_zarubejka!
Оцените статью
0 реакций📬 Получай новые гайды первым
Раз в неделю, без спама
📚 Похожие статьи

Claude Sonnet 4.6: Anthropic выпустила модель с лучшим в мире Computer Use
Anthropic представила Claude Sonnet 4.6 — модель, которая достигла 72.5% на OSWorld и стала новым стандартом для AI-автоматизации. Разбираем что нового.

Anthropic: $100M на Claude Partner Network и Claude в Microsoft 365 Copilot
Anthropic запустила Claude Partner Network с фондом $100M для партнёров, а Microsoft интегрировала Claude в 365 Copilot через новый Copilot Cowork. Детали стратегии.

Claude приходит в Microsoft 365: что изменится для пользователей
С 7 января 2026 года модели Anthropic включены в Microsoft 365 Copilot по умолчанию. Разбираем, что это значит и как использовать Claude в Word, Excel и PowerPoint.
Комментарии (0)
Обсудить в Telegram💬
Пока нет комментариев. Будьте первым!
💬
Хотите обсудить статью?
Присоединяйтесь к нашему Telegram-каналу для живого общения
Перейти в TelegramНужна помощь с настройкой?
Бесплатная консультация в Telegram. Поможем за 5 минут.
Получить консультацию