Назад
Новости14 марта 20267 мин

Claude 1M контекст GA: Anthropic убирает наценку за длинный контекст

13 марта 2026 Anthropic объявила о переходе 1M-токенного контекста в general availability для Opus 4.6 и Sonnet 4.6 без доплат. Что это меняет для разработчиков?

Claude 1M контекст GA: Anthropic убирает наценку за длинный контекст

Claude 1M контекст GA: Anthropic убирает наценку за длинный контекст

13 марта 2026 года Anthropic сделала неожиданно щедрый шаг: 1 миллион токенов контекста перешёл в general availability для Claude Opus 4.6 и Claude Sonnet 4.6 без какой-либо наценки. Стандартные цены, стандартный API — просто отправляй 1М токенов и плати по обычному тарифу.

Что именно объявила Anthropic

До 13 марта 1M-контекст у Claude был доступен в ограниченном бета-режиме с premium-наценкой для enterprise-клиентов. Теперь:

  • Claude Opus 4.6: $5/$25 за 1М токенов (input/output) — полная 1M-окно по стандартной цене
  • Claude Sonnet 4.6: $3/$15 за 1М токенов — аналогично
  • Медиа-лимиты: расширены до 600 изображений или PDF-страниц на один вызов
  • Никакой premium за длину: раньше запросы с большим контекстом могли стоить в 2–5x дороже

По данным Anthropic, Claude Opus 4.6 показывает 78.3% на MRCR v2 (Multi-hop Recall and Comprehension) — метрике для оценки качества работы с длинными документами. Для сравнения, Gemini 3 Pro набирает 26.3% на том же бенчмарке.

Почему 1M токенов — это важно

Миллион токенов — это примерно:

  • 750 000 слов обычного текста
  • Весь роман «Война и мир» + ещё несколько книг
  • 100–150 крупных PDF-документов
  • 10 000–15 000 строк кода в большом проекте
  • Несколько часов расшифровки переговоров или звонков

В корпоративных применениях это открывает сценарии, которые раньше требовали сложных систем чанкинга и RAG:

Анализ контрактов. Загружаешь весь пакет юридических документов — контракты, приложения, переписку — и спрашиваешь Claude найти противоречия или риски. Раньше нужно было делать это по частям или строить сложный pipeline.

Аудит кода. Можно передать весь репозиторий среднего размера и попросить найти security-уязвимости, понять архитектуру или предложить рефакторинг.

Корпоративные отчёты. Годовые отчёты, финансовые документы, рыночная аналитика — всё в одном контексте для глубокого анализа.

Медицинские записи. История болезни пациента за годы, вся документация — без разбивки на куски.

Как это работает технически

Трансформерные модели исторически страдают от проблемы «середины контекста» (lost in the middle): информация в начале и конце документа обрабатывается хорошо, а из середины длинного документа детали теряются.

Anthropic решала эту проблему несколько лет. Высокий MRCR v2 (78.3%) показывает, что Claude действительно работает с длинным контекстом, а не просто принимает его.

Технические детали архитектуры Anthropic не раскрывает, но известно, что используются:

  • Специальные позиционные эмбеддинги для длинных последовательностей
  • Оптимизированное внимание (attention) с механизмами сжатия
  • Post-training alignment именно под long-context задачи

Сравнение с конкурентами

МодельМакс. контекстЦена (input/1М)Long-context без наценки
Claude Opus 4.61M$5✅ Да
Claude Sonnet 4.61M$3✅ Да
Gemini 3 Pro2M$1.25✅ Да
GPT-5128K$5✅ Да
GPT-5.4 mini128K$0.15✅ Да

Gemini 3 Pro имеет 2M контекст при меньшей цене, но качество работы с длинными документами у Claude значительно выше по данным бенчмарков.

Практические ограничения

Важно понимать, что «1М токенов» не значит «1М токенов мгновенно и дёшево»:

Скорость. Обработка полного 1M-контекста занимает десятки секунд. Для интерактивных применений это слишком долго.

Стоимость. $5/1М input означает $5 за один запрос с полным контекстом. Для регулярного использования нужно считать бюджет.

API-лимиты. Rate limits на Anthropic API по-прежнему существуют, хотя и были увеличены.

Оптимальность RAG. Для многих задач хорошо настроенный RAG всё ещё дешевле и быстрее, чем заливать весь корпус в контекст.

Для кого это меняет всё

Юридические компании. Мгновенный анализ пакетов документов без дорогостоящего RAG-инжиниринга.

Консалтинг. Анализ объёмных отчётов и данных за один вызов модели.

AI-стартапы. Можно строить MVP без инвестиций в сложную векторную инфраструктуру.

Исследователи. Анализ больших корпусов научных статей, расшифровок интервью, исторических документов.

Итог

Anthropic убрала барьер за 1M-контекст — и это важный сигнал всему рынку. Компания конкурирует не только по качеству модели, но и по прозрачности ценообразования. Для разработчиков это означает: можно строить продукты с длинным контекстом без страха неожиданного счёта.


Держите руку на пульсе AI-новостей — подписывайтесь на @AI_and_zarubejka!

AnthropicClaudeКонтекстAPIOpus 4.6

Понравилась статья? Поделись с друзьями!

Поделиться:

Оцените статью

0 реакций

📬 Получай новые гайды первым

Раз в неделю, без спама

Комментарии (0)

Обсудить в Telegram

Комментарии модерируются

💬

Пока нет комментариев. Будьте первым!

💬

Хотите обсудить статью?

Присоединяйтесь к нашему Telegram-каналу для живого общения

Перейти в Telegram

Нужна помощь с настройкой?

Бесплатная консультация в Telegram. Поможем за 5 минут.

Получить консультацию