В этом обновлении Claude Sonnet 3.5 акцент сделан не на том, что он «лучше болтает», а на том, что он лучше подходит для внедрения в API и повседневные процессы разработки: сам модельный движок стал сильнее, вывод — длиннее, консоль — удобнее. Ниже разберём по пунктам самые важные изменения в Claude Sonnet 3.5 и объясним их.
Claude Sonnet 3.5: более сильное позиционирование как модели среднего класса
Claude Sonnet 3.5 официально определён как «последняя версия» и по ряду оценок превосходит модели конкурентов и Claude Opus 3, при этом сохраняя преимущества среднего класса по скорости и стоимости. Для команд, которым важно одновременно качество и бюджет, смысл Claude Sonnet 3.5 в том, что: не обязательно сразу переходить на более дорогой уровень — можно получить качество ответов, более близкое к флагманскому.
Если вы делаете такие высокочастотные задачи, как распределение обращений в поддержке, генерация контента, помощь с кодом или суммаризация документов, Claude Sonnet 3.5 обычно выгоднее, чем «навалить модель побольше», и его проще стабильно вывести в прод.
Максимальный вывод в API удвоен: с 4096 до 8192 токенов
В Claude Sonnet 3.5 максимальный лимит выходных токенов в API увеличен вдвое — с 4096 до 8192. Длинный вывод лучше подходит для задач вроде «многочастного резюме», «структурированного отчёта», «генерации большого фрагмента кода», «выдачи финального решения после многократных рассуждений», и помогает уменьшить переделки из‑за обрыва ответа на середине.
Чтобы включить расширенный вывод, нужно добавить в запрос заголовок: anthropic-beta: "max-tokens-3-5-sonnet-2024-07-15". На практике всё равно рекомендуется задавать разумные значения max_tokens и условия остановки, чтобы не принимать ненужную многословность за «большую умность».
В Workbench добавлен генератор подсказок: сначала напишите Prompt правильно
Claude Console Workbench усилил функцию «генератора подсказок»: вам достаточно описать задачу (например, «классифицировать входящие запросы в службу поддержки»), и Workbench поможет сгенерировать более полный, более качественный и переиспользуемый промпт. Для команд, которые не хотят снова и снова методом проб и ошибок заниматься prompt-инжинирингом, это изменение заметно сокращает путь от идеи до рабочего промпта.


