ChatGPT недавно получил ряд значительных обновлений, которые стоит изучить — независимо от того, используете вы его время от времени или полностью полагаетесь на ИИ в творчестве. OpenAI делает ChatGPT более гибким и интеллектуальным: от более естественного голосового взаимодействия до мультимодального понимания. В этом материале собраны ключевые новшества, заслуживающие вашего внимания.
GPT-4o: универсальная мультимодальная модель
Выпуск GPT-4o стал важной вехой в развитии ChatGPT. Модель работает не только с текстом, но и напрямую понимает изображения, аудио и видео. Например, вы можете загрузить эскиз дизайна и попросить советы по улучшению, или записать фрагмент совещания — нейросеть сама создаст краткое содержание. Скорость ответа тоже заметно выросла, общение стало почти как в реальном времени. По сравнению с GPT-4, новая модель стабильнее справляется с рассуждениями и творческими задачами.
Важно: пользователи Plus получают доступ к более высокому уровню интеллекта, а бесплатные пользователи могут неограниченно использовать GPT-5 (с учётом мер защиты от злоупотреблений) в стандартном режиме. Если вы ещё не пробовали мультимодальные возможности GPT-4o, рекомендуйте вручную переключить модель в настройках ChatGPT.
Голосовой движок: клонирование голоса за 15 секунд
Голосовой движок (Voice Engine) от OpenAI делает копирование голоса невероятно простым. Достаточно 15-секундного аудиосэмпла — и система сгенерирует речь, максимально похожую на исходный голос. Функция пригодится не только для персональных голосовых помощников, но и для изучения языков (коррекция произношения) или озвучки контента. Пока инструмент тестируется в отдельных регионах, но уже демонстрирует огромный потенциал.
В сочетании с обновлённым голосовым режимом вы можете общаться с ChatGPT естественной речью без набора текста: задавать вопросы, менять интонацию, вести многораундовые диалоги. Сэм Альтман обещал значительное улучшение качества голоса — на практике он стал действительно более плавным и естественным.


