ChatGPT ได้รับการอัปเดตครั้งสำคัญหลายรายการ ไม่ว่าคุณจะเป็นผู้ใช้ทั่วไปหรือผู้สร้างคอนเทนต์ที่ต้องพึ่งพา AI อย่างหนัก ฟีเจอร์ใหม่เหล่านี้ก็值得你了解 จากการสนทนาด้วยเสียงที่เป็นธรรมชาติไปจนถึงความเข้าใจแบบ multimodal OpenAI กำลังทำให้ ChatGPT มีความยืดหยุ่นและฉลาดขึ้น บทความนี้จะสรุปฟีเจอร์ใหม่ที่โดดเด่นที่สุด
GPT-4o: โมเดล Multimodal ครบวงจร
การเปิดตัว GPT-4o ถือเป็นการอัปเกรดครั้งสำคัญของ ChatGPT ไม่เพียงรองรับข้อความ แต่ยังสามารถเข้าใจรูปภาพ เสียง และวิดีโอได้โดยตรง ตัวอย่างเช่น คุณสามารถอัปโหลดภาพร่างดีไซน์เพื่อให้ AI แนะนำแนวทางปรับปรุง หรือบันทึกเสียงประชุมแล้วให้ AI สรุปเนื้อหาโดยอัตโนมัติ ความเร็วในการตอบสนองของ GPT-4o ก็เพิ่มขึ้นอย่างมาก เกือบจะเทียบเท่าการสนทนาแบบเรียลไทม์ เมื่อเทียบกับ GPT-4 รุ่นก่อนหน้า มันมีประสิทธิภาพที่คงที่กว่าในงานที่ต้องใช้การคิดเชิงตรรกะและความคิดสร้างสรรค์
值得注意的是 ผู้ใช้ Plus จะได้รับบริการระดับปัญญาที่สูงขึ้น ขณะที่ผู้ใช้ฟรีก็สามารถใช้ GPT-5 ได้ไม่จำกัดจำนวนครั้งในโหมดสติปัญญามาตรฐาน (ต้องระวังกลไกป้องกันการใช้งานผิดรูปแบบ) หากคุณยังไม่ได้ลองใช้ความสามารถ multimodal ของ GPT-4o แนะนำให้เปลี่ยนโมเดลด้วยตนเองในการตั้งค่า ChatGPT
Voice Engine: โคลนเสียงของคุณใน 15 วินาที
Voice Engine จาก OpenAI ทำให้การจำลองเสียงเป็นเรื่องง่าย เพียงให้ตัวอย่างเสียงยาว 15 วินาที ระบบก็สามารถสร้างเอาต์พุตเสียงที่คล้ายคลึงกับเสียงนั้นได้อย่างมาก ฟีเจอร์นี้ไม่เพียงใช้สำหรับผู้ช่วยเสียงส่วนตัว แต่ยังช่วยผู้เรียนภาษาในการฝึกออกเสียง หรือให้ผู้สร้างคอนเทนต์เสียงมีโซลูชันพากย์ที่สะดวก ปัจจุบันฟีเจอร์นี้กำลังทดสอบในบางภูมิภาค แต่ก็แสดงศักยภาพมหาศาล
เมื่อใช้ร่วมกับโหมดเสียงที่ปรับปรุงใหม่ คุณสามารถพูดคุยกับ ChatGPT ด้วยเสียงธรรมชาติได้โดยตรง โดยไม่ต้องพิมพ์คำถาม ปรับน้ำเสียง หรือแม้แต่สนทนาหลายรอบ Sam Altman เคยสัญญาว่าคุณภาพเสียงเวอร์ชันใหม่จะดีขึ้นอย่างเห็นได้ชัด และประสบการณ์จริงก็ราบรื่นและเป็นธรรมชาติมากขึ้น


