OpenAI เตรียมเปิดให้ใช้งานฟีเจอร์ Advanced Voice Mode ใน ChatGPT
ตอบโต้กับสิ่งที่อยู่บนหน้าจอได้แบบเรียลไทม์
OpenAI ได้เปิดตัวฟีเจอร์ Advanced Voice Mode สำหรับ ChatGPT ซึ่งเป็นฟีเจอร์ที่ได้มีการสาธิตไปเมื่อเกือบ 7 เดือนที่แล้ว ในวันพฤหัสบดีที่ผ่านมา ทางบริษัทได้ประกาศในระหว่างการถ่ายทอดสดว่า Advanced Voice Mode ฟีเจอร์ที่ช่วยให้ ChatGPT สามารถสนทนาแบบเหมือนคนทั่วไป กำลังได้รับการอัพเกรดด้วยการรองรับภาพ ผู้ใช้ที่เป็นสมาชิก ChatGPT Plus, Team หรือ Pro สามารถยกโทรศัพท์และชี้ไปที่วัตถุเพื่อให้ ChatGPT ตอบกลับแบบเรียลไทม์
Advanced Voice Mode ที่มีการรองรับภาพสามารถเข้าใจสิ่งที่แสดงอยู่บนหน้าจอของอุปกรณ์ผ่านการแชร์หน้าจอได้ โดยสามารถอธิบายเมนูการตั้งค่าต่าง ๆ หรือแม้กระทั่งให้คำแนะนำเกี่ยวกับปัญหาคณิตศาสตร์ได้ ฟีเจอร์นี้จะสามารถใช้งานได้โดยการกดไอคอนเสียงที่อยู่ข้าง ๆ ช่องแชทของ ChatGPT จากนั้นให้กดไอคอนวิดีโอที่มุมล่างซ้ายเพื่อเริ่มการใช้งานวิดีโอ และหากต้องการแชร์หน้าจอให้กดเมนูแล้วเลือก Share Screen
การเปิดตัว Advanced Voice Mode ที่รองรับภาพจะพร้อมใช้งานภายในสัปดาห์หน้า แต่ผู้ใช้จะสามารถเข้าถึงฟีเจอร์นี้ได้ไม่พร้อมกัน โดย OpenAI ระบุว่า ผู้ใช้ ChatGPT Enterprise และ Edu จะไม่ได้รับฟีเจอร์นี้จนถึงเดือนมกราคม และยังไม่มีการกำหนดเวลาสำหรับผู้ใช้ ChatGPT ในประเทศในยุโรป เช่น สวิตเซอร์แลนด์ ไอซ์แลนด์ นอร์เวย์ หรือ ลิกเตนสไตน์
ในระหว่างการสาธิตล่าสุดที่รายการ 60 Minutes ของ CNN ประธาน OpenAI Greg Brockman ได้ใช้ Advanced Voice Mode ที่รองรับภาพในการทดสอบทักษะทางกายวิภาคของ Anderson Cooper ซึ่งเมื่อ Cooper วาดร่างร่างกายบนกระดานดำ ChatGPT สามารถเข้าใจสิ่งที่เขากำลังวาดได้ อย่างไรก็ตาม ในการสาธิตเดียวกันนี้ Advanced Voice Mode ที่รองรับภาพได้ทำผิดพลาดในการคำนวณปัญหาทางเรขาคณิต ซึ่งแสดงให้เห็นว่าอาจมีการเกิดข้อผิดพลาดได้บ้าง