
Google เริ่มปล่อยฟีเจอร์ AI ใหม่ใน Gemini Live ที่ช่วยให้ระบบเห็นหน้าจอหรือผ่านกล้องและตอบคำถามเกี่ยวกับสิ่งเหล่านั้นแบบเรียลไทม์ Alex Joseph โฆษกของ Google ยืนยันในฟีเจอร์เหล่านี้มาพร้อมกับ Project Astra ที่ Google สาธิตเมื่อเกือบปีที่แล้ว
ผู้ใช้ Reddit รายหนึ่งระบุว่าฟีเจอร์นี้ปรากฏบนสมาร์ทโฟน Xiaomi ของพวกเขา นอกจากนี้ผู้ใช้คนเดียวกันโพสต์วิดีโอที่แสดงความสามารถใหม่ของ Gemini ในการอ่านหน้าจอ นี่เป็นหนึ่งในสองฟีเจอร์ที่ Google กล่าวในต้นเดือนมีนาคมว่าจะเริ่มปล่อยให้กับสมาชิก Gemini Advanced ในแผน Google One AI Premium ในปลายเดือนนี้
A short demo of Project Astra (Share screen with Live)
byu/Kien_PS inBard
ความสามารถอีกอย่างของ Astra ที่กำลังปล่อยออกมาคือ Live Video ซึ่งช่วยให้ Gemini ตีความภาพจากกล้องสมาร์ทโฟนแบบเรียลไทม์และตอบคำถามเกี่ยวกับภาพนั้น ในวิดีโอสาธิตที่ Google ปล่อยออกมาในเดือนนี้ มีการใช้ฟีเจอร์นี้เพื่อขอให้ Gemini ช่วยตัดสินใจเลือกสีทาสำหรับเครื่องปั้นดินเผาที่เพิ่งเคลือบ
การปล่อยฟีเจอร์เหล่านี้ของ Google เป็นตัวอย่างล่าสุดของความได้เปรียบด้านผู้ช่วย AI ขณะที่ Amazon กำลังเตรียมเปิดตัว Alexa Plus แบบจำกัด และ Apple เลื่อนการอัปเกรด Siri ทั้งคู่ควรมีความสามารถคล้ายกับสิ่งที่ Astra เริ่มเปิดใช้งานในตอนนี้ ในขณะที่ Samsung ยังมี Bixby แต่ Gemini ก็ยังเป็นผู้ช่วยเริ่มต้นบนสมาร์ทโฟนเช่นเคย