
ฟีเจอร์ใหม่ Gemini Live ที่ให้ AI ตอบคำถามเกี่ยวกับสิ่งที่เห็นผ่านกล้องหรือหน้าจอ เริ่มทยอยอัปเดตให้ผู้ใช้ Pixel 9 และ Samsung Galaxy S25 แล้ว โดยจะขยายไปยังอุปกรณ์ Android อื่นในเร็ว ๆ นี้ แต่จำเป็นต้องสมัครสมาชิก Gemini Advanced จึงจะใช้งานได้
ผู้ใช้สามารถกดปุ่มเพื่อเปิดใช้งานฟังก์ชัน Live แล้วถามคำถามเกี่ยวกับสิ่งที่กล้องเห็น เช่น ชี้ไปที่ตู้ปลาและสอบถามเกี่ยวกับชนิดปลา หรือแชร์หน้าจอเว็บเพื่อขอคำแนะนำการเปรียบเทียบสินค้า

ตามที่ Alex Joseph โฆษกของ Google ยืนยันกับ The Verge ฟีเจอร์นี้เริ่มปล่อยให้ผู้ใช้บางส่วนแล้ว โดยมีผู้ใช้ Reddit รายงานว่าพบบนอุปกรณ์ Xiaomi ด้วย หลังจากที่ Google สาธิตความสามารถนี้ครั้งแรกในงาน I/O เมื่อเดือนพฤษภาคมภายใต้ชื่อ Project Astra
Gemini Live พร้อมให้บริการ 45 ภาษาในบางประเทศ สำหรับผู้ใช้ที่มีอายุ 18 ปีขึ้นไป ไม่รวมบัญชีการศึกษาและองค์กร โดยฟีเจอร์นี้แสดงถึงความก้าวหน้าสำคัญของ Google ในการพัฒนา AI ที่เข้าใจบริบทจากภาพและวิดีโอแบบเรียลไทม์