Google กำลังอัปเดตเพิ่มฟีเจอร์ใหม่ “Live View” เพียงแค่ผู้ใช้แสดงภาพที่ต้องการทราบกับ Gemini Live จะช่วยแนะนำข้อมูล ตอบคำถามเกี่ยวกับภาพสิ่งต่าง ๆ ที่ผู้ใช้งานต้องการรู้ได้แบบเรียลไทม์
Gemini กำลังเพิ่มฟีเจอร์ “Live View” สำหรับ iOS
Google กำลังเพิ่มฟีเจอร์ใหม่ “Live View” ให้กับแอป Gemini ทั้งบน iOS และ Android โดยผู้ใช้สามารถสตรีมภาพสดจากสิ่งรอบตัวให้ Gemini วิเคราะห์ และให้ข้อมูลหรือคำแนะนำตามภาพที่เห็นได้แบบเรียลไทม์ ฟีเจอร์นี้เริ่มทยอยเปิดให้ใช้งานตั้งแต่วันนี้เป็นต้นไป

ในงาน Google I/O 2025 ช่วงการสาธิตฟีเจอร์ Live View ของ Gemini สามารถระบุวัตถุที่ผู้ใช้กำลังมองเห็นได้อย่างแม่นยำ แก้ไขความเข้าใจผิดเกี่ยวกับวัตถุนั้น ๆ และให้ข้อมูลประกอบโดยตอบคำถามจากผู้ใช้ได้ ฟีเจอร์นี้สามารถระบุวัตถุแบบเรียลไทม์ ช่วยในงาน DIY หรือปรับปรุงบ้าน จัดระเบียบพื้นที่ ช่วยในการช้อปปิ้ง และอื่น ๆ อีกมากมาย
ผู้ใช้ยังสามารถแชร์หน้าจอ iPhone หรือ iPad กับ Gemini เพื่อรับความคิดเห็นหรือคำแนะนำเกี่ยวกับสิ่งที่เห็นทางออนไลน์ได้อีกด้วย ฟีเจอร์ Live นี้ อาจมีประโยชน์อย่างมากสำหรับผู้ที่ตาบอดหรือมีปัญหาทางการมองเห็น เนื่องจากสามารถให้ข้อมูลเสียงแบบเรียลไทม์เกี่ยวกับสิ่งรอบตัว ฟีเจอร์นี้พัฒนาบนพื้นฐานของ Project Astra ซึ่ง Google เคยเปิดตัวตัวอย่างไปแล้วในงาน Google I/O เมื่อปีที่แล้ว และก่อนหน้านี้ได้เปิดให้ใช้บนอุปกรณ์ Pixel แล้ว
Google ยังมีแผนจะเพิ่มความสามารถในการเข้าใจบริบทส่วนตัวให้กับ Gemini เพื่อใช้กับฟีเจอร์ต่าง ๆ เช่น การตอบกลับอีเมลอัตโนมัติใน Gmail โดย Gemini จะสามารถดึงข้อมูลที่เกี่ยวข้องจากแอปต่าง ๆ ของ Google มาใช้เพื่อมอบประสบการณ์ที่เป็นส่วนตัวมากยิ่งขึ้น
ตัวอย่าง เช่น ฟีเจอร์ AI สำหรับการตอบกลับใน Gmail จะสามารถตอบกลับในสไตล์ที่เหมือนกับตัวผู้ใช้เอง โดยระบบจะสแกนอีเมลเก่า ๆ เพื่อเรียนรู้ลักษณะการใช้คำ และสไตล์ของตัวผู้ใช้ นอกจากนี้ยังสามารถดึงข้อมูลจากโน้ต เอกสารใน Google Drive และแหล่งข้อมูลอื่น ๆ เพื่อเติมบริบทให้กับอีเมลได้อีกด้วย
ที่มา: MacRumors