แม้ว่า iPhone จะมีแอป AI อัจฉริยะเกือบทั้งหมดจากผู้บุกเบิก AI รายใหญ่ ๆ แต่สิ่งที่ยังขาดไปคือ การผสานรวม AI ในระดับลึก นี่คือ 7 ฟีเจอร์จากผู้นำด้าน AI ที่หากถูกฝังเข้าไปในระบบของ iPhone 17 จะสร้างความฮือฮาอย่างมาก
7 ฟีเจอร์ AI ที่ iPhone 17 ควรเอาอย่าง Google, OpenAI etc.
1. โหมดเสียง (Voice Mode) ของ ChatGPT
Voice Mode ของ OpenAI ใน ChatGPT ทำงานได้แบบที่หลายคนอยากให้ Siri บน iPhone ทำมาตลอด เพียงแค่เปิดขึ้นมาแล้วเริ่มพูดด้วยภาษาธรรมชาติ มันก็สามารถตอบคำถาม ค้นหาข้อมูล และแม้กระทั่งทำบางคำสั่งได้ทันที
หาก Apple พัฒนาฟีเจอร์แบบนี้ขึ้นมาเอง หรือจับมือกับ OpenAI ก็อาจทำให้เกิด การผสานรวมที่ลึกกว่า ครอบคลุมทั้งปฏิทิน อีเมล ข้อความบันทึก การตั้งค่า และงานต่าง ๆ ของระบบปฏิบัติการ (พร้อมมาตรการคุ้มครองความเป็นส่วนตัวของ Apple)
ในทำนองเดียวกัน Google ก็มี Gemini Live และ Microsoft ก็มี Copilot Voice อยู่แล้ว ดังนั้น Apple จำเป็นต้องเดินหน้าอย่างจริงจังเพื่อให้ iPhone ตามทันคู่แข่ง
2. Pro Res Zoom ของ Pixel 10
หนึ่งในฟีเจอร์เด่นของ Google Pixel 10 Pro คือระบบ Pro Res Zoom ที่ใช้ AI เข้ามาช่วยยกระดับคุณภาพการซูมภาพถ่ายและวิดีโอได้อย่างเหนือชั้น แม้จะซูมในระยะไกล ภาพก็ยังคงคมชัด รายละเอียดไม่แตกเหมือนการซูมดิจิทัลทั่วไป
ความล้ำของมันอยู่ที่การผสานระหว่าง ฮาร์ดแวร์กล้อง + ซอฟต์แวร์ประมวลผลภาพ + AI เพื่อสร้างภาพที่ใกล้เคียงกับการซูมแบบออปติคัล (Optical Zoom) มากที่สุด ซึ่งช่วยให้การถ่ายภาพจากระยะไกล เช่น คอนเสิร์ต กีฬา หรือวิวทิวทัศน์ ออกมาคมชัดโดยไม่ต้องพึ่งเลนส์เทเลโฟโต้ขนาดใหญ่
ถ้า iPhone 17 นำเทคโนโลยีลักษณะนี้มาปรับใช้ ก็จะช่วยให้ผู้ใช้ได้ ประสบการณ์การถ่ายภาพที่ก้าวกระโดด โดยเฉพาะอย่างยิ่งสำหรับคนที่ใช้ iPhone รุ่นธรรมดา (ไม่ใช่ Pro Max) ที่มักจะไม่ได้ฟีเจอร์ซูมเทพ ๆ แบบรุ่นท็อป
3. Magic Cue ของ Google
เมื่อปีที่แล้วในงาน WWDC 2024 Apple เคยโปรโมตฟีเจอร์ Personal Intelligence อย่างยิ่งใหญ่ โดยบอกว่ามันจะสามารถเข้าใจคำถามและคำสั่งของคุณได้ เพราะเข้าถึงข้อมูลส่วนตัวจาก ปฏิทิน อีเมล ข้อความ และข้อมูลอื่น ๆ ที่ถูกเก็บไว้อย่างปลอดภัยในระบบของ Apple
ในคีย์โน้ต Apple ยกตัวอย่างเช่น คำสั่งว่า “เปิดไฟล์ที่ Joz แชร์ให้ฉันเมื่อสัปดาห์ที่แล้ว”
หรือการแจ้งเตือนแบบเรียลไทม์ว่า “การนัดหมายที่คุณกำลังจะเลื่อนเวลา อาจทับกับเวลาที่ต้องไปรับลูกจากกิจกรรมประจำ”
แต่สุดท้ายแล้ว Apple ยังไม่เคยปล่อยฟีเจอร์นี้ออกมาใช้จริง
ในขณะที่ Google ทำสำเร็จแล้ว ด้วยการเปิดตัว Magic Cue ใน Pixel 10 ฟีเจอร์นี้ช่วยประหยัดเวลาในการสลับไปมาระหว่างหลายแอป เพราะมันรู้จักคุณมากพอที่จะช่วย “ดึงข้อมูลที่เกี่ยวข้อง” มาแสดงตรงจุดที่คุณต้องการ
ตัวอย่างที่ Google ยกมา เช่น มีคนส่งข้อความมาถามว่า “มื้อเย็นจองไว้กี่โมงนะ” — Magic Cue จะใช้ข้อมูลจากอีเมลยืนยันการจองใน Gmail ขึ้นมาแสดงตรงในแอปข้อความทันที และคุณแค่แตะครั้งเดียวก็สามารถส่งคำตอบกลับไปได้เลย
4. Deep Research จาก Anthropic
หนึ่งในวิธีที่ AI เชิงสร้างสรรค์ (Generative AI) ช่วยประหยัดเวลาได้มากที่สุดสำหรับผม คือการใช้มันเป็น ผู้ช่วยวิจัย
หลายแอป AI ตอนนี้มีฟีเจอร์ Deep Research ที่ให้คุณสามารถถามคำถามเชิงลึกเกี่ยวกับหัวข้อซับซ้อน แล้วปล่อยให้ AI ใช้เวลาเพิ่ม (ปกติ 5–30 นาที) เพื่อค้นหาข้อมูลจากแหล่งที่มีอยู่ จากนั้นนำคำตอบกลับมาพร้อมลิงก์อ้างอิงอย่างชัดเจน
5. Best Take จาก Google Photos
Google เปิดตัวฟีเจอร์ Best Take ครั้งแรกบน Pixel 8 เมื่อปี 2023 และล่าสุดก็อัปเกรดครั้งใหญ่ใน Pixel 10 ฟีเจอร์นี้เกิดจากการทำงานร่วมกันของทีม Google Pixel, Google Photos และ Google Research เพื่อแก้ปัญหาคลาสสิกที่เรียกว่า “กลุ่มภาพถ่ายที่ไม่ลงตัว” หรือ group shot dilemma
ฟีเจอร์ Best Take จะใช้ภาพถ่ายหลายใบที่ถ่ายต่อเนื่องกันของกลุ่มคน ซึ่งในแต่ละภาพมักจะมีบางคน ลืมตาไม่ทัน มองไปทางอื่น หรือทำหน้าตาแปลก ๆ จากนั้นระบบจะเลือก ส่วนที่ดีที่สุดของแต่ละคน มาผสานรวมเป็นภาพกลุ่มที่ดูดีและใช้งานได้จริง
ใน Pixel 10 มีการเพิ่มฟีเจอร์ใหม่ที่ชื่อว่า “Auto Best Take” ซึ่งทำงานอัตโนมัติอยู่เบื้องหลัง และสร้างภาพ Best Take ให้คุณทันทีโดยไม่ต้องเลือกเอง
6. การรองรับภาษาที่กว้างขึ้นมาก
หนึ่งในข้อจำกัดสำคัญของ AI บน iPhone ปัจจุบันคือ การรองรับภาษาที่จำกัด ในขณะที่คู่แข่งอย่าง Google และ OpenAI กำลังขยายการรองรับหลายภาษาอย่างรวดเร็ว ทำให้ผู้ใช้ทั่วโลกสามารถเข้าถึงฟีเจอร์ AI ได้เต็มประสิทธิภาพ
การเพิ่มการรองรับภาษาให้กว้างขึ้น จะช่วยให้ผู้ใช้ iPhone สามารถใช้ Siri หรือฟีเจอร์ AI ในภาษาของตัวเองได้อย่างเป็นธรรมชาติ รับคำตอบที่แม่นยำและปรับตามวัฒนธรรมท้องถิ่น
ทำให้ iPhone แข่งขันได้เทียบเท่ากับอุปกรณ์ Android และระบบ AI ของคู่แข่งในตลาดโลก ฟีเจอร์นี้จึงไม่ใช่แค่เรื่อง “สะดวก” แต่เป็น กลยุทธ์สำคัญในการเข้าถึงผู้ใช้ทั่วโลก
ความสามารถด้านการแปลภาษาที่ก้าวหน้ามากขึ้น
หนึ่งในความสามารถที่ล้ำที่สุดของ large language models (LLM) คือการ แปลระหว่างภาษาต่าง ๆ เราได้เห็นทั้ง สมาร์ตโฟน และ แว่นอัจฉริยะ (smart glasses) ใช้ฟีเจอร์นี้แล้ว — เช่น Meta Ray-Bans, Solos AirGo 3, Even Realities G1 และ The Frame จาก Brilliant Labs
แว่นอัจฉริยะบางรุ่น รวมถึงแอปบนสมาร์ทโฟนหลายตัว สามารถแปลภาษาต่าง ๆ ได้ หลายสิบภาษา ขณะที่ Google Translate รองรับมากกว่า 100 ภาษา
การนำความสามารถแบบนี้มาผนวกกับ iPhone 17 จะช่วยให้ผู้ใช้สามารถ สื่อสารและเข้าใจเนื้อหาภาษาต่างประเทศได้ทันที โดยไม่ต้องพึ่งแอปแปลแยก ทำให้ iPhone มีความสามารถด้าน AI ที่ครอบคลุมและทันสมัยมากขึ้น
Apple ยังคงตามหลังคู่แข่งอยู่ เพราะ Apple Translate ปัจจุบันรองรับแค่ 20 ภาษา เท่านั้น หาก Apple นำพลังของ large language models (LLM) มาใช้ ก็สามารถเพิ่มจำนวนภาษาที่รองรับได้อย่างมาก
และผสานเข้ากับ Siri และฟีเจอร์ AI อื่น ๆ เช่น การแปลแบบเรียลไทม์ในการโทรศัพท์และข้อความ รวมถึง Visual Intelligence ทำให้ผู้ใช้สามารถสื่อสารและเข้าใจเนื้อหาภาษาต่างประเทศได้อย่างราบรื่น
7. การแก้ไขภาพแบบสนทนา (Conversational Photo Editing)
ฟีเจอร์นี้มาจาก Googleฟีเจอร์ที่ถือว่า เซอร์ไพรส์ที่สุด ใน Pixel 10 คือ Conversational Editing ใน Google Photos ซึ่งช่วยให้คุณ อธิบายการแก้ไขภาพที่ต้องการเป็นคำพูด แล้ว AI จะทำการปรับแก้ให้โดยอัตโนมัติ ตัวอย่างเช่น คุณสามารถให้ AI:
- ย้ายตัวแบบในภาพ
- ลบแสงสะท้อนหรือแสงจ้า
- จัดวัตถุให้อยู่ตรงกลางใหม่
- เปลี่ยนพื้นหลัง
- เพิ่มเมฆในท้องฟ้าสีฟ้า
- ปรับความเบลอของพื้นหลังมากหรือน้อยและอื่น ๆ อีกมากมาย
ฟีเจอร์ AI เหล่านี้ นับว่าเป็นสิ่งที่ช่วยให้การใช้งานด้านต่าง ๆ ของผู้ใช้ ง่ายขึ้น สะดวกขึ้น โดยเฉพาะด้านภาษา ที่หาก Apple สามารถผสานฟีเจอร์เหล่านี้กับระบบได้ คงจะดีไม่น้อยครับ เพื่อน ๆ คิดเห็นอย่างไร สามารถแบ่งปันคำตอบกันได้ครับ
ที่มา: zdnet