SHORT CUT
Apple เปิดตัวฟีเจอร์ใหม่ Eye Tracking การติดตามดวงตาที่จะช่วยให้ผู้พิการควบคุม iPad หรือ iPhone ได้ด้วยการใช้ดวงตาเพียงอย่างเดียว ซึ่งแอปเปิลนำเทคโนโลยี AI เข้ามาทำให้การใช้งานง่ายขึ้น
Apple เปิดตัวฟีเจอร์ Eye Tracking หรือการติดตามดวงตาแล้วอย่างเป็นทางการ การติดตามดวงตาซึ่งขับเคลื่อนโดยปัญญาประดิษฐ์ ช่วยให้ผู้ใช้มีตัวเลือกบนอุปกรณ์ในการไปยังส่วนต่างๆ บน iPad และ iPhone ด้วยการใช้ดวงตาเพียงอย่างเดียว
ฟีเจอร์ Eye Tracking นี้ถูกออกแบบมาเพื่อผู้ใช้ที่มีความบกพร่องทางร่างกายโดยเฉพาะ โดยผู้ใช้สามารถใช้กล้องหน้าในการตั้งค่าและปรับเทียบได้ภายในไม่กี่วินาที
การติดตามดวงตา (Eye Tracking) ใช้งานได้กับแอปฯ iPadOS และ iOS โดยไม่ต้องใช้อุปกรณ์เสริมใดๆ ผู้ใช้สามารถใช้การติดตามดวงตาเพื่อเลื่อนผ่านองค์ประกอบต่างๆ ของแอปฯ
ผู้ใช้ไอโฟนหรือไอแพดยังสามารถใช้ Dwell Control หรือการควบคุมการอยู่นิ่งเพื่อเปิดใช้งานแต่ละองค์ประกอบ เข้าถึงฟังก์ชั่นเพิ่มเติม เช่น ปุ่มจริง การปัด และคำสั่งนิ้วอื่นๆ โดยใช้ดวงตาเพียงอย่างเดียว
เท่านั้นยังไม่พอ Apple ยังได้เปิดตัว Music Haptics ช่วยให้ผู้ใช้ที่หูหนวกหรือมีปัญหาในการได้ยินสามารถเพลิดเพลินกับเสียงเพลงบน iPhone ในรูปแบบใหม่ เมื่อเปิดใช้งานคุณสมบัติการช่วยการเข้าถึงนี้ Taptic Engine ใน iPhone จะเล่นการแตะ ผิวสัมผัส และการสั่นที่ได้รับการปรับแต่งให้เข้ากับเสียงเพลง
เห็นได้ว่า Apple ใส่ใจในเรื่องความสะดวกสบายต่อผู้บกพร่องทางร่างกายมาก ซึ่งฟีเจอร์ต่างๆเชื่อว่าจะมีมากขึ้นอย่างมาก ด้วยเทคโนโลยี AI ที่จะมาบน iOS 18 คาดว่าจะตอบโจทย์การใช้งานของผู้ใช้แอปเปิลได้เป็นอย่างดี
ในอนาคตอีกไม่กี่ปี เราอาจไม่จำเป็นต้องใช้นิ้วมือสัมผัสหน้าจอเสมอไป เห็นได้ชัดจากเทคโนโลยี VR บน Vision Pro ที่สามารถทำงาน, ชมเนื้อหาคอนเทนต์ได้โดยแค่จีบนิ้ว ซึ่งฟีเจอร์ Eye Tracking ก็น่าสนใจมากว่าจะเสถียรและใช้งานได้ดีมากแค่ไหน
ที่มา : Apple