SHORT CUT
Google ประกาศเพิ่มฟีเจอร์สำคัญให้ Google Lens สองฟีเจอร์ ซึ่งใช้ความสามารถของ AI มากขึ้น ได้แก่ ถามด้วยเสียง ไม่ต้องพิมพ์แล้ว และ รองรับเสิร์ชด้วยคลิปวิดีโอ
Google ประกาศฟีเจอร์ค้นหาด้วยเสียงและวิดีโอสำหรับ Google Lens ในงาน I/O 2024 เมื่อเดือนพฤษภาคม 2024 ที่ผ่านมา และล่าสุดบริษัทได้นำฟีเจอร์เหล่านี้มาใช้ใน Google Lens แล้ว นี่คืออีกหนึ่งสิ่งที่บอกว่า กระแส AI คงมีอะไรมาต้านทานได้อย่างจริงๆ
ซึ่ง ตัว Google Lens ปัจจุบันมีความนิยมมากขึ้นเรื่อยๆ มีคนเสิร์ชเกือบ 20,000 ล้านครั้ง ในแต่ละเดือนเลยทีเดียว
1. Voice questions in Lens - ผู้ใช้งาน Google Lens สามารถใช้เสียงพูด ถามคำถามร่วมกับภาพถ่ายจาก Google Lens ได้แล้ว (จากสมัยก่อนนั้นจะต้องพิมพ์ถามเอา)
วิธีการคือกดปุ่ม shutter ใน Lens ค้างไว้แล้วพูดคำถามได้เลย ตอนนี้ยังรองรับเฉพาะภาษาอังกฤษเท่านั้น
2. Video understanding in Lens จากเดิมที่ Google Lens รองรับเฉพาะการถ่ายภาพนิ่งเพื่อไปค้นหา ตอนนี้รองรับการถ่ายคลิปวิดีโอแล้ว
โดยจากตัวอย่างที่ Google นำมาโชว์คือถ่ายคลิปปลาที่ว่ายน้ำเป็นฝูง แล้วถามคำถามด้วยเสียงพูดว่า “why are they swimming together?” ได้เลย ตอนนี้ยังรองรับเฉพาะภาษาอังกฤษเช่นกัน
ฟีเจอร์ทั้งสองอย่างใช้งานได้แล้วทั่วโลกในแอพ Google ทั้งบน Android และ iOS แต่ต้องเปิดใช้งานในหน้า Search Labs > AI Overviews and more ก่อน
ก่อนหน้านี้ ในช่วงต้นปี Google เพิ่งอัพเดตฟีเจอร์ Multisearch ซึ่งเป็นเครื่องมือในการช่วยให้ผู้ใช้สามารถค้นหารูปภาพและเพิ่มข้อความเพื่อปรับแต่งผลการค้นหาได้ โดยที่ตัวอย่างการทำงานจากคลิปจะเห็นว่าผู้ใช้สามารถค้นหารูปภาพและปรับแต่งผลลัพธ์เพิ่มเติมได้โดยใช้ Lens จากนั้นค่อยเพิ่มการค้นหาด้วยข้อความเพื่อระบุสไตล์อื่น