svasdssvasds

ChatGPT อัปเดตล่าสุด แค่ใช้มือถือส่อง ก็ดูและตอบโต้วิดีโอแบบเรียลไทม์ได้

ChatGPT อัปเดตล่าสุด แค่ใช้มือถือส่อง ก็ดูและตอบโต้วิดีโอแบบเรียลไทม์ได้

OpenAI ได้เปิดตัวฟีเจอร์การสนทนาด้วยเสียงที่มีความสามารถในการมองเห็นใน ChatGPT ซึ่งเป็นการพัฒนาที่ถูกสาธิตเมื่อประมาณ 7 เดือนที่แล้ว ในการถ่ายทอดสดเมื่อวันพฤหัสบดีที่ผ่านมา

SHORT CUT

  • OpenAI เปิดตัวฟีเจอร์ใหม่ ChatGPT ด้วยโหมด Advanced Voice Mode  ที่ผู้ใช้สามารถดูและตอบโต้วิดีโอได้แบบเรียลไทม์
  • OpenAI เพิ่มความสนุกด้วย "Santa Mode" เสียงซานต้า เป็นเสียง preset ในแอป ChatGPT เพื่อมอบประสบการณ์ใหม่ให้ผู้ใช้
  • ฟีเจอร์เริ่มเปิดให้ใช้งานตั้งแต่วันพฤหัสบดี โดยผู้ใช้ Plus, Team และ Pro สามารถเข้าถึงได้ทันที แต่ Enterprise และ Edu รวมถึงบางประเทศในยุโรปยังต้องรอ

OpenAI ได้เปิดตัวฟีเจอร์การสนทนาด้วยเสียงที่มีความสามารถในการมองเห็นใน ChatGPT ซึ่งเป็นการพัฒนาที่ถูกสาธิตเมื่อประมาณ 7 เดือนที่แล้ว ในการถ่ายทอดสดเมื่อวันพฤหัสบดีที่ผ่านมา

โดยบริษัทได้ประกาศว่าฟีเจอร์ Advanced Voice Mode ซึ่งเป็นฟีเจอร์การสนทนาที่เหมือนมนุษย์ของ ChatGPT กำลังจะมีการเพิ่มความสามารถในการมองเห็น โดยผู้ใช้ที่สมัครสมาชิก ChatGPT Plus, Team หรือ Pro สามารถใช้โทรศัพท์ชี้ไปที่วัตถุและให้ ChatGPT วิเคราะห์และตอบโต้แบบเรียลไทม์ได้

จุดเด่นของฟีเจอร์ Advanced Voice Mode

Advanced Voice Mode with Vision ไม่เพียงแต่สามารถตอบสนองต่อวัตถุที่อยู่ในกล้องเท่านั้น แต่ยังสามารถเข้าใจสิ่งที่ปรากฏบนหน้าจอของอุปกรณ์ผ่านการแชร์หน้าจอได้อีกด้วย เช่น การอธิบายเมนูการตั้งค่าต่างๆ หรือให้คำแนะนำในการแก้โจทย์คณิตศาสตร์

วิธีการใช้งาน ChatGPT อัปเดตล่าสุด 

ทำได้ง่ายๆ เพียงแตะไอคอนเสียงข้างแถบแชทของ ChatGPT จากนั้นแตะไอคอนวิดีโอที่มุมซ้ายล่างเพื่อเริ่มใช้งานกล้อง หากต้องการแชร์หน้าจอ ให้แตะเมนูสามจุดและเลือก "Share Screen"

ChatGPT อัปเดตล่าสุด แค่ใช้มือถือส่อง ก็ดูและตอบโต้วิดีโอแบบเรียลไทม์ได้

OpenAI ได้ระบุว่า การเปิดตัวฟีเจอร์ Advanced Voice Mode with Vision จะเริ่มในวันพฤหัสบดีและจะเสร็จสิ้นภายในสัปดาห์หน้า อย่างไรก็ตาม ไม่ผู้ใช้ทุกคนจะสามารถเข้าถึงฟีเจอร์นี้ได้ โดยผู้ใช้ ChatGPT Enterprise และ Edu จะต้องรอจนถึงเดือนมกราคม ส่วนผู้ใช้ในสหภาพยุโรป สวิตเซอร์แลนด์ ไอซ์แลนด์ นอร์เวย์ และลิกเตนสไตน์ ยังไม่มีกำหนดการที่แน่ชัด

การสาธิตใช้ฟีเจอร์ Advanced Voice Mode

ในการสาธิตล่าสุดทาง CNN รายการ "60 Minutes" เกร็ก บร็อคแมน ประธาน OpenAI ได้ใช้ Advanced Voice Mode with Vision ถามแอนเดอร์สัน คูเปอร์เกี่ยวกับทักษะทางกายวิภาคของเขา

ขณะที่คูเปอร์วาดส่วนต่าง ๆ ของร่างกายบนกระดานดำ ChatGPT สามารถ “เข้าใจ” สิ่งที่เขากำลังวาดได้ “ตำแหน่งนั้นถูกต้องมาก,” ChatGPT ตอบโต้

“สมองอยู่ในหัว ส่วนรูปร่างนั้นก็เริ่มดีแล้ว สมองมีลักษณะคล้ายรูปไข่” แม้ว่าในระหว่างการสาธิตเดียวกันนี้ Advanced Voice Mode with Vision จะมีความผิดพลาดบ้างในการแก้โจทย์เรขาคณิต

ฟีเจอร์นี้เคยถูกเลื่อนการเปิดตัวหลายครั้ง เนื่องจาก OpenAI ประกาศก่อนที่จะพัฒนาเสร็จสมบูรณ์ ในเดือนเมษายน บริษัทสัญญาว่าจะเปิดให้ใช้งาน "ภายในไม่กี่สัปดาห์" แต่ต้องใช้เวลานานกว่าที่คาด

คู่แข่งอย่าง Google และ Meta ก็กำลังพัฒนาความสามารถที่คล้ายกัน โดย Google เพิ่งเปิดตัว Project Astra ให้กลุ่มผู้ทดสอบบน Android ได้ใช้งาน

ChatGPT อัปเดตล่าสุด แค่ใช้มือถือส่อง ก็ดูและตอบโต้วิดีโอแบบเรียลไทม์ได้

นอกจากนี้ OpenAI ยังได้เปิดตัว “Santa Mode” ซึ่งเพิ่มเสียงของซานต้าเป็นเสียง preset ใน ChatGPT โดยผู้ใช้สามารถค้นหาได้โดยการแตะหรือคลิกที่ไอคอนหิมะในแอป ChatGPT ข้างแถบข้อความเพื่อใช้งานได้

ด้วยการพัฒนาเหล่านี้ OpenAI ยังคงมุ่งมั่นที่จะสร้างประสบการณ์การใช้งาน AI ที่มีความเป็นธรรมชาติและตอบสนองได้อย่างรวดเร็วแก่ผู้ใช้ทั่วโลก

ที่มา

related