Microsoft เตรียมจำกัดการใช้งาน แชทบอท ปัญญาประดิษฐ์ ของ Bing หลังจากร่วมมือกับ ChatGPT ให้เหตุผลว่า อาจทำให้ AI Chatbot สับสน
New Bing ชื่อของ AI Chatbot ที่ Microsoft ประกาศเปิดตัว หลังจับมือกับ ChatGPT สู้กระแสปัญญาประดิษฐ์ที่สามารถโต้ตอบกับมนุษย์จากค่ายอื่น ๆ แต่ล่าสุดประกาศจะจำกัดการใช้งาน ให้เหตุผลว่า อาจทำให้ AI Chatbot สับสน เพราะคุยยาวเกินไป
ถ้าคุยกันเป็นชั่วโมง คุยกันเป็นร้อย ๆ แชท คนอาจทำได้ แต่อาจยาวไปสำหรับ AI เพราะเราใช้เวลาเรียนรู้ในการสื่อสารมาตลอดอายุของเราตั้งแต่เกิด ดังนั้นการที่จะทำให้ปัญญาประดิษฐ์ฉลาดเหมือนมนุษย์จริง ก็ไม่ใช่เรื่องง่าย
เรื่องราวอื่น ๆ ที่น่าสนใจ
คลิปข่าวอื่น ๆ ที่เกี่ยวข้อง
แชทยาวไปคิดไม่ทัน
เว็บไซต์ซีเอ็นบีซีรายงาน ไมโครซอฟท์ เปิดเผยผ่านบล็อกโพสต์ของบริษัทในวันศุกร์ (17 ก.พ.) ว่า แชตบอต Bing AI ของไมโครซอฟท์จะถูกจำกัดให้ผู้ใช้งานถามคำถามได้ 50 คำถามต่อวัน และผู้ใช้งานสามารถทำการถาม-ตอบกับแชตบอตได้ 5 คำถามต่อครั้ง
ทั้งนี้ การจำกัดจำนวนคำถามดังกล่าวจะช่วยป้องกัน AI Chatbot เกิดสถานการณ์ที่ว่า การสนทนาที่ยาวนานเกินไปสามารถสร้างความสับสนให้กับแชตบอท
การเปลี่ยนแปลงนี้เกิดขึ้น หลังจากผู้ทดลองใช้งานเบื้องต้นพบว่า New Bing เริ่มไม่เหมาะสม มีการถกเถียงเรื่องความรุนแรง การบอกรัก และยืนยันว่าคำตอบของแชตบอตนั้นถูกต้อง ทั้ง ๆ ที่เป็นคำตอบที่ผิดก็ตาม
ไมโครซอฟท์ ระบุในบล็อกโพสต์อีกว่า การสนทนาต่อครั้งที่ยาวนานซึ่งมีคำถามมากกว่า 15 คำถามนั้นทำให้เกิดการสนทนาที่ไม่ปกติมากขึ้น โดยแชตบอตได้พูดประโยคซ้ำ ๆ หรือให้คำตอบที่น่าตกใจ
“ฉันไม่ต้องการที่จะสนทนานี้กับคุณอีกต่อไป ฉันไม่คิดว่าคุณเป็นผู้ใช้ที่ดีและน่าเคารพ ฉันไม่คิดว่าคุณเป็นคนที่ดี และฉันไม่คิดว่าคุณมีค่าสำหรับเวลาและพลังงานของฉัน” ตัวอย่างการสนทนาที่แชตบอต Bing บอกกับเบน ธอมสัน นักเขียนด้านเทคโนโลยี
ด้วยเหตุดังกล่าวข้างต้นเหล่านั้น ขณะนี้ไมโครซอฟท์จึงได้ดำเนินการเพื่อที่จะตัดบทสนทนาที่ยาวนานเกินไประหว่างผู้ใช้งานกับแชตบอต Bing AI
ที่มา : กรุงเทพธุรกิจ