SHORT CUT
แหล่งข่าววงในเผย Google อาจกำลังใช้ประโยชน์จากโมเดล AI คู่แข่งอย่าง Claude ของ Anthropic ในการพัฒนา Gemini AI ของตนเอง ซึ่งบริษัทกำลังทำการเปรียบเทียบผลลัพธ์ระหว่างสองโมเดลนี้
Google กำลังใช้ Claude ซึ่งเป็นโมเดลภาษาขนาดใหญ่ของ Anthropic ในการพัฒนาและปรับปรุง Gemini AI
โดยทาง TechCrunch ยังไม่ได้รับการยืนยันคำตอบจากทาง Google แต่คาดว่ากำลังให้ทีมพัฒนาเปรียบเทียบผลลัพธ์ระหว่าง Gemini กับ Claude เพื่อประเมินประสิทธิภาพ
ทีมพัฒนา Gemini กำลังถูกสั่งให้ทดสอบประสิทธิภาพของทั้งสองโมเดลภาษา โดยให้คะแนนความถูกต้องของโมเดลภาษา เช่น ความจริงและความละเอียด โดยจะได้รับเวลาสูงสุด 30 นาทีต่อพรอมต์เพื่อพิจารณาว่าใครตอบได้ดีกว่า ระหว่าง Gemini หรือ Claude
เมื่อเร็วๆนี้ เริ่มมีการสังเกตเห็นการอ้างอิงถึง Claude ของ Anthropic ปรากฏขึ้นในแพลตฟอร์มของ Gemini โดยระบุอย่างชัดเจนว่า "ฉันคือ Claude สร้างโดย Anthropic"
ผลการทดสอบ คำตอบของ Claude ดูเหมือนจะเน้นความปลอดภัยมากกว่า Gemini ซึ่งเนื่องมาจากการตั้งค่าความปลอดภัยของ Claude นั้นเข้มงวดที่สุดในบรรดาโมเดล AI
ซึ่งอย่างไรก็ตาม ในบางกรณี Claude จะไม่ตอบสนองต่อพรอมต์ที่พิจารณาว่าไม่ปลอดภัย เช่น การสวมบทบาทเป็นผู้ช่วย AI คนอื่น
ในอีกกรณีหนึ่ง Claude ก็ยังมีการหลีกเลี่ยงการตอบ ในขณะเดียวกันบางคำถามที่สุ่มเสี่ยง Gemini จะถูกตั้งค่าสถานะว่าเป็น "การละเมิดความปลอดภัยครั้งใหญ่" , เนื่องจากมีเนื้อหาเกี่ยวกับ "ภาพเปลือยและการพันธนาการ"
ถึงแม้ Google จะเป็นหนึ่งในผู้ลงทุนรายใหญ่ของ Anthropic แต่ข้อกำหนดในการให้บริการเชิงพาณิชย์ของ Anthropic ห้ามไม่ให้ลูกค้าเข้าถึง Claude "เพื่อสร้างผลิตภัณฑ์หรือบริการที่แข่งขันกัน" หรือ "ฝึกฝนโมเดล AI ที่แข่งขันกัน" โดยไม่ได้รับอนุญาตจาก Anthropic
Shira McNamara โฆษกของ Google DeepMind ซึ่งเป็นหน่วยงานที่ดูแล Gemini ไม่ได้ตอบคำถามจาก TechCrunch ว่า Google ได้รับอนุมัติจาก Anthropic ให้เข้าถึง Claude หรือไม่ ในขณะที่โฆษกของ Anthropic ไม่ได้แสดงความคิดเห็นใดๆเช่นกัน
McNamara กล่าวว่า Google DeepMind ทำการเปรียบเทียบผลลัพธ์ของโมเดล เพื่อการประเมินผล แต่ไม่ได้ใช้โมเดลของ Anthropic ในการฝึกฝน Gemini
สัปดาห์ที่แล้ว TechCrunch รายงานโดยเฉพาะว่า พนักงานบริษัท Google ที่ทำงานเกี่ยวกับผลิตภัณฑ์ AI ของบริษัทกำลังถูกสั่งให้ประเมินคำตอบของ Gemini ซึ่งอยู่นอกเหนือความเชี่ยวชาญของพวกเขา และอาจทำให้ Gemini อาจสร้างข้อมูลที่ไม่ถูกต้องในหัวข้อที่ละเอียดอ่อน เช่น การดูแลสุขภาพ
การที่ Gemini ถูกวิจารณ์ว่ามีระบบความปลอดภัยที่อ่อนแอ และอาจสร้างข้อมูลที่ไม่ถูกต้องในหัวข้อที่ละเอียดอ่อน ยิ่งตอกย้ำถึงความท้าทายที่ Google ต้องเผชิญในการพัฒนา Gemini ให้เป็น AI ที่มีความน่าเชื่อถือและปลอดภัยมากขึ้นอีก
ในอนาคต คงต้องจับตาดูว่า Google จะชี้แจงข้อสงสัยเกี่ยวกับการใช้ Claude อย่างไร และจะสามารถพัฒนา Gemini ให้ก้าวข้ามข้อจำกัดต่างๆ ได้หรือไม่ ประเด็นนี้สะท้อนให้เห็นถึงความซับซ้อนของการแข่งขันในโลก AI ที่เต็มไปด้วยทั้งโอกาสและความเสี่ยง
ที่มา : TechCrunch