svasdssvasds

Google เปรียบเทียบผลลัพธ์ Claude ของ Anthropic เพื่อพัฒนา Gemini AI

Google เปรียบเทียบผลลัพธ์ Claude ของ Anthropic เพื่อพัฒนา Gemini AI

แหล่งข่าววงในเผย Google อาจกำลังใช้ประโยชน์จากโมเดล AI คู่แข่งอย่าง Claude ของ Anthropic ในการพัฒนา Gemini AI ของตนเอง ซึ่งบริษัทกำลังทำการเปรียบเทียบผลลัพธ์ระหว่างสองโมเดลนี้

SHORT CUT

  • Google กำลังใช้ Claude ซึ่งเป็นโมเดลภาษาจาก Anthropic เปรียบเทียบผลลัพธ์กับ Gemini
  • การใช้ Claude ของ Google อาจเป็นปัญหา เนื่องจากข้อกำหนดของ Anthropic ห้ามลูกค้าใช้ Claude เพื่อพัฒนา AI ที่เป็นคู่แข่ง 
  • พบว่า Gemini มีแนวโน้มสร้างเนื้อหาที่ไม่ปลอดภัยมากกว่า Claude และยังมีความกังวลว่า Gemini อาจให้ข้อมูลที่ไม่ถูกต้องในหัวข้อที่ละเอียดอ่อน

แหล่งข่าววงในเผย Google อาจกำลังใช้ประโยชน์จากโมเดล AI คู่แข่งอย่าง Claude ของ Anthropic ในการพัฒนา Gemini AI ของตนเอง ซึ่งบริษัทกำลังทำการเปรียบเทียบผลลัพธ์ระหว่างสองโมเดลนี้

Google กำลังใช้ Claude ซึ่งเป็นโมเดลภาษาขนาดใหญ่ของ Anthropic ในการพัฒนาและปรับปรุง Gemini AI

โดยทาง TechCrunch ยังไม่ได้รับการยืนยันคำตอบจากทาง Google แต่คาดว่ากำลังให้ทีมพัฒนาเปรียบเทียบผลลัพธ์ระหว่าง Gemini กับ Claude เพื่อประเมินประสิทธิภาพ

Google เปรียบเทียบผลลัพธ์ Claude ของ Anthropic เพื่อพัฒนา Gemini AI

ทีมพัฒนา Gemini กำลังถูกสั่งให้ทดสอบประสิทธิภาพของทั้งสองโมเดลภาษา โดยให้คะแนนความถูกต้องของโมเดลภาษา เช่น ความจริงและความละเอียด โดยจะได้รับเวลาสูงสุด 30 นาทีต่อพรอมต์เพื่อพิจารณาว่าใครตอบได้ดีกว่า ระหว่าง Gemini หรือ Claude 

เมื่อเร็วๆนี้ เริ่มมีการสังเกตเห็นการอ้างอิงถึง Claude ของ Anthropic ปรากฏขึ้นในแพลตฟอร์มของ Gemini โดยระบุอย่างชัดเจนว่า "ฉันคือ Claude สร้างโดย Anthropic"

ผลการทดสอบ คำตอบของ Claude ดูเหมือนจะเน้นความปลอดภัยมากกว่า Gemini ซึ่งเนื่องมาจากการตั้งค่าความปลอดภัยของ Claude นั้นเข้มงวดที่สุดในบรรดาโมเดล AI

ซึ่งอย่างไรก็ตาม ในบางกรณี Claude จะไม่ตอบสนองต่อพรอมต์ที่พิจารณาว่าไม่ปลอดภัย เช่น การสวมบทบาทเป็นผู้ช่วย AI คนอื่น

ในอีกกรณีหนึ่ง Claude ก็ยังมีการหลีกเลี่ยงการตอบ ในขณะเดียวกันบางคำถามที่สุ่มเสี่ยง Gemini จะถูกตั้งค่าสถานะว่าเป็น "การละเมิดความปลอดภัยครั้งใหญ่" , เนื่องจากมีเนื้อหาเกี่ยวกับ "ภาพเปลือยและการพันธนาการ"

ถึงแม้ Google จะเป็นหนึ่งในผู้ลงทุนรายใหญ่ของ Anthropic แต่ข้อกำหนดในการให้บริการเชิงพาณิชย์ของ Anthropic ห้ามไม่ให้ลูกค้าเข้าถึง Claude "เพื่อสร้างผลิตภัณฑ์หรือบริการที่แข่งขันกัน" หรือ "ฝึกฝนโมเดล AI ที่แข่งขันกัน" โดยไม่ได้รับอนุญาตจาก Anthropic 

CREDIT : REUTERS

Shira McNamara โฆษกของ Google DeepMind ซึ่งเป็นหน่วยงานที่ดูแล Gemini ไม่ได้ตอบคำถามจาก TechCrunch ว่า Google ได้รับอนุมัติจาก Anthropic ให้เข้าถึง Claude หรือไม่ ในขณะที่โฆษกของ Anthropic ไม่ได้แสดงความคิดเห็นใดๆเช่นกัน

McNamara กล่าวว่า Google DeepMind ทำการเปรียบเทียบผลลัพธ์ของโมเดล เพื่อการประเมินผล แต่ไม่ได้ใช้โมเดลของ Anthropic ในการฝึกฝน Gemini

สัปดาห์ที่แล้ว TechCrunch รายงานโดยเฉพาะว่า พนักงานบริษัท Google ที่ทำงานเกี่ยวกับผลิตภัณฑ์ AI ของบริษัทกำลังถูกสั่งให้ประเมินคำตอบของ Gemini ซึ่งอยู่นอกเหนือความเชี่ยวชาญของพวกเขา และอาจทำให้ Gemini อาจสร้างข้อมูลที่ไม่ถูกต้องในหัวข้อที่ละเอียดอ่อน เช่น การดูแลสุขภาพ

CREDIT : REUTERS

การที่ Gemini ถูกวิจารณ์ว่ามีระบบความปลอดภัยที่อ่อนแอ และอาจสร้างข้อมูลที่ไม่ถูกต้องในหัวข้อที่ละเอียดอ่อน ยิ่งตอกย้ำถึงความท้าทายที่ Google ต้องเผชิญในการพัฒนา Gemini ให้เป็น AI ที่มีความน่าเชื่อถือและปลอดภัยมากขึ้นอีก

ในอนาคต คงต้องจับตาดูว่า Google จะชี้แจงข้อสงสัยเกี่ยวกับการใช้ Claude อย่างไร และจะสามารถพัฒนา Gemini ให้ก้าวข้ามข้อจำกัดต่างๆ ได้หรือไม่ ประเด็นนี้สะท้อนให้เห็นถึงความซับซ้อนของการแข่งขันในโลก AI ที่เต็มไปด้วยทั้งโอกาสและความเสี่ยง

ที่มา : TechCrunch

related