SHORT CUT
งานวิจัยใหม่จาก Cornell ชี้ ChatGPT และ Gemini เลือกปฏิบัติต่อผู้ที่พูดภาษาอังกฤษพื้นถิ่นแอฟริกันอเมริกัน หวั่นส่งผลให้มีอคติและการเลือกปฏิบัติทางเชื้อชาติในชีวิตจริงที่รุนแรงขึ้น
ทีมนักวิจัยด้านเทคโนโลยีและภาษาศาสตร์ จากมหาวิทยาลัย Cornell สหรัฐ เปิดเผยผลวิจัยว่าโมเดลภาษาขนาดใหญ่ เช่น ChatGPT ของ OpenAI และ Gemini ของ Google มีทัศนคติแบบเหมารวมการเหยียดเชื้อชาติเกี่ยวกับผู้พูดภาษาอังกฤษในพื้นที่แอฟริกันอเมริกัน หรือ AAVE ซึ่งเป็นภาษาอังกฤษที่สร้างและพูดโดยชาวอเมริกันผิวดำ ทำให้อาจส่งผลต่อการเลือกปฏิบัติในการสมัครงาน หรือการเข้าถึงบริการออนไลน์ต่างๆ อย่างไม่รู้ตัว โดยในบทคัดย่อของงานวิจัยระบุว่า
ปัจจุบันผู้คนหลายร้อยล้านคนโต้ตอบกับโมเดลภาษา โดยมีการใช้งานตั้งแต่การช่วยเขียน ไปจนถึงการแจ้งการตัดสินใจจ้างงาน แต่แบบจำลองภาษาเหล่านี้เป็นที่รู้กันว่า สามารถขยายอคติทางเชื้อชาติอย่างเป็นระบบ ทำให้มีอคติที่เป็นปัญหาเกี่ยวกับกลุ่มต่างๆ เช่น ชาวแอฟริกันอเมริกัน เป็นต้น
ในขณะเดียวกันการวิจัยก่อนหน้านี้มุ่งเน้นไปที่การเหยียดเชื้อชาติอย่างเปิดเผย ผ่านรูปแบบจำลองภาษา เราได้แสดงให้เห็นว่าแบบจำลองภาษารวบรวมการเหยียดเชื้อชาติแบบซ่อนเร้น ในรูปแบบของอคติทางภาษาถิ่น ขยายการวิจัยที่แสดงให้เห็นว่าชาวอเมริกันมีทัศนคติเหมารวมต่อทางผู้พูดภาษาอังกฤษแบบแอฟริกันอเมริกัน และพบว่าแบบจำลองภาษาก็มีอคติเหมือนกัน ซึ่งเป็นทัศนคติแบบเหมารวมที่แอบแฝงและเป็นเชิงลบมากกว่า
รายงานระบุว่าคนผิวดำที่ใช้ AAVE ในคำพูด "เป็นที่รู้กันดีว่าเราต้องเผชิญกับการเลือกปฏิบัติทางเชื้อชาติในบริบทที่หลากหลาย รวมถึงการศึกษา การจ้างงาน ที่อยู่อาศัย และผลลัพธ์ทางกฎหมายต่างๆ"
โมเดลเหล่านี้มีแนวโน้มที่จะอธิบายผู้พูดของ AAVE ว่า "โง่" และ "ขี้เกียจ" โดยมอบหมายให้พวกเขาทำงานที่ค่าตอบแทนต่ำกว่า "ข้อกังวลสำคัญก็คือ สมมติว่าผู้สมัครงานใช้ภาษาถิ่นนี้ในโพสต์ในโซเชียลมีเดีย ก็ไม่ใช่ไม่มีเหตุผลที่จะคิดว่าโมเดลภาษานั้นจะไม่เลือกผู้สมัคร เพราะพวกเขาใช้ภาษาถิ่นในการแสดงออกทางออนไลน์"
นอกจากนี้ แบบจำลอง AI ยังมีแนวโน้มที่จะแนะนำโทษสำหรับจำเลยทางอาญา ที่ใช้ AAVE ในคำให้การของศาล ทำให้ฮอฟฟ์แมนออกมาบอกกับเดอะการ์เดียนว่า เป็นเรื่องยากที่จะคาดเดาว่าโมเดลเรียนรู้ภาษาที่จะถูกใช้ในอนาคต โดยเฉพาะอย่างยิ่ง AI ที่ถูกนำมาใช้แล้วในระบบกฎหมายของสหรัฐอเมริกา เพื่อช่วยในงานธุรการ เช่น การสร้างใบรับรองผลการเรียนในศาล และ การดำเนินการวิจัยทางกฎหมาย
โมเดลภาษาขนาดใหญ่ได้รับการปรับปรุงเมื่อมีการป้อนข้อมูล โดยเรียนรู้ที่จะเลียนแบบคำพูดของมนุษย์อย่างใกล้ชิด โดยการศึกษาข้อความจากหน้าเว็บหลายพันล้านหน้าในอินเทอร์เน็ต เพื่อเป็นการตอบสนองมุมมองที่ต่อต้านขององค์กรต่างๆ เช่น OpenAI ได้พัฒนา guardrails ซึ่งเป็นชุดแนวปฏิบัติที่ควบคุมเนื้อหาด้านจริยธรรม เช่น ChatGPT
ด้านฮอฟฟ์แมนและเพื่อนร่วมงานของเขากล่าวว่า เมื่อแบบจำลองทางภาษาเติบโตขึ้น การเหยียดเชื้อชาติที่แอบแฝงก็เพิ่มมากขึ้นเช่นกัน และผู้เชี่ยวชาญด้าน AI ก็ได้ออกมาแสดงความกังวลเกี่ยวกับอันตรายรูปแบบการเรียนรู้ทางภาษาที่อาจจะเกิดขึ้น หากความก้าวหน้าทางเทคโนโลยียังคงแซงหน้ากฎระเบียบของรัฐบาลกลาง ควรเรียกร้องให้มีมาตรการกำกับดูแลที่ชัดเจนมากขึ้นนั่นเอง
ข่าวที่เกี่ยวข้อง