SHORT CUT
Meta ประกาศนโยบาย Frontier AI Framework ที่เข้มงวดขึ้น หวังควบคุมการพัฒนา AI ป้องกันการนำไปใช้ในทางที่ก่อให้เกิดอันตรายร้ายแรงต่อสังคม
Meta บริษัทเทคโนโลยียักษ์ใหญ่ ประกาศนโยบายใหม่ที่มุ่งเน้นการควบคุมการพัฒนาปัญญาประดิษฐ์ (AI) อย่างเข้มงวด ภายใต้ชื่อ "Frontier AI Framework" นโยบายนี้มีจุดมุ่งหมายเพื่อป้องกันการนำ AI ไปใช้ในทางที่อาจก่อให้เกิดอันตรายร้ายแรงต่อสังคม
Frontier AI Framework คือการแบ่งแยกระบบ AI ออกเป็นสองประเภทตามระดับความเสี่ยง ได้แก่ "มีความเสี่ยงสูง" (high risk) และ "มีความเสี่ยงขั้นวิกฤต" (critical risk)
Meta ระบุว่า การประเมินความเสี่ยงของระบบ AI จะพิจารณาจากปัจจัยหลายประการ รวมถึงศักยภาพของระบบในการก่อให้เกิดอันตราย ความน่าจะเป็นที่จะถูกนำไปใช้ในทางที่ไม่ถูกต้อง และผลกระทบที่อาจเกิดขึ้นต่อสังคม โดยกระบวนการประเมินจะดำเนินการโดยนักวิจัยทั้งภายในและภายนอกบริษัท
สำหรับระบบ AI ที่ถูกจัดว่ามีความเสี่ยงสูง Meta จะจำกัดการเข้าถึงและจะไม่เปิดเผยต่อสาธารณะจนกว่าจะสามารถลดความเสี่ยงลงได้
ในส่วนของระบบ AI ที่มีความเสี่ยงขั้นวิกฤต Meta จะดำเนินมาตรการรักษาความปลอดภัยที่เข้มงวดเพื่อป้องกันการรั่วไหล และอาจถึงขั้นระงับการพัฒนาจนกว่าจะมั่นใจได้ว่าระบบจะไม่เป็นอันตราย
การประกาศนโยบาย Frontier AI Framework ของ Meta ถือเป็นสัญญาณที่สำคัญว่าบริษัทตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นจากการพัฒนา AI และมีความมุ่งมั่นที่จะรับผิดชอบต่อสังคม โดยการกำหนดมาตรฐานและแนวปฏิบัติที่ชัดเจนในการควบคุมการพัฒนา AI
นอกจากนี้ การที่ Meta เปิดเผยนโยบาย Frontier AI Framework ต่อสาธารณะยังเป็นการส่งสัญญาณให้บริษัทอื่นๆ ในอุตสาหกรรมเทคโนโลยีได้ตระหนักถึงความสำคัญของการกำกับดูแล AI และร่วมกันสร้างมาตรฐานในการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบ
ที่มา : TechCrunch, Meta