svasdssvasds

Meta ชะลอพัฒนา AI ชี้ความเสี่ยงอาจสูงเกินไป หวั่นอนาคต ก่อภัยคุกคามร้ายแรง

Meta ชะลอพัฒนา AI ชี้ความเสี่ยงอาจสูงเกินไป หวั่นอนาคต ก่อภัยคุกคามร้ายแรง

Meta ประกาศนโยบาย Frontier AI Framework ที่เข้มงวดขึ้น หวังควบคุมการพัฒนา AI ป้องกันการนำไปใช้ในทางที่ก่อให้เกิดอันตรายร้ายแรงต่อสังคม

SHORT CUT

  • Meta ประกาศนโยบายใหม่ที่เรียกว่า "Frontier AI Framework" ซึ่งจะแบ่งประเภทของระบบ AI ตามระดับความเสี่ยง และอาจหยุดพัฒนาหรือจำกัดการเข้าถึง AI ที่มีความเสี่ยงสูงหรือขั้นวิกฤต เพื่อป้องกันการนำไปใช้ในทางที่เป็นอันตราย เช่น การโจมตีทางไซเบอร์ ชีวภาพ หรือเคมี
  • การประกาศนโยบายนี้แสดงให้เห็นว่า Meta ตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นจากการพัฒนา AI และพยายามที่จะสร้างสมดุลระหว่างการส่งเสริมนวัตกรรมและการป้องกันการใช้งาน AI ในทางที่ผิด
  • นโยบาย Frontier AI Framework จะเป็นแนวทางให้บริษัทอื่นๆ ในอุตสาหกรรมเทคโนโลยีได้ตระหนักถึงความสำคัญของการกำกับดูแล AI และร่วมกันสร้างมาตรฐานในการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบ

Meta ประกาศนโยบาย Frontier AI Framework ที่เข้มงวดขึ้น หวังควบคุมการพัฒนา AI ป้องกันการนำไปใช้ในทางที่ก่อให้เกิดอันตรายร้ายแรงต่อสังคม

Meta บริษัทเทคโนโลยียักษ์ใหญ่ ประกาศนโยบายใหม่ที่มุ่งเน้นการควบคุมการพัฒนาปัญญาประดิษฐ์ (AI) อย่างเข้มงวด ภายใต้ชื่อ "Frontier AI Framework"  นโยบายนี้มีจุดมุ่งหมายเพื่อป้องกันการนำ AI ไปใช้ในทางที่อาจก่อให้เกิดอันตรายร้ายแรงต่อสังคม 

CREDIT : REUTERS

Frontier AI Framework คือการแบ่งแยกระบบ AI ออกเป็นสองประเภทตามระดับความเสี่ยง ได้แก่ "มีความเสี่ยงสูง" (high risk) และ "มีความเสี่ยงขั้นวิกฤต" (critical risk)

CREDIT : META

Meta ระบุว่า การประเมินความเสี่ยงของระบบ AI จะพิจารณาจากปัจจัยหลายประการ รวมถึงศักยภาพของระบบในการก่อให้เกิดอันตราย ความน่าจะเป็นที่จะถูกนำไปใช้ในทางที่ไม่ถูกต้อง และผลกระทบที่อาจเกิดขึ้นต่อสังคม โดยกระบวนการประเมินจะดำเนินการโดยนักวิจัยทั้งภายในและภายนอกบริษัท

สำหรับระบบ AI ที่ถูกจัดว่ามีความเสี่ยงสูง Meta จะจำกัดการเข้าถึงและจะไม่เปิดเผยต่อสาธารณะจนกว่าจะสามารถลดความเสี่ยงลงได้

ในส่วนของระบบ AI ที่มีความเสี่ยงขั้นวิกฤต Meta จะดำเนินมาตรการรักษาความปลอดภัยที่เข้มงวดเพื่อป้องกันการรั่วไหล และอาจถึงขั้นระงับการพัฒนาจนกว่าจะมั่นใจได้ว่าระบบจะไม่เป็นอันตราย

การประกาศนโยบาย Frontier AI Framework ของ Meta ถือเป็นสัญญาณที่สำคัญว่าบริษัทตระหนักถึงความเสี่ยงที่อาจเกิดขึ้นจากการพัฒนา AI และมีความมุ่งมั่นที่จะรับผิดชอบต่อสังคม โดยการกำหนดมาตรฐานและแนวปฏิบัติที่ชัดเจนในการควบคุมการพัฒนา AI

CREDIT : REUTERS

นอกจากนี้ การที่ Meta เปิดเผยนโยบาย Frontier AI Framework ต่อสาธารณะยังเป็นการส่งสัญญาณให้บริษัทอื่นๆ ในอุตสาหกรรมเทคโนโลยีได้ตระหนักถึงความสำคัญของการกำกับดูแล AI และร่วมกันสร้างมาตรฐานในการพัฒนา AI ที่ปลอดภัยและมีความรับผิดชอบ

ที่มา : TechCrunchMeta

related