ตำรวจสอบสวนกลาง เตือน ระวัง Deepfake สู่ Fake News แนะวิธีสังเกตมิจฉาชีพใช้ เสียงและใบหน้า "AI" หลอกเป็น "คน" เสมือนจริง ทำให้ภาพ เสียง คลิปวิดีโอ ของบุคคลหนึ่งสามารถขยับปากตามเสียงของบุคคลอื่นได้ มีความเสมือนจริงทั้งใบหน้าและน้ำเสียง
AI Deepfake คือ Generative AI รูปแบบหนึ่ง ที่สามารถสร้างสื่อสังเคราะห์ ทั้งภาพนิ่ง เสียง ภาพเคลื่อนไหวพร้อมเสียง ที่เหมือนเป็นคนมาพูดหรือคุยจริงๆ จนแทบแยกไม่ออก ด้วยระบบการเรียนรู้หรือ Deep Learning จากลักษณะภายนอกของบุคคล เช่น สีผิว ตา ปาก จมูก รูปลักษณ์ต่างๆ ด้วยความฉลาดล้ำจากการเรียนรู้ข้อมูลมหาศาลของ Generative AI จึงทำให้การสร้างภาพและเสียง มีความเหมือนราวกับว่าคนๆ นั้นเป็นคนพูดจริงๆ
ทั้งนี้ วัตถุประสงค์ของการสร้าง AI Deepfake นั้น ขึ้นอยู่กับผู้สร้างว่า ต้องการนำไปใช้ในแง่ไหน ซึ่งแน่นอน เราคงปฏิเสธไม่ได้ว่า อาจจะมีทั้งในมุมที่ดีและมุมที่ไม่ดีกับสังคมก็ได้
กองบัญชาการตำรวจสอบสวนกลาง (CIB) ได้ตรวจพบว่าขณะนี้มีมิจฉาชีพใช้เทคโนโลยีที่ทำให้เกิดการปลอมแปลงข้อมูล เช่น Deepfake และ Fake Voice ซึ่งเป็นการปลอมแปลงข้อมูล การตัดต่อภาพ ตัดต่อข้อความ ตกแต่งเสียงพูด และสร้างคลิปวิดีโอปลอมบุคคลที่มีชื่อเสียงให้ดูเหมือนจริง
ส่งผลให้ประชาชนต้องระวัง และเข้าใจถึงการใช้เทคโนโลยีนี้เพื่อป้องกันการถูกใช้เป็นเครื่องมือในวัตถุประสงค์ที่ไม่ดี เช่น การเผยแพร่ข่าวปลอมหลอกลวงประชาชน หรือ การก่ออาชญากรรมอื่นๆ ที่อาจส่งผลกระทบต่อชีวิตประจำวันและทรัพย์สินของผู้คน
การปลอมภาพคลิปด้วย Deepfake จะได้ภาพที่มีความคมชัดสูง และท่าทางที่เสมือนจริงมากขึ้น หรือแม้กระทั่งการแปลงเสียงผ่านแอปพลิเคชันต่างๆ ก็สามารถเปลี่ยนน้ำเสียง เช่น ชายเป็นหญิง, หญิงเป็นชาย ผู้ใหญ่เป็นเด็ก, การเลียนเสียง และแปลงเสียง ซึ่งผู้ไม่ประสงค์ดีอาจใช้เป็นเครื่องมือในการแอบอ้างเป็นบุคคลอื่นเพื่อประโยชน์บางอย่าง หรือหลอกลวงให้โอนเงิน ส่งผลให้เกิดความเสียหายทั้งต่อตัวบุคคล เศรษฐกิจและสังคม
ตำรวจสอบสวนกลาง (CIB) ขอเตือนประชาชนควรตรวจสอบข้อมูลทุกครั้งก่อนที่จะเชื่อ หรือแชร์ข้อมูลต่างๆต่อ เพื่อให้มั่นใจว่าสิ่งที่เห็นเป็นเรื่องจริง จะได้ไม่ตกเป็นเหยื่อของมิจฉาชีพ หรือผู้ไม่หวังดี ใช้เป็นเครื่องมือในการแอบอ้างเป็นบุคคลอื่นเพื่อประโยชน์บางอย่าง
ที่มา : ตำรวจสอบสวนกลาง