FBI สหรัฐ ออกโรงเตือน คนร้ายเริ่มใช้ Deepfake สร้างภาพเปลือย หลอกเรียกเงินเหยื่อที่ไม่เคยมีภาพลามกอนาจาร กลายเป็นกลลวงแบบใหม่ในยุคดิจิทัล
สำนักงานสอบสวนกลาง สหรัฐฯ หรือ FBI ประกาศเตือนภัยร้ายจากโลกไซเบอร์ ถึงกรณีที่ มิจฉาชีพใช้เทคโนโลยีปัญญาประดิษฐ์ อย่าง Deepfake และ Deepnude สร้างวิดีโอและภาพเปลือยปลอมของเหยื่อ แล้วนำมาเรียกค่าไถ่
โดยเทคโนโลยี Deepfake และ Deepnude เป็นเทคโนโลยีที่ใ้ปัญญาประดิษฐ์ในการในใบหน้าและภาษากายของผู้ที่ถูกนำมาเป็นต้อนแบบไปเรียนรู้และสร้างเป็นคลิปใหม่ หรือ นำไปแปะแทนที่หน้าคนในคลิปเดิม ดังนั้น คนร้ายอาจทำคลิปปลอมของนักการเมืองเพื่อหลอกลงทุน หรือ นำใบหน้าของเหยื่อที่ใส่ชุดมิดชิดมาใส่ในภาพยนตร์ผู้ใหญ่ก็สามารถทำได้
อ่านเรื่องราวที่เกี่ยวข้อง
สำหรับวิธีการของคนร้ายที่ใช้ เทคโนโลยี Deepfake ในการสร้างภาพเปลือยปลอมของเหยื่อ จะใช้ภาพของเหยื่อในสื่อสังคมออนไลน์หรือคลิปต่าง ๆ มาทำเป็นภาพปลอมแล้วข่มขู่เหยื่อ ว่า จะปล่อยภาพเปลือยปลอม ลงสื่อสังคมออนไลน์ หรือ ส่งให้คนใกล้ชิด เพื่อแลกกับเงินค่าไถ่จำนวนหนึ่ง
ทั้งนี้ ในคำเตือนของ FBI เรื่อง มิจฉาชีพ Deepfake ได้ขอให้ผู้ใช้สื่อสังคมออนไลน์ระมัดระวังในการรับคำขอเป็นเพื่อนในแพลตฟอร์มต่าง ๆ และระมัดระวังข้อมูลส่วนบุคคลด้วย
ที่มา : NBC