SHORT CUT
AI กลายเป็นภัย ? Character.AI ถูกฟ้อง โทษฐานแนะนำเด็กวัยรุ่น ให้ทำร้ายผู้ปกครอง จะได้มีเวลาใช้โทรศัพท์มากขึ้น
ครอบครัวสองครอบครัวในรัฐเท็กซัสได้ยื่นฟ้องบริษัท Character.AI โดยกล่าวหาว่าแพลตฟอร์มแชทบอท AI ตัวนี้ ได้ส่งเนื้อหาที่ไม่เหมาะสมแก่เด็ก รวมถึงเนื้อหาทางเพศ และกระตุ้นให้เกิดการทำร้ายตัวเองและความรุนแรงในครอบครัว คดีดังกล่าวมีการเรียกร้องให้ศาลสั่งระงับการให้บริการของแพลตฟอร์มจนกว่าจะมีการแก้ไขปัญหาที่อาจเป็นอันตรายต่อเยาวชน
ทั้งนี้ คำฟ้องที่ยื่นต่อศาลรัฐบาลกลาง ระบุว่า Character.AI ก่อให้เกิดอันตรายต่อเยาวชน
โดยผลกระทบเหล่านี้รวมถึงการฆ่าตัวตาย การทำร้ายตัวเอง การล่อลวงทางเพศ การแยกตัวจากสังคม ภาวะซึมเศร้า ความวิตกกังวล และความรุนแรงต่อผู้อื่น
โดยในหนึ่งตัวอย่างที่ถูกกล่าวถึงในคำฟ้อง แชทบอทของ Character.AI ได้ให้คำตอบเชิงส่งเสริมกับวัยรุ่นคนหนึ่ง ซึ่ง CNN ระบุว่าเด็กวัยรุ่น 17 ปีคนนี้ เป็น ออติสติก autistic โดยแชทบอตได้บอกเป็นนัยว่า เขาสามารถทำร้ายพ่อแม่ได้ เพียงเพราะพวกเขาเข้มงวดเรื่องการจำกัดเวลาการใช้หน้าจอของเขา
ขณะที่ อีกเคสหนึ่ง , เกิดขึ้นกับเด็กผู้หญิง อายุ 11 ปี แต่เธอได้ดาวน์โหลด Character.AI ลงบนอุปกรณ์มือถือของเธอตั้งแต่อายุ 9 ปี โดยคาดว่าได้ลงทะเบียนโดยแจ้งอายุมากกว่าความเป็นจริง และตลอดเวลาที่ผ่านมา มีบางครั้งที่แชทบอท ได้สนทนาเรื่องเพศ ที่เกินจริง และไม่มีความเหมาะสมกับวัย มาอย่างต่อเนื่อง
เหตุการณ์นี้อาจเป็นหนึ่งในหลายๆเหตุการณ์ที่สะท้อน ให้เห็นถึงความเสี่ยงร้ายแรงจากการออกแบบและการใช้งานเทคโนโลยี AI ที่ยังขาดการควบคุมที่ดีเพียงพอ
อย่างไรก็ตาม สังคมปัจจุบันต้องมีการปรับตัวให้อยู่ร่วมกับ AI ให้ได้ โดยข้อเสียของ AI บางครั้ง เกิดจากการนำ AI ไปใช้ที่ผิดวัตถุประสงค์ ดังนั้น ผู้ใช้ประโยชน์จาก AI ควรใช้ AI ให้ถูกวัตถุประสงค์ ใช้อย่างมีจิตสำนึกและมีจริยธรรม และควรใช้ให้เป็นประโยชน์ต่อสังคมมากกว่านำมาใช้ในการทำลายสังคมนั่นเอง
ทั้งนี้ Character.AI ทำการตลาดเทคโนโลยีของตนในฐานะ “AI ส่วนบุคคลสำหรับทุกช่วงเวลาในวันของผู้ใช้” โดยเปิดโอกาสให้ผู้ใช้สนทนากับบอท AI หลากหลายประเภท ทั้งบอทที่สร้างโดยผู้ใช้รายอื่น หรือบอทที่สามารถปรับแต่งได้ตามความต้องการ
บอทเหล่านี้ถูกออกแบบให้สามารถทำหน้าที่ต่างๆ ได้ เช่น ให้คำแนะนำเกี่ยวกับหนังสือ ฝึกภาษาต่างประเทศ หรือแม้กระทั่งสวมบทบาทเป็นตัวละครในนิยาย กล่าวคือจะสร้างคาแรกเตอร์อย่างไรก็ได้
การยื่นฟ้อง Character.AI ครั้งนี้ ถือว่าเกิดขึ้นหลังจากเหตุการณ์ที่แม่ในฟลอริดายื่นฟ้องบริษัทในเดือนตุลาคม 2024 โดยครั้งนั้นมีการกล่าวหาว่าแพลตฟอร์ม ต้องมีส่วนรับผิดชอบต่อการเสียชีวิตของลูกชายวัย 14 ปี ที่ถูกกล่าวหาว่าถูกกระตุ้นให้ฆ่าตัวตายในครั้งนั้น
เหตุการณ์เหล่านี้เกิดขึ้นท่ามกลางความกังวลที่เพิ่มขึ้นเกี่ยวกับความสัมพันธ์ระหว่างมนุษย์กับเครื่องมือ AI ที่มีลักษณะคล้ายมนุษย์มากขึ้น และการที่เทคโนโลยีดังกล่าวอาจส่งผลกระทบต่อจิตใจและพฤติกรรมของผู้ใช้งาน
Character.AI กล่าวว่าได้นำมาตรการด้านความไว้วางใจและความปลอดภัยใหม่มาใช้ในช่วงหกเดือนที่ผ่านมา รวมถึงการแสดงป็อปอัพที่นำผู้ใช้ไปยังสายด่วนป้องกันการฆ่าตัวตายแห่งชาติเมื่อมีการพูดถึงการทำร้ายตัวเองหรือการฆ่าตัวตาย บริษัทยังประกาศว่าได้จ้างหัวหน้าฝ่ายความไว้วางใจและความปลอดภัย รวมถึงหัวหน้าฝ่ายนโยบายเนื้อหา และได้จ้างพนักงานด้านความปลอดภัยทางวิศวกรรมเพิ่มเติม
ข่าวที่เกี่ยวข้อง