OpenAI ปิดเครื่องมือตรวจสอบบทความเขียนโดย AI เพราะปัญญาประดิษฐ์ปัจจุบันฉลาดขึ้นและบทความเขียนโดย AI แนบเนียนจนแยกได้ยากกว่าเดิม ส่งผลให้ประสิทธิภาพความสามารถในการตรวจสอบต่ำลง
OpenAI บริษัทผู้พัฒนา ChatGPT ตัดสินใจปิดเครื่องมือตรวจสอบบทความเขียนโดย AI เครื่องมือที่ควรจะทำให้มนุษย์สามารถตรวจสอบว่าบทความนั้นเขียนโดยมนุษย์จริง ๆ หรือไม่ เนื่องจาก ปัญญาประดิษฐ์ปัจจุบันฉลาดจนเขียนบทความได้แนบเนียนมากขึ้นจนทำให้ประสิทธิภาพของเครื่องมือตรวจสอบนี้ต่ำลง
อย่างไรก็ตาม OpenAI กำลังพัฒนาเครื่องมือใหม่ที่แม่นยำกว่าเดิมเพื่อทำให้มนุษย์เข้าใจว่าเนื้อหาเสียงหรือภาพนั้นสร้างโดย AI แต่ก็ยังไม่มีความชัดเจนใด ๆ เพิ่มเติม
อ่านเรื่องราวที่เกี่ยวข้อง
ปัญหาที่เกิดขึ้นคือ เครื่องมือของ OpenAI ถูก AI ด้วยกันเองหลอกและสร้างผลเสียด้วยการไประบุว่าบทความที่เขียนโดย AI เป้นบทความที่เขียนโดยมนุษย์ในบางบทความ นั่นทำให้เครื่องมือนี้มีความน่าเชื่อถือลดลง
หลังจากที่ ChatGPT ของ OpenAI แพร่หลายและกลายเป็นหนึ่งในแอปฯ ที่เติบโตเร็วที่สุดเท่าที่เคยมีมา ผู้คนต่างแย่งกันพัฒนาและใช้เทคโนโลยีปัญญาประดิษฐ์ ซึ่งก็สร้างผลกระทบในแวดวงต่าง ๆ ไม่น้อย เช่น วงการศิลปะ ที่กังวลเกี่ยวกับลิขสิทธิ์และอนาคตของวงการ , วงการศึกษา ด้วยความกังวลเรื่องข้อมูลที่ผิดพลาดหรือการใช้งานที่ผิดวิธีของนักเรียนแล้วจะทำให้พวกเขาไม่ศึกษาหาข้อมูลจนเคยตัว เป็นต้น
ขณะเดียวกันข้อมูลที่ผิดพลาดผ่าน AI ก็เป็นปัญหาเช่นกัน โดยการศึกษาพบว่าข้อความที่สร้างโดย AI เช่น ทวีต อาจน่าเชื่อถือมากกว่าข้อความที่เขียนโดยมนุษย์ ที่น่ากลัวกว่า คือ รัฐบาลประเทศต่าง ๆ ก็ยังไม่ทราบว่าจะควบคุม AI ได้อย่างไร แม้แต่บริษัทที่ช่วยจุดประกายความคลั่งไคล้ AI ตั้งแต่แรกเริ่ม อย่าง OpenAI ก็ยังไม่มีคำตอบว่าจะจัดการกับมันทั้งหมดอย่างไรเช่นกัน