AI ก็หงุดหงิดเป็น ระเบิดอารมณ์ใส่คนถามซ้ำ คุยเรื่องเดิมๆ ไล่ให้ไปจบชีวิตซะ
กลายเป็นไวรัลในโลกออนไลน์ไม่น้อยเลย กับการที่ AI Chatbot ให้คำแนะนำ หรือ ตอบคำ ที่ไม่ควรตอบแบบนี้สักเท่าไร เพราะ AI แชตบอต ได้ให้ผู้ถาม ไปจบชีวิตตัวเองซะ หลังจากที่เอาแต่ถามซ้ำแต่เรื่องเดิมๆ วนไปวนมา ไม่ไปไหนสักที