ปัญหาการพบผู้เล่น Toxic ระหว่างการเล่นเกมแบบออนไลน์นั้นเป็นประเด็นเรื้อรังที่ค่ายเกมต่างก็คิดหาวิธีแก้กันมาตลอดครับ และล่าสุดดูเหมือนทาง Activision ในฐานะเจ้าของแฟรนไชส์เกม Call of Duty ก็ไม่ได้นิ่งนอนใจกับปัญหานี้เช่นกัน โดยพวกเขาเพิ่งจะประกาศลงช่องทางโซเชียลมีเดียว่าทีมงานจะเริ่มมีการนำ AI เข้ามาใช้ตรวจจับผู้เล่นที่มีพฤติกรรม Toxic ในลักษณะของการพูดจาข่มขู่ คุกคาม ล่วงละเมิด หรือใช้วาจาที่แสดงออกถึงความเกลียดชังต่อผู้เล่นอื่นผ่านระบบ Voice Chat และถ้าระบบตรวจสอบแล้วพบว่าเข้าข่ายความผิดจริงก็จะทำการแบนในทันที
สำหรับเครื่องมือในการตรวจจับนี้จะมีชื่อเรียกว่า ToxMod ที่มีความสามารถในการตัดเสียงพื้นหลังของ Voice Chat ออกเพื่อทำการวิเคราะห์เสียงการสนทนาในเกมได้สะดวกขึ้น โดย ToxMod จะทำการพิจารณาคำพูดของผู้เล่นที่มีพฤติกรรมสุ่มเสี่ยงความ Toxic จากน้ำเสียง โทนเสียง อารมณ์ที่ใช้ขณะพูด และบริบทคำพูดของผู้เล่นคนนั้น ๆ ประกอบกับการประมวลผลควบคู่กับคีย์เวิร์ดที่เป็นคำเชิงคุกคาม แสดงความเกลียดชัง ดูหมิ่น หรือข่มขู่ ฯลฯ เพื่อดูว่าผู้เล่นคนดังกล่าวเข้าข่าย Toxic และเป็นภัยต่อบรรยากาศและสังคมของผู้เล่นหรือไม่
Activision ได้เผยอีกว่าปกติแล้วเมื่อมีการพบพฤติกรรมของผู้เล่นที่เข้าข่าย Toxic ทีมงานจะทำการแจ้งเตือนไปยังผู้เล่นที่ก่อเหตุก่อน โดยจากข้อมูลเชิงสถิติมีระบุว่าผู้เล่นประมาณ 20% ที่โดนเตือนไปแล้วจะไม่กลับมาทำผิดซ้ำอีก แต่ถ้ามีคนก่อเหตุซ้ำก็จะถูกแบนบัญชีใช้งานชั่วคราว รวมถึงแบนการใช้ Voice Chat ด้วย
ดูทรงแล้วอย่างน้อยการใช้วิธีนี้ก็อาจจะช่วยให้ปัญหาความ Toxic ลดลงไปได้บ้างนะครับ ใครคิดจะเล่นเกม Call of Duty และเปิดไมค์ไปด้วยก็คงต้องระวังการใช้คำพูดคำจา ไม่ให้ไปล่วงละเมิดผู้เล่นอื่นกันนะครับ
แปลและเรียบเรียงจาก
https://www.extremetech.com/gaming/call-of-duty-to-begin-using-ai-to-assess-voice-chat-for-toxicity
ติดตามข่าวเกมพีซี/คอนโซลอื่น ๆ ได้ที่ Online Station