Call of Duty เตรียมใช้ AI ในการตรวจจับและแบนผู้เล่นที่ Toxic ผ่าน Voice Chat

CoD

ปัญหาการพบผู้เล่น Toxic ระหว่างการเล่นเกมแบบออนไลน์นั้นเป็นประเด็นเรื้อรังที่ค่ายเกมต่างก็คิดหาวิธีแก้กันมาตลอดครับ และล่าสุดดูเหมือนทาง Activision ในฐานะเจ้าของแฟรนไชส์เกม Call of Duty ก็ไม่ได้นิ่งนอนใจกับปัญหานี้เช่นกัน โดยพวกเขาเพิ่งจะประกาศลงช่องทางโซเชียลมีเดียว่าทีมงานจะเริ่มมีการนำ AI เข้ามาใช้ตรวจจับผู้เล่นที่มีพฤติกรรม Toxic ในลักษณะของการพูดจาข่มขู่ คุกคาม ล่วงละเมิด หรือใช้วาจาที่แสดงออกถึงความเกลียดชังต่อผู้เล่นอื่นผ่านระบบ Voice Chat และถ้าระบบตรวจสอบแล้วพบว่าเข้าข่ายความผิดจริงก็จะทำการแบนในทันที

สำหรับเครื่องมือในการตรวจจับนี้จะมีชื่อเรียกว่า ToxMod ที่มีความสามารถในการตัดเสียงพื้นหลังของ Voice Chat ออกเพื่อทำการวิเคราะห์เสียงการสนทนาในเกมได้สะดวกขึ้น โดย ToxMod จะทำการพิจารณาคำพูดของผู้เล่นที่มีพฤติกรรมสุ่มเสี่ยงความ Toxic จากน้ำเสียง โทนเสียง อารมณ์ที่ใช้ขณะพูด และบริบทคำพูดของผู้เล่นคนนั้น ๆ ประกอบกับการประมวลผลควบคู่กับคีย์เวิร์ดที่เป็นคำเชิงคุกคาม แสดงความเกลียดชัง ดูหมิ่น หรือข่มขู่ ฯลฯ เพื่อดูว่าผู้เล่นคนดังกล่าวเข้าข่าย Toxic และเป็นภัยต่อบรรยากาศและสังคมของผู้เล่นหรือไม่

Activision ได้เผยอีกว่าปกติแล้วเมื่อมีการพบพฤติกรรมของผู้เล่นที่เข้าข่าย Toxic ทีมงานจะทำการแจ้งเตือนไปยังผู้เล่นที่ก่อเหตุก่อน โดยจากข้อมูลเชิงสถิติมีระบุว่าผู้เล่นประมาณ 20% ที่โดนเตือนไปแล้วจะไม่กลับมาทำผิดซ้ำอีก แต่ถ้ามีคนก่อเหตุซ้ำก็จะถูกแบนบัญชีใช้งานชั่วคราว รวมถึงแบนการใช้ Voice Chat ด้วย

ดูทรงแล้วอย่างน้อยการใช้วิธีนี้ก็อาจจะช่วยให้ปัญหาความ Toxic ลดลงไปได้บ้างนะครับ ใครคิดจะเล่นเกม Call of Duty และเปิดไมค์ไปด้วยก็คงต้องระวังการใช้คำพูดคำจา ไม่ให้ไปล่วงละเมิดผู้เล่นอื่นกันนะครับ

แปลและเรียบเรียงจาก

https://www.extremetech.com/gaming/call-of-duty-to-begin-using-ai-to-assess-voice-chat-for-toxicity


ติดตามข่าวเกมพีซี/คอนโซลอื่น ๆ ได้ที่ Online Station

คำที่เกี่ยวข้อง

สมัครรับข่าว OS

คุณอาจสนใจเรื่องนี้