Neuer Artikel: Call of Duty implementiert KI-Tool zur Bekämpfung von Online-Toxizität

Neuer Artikel: Call of Duty implementiert KI-Tool zur Bekämpfung von Online-Toxizität

Niemal 2 miliony kont w Call of Duty jest badanych w związku z toksyczną rozmową głosową

Call of Duty, eine der beliebtesten Videospielreihen, hat kürzlich ein bahnbrechendes KI-Tool eingeführt, um das Problem des toxischen Verhaltens in seinen Online-Voice-Chats anzugehen. Das Tool, das von Activision, dem Publisher des Spiels, eingeführt wurde, hat bereits über zwei Millionen Accounts erkannt, die sich in toxischen Gesprächen engagiert haben, und wird derzeit untersucht.

Das neue System, das auf die Bekämpfung von toxischem Sprachgebrauch abzielt und eine gesündere Spielumgebung fördert, wurde erstmals in der Beta-Version der Voice-Chat-Moderation des Spiels in Modern Warfare 2 und Warzone im August 2023 eingeführt und war zunächst nur in englischer Sprache für Spieler in Nordamerika verfügbar. Das Tool wurde seitdem weltweit (außerhalb von Asien) auf Call of Duty: Modern Warfare 3 erweitert und unterstützt nun auch Spanisch und Portugiesisch.

Laut Activision hat das Anti-Toxizitäts-System bereits über zwei Millionen Accounts erfolgreich erkannt und bestraft, die „Sprachgespräche gemäß dem Call of Duty-Verhaltenskodex gestört haben“. In Fällen, die nicht gemeldet wurden, ergreift das Voice-Chat-Moderationssystem angemessene Maßnahmen gegen die beleidigenden Spieler. Aktive Meldungen sind jedoch nach wie vor entscheidend, weshalb das Unternehmen Nachrichten eingeführt hat, in denen den Spielern für ihre Meldungen gedankt wird, und zukünftig Rückmeldungen zu den ergriffenen Maßnahmen geben möchte.

Durch die Analyse der Daten Monat für Monat seit Einführung des Voice-Chat-Moderationssystems hat Activision enthüllt, dass Call of Duty seit der Veröffentlichung von Modern Warfare III einen Rückgang von 8% bei Wiederholungstätern und eine um 50% verringerte Anzahl von Spielern verzeichnet, die „erheblichen Störungen in Sprachgesprächen“ ausgesetzt waren. Verstöße gegen den Verhaltenskodex können verschiedene Konsequenzen haben, darunter globales Stummschalten in Sprach- und Textchats sowie Beschränkungen bei anderen sozialen Funktionen.

Call of Duty ist entschlossen, Toxizität in seinen Spielen zu bekämpfen und wird weiterhin Moderationstechnologien entwickeln, um störendem Verhalten in Sprach- und Textchats entgegenzuwirken. Das Unternehmen erkennt an, dass dies ein fortlaufender Prozess ist und ist darum bemüht, mit der Gaming-Community zusammenzuarbeiten, um sicherzustellen, dass Call of Duty für alle fair und unterhaltsam bleibt.

Häufig gestellte Fragen: