Neue Artikel: Call of Duty implementiert KI-Tool zur Bekämpfung von Online-Toxizität

Neue Artikel: Call of Duty implementiert KI-Tool zur Bekämpfung von Online-Toxizität

Niemal 2 miliony kont w Call of Duty jest badanych w związku z toksyczną rozmową głosową

Call of Duty, eine der beliebtesten Videospiel-Franchises, hat kürzlich ein bahnbrechendes KI-Tool implementiert, um das Problem des toxischen Verhaltens in seinen Online-Sprachchats anzugehen. Das von Activision, dem Herausgeber des Spiels, eingeführte Tool hat bereits über zwei Millionen Accounts erkannt, die sich in toxischen Gesprächen befinden, und wird derzeit untersucht.

Das neue System, das darauf abzielt, toxische Sprache zu bekämpfen und eine gesündere Spielerumgebung zu fördern, wurde erstmals in der Beta-Version der Sprachchat-Moderation des Spiels in Modern Warfare 2 und Warzone im August 2023 eingeführt und war anfangs nur auf Englisch für Spieler in Nordamerika verfügbar. Das Tool wurde seitdem weltweit (außer in Asien) auf Call of Duty: Modern Warfare 3 erweitert und unterstützt jetzt auch die spanische und portugiesische Sprache.

Laut Activision hat das Anti-Toxizitäts-System bereits über zwei Millionen Accounts erfolgreich erkannt und bestraft, die „Sprachgespräche gemäß dem Call of Duty-Verhaltenskodex stören“. In Fällen, die nicht gemeldet wurden, ergreift das Sprachchat-Moderationssystem geeignete Maßnahmen gegen die beleidigenden Spieler. Aktive Meldungen sind jedoch nach wie vor entscheidend, weshalb das Unternehmen Nachrichten eingeführt hat, in denen den Spielern für ihre Meldungen gedankt wird, und plant, in Zukunft Rückmeldungen zu den ergriffenen Maßnahmen zu geben.

Durch die Analyse von Daten Monat für Monat seit der Einführung des Sprachchat-Moderationssystems hat Activision festgestellt, dass Call of Duty seit der Veröffentlichung von Modern Warfare III eine 8%ige Abnahme von wiederholten Verstößen und eine 50%ige Reduzierung der Anzahl von Spielern verzeichnet hat, die „erheblichen Störungen in Sprachgesprächen ausgesetzt waren“. Verletzer des Verhaltenskodex können mit verschiedenen Konsequenzen rechnen, darunter globales Stummschalten in Sprach- und Textchats sowie Einschränkungen bei anderen sozialen Funktionen.

Call of Duty ist bestrebt, Toxizität in seinen Spielen zu bekämpfen, und wird weiterhin Moderationstechnologien entwickeln, um störendes Verhalten in Sprach- und Textchats anzugehen. Das Unternehmen erkennt an, dass dies eine fortlaufende Bemühung ist und ist bestrebt, mit der Spielecommunity zusammenzuarbeiten, um sicherzustellen, dass Call of Duty fair und unterhaltsam für alle bleibt.

FAQ:

1. Welches Tool hat Activision in Call of Duty-Spielen eingeführt?
Activision hat ein neues Tool für vorübergehende Sprachchat-Moderation in Call of Duty-Spielen eingeführt.

2. Welche Elemente zielt das Tool darauf ab, zu erkennen?
Das Tool zielt darauf ab, Elemente wie Hassrede, diskriminierende Sprache, Belästigung und mehr bei den Spielern zu erkennen.

3. Seit wann ist das Tool in den Spielen verfügbar?
Die Beta-Version des KI-Systems wurde im August 2023 zu Modern Warfare 2 und Warzone hinzugefügt.

4. In welcher Region wurde das System anfangs eingeführt?
Das Tool wurde anfangs nur in Nordamerika eingeführt und war auf Englisch verfügbar.

5. Welche Sprachen wurden nach der Erweiterung des Systems hinzugefügt?
Das Tool wurde weltweit (außer in Asien) auf Call of Duty: Modern Warfare 3 erweitert und unterstützt jetzt auch die spanische und portugiesische Sprache.

6. Wie viele Accounts wurden vom System erkannt?
Das Anti-Toxizitäts-System hat erfolgreich über zwei Millionen Accounts erkannt, die im Spiel für „Störungen von Sprachgesprächen gemäß dem Call of Duty-Verhaltenskodex“ bestraft wurden.

7. Mit welchen Konsequenzen müssen Spieler rechnen, die gegen den Verhaltenskodex verstoßen?
Spieler können verschiedene Konsequenzen erwarten, einschließlich globalem Stummschalten in Sprach- und Textchats sowie Einschränkungen bei anderen sozialen Funktionen.

8. Welche Vorteile hat die Implementierung des Moderationssystems gebracht?
Gemäß der Datenanalyse gab es seit der Veröffentlichung von Call of Duty: Modern Warfare III eine 8%ige Abnahme von wiederholten Verstößen und eine 50%ige Reduzierung der Anzahl von Spielern, die „erheblichen Störungen in Sprachgesprächen ausgesetzt waren“.

9. Wie plant Activision, die Toxizität in Spielen weiterhin zu bekämpfen?
Activision wird weiterhin Moderationstechnologien entwickeln, um störendes Verhalten in Sprach- und Textchats anzugehen.

Definitionen:

1. Toxizität – Spielerisches Verhalten oder Sprache, die aggressiv, beleidigend, diskriminierend oder anderweitig schädlich für andere Spieler ist.

Quelle:

– Offizielle Website von Call of Duty