Niemal 2 miliony kont w Call of Duty jest badanych w związku z toksyczną rozmową głosową

Niemal 2 miliony kont w Call of Duty jest badanych w związku z toksyczną rozmową głosową

Niemal 2 miliony kont w Call of Duty jest badanych w związku z toksyczną rozmową głosową

System moderacji rozmów głosowych anty-toksyczności w Call of Duty wykrył ponad dwa miliony kont, które są obecnie badane. W zeszłym roku, Activision ogłosił, że wprowadzi nowe narzędzie do czasowej moderacji głosowej w swoich najnowszych grach Call of Duty. Narzędzie to ma na celu „zwalczanie toksycznych wypowiedzi” poprzez wykrywanie takich elementów jak „mowa nienawiści, dyskryminujące słownictwo, szykanowanie i wiele innych” wśród graczy. Wersja beta systemu AI została dodana do gier Modern Warfare 2 i Warzone w sierpniu 2023 roku, najpierw w Ameryce Północnej tylko w języku angielskim, a następnie została rozszerzona na Call of Duty: Modern Warfare 3 na całym świecie (poza Azją) i dodano wsparcie dla języków hiszpańskiego i portugalskiego.

Według firmy, system anty-toksyczności zdołał wykryć ponad dwa miliony kont, które zostały poddane sankcjom w grze za „zakłócenie rozmowy głosowej zgodnie z Kodeksem Postępowania w Call of Duty”. W przypadkach, które nie zostały zgłoszone, system moderacji głosowej podejmuje odpowiednie działania przeciwko graczom. Aktywne zgłaszanie jest jednak nadal kluczowe, dlatego firma wprowadza wiadomości, które dziękują graczom za zgłoszenia, a w przyszłości planuje udzielać informacji zwrotnej dotyczącej podjętych działań.

Firma Activision wyjaśniła, że na podstawie analizy danych miesiąc po miesiącu, od czasu wprowadzenia systemu moderacji rozmów głosowych, Call of Duty odnotował 8% spadek recydywistów oraz 50% zmniejszenie liczby graczy „narażonych na poważne przypadki zakłóceń w rozmowie głosowej” od czasu premiery Modern Warfare III. Za naruszenie zasad postępowania gracze mogą spodziewać się różnych konsekwencji, takich jak globalne wyciszenie w rozmowie głosowej i tekstowej oraz ograniczenia w innych funkcjach społecznościowych.

Call of Duty jest zobowiązane do zwalczania toksyczności w swoich grach i będzie rozwijać technologię moderacji, aby zwalczać zachowania zakłócające, zarówno w rozmowach głosowych, jak i tekstowych. Rozumiemy, że jest to ciągła praca, ale jesteśmy zaangażowani w współpracę z naszą społecznością w celu zapewnienia, że Call of Duty jest uczciwy i zabawny dla wszystkich.

FAQ:

1. Jakie narzędzie wprowadziła firma Activision do gier Call of Duty?
Activision wprowadził nowe narzędzie do czasowej moderacji głosowej w grach Call of Duty.

2. Jakie elementy narzędzie ma wykrywać?
Narzędzie ma wykrywać „mowę nienawiści, dyskryminujące słownictwo, szykanowanie i wiele innych” wśród graczy.

3. Od kiedy narzędzie jest dostępne w grach?
Wersja beta systemu AI została dodana do gier Modern Warfare 2 i Warzone w sierpniu 2023 roku.

4. Na jakim obszarze system najpierw został wprowadzony?
Narzędzie zostało najpierw wprowadzone w Ameryce Północnej tylko w języku angielskim.

5. Jakie języki zostały dodane po rozszerzeniu tego systemu?
Narzędzie zostało rozszerzone na Call of Duty: Modern Warfare 3 na całym świecie (poza Azją), dodano również wsparcie dla języków hiszpańskiego i portugalskiego.

6. Ile kont zostało wykrytych przez system?
System anty-toksyczności zdołał wykryć ponad dwa miliony kont, które zostały poddane sankcjom w grze za „zakłócenie rozmowy głosowej zgodnie z Kodeksem Postępowania w Call of Duty”.

7. Jakie są konsekwencje dla graczy, którzy naruszają zasady postępowania?
Gracze mogą spodziewać się różnych konsekwencji, takich jak globalne wyciszenie w rozmowie głosowej i tekstowej oraz ograniczenia w innych funkcjach społecznościowych.

8. Jakie korzyści przyniosło wprowadzenie systemu moderacji?
Analiza danych pokazała 8% spadek recydywistów oraz 50% zmniejszenie liczby graczy „narażonych na poważne przypadki zakłóceń w rozmowie głosowej” od czasu premiery Call of Duty: Modern Warfare III.

9. Jak Activision zamierza dalej przeciwdziałać toksyczności w grach?
Activision będzie rozwijać technologię moderacji, aby zwalczać zachowania zakłócające zarówno w rozmowach głosowych, jak i tekstowych.

Definicje:

1. Toksyczność – Zachowanie lub wypowiedź gracza, które jest agresywne, obraźliwe, dyskryminujące lub w jakiś sposób szkodliwe dla innych graczy.

Linki:

Strona główna Call of Duty

The source of the article is from the blog revistatenerife.com