Narzędzie do moderacji czatu głosowego Call of Duty redukuje toksyczne zachowanie w grze

Narzędzie do moderacji czatu głosowego Call of Duty redukuje toksyczne zachowanie w grze

Narzędzie do moderacji czatu głosowego Call of Duty redukuje toksyczne zachowanie w grze

Ostatnio wprowadzono nowe narzędzie do moderacji czatu głosowego w grach Call of Duty: Modern Warfare II, III i Warzone. Działa ono dzięki sztucznej inteligencji i pozwala „rozpoznawać w czasie rzeczywistym i zwalczać toksyczne wypowiedzi”, takie jak mowa nienawiści, język dyskryminacyjny czy prześladowanie. Teraz zespół Call of Duty informuje, że ponad 2 miliony graczy spotkało się z „egzekwowaniem w grze” wobec toksycznego czatu głosowego, dzięki nowemu systemowi.

Narzędzie do moderacji głosowej po raz pierwszy trafiło do Modern Warfare III w sierpniu ubiegłego roku dla użytkowników w Ameryce Północnej, a następnie rozszerzono je na inne regiony wraz z globalną premierą najnowszej strzelanki Activision. Zespół Call of Duty twierdzi, że narzędzie to odniosło sukces, wprowadzając kary dla „ponad 2 milionów kont” za „przeszkadzający czat głosowy, w oparciu o Kodeks postępowania Call of Duty”.

Dla tych, którzy łamią Kodeks postępowania Call of Duty, można się spodziewać, że zostaną całkowicie wyciszeni w czacie głosowym i tekstowym. Osoby, które wielokrotnie łamią zasady, są dalej ograniczane poprzez wyciszenie w komunikacji głosowej i tekstowej w Call of Duty HQ. Co ciekawe, Activision ujawniło, że tylko co piąty użytkownik faktycznie zgłasza toksyczne zachowania w czacie głosowym, co jest „niekorzystnym trendem”. Jednak w przypadkach niewykrytych zgłoszeń, nowy system moderacji głosowej w Call of Duty umożliwia zespołowi podjęcie działań wobec tych, którzy łamią zasady.

Aby zachęcić użytkowników do zgłaszania więcej przypadków, Activision wysyła wiadomości, w których dziękuje graczom za zgłoszenia i zamierza udzielać więcej informacji zwrotnych dotyczących podejmowanych działań na zgłoszenia.

Po analizie danych miesiąc po miesiącu od wprowadzenia nowego systemu moderacji głosowej, Activision informuje, że Call of Duty zanotowało 8% zmniejszenie liczby wielokrotnych naruszeń oraz 50% zmniejszenie liczby „graczy narażonych na poważne przypadki przeszkadzającego czatu głosowego” od czasu premiery Modern Warfare III. „Call of Duty jest zaangażowane w walkę z toksycznymi zachowaniami w naszych grach i umożliwia naszym zespołom wdrożenie i rozwijanie technologii moderacji, aby zwalczać nieodpowiednie zachowanie, zarówno w czacie głosowym, jak i tekstowym” – czytamy w poście na blogu. „Rozumiemy, że jest to ciągła praca, ale jesteśmy zobowiązani do współpracy z naszą społecznością, aby upewnić się, że Call of Duty jest sprawiedliwe i zabawne dla wszystkich.”

Narzędzie do moderacji czatu głosowego zostaje wprowadzone w grach Call of Duty: Modern Warfare II, III i Warzone. Działa ono dzięki sztucznej inteligencji i ma na celu zwalczanie toksycznych wypowiedzi takich jak mowa nienawiści, język dyskryminacyjny czy prześladowanie. Wprowadzenie narzędzia przyniosło pozytywne rezultaty, a ponad 2 miliony graczy spotkało się z egzekwowaniem w grze wobec toksycznego czatu głosowego.

Kodeks postępowania Call of Duty określa zasady dotyczące właściwego zachowania w grze. Gracze, którzy naruszają te zasady, mogą zostać wyciszeni w czacie głosowym i tekstowym, a w przypadku wielokrotnych naruszeń są dalej ograniczani w komunikacji z innymi graczami w Call of Duty HQ.

Aktywność graczy w zgłaszaniu toksycznego zachowania w czacie głosowym jest niewystarczająca. Jedynie co piąty użytkownik faktycznie zgłasza takie przypadki, co jest niekorzystnym trendem. Jednak nowy system moderacji głosowej w Call of Duty pozwala zespołowi podejmować działania wobec tych, którzy łamią zasady, nawet w przypadku niewykrytych zgłoszeń.

Aby zachęcić graczy do zgłaszania więcej przypadków, Activision wysyła wiadomości, w których dziękuje za zgłoszenia i informuje o podejmowanych działaniach.

Dane statyczne pokazują, że od wprowadzenia nowego systemu moderacji głosowej liczba wielokrotnych naruszeń zmniejszyła się o 8%, a liczba graczy narażonych na poważne przypadki przeszkadzającego czatu głosowego zmniejszyła się o 50%.

Call of Duty angażuje się w walkę z toksycznymi zachowaniami w grach i umożliwia swoim zespołom wdrożenie i rozwijanie technologii moderacji, aby zapewnić sprawiedliwość i zabawę dla wszystkich graczy.

Linki do powiązanych źródeł:

Oficjalna strona Call of Duty

The source of the article is from the blog agogs.sk