Activision, una dintre cele mai mari companii producătoare de jocuri video, a anunțat rezultatele testelor efectuate asupra instrumentului său de moderare bazat pe inteligență artificială (IA), utilizat în jocul Call of Duty. Acest instrument, cunoscut sub numele de ToxMod, a fost introdus în august anul trecut și a identificat până acum peste 2 milioane de conturi care au înregistrat „conversații vocale disruptive”.
Activision a lansat inițial ToxMod într-o versiune beta înainte de lansarea jocului Call of Duty: Modern Warfare III și l-a dezvoltat treptat în întreaga lume. Potrivit reprezentanților companiei, ToxMod este capabil să identifice comentarii „disruptive” în 14 limbi în jocuri precum Call of Duty: Modern Warfare II, Modern Warfare III și Call of Duty: Warzone.
Deși instrumentul Activision s-a dovedit a fi eficient, compania subliniază faptul că doar 1 din 5 utilizatori raportează cazuri de comportament toxic. În consecință, au fost implementate mesaje care încurajează jucătorii să raporteze încălcările regulilor jocului.
Implementarea ToxMod a dat rezultate imediate, permițând companiei să-și extindă strategia de moderare. Activision afirmă că, de la implementarea acestui model de IA, numărul încălcărilor repetate ale regulilor jocului de către jucători a scăzut treptat.
În plus, numărul de cazuri „grave” de conversații vocale disruptive a scăzut cu 50% de la lansarea lui Modern Warfare III. Jucătorii care continuă să încalce regulile vor fi supuși unor restricții suplimentare, precum dezactivarea posibilității de a utiliza chat-ul vocal și scris și limitarea altor funcții sociale.
Activision subliniază, de asemenea, că își caută modalități de a permite jucătorilor să ofere „feedback suplimentar”. Pentru cei care au nevoie de un reminder cu privire la regulile care pot duce la raportarea unui cont, Activision a actualizat Codul de Conduită din jocul Call of Duty. Compania a definit clar poziția sa în combaterea discursului toxic, inclusiv toleranță zero față de violență și hărțuire, precum și remarci ofensatoare referitoare la rasă, identitate sau orientare sexuală, vârstă, cultură, religie, dizabilități fizice sau mentale sau țară de origine.
Activision este hotărâtă să combată comportamentul toxic în jocuri și are planuri de a continua dezvoltarea tehnologiilor sale de moderare pentru chat-ul vocal și scris.
Întrebări frecvente
1. Care este instrumentul de moderare folosit de Activision în jocul Call of Duty?
R: Activision folosește un instrument numit ToxMod, bazat pe inteligență artificială, pentru a identifica comentariile „disruptive” în jocul Call of Duty.
2. Ce limbi poate identifica ToxMod?
R: ToxMod este capabil să identifice comentarii „disruptive” în 14 limbi, inclusiv în jocuri precum Call of Duty: Modern Warfare II, Modern Warfare III și Call of Duty: Warzone.
3. Care este rezultatul implementării lui ToxMod?
R: Implementarea ToxMod a dus la o scădere treptată a numărului de încălcări repetate ale regulilor jocului de către jucători.
4. Cât de eficient este instrumentul Activision în combaterea comportamentului toxic în jocuri?
R: Deși eficient, Activision subliniază că doar 1 din 5 utilizatori raportează cazuri de comportament toxic. Compania încurajează jucătorii să raporteze orice încălcare a regulilor jocului.