Spoločnosť Activision, vydavateľ videohier, oznámila výsledky testovania svojho moderátorského nástroja na báze umelej inteligencie (AI), ktorý sa používa vo hre Call of Duty. Nástroj s názvom ToxMod sa uviedol ako beta verzia pred vydanim hry Call of Duty: Modern Warfare III a odvtedy identifikoval viac ako 2 milióny účtov s „rušivým hlasovým chatom“.
ToxMod je schopný identifikovať „rušivé“ komentáre vo 14 jazykoch v hrách ako Call of Duty: Modern Warfare II, Modern Warfare III a Call of Duty: Warzone. Jeho efektivita sa však zakladá na spolupráci hráčov, pretože len 1 zo 5 používateľov nahlási prípady toxického správania.
Spoločnosť Activision zaviedla systém odkazov, ktoré motivujú hráčov na nahlásenie porušenia pravidiel hry. Vďaka zavedeniu ToxModu sa podarilo rozšíriť moderátorskú stratégiu spoločnosti, pričom dochádza k postupnému úbytku opakovaných porušení pravidiel hry.
Od uvedenia ToxModu došlo tiež k 50% zníženiu počtu vážnych prípadov rušivého hlasového chatu od vydania Modern Warfare III. Hráči, ktorí aj naďalej porušujú pravidlá, čelia ďalším obmedzeniam, ako je napríklad deaktivácia možnosti používať hlasový a textový chat a obmedzenie iných sociálnych funkcií.
Spoločnosť Activision sa tiež snaží nájsť spôsoby, ako hráčom umožniť „dodatočnú spätnú väzbu“. Pre tých, ktorí potrebujú pripomienku pravidiel, ktorá môže viesť k nahláseniu účtu, Activision aktualizoval zákaznícky kódex v hre Call of Duty. Spoločnosť jednoznačne definovala svoje stanovisko v boji proti toxickému správaniu, vrátane nultej tolerancie voči násiliu a šikane, ako aj urážlivých poznámok týkajúcich sa rasy, identity, sexuálnej orientácie, veku, kultúry, náboženstva, fyzického alebo mentálneho postihnutia alebo krajiny pôvodu.
Spoločnosť Activision je rozhodnutá bojovať proti toxickému správaniu v hrách a plánuje ďalej rozvíjať svoje moderátorské technológie pre hlasový a textový chat.
Často kladené otázky
The source of the article is from the blog windowsvistamagazine.es