Activision użył AI do walki z wulgarnym czatem głosowym
Activision stawia na AI
Firma Activision nawiązała współpracę z Modulate, aby wdrożyć oprogramowanie do moderacji czatu głosowego oparte na sztucznej inteligencji o nazwie ToxMod w grach Call of Duty.
Oprogramowanie to zostało wprowadzone w czerwcu 2024 roku i od tego czasu, jak twierdzi Activision, nastąpił spadek o 67% liczby recydywistów w zakresie wykroczeń związanych z czatem głosowym w Modern Warfare 3 i Call of Duty: Warzone.
Co więcej, w lipcu 2024 roku 80% graczy, którzy otrzymali karę za czat głosowy, nie popełniło ponownie tego samego wykroczenia. Od stycznia 2024 roku zaobserwowano również 43% spadek ekspozycji na toksyczne zachowania w czacie głosowym.
Jak działa ToxMod?
ToxMod działa poprzez nasłuchiwanie czatu głosowego i zgłaszanie przypadków toksycznego zachowania, takich jak mowa nienawiści i molestowanie, ludzkim moderatorom. Oprogramowanie jest również w stanie uwzględnić ton głosu i kontekst rozmowy, aby odróżnić żarty od prawdziwej mowy nienawiści.
Na przykład, oprogramowanie może wykryć, czy obraźliwe słowo jest używane w nienawistny sposób, czy też zostało ono „odzyskane” przez społeczność, do której jest kierowane. Stopień powagi wykroczenia jest również określany przez takie czynniki, jak wiek ofiary, przy czym wykroczenia wobec młodszych graczy są oceniane surowiej.
Prywatność a bezpieczeństwo
Zdaje sobie sprawę, że istnieją obawy dotyczące prywatności związane z wykorzystaniem sztucznej inteligencji do monitorowania czatu głosowego. Jednak, że korzyści płynące ze zmniejszenia toksyczności w grach online przeważają nad tymi obawami.
Osobiście uważam, że jeśli liczby podane przez Activision są dokładne, to wykorzystanie ToxMod w Call of Duty jest pozytywnym krokiem. Mam nadzieję, że dzięki takim rozwiązaniom gry online staną się bezpieczniejszym i przyjemniejszym miejscem dla wszystkich.