Activision ha annunciato di aver stretto una collaborazione con il California Institute of Technology per contrastare i comportamenti toxic dei giocatori online.
La svolta è data dal nuovo software di analisi che baserà il proprio funzionamento su un’intelligenza artificiale offerta da una rete neurale. Questo nuovo strumento fungerà da moderatore automatizzato in grado di filtrare i commenti e i video scambiati dagli utenti nel corso di una sessione di gioco, attraverso le piattaforme social o tramite i servizi di messaggistica integrati nell’ecosistema software di PC, console e sistemi mobile.
Questa nuova tecnologia, che finalmente raggiungerà il panorama videoludico, è attualmente in sviluppo presso Activision sotto la guida dall’esperta di IA Neurali, Anima Anandkumar, e dal politologo Michael Alvarez. Tra le tante funzionalità, riuscirà a rilevare comportamenti tossici, ma non solo, riconoscerà anche i messaggi a sfondo volgare (trolls, razzismo, sessismo, doxing e insulti).
La previsione vede lo sviluppo del software nell’arco dei prossimi due anni, e una sua possibile messa in opera non prima della fine del 2024.