Activision ha annunciato di aver stretto una collaborazione con il California Institute of Technology per contrastare i comportamenti toxic dei giocatori online.

Annuncio.

La svolta è data dal nuovo software di analisi che baserà il proprio funzionamento su un’intelligenza artificiale offerta da una rete neurale. Questo nuovo strumento fungerà da moderatore automatizzato in grado di filtrare i commenti e i video scambiati dagli utenti nel corso di una sessione di gioco, attraverso le piattaforme social o tramite i servizi di messaggistica integrati nell’ecosistema software di PC, console e sistemi mobile.

Questa nuova tecnologia, che finalmente raggiungerà il panorama videoludico, è attualmente in sviluppo presso Activision sotto la guida dall’esperta di IA Neurali, Anima Anandkumar, e dal politologo Michael Alvarez. Tra le tante funzionalità, riuscirà a rilevare comportamenti tossici, ma non solo, riconoscerà anche i messaggi a sfondo volgare (trolls, razzismo, sessismo, doxing e insulti).

La previsione vede lo sviluppo del software nell’arco dei prossimi due anni, e una sua possibile messa in opera non prima della fine del 2024.

Iscriviti
Notificami
guest

0 Commenti
più vecchi
più nuovi più votati
Feedback in riga
Vedi tutti i commenti