Ubisoft e Riot Games contro le chat tossiche
Le due compagnie uniscono le forze per creare un sistema di moderazione basato sull'IA
Se avete l'abitudine di intrattenervi con quei videogame competitivi online dove gli utenti chattano fra di loro, senz'altro vi sarà capitato di assistere a utenti che si rendono responsabili di comportamenti inappropriati, quali insulti o molestie. Si tratta di un problema ben noto alle compagnie del settore, che purtroppo non riescono ad evitare che nei loro giochi si crei un ambiente tossico, a meno di prendere provvedimenti drastici come eliminare la possibilità di comunicare. Tuttavia in futuro potrebbe non essere più così, perché qualcosa si sta muovendo.
Yves Jacquier, produttore esecutivo presso Ubisoft e Wesley Kerr, capo della ricerca presso Riot Games, si sono fatti promotori di Zero Harm in Comms, il primo progetto sulla moderazione dei contenuti nei videogame condiviso del settore. Ubisoft e Riot Games intendono creare un database di dati (raccolti in modo anonimo), con i quali istruire una intelligenza artificiale che sia così in grado di moderare la chat dei videogame. L'idea di fondo è che un domani a questo strumento possa accedere l'intera industria videoludica, in modo da contrastare in maniera efficace la moltitudine di abusi perpetrati nelle chat.
Lo sviluppo di Zero Harm in Comms (espressione traducibile come "zero danni nelle comunicazioni") è ancora alle fasi iniziali. La collaborazione fra Ubisoft e Riot Games dovrebbe costituire una ottima base di partenza sulla quale modellare il progetto, perché la compagnia francese dispone di un catalogo di titoli molto ampio e diversificato, mentre quella americana è caratterizzata da videogame con un alto tasso di competitività, quindi messe insieme coprono una buona parte delle tipologie del gaming online.