Recevez chaque jour toute l'actualité du numérique

x

Avec son IA, Modulate veut nettoyer les messages toxiques des chats vocaux de jeux vidéo

Levée de fonds La start-up américaine Modulate, qui développe une solution de modération des messages vocaux pour les chats des jeux en ligne, a levé 30 millions de dollars en série A.
Twitter Facebook Linkedin Flipboard Email
×

Avec son IA, Modulate veut nettoyer les messages toxiques des chats vocaux de jeux vidéo
Avec son IA, Modulate veut nettoyer les messages toxiques des chats vocaux de jeux vidéo © Photo by ELLA DON on Unsplash

Le harcèlement des femmes et les insultes sexistes dans le jeu vidéo en ligne et l'e-sport, c'est une longue histoire. Les joueurs masculins ne sont pas non plus épargnés par les comportements toxiques des internautes. Pour aider les plateformes à améliorer leur modération, la start-up Modulate a développé un outil de modération des messages vocaux, basé sur un algorithme d'intelligence artificielle qui scanne les contenus sur les chats des jeux en ligne. La société a annoncé le 16 août une levée de fonds de 30 millions de dollars en série A. Le tour de table est mené par Lakestar, et complété par Hyperplane Ventures, Everblue et Galaxy.

L'IA de la solution de Moderate, ToxMod, a été entraînée à partir d'une dizaine de millions d'heures de contenus audio. Elle est vouée à détecter les discours violents, inappropriés, pédophiles, la radicalisation, et suicidaires.
 

Comprendre le contenu et le contexte

"C'est un problème que tout le monde, dans l'industrie, a désespérément besoin de résoudre depuis longtemps, explique le CEO de Modulate dans une interview à GamesBeat. Le cœur du métier, c'est la modération vocale proactive. Plutôt que de se reposer uniquement sur les signalements des joueurs, il s'agit de s'occuper vraiment d'eux, d'identifier les mauvais comportements et de faire vraiment quelque chose pour les combattre, d'une manière plus globale."

Modulate assure que son IA est capable de détecter le ton des messages – uniquement en anglais pour le moment -, afin de les contextualiser. La start-up communique sur une efficacité de la détection des infractions aux chartes des plateformes de 98%, permettant aux équipes de modération de réagir 25 fois plus vite aux incidents. La start-up fondée en 2017 serait la première à proposer un outil de modération de ce genre.

Elle travaille déjà avec le jeu en ligne Rec Room, Gun Raiders, et Poker Stars VR. Modulate va utiliser une partie de sa levée de fonds pour recruter de nouveaux collaborateurs, qui atteindront le nombre de 27 fin août, a-t-elle précisé.