Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

L’intelligence artificielle épaule Facebook pour prévenir les suicides en direct

Vu ailleurs Scène de torture, accident, suicide… La gestion des vidéos diffusées en direct est un véritable casse tête pour Facebook. Après plusieurs cas de suicides diffusés via Facebook Live ces derniers mois, le réseau social de Mark Zuckerberg teste un programme d’intelligence artificielle pour repérer les messages de détresse.
Twitter Facebook Linkedin Flipboard Email
×

L’intelligence artificielle épaule Facebook pour prévenir les suicides en direct
L’intelligence artificielle épaule Facebook pour prévenir les suicides en direct © Facebook

Facebook n’en est pas à sa première mesure pour détecter les risques de suicide chez ses utilisateurs. Le réseau social aux 1,8 milliard d'utilisateurs agit en amont depuis 2011. D’abord avec un tchat qui connecte un utilisateur signalé en difficulté avec un interlocuteur adéquat. Puis, depuis juin 2016, via un bouton de signalement disponible dans tous les pays du monde.

 

"Nous avons des équipes partout dans le monde, 24h/ 24, 7j/7, qui passent en revue ces signalements et qui se penchent en priorité sur les cas les plus sérieux comme le suicide", souligne Facebook dans son communiqué publié mercredi 1er mars. Le réseau social sait qu’il a un rôle à jouer : "Facebook a une position privilégiée - à travers les amitiés sur le site - pour aider à connecter un utilisateur en détresse avec des personnes qui peuvent la soutenir."

 

L’intelligence artificielle à l’écoute

Face à la détresse et au voyeurisme de milliers d’utilisateurs, Facebook se fait épauler par un programme d’intelligence artificielle (IA). Le réseau social teste, uniquement aux États-Unis pour le moment, plusieurs algorithmes qui permettent d'isoler certains signes inquiétants dans les statuts ou les commentaires de sa timeline.

 

Selon la BBC, l’IA se repose sur des associations de mots (et de maux) tels que "Je m’inquiète pour toi" ou encore "Tout va bien ?". Une fois identifiés par l’IA, les messages inquiétants sont rapportés aux équipes de Facebook. Ces derniers proposent alors à l’utilisateurs désespérés de prendre contact avec un ami ou des associations partenaires, telles que la National Suicide Prevention Lifeline ou la National Eating Disorder Association.

 

Les algorithmes plus pertinents que les utilisateurs

Interviewée par BuzzFeed, Vanessa Callison-Burch, product manager chez Facebook, assure que "l’IA est plus pertinente que les signalements de suicide et d’auto-mutilation des utilisateurs. Les personnes ayant été signalées par l’IA sont plus susceptibles de recevoir de l’aide que celles repérées par les utilisateurs". Ainsi Facebook fait plus confiance aux algorithmes qu’au jugement humain.

 

Outre les messages postés sur la timeline, les commentaires Facebook Live seront aussi passés au crible par l’IA. Jennifer Guadagno, chercheuse du projet, explique que Facebook n'interrompra pas la diffusion d’un suicide imminent : "couper la diffusion éliminera la possibilité aux utilisateurs de venir en aide" à la personne en détresse. L’IA devrait également être intégrée par la suite à Facebook Messenger. Une mesure bien intentionnée qui peut vite se heurter à la question du respect de la vie privée sur Facebook.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale