L’intelligence artificielle épaule Facebook pour prévenir les suicides en direct

Scène de torture, accident, suicide… La gestion des vidéos diffusées en direct est un véritable casse tête pour Facebook. Après plusieurs cas de suicides diffusés via Facebook Live ces derniers mois, le réseau social de Mark Zuckerberg teste un programme d’intelligence artificielle pour repérer les messages de détresse.

Partager
L’intelligence artificielle épaule Facebook pour prévenir les suicides en direct

Facebook n’en est pas à sa première mesure pour détecter les risques de suicide chez ses utilisateurs. Le réseau social aux 1,8 milliard d'utilisateurs agit en amont depuis 2011. D’abord avec un tchat qui connecte un utilisateur signalé en difficulté avec un interlocuteur adéquat. Puis, depuis juin 2016, via un bouton de signalement disponible dans tous les pays du monde.

"Nous avons des équipes partout dans le monde, 24h/ 24, 7j/7, qui passent en revue ces signalements et qui se penchent en priorité sur les cas les plus sérieux comme le suicide", souligne Facebook dans son communiqué publié mercredi 1er mars. Le réseau social sait qu’il a un rôle à jouer : "Facebook a une position privilégiée - à travers les amitiés sur le site - pour aider à connecter un utilisateur en détresse avec des personnes qui peuvent la soutenir."

L’intelligence artificielle à l’écoute

Face à la détresse et au voyeurisme de milliers d’utilisateurs, Facebook se fait épauler par un programme d’intelligence artificielle (IA). Le réseau social teste, uniquement aux États-Unis pour le moment, plusieurs algorithmes qui permettent d'isoler certains signes inquiétants dans les statuts ou les commentaires de sa timeline.

Selon la BBC, l’IA se repose sur des associations de mots (et de maux) tels que "Je m’inquiète pour toi" ou encore "Tout va bien ?". Une fois identifiés par l’IA, les messages inquiétants sont rapportés aux équipes de Facebook. Ces derniers proposent alors à l’utilisateurs désespérés de prendre contact avec un ami ou des associations partenaires, telles que la National Suicide Prevention Lifeline ou la National Eating Disorder Association.

Les algorithmes plus pertinents que les utilisateurs

Interviewée par BuzzFeed, Vanessa Callison-Burch, product manager chez Facebook, assure que "l’IA est plus pertinente que les signalements de suicide et d’auto-mutilation des utilisateurs. Les personnes ayant été signalées par l’IA sont plus susceptibles de recevoir de l’aide que celles repérées par les utilisateurs". Ainsi Facebook fait plus confiance aux algorithmes qu’au jugement humain.

Outre les messages postés sur la timeline, les commentaires Facebook Live seront aussi passés au crible par l’IA. Jennifer Guadagno, chercheuse du projet, explique que Facebook n'interrompra pas la diffusion d’un suicide imminent : "couper la diffusion éliminera la possibilité aux utilisateurs de venir en aide" à la personne en détresse. L’IA devrait également être intégrée par la suite à Facebook Messenger. Une mesure bien intentionnée qui peut vite se heurter à la question du respect de la vie privée sur Facebook.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS