Recevez chaque jour toute l'actualité du numérique

x

Comment la technique d’IA de la start-up Guard décode les politiques de confidentialité sur le Web

Vu ailleurs Guard a mis au point une technique d’intelligence artificielle capable de noter les politiques de confidentialité des services en ligne. De quoi économiser de précieuses minutes aux internautes, alors que prendre connaissance des conditions reste un préalable laborieux.
Twitter Facebook Linkedin Flipboard Email
×

Comment la technique d’IA de la start-up Guard décode les politiques de confidentialité sur le Web
Comment la technique d’IA de la start-up Guard décode les politiques de confidentialité sur le Web © Geralt

Qui prend plaisir à lire les conditions d’utilisation d’un service pour en déceler les pratiques en matière de confidentialité des données ? C’est pour épargner cela aux internautes que la start-up américaine Guard a développé une technique d’intelligence artificielle à même d’émettre un avis sur le niveau de protection de la vie privée. Repérée par nos confrères du site The Next Web, la solution constitue une petite révolution dans les pratiques. Elle est accessible en ligne.

 

UN SCORE POUR CHAQUE SERVICE EN LIGNE

Une vingtaine de "grands" services en ligne – tels que Netflix, Spotify, Tinder, Instagram, Twitter ou LinkedIn – sont déjà couverts par la technique de Guard. La solution passe en revue leurs conditions d’utilisation, qu’elle hiérarchise les unes par rapport aux autres. Sous la forme de fiches individuelles, elle attribue alors un score général à chaque marque en fonction du niveau de protection des données garanti. Cette IA pourrait indéniablement changer la donne, alors que la plupart des internautes ne lisent aujourd’hui pas un seul mot des politiques de confidentialité. Un texte que les services en question sont tenus d’exposer depuis l’entrée en vigueur du RGPD en mai 2018.

 

 

C’est tout un jargon juridique et (volontairement ?) obscur que Guard rend limpide. Après analyse, sa technique met en avant le nombre de menaces potentielles contenues dans un texte… et tient compte des affaires auxquelles l’entreprise émettrice a déjà été confrontée dans le domaine de la vie privée. L’internaute est alors prévenu du risque encouru, et pleinement informé pour choisir – ou non – de poursuivre son utilisation du dit service. Prenons l’exemple de la messagerie cryptée Telegram. Notée A+ sur Guard, elle dispose d’un score de 105 % certifiant de son innocuité pour les données de l’utilisateur. Mais ses erreurs passées ne sont pas pour autant passées sous silence : l’application a, entre autres, connu des déboires en matière de stockage des images envoyées entre utilisateurs.

 

 

L’idée de Guard découle d’une thèse de doctorat soutenue par le développeur Javi Rameerez, expert dans le domaine de l’intelligence artificielle et, plus particulièrement, du traitement du langage. Actuellement, quelque 1261 "gardes de la protection de la vie privée" – c’est le nom donné par la jeune pousse à la communauté qui participe à l’amélioration de son outil. Pour entraîner cette IA, il suffit de se rendre sur son site et de choisir l’option la plus "privacy-friendly" entre deux propositions tirées des textes officiels que les services en ligne exposent à leurs utilisateurs. Simple comme bonjour.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media