La Cour suprême américaine se penche sur la modération des plateformes et le rôle de leurs algorithmes
Deux familles de victimes d’attentats, l’une à Paris en 2015, l’autre à Istanbul en 2017, ont porté plainte contre Google, Facebook et Twitter devant la Cour suprême américaine. Elles reprochent aux géants du web d’avoir recommandé via leurs algorithmes des contenus djihadistes ayant contribué à la radicalisation des terroristes.
Une incitation bienvenue à une meilleure modération des plateformes ou un risque pour les libertés sur le net ? La Cour suprême américaine devra trancher cette question à partir de ces 21 et 22 février, dates auxquelles elle commencera l’examen de deux plaintes déposées par des familles de victimes d’attentats terroristes contre Google, Facebook et Twitter. La première affaire concerne la famille de Nohemi Gonzalez, étudiante américaine assassinée sur la terrasse du Carillon lors des attentats du 13-Novembre à Paris. La seconde est portée par la famille de Nawras Alassaf, un citoyen jordanien tué dans l’attaque par l’Etat islamique de la boîte de nuit Reina Nightclub à Istanbul en 2017, le soir du Nouvel an.
Ces deux familles reprochent à Google, Facebook et Twitter d’avoir insuffisamment modéré les contenus djihadistes disponibles en ligne qui ont mené à la radicalisation des terroristes. Or, selon la section 230 du Communications Decency Act - la loi américaine qui a fondé les règles de l'internet moderne - les plateformes ne sont que des hébergeurs de contenus. Elles n’en sont responsables que si ces contenus leur ont été signalés comme illégaux. Sans ces garde-fous, arguent leurs défenseurs, les réseaux sociaux tels que nous les connaissons ne pourraient exister, car la responsabilité des plateformes serait perpétuellement engagée.
La crainte d’une censure massive si la section 230 ne s’applique plus aux algorithmes
Les parties plaignantes mettent en avant l’idée que la section 230 ne s’applique pas dans leur cas, car les contenus de l’Etat islamique visionnés par les terroristes leur ont bien été recommandés par les plateformes elles-mêmes. "Cela revient à dire que les plates-formes ne sont pas responsables du contenu posté par l’EI, mais qu'elles sont responsables des algorithmes de recommandation qui ont promu ce contenu", résume Daphne Keller, directrice du programme de réglementation des plateformes au Cyber Policy Center de Stanford (Californie), au site américain Endgadget.
Les géants du net sont loin d’être les seuls à s’inquiéter de ce jugement, et de ce qu’il signifierait pour leurs algorithmes. Plus de 70 motions ont été déposées, aussi bien par des associations de défense des libertés que des concurrents des Gafam. "Si Yelp devait afficher chaque avis soumis, sans la liberté éditoriale que la section 230 offre pour recommander algorithmiquement certains plutôt que d'autres aux consommateurs, les propriétaires d'entreprises pourraient soumettre des centaines d'avis positifs pour leur propre entreprise, avec peu d'efforts ou de risque de pénalité", argumente le site d’avis participatifs. La Cour suprême ne devrait pas se prononcer avant plusieurs mois sur ces deux affaires.
La modération est aussi au cœur du Digital Services Act promu par la Commission européenne : selon ce texte, encore en discussion, les plateformes du numérique ne seront pas soumises à une "obligation générale de surveillance ou de recherche active des faits" mais devront signaler les contenus illicites et procéder rapidement à leur retrait. La Commission comme les Etats membres pourront en outre avoir accès aux algorithmes des géants du net, en toute transparence.
SUR LE MÊME SUJET
La Cour suprême américaine se penche sur la modération des plateformes et le rôle de leurs algorithmes
Tous les champs sont obligatoires
0Commentaire
Réagir