Recevez chaque jour toute l'actualité du numérique

x

Faut-il complètement refondre la responsabilité des plates-formes en ligne ?

Au sein de l'Union européenne, la régulation des contenus illicites en ligne est organisée par la directive e-commerce adoptée en 2000. Pour certains, l'importance prise par les réseaux sociaux exige de repenser ce cadre afin d'imposer à ces acteurs une obligation de suppression immédiate. Mais jusqu'où aller sans porter atteinte à la liberté d'expression sur Internet ?    
Twitter Facebook Linkedin Flipboard Email
×

Faut-il complètement refondre la responsabilité des plates-formes en ligne ?
Faut-il complètement refondre la responsabilité des plates-formes en ligne ? © Pixabay/Pixelkult

Dans quelques jours, le 1er décembre 2019, une toute nouvelle Commission européenne va prendre place. Pour certains, ce renouvellement est l'occasion parfaite de rebattre les cartes concernant la responsabilité des plates-formes en cas de contenu illicite publié en ligne. Un panel d'experts était invité pour débattre de ce sujet à la conférence "Nouvelles régulations du numérique", organisée par l'organisation Tech In et le cabinet Samman le 25 novembre 2019.

 

La régulation des contenus en ligne exige de trouver un juste équilibre entre protection des internautes et liberté d'expression sur Internet. Mais également d'imaginer une législation adaptée qui n'entrave pas l'innovation technologique. Différentes approches existent. Aux Etats-Unis, la liberté prévaut sur toute forme de régulation. En Chine, l'accès à Internet est soumis à un contrôle draconien. Enfin, l'Europe tente d'imposer une troisième voie moins radicale et en adéquation avec les valeurs humanistes qu'elle prône.

 

Une responsabilité distincte des éditeurs et des hébergeurs

Le régime européen de responsabilité des plates-formes en ligne est historiquement organisé par la directive sur le commerce électronique adoptée en 2000. Elle distingue les éditeurs et les hébergeurs pour leur attribuer des obligations différentes.

 

Les éditeurs ont une responsabilité calquée sur la loi de 1881 (liberté de la presse). Ils sont responsables de tous les contenus figurant sur leur site internet. Par conséquent, ils peuvent être déclarés responsables non seulement pour ce qu’ils écrivent eux-mêmes, mais également dans une certaine mesure pour les commentaires des participants. A contrario, la responsabilité d'un hébergeur ne peut être engagée que dans deux hypothèses : lorsque celui-ci ne retire pas promptement un contenu manifestement illicite qui lui a été signalé par un tiers et lorsqu'il ne retire pas un contenu dont le retrait a été exigé par juge. Par ailleurs, il n'est pas tenu de mettre en place un mécanisme général de surveillance des contenus. Mais bon nombre d'entre eux le font grâce à un système de filtrage.

 

Les plates-formes en ligne sont logiquement considérées comme des hébergeurs de contenu et non comme des éditeurs. La loi française les oblige à mettre en place des dispositifs permettant aux internautes de signaler certains contenus illicites et, d'autre part, d'informer promptement les autorités publiques de toutes activités illicites qui leur seraient signalées. Ces obligations apparaissent lorsqu'il s'agit d'apologie des crimes contre l'humanité, d'incitation à la haine raciale, de pornographie enfantine, d'atteintes à la dignité humaine et d'incitation à la violence, de la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap et de provocation à la commission d'actes de terrorisme et de leur apologie.

 

Une législation désuète ?

Ces règles apparaissent de moins en moins adaptées à l'importance qu'on ont pris les réseaux sociaux, sur lesquels circule sans discontinu une masse gigantesque d'information. L'autorégulation des grandes plates-formes ne suffit plus à éradiquer les contenus problématiques. La preuve en est de la tuerie de Christchurch (Nouvelle-Zélande) qui a été diffusée en directe sur Facebook en mars 2019.

 

A plusieurs reprises, la Commission européenne a affiché sa volonté de refondre cet arsenal avec le "Digital Services Act" (DSA), un texte actuellement en discussion. "Le DSA permettra de refondre ce socle à l'ère des grandes plates-formes", déclare Prabhat Agarwal, Deputy Head of Unit “E-Commerce and Online Platforms” à la Commission européenne. Cette nouvelle législation a pour ambition d'imposer des obligations beaucoup plus strictes de "notification et suppression" aux plates-formes, sous peine d'amende.

 

La proposition de loi AVIA inquiète

"La question de la lutte contre la prolifération des infox ou contre les contenus haineux s’impose dans l’espace public car l’opinion publique le demande. Ce que l’on n’accepte pas à la télévision ou à la radio, on l’accepte de moins en moins sur Internet", explique Roch-Olivier Maistre, président du Conseil supérieur de l'audiovisuel (CSA). D'ailleurs, la France est proactive sur ce sujet avec l'adoption par l'Assemblée nationale d'une proposition de loi sur les contenus haineux sur Internet, portée par la députée Laetitia Avia.

 

Ce texte prévoit une liste de contenus qui devront être retirés sous 24 heures par les réseaux sociaux, les plates-formes collaboratives et les moteurs de recherche. Ces acteurs risqueront jusqu’à 1,25 million d’euros d’amende. En cas de violation des obligations de transparence, le CSA pourra lui infliger une sanction jusqu’à 4 % du chiffre d’affaires mondial. Mais tout ne se passe pas comme prévu.

 

Comme le droit européen l'exige lorsqu'un Etat membre entend réguler les nouvelles technologies, la France a du notifié cette proposition à la Commission européenne. L'institution européenne n'a pas été convaincue, comme le révèle Next INpact dans un article publié du 25 novembre 2019. Elle reproche au texte d'imposer une restriction disproportionnée à la liberté de circulation.

 

Le juge comme personnage central

Certains estiment que le régime introduit par la directive de 2000 n'a pas besoin d'être réformé. "Evidemment, l'internet des années 90 a changé considérablement. Mais lorsqu'on regarde la manière avec laquelle les juges s'adaptent, je ne vois pas forcément la nécessité de tout modifier", estime Jean-Sébastien Mariez. Pour cet avocat, la régulation des contenus en ligne relève de la casuistique, exercice parfaitement maîtrisé par le juge.

 

"Les 'contenus gris, à la frontière de la légalité, illustre très bien cette problématique", poursuit-il. En effet, dans certains cas, il n'est si simple de déterminer si une phrase ou une vidéo est illicite. Ainsi, une loi trop générale empêcherait de prendre en compte la particularité de chaque plate-forme mais également de chaque contenu.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media