Reddit a été le théâtre d'une expérimentation sociale à base d'IA

Des chercheurs de l'université de Zurich ont souhaité mesurer la capacité d'outils d'intelligence artificielle générative à convaincre des internautes, sur un forum de la plateforme sociale Reddit. Laquelle a, comme ses utilisateurs, dénoncé le fait que l'expérience n'ait pas été menée de manière transparente.

Partager
Reddit a été le théâtre d'une expérimentation sociale à base d'IA

C'est une recherche scientifique qui a manifestement mal tourné. Depuis quelques jours, de nombreux utilisateurs de Reddit expriment leur colère vis-à-vis de chercheurs de l'université de Zurich ayant mené une expérience sur l'un des forums de la plateforme sociale, sans avertir cette dernière.

De novembre 2024 à mars 2025, les universitaires ont en effet publié de nombreux commentaires rédigés par des outils d'intelligence artificielle (IA) générative sous des publications du subreddit r/changemyview. Leur objectif : mesurer sur cet espace en ligne dédié au débat la capacité des IA à convaincre des personnes en chair et en os.

Une expérience "hautement contraire à l'éthique"

Récemment contactés par l'équipe de recherche, les modérateurs de ce subreddit n'ont pas apprécié l'expérimentation et ont lancé l'alerte, le samedi 26 avril. Si bien que la plateforme a été contrainte de réagir. En réponse au message publié par la modération du forum, Ben Lee, le directeur juridique de Reddit, a fait savoir mardi 29 avril qu'il avait adressé des "demandes légales formelles" à l'université de Zurich.

"Nous sommes en train de contacter l'université de Zurich et cette équipe de recherche en particulier avec des demandes légales formelles, écrit le juriste, qualifiant l'expérience d'"inappropriée et hautement contraire à l'éthique". Nous voulons faire tout notre possible pour soutenir la communauté et veiller à ce que les chercheurs soient tenus responsables de leurs méfaits."

Une enquête interne à l'université de Zurich

Ben Lee confirme par ailleurs que la plateforme Reddit n'avait pas été informée de cette expérience et qu'elle a depuis banni l'intégralité des comptes utilisés par les chercheurs pour publier leurs messages générés par intelligence artificielle. Les universitaires utilisaient en parallèle un autre outil capable d'exploiter l'historique des messages publiés par les internautes avec qui leurs chatbots débattaient, afin de collecter sur eux des données personnelles telles que leur âge, leur genre ou leurs convictions politiques.

Contactée par le site d'information américain 404 Media, l'université de Zurich affirme quant à elle que les résultats de cette recherche ne seront pas publiés et qu'elle enquêtera sur la façon dont celle-ci a été menée.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

CHERCHE TALENTS NUMERIQUE

Les formations USINE DIGITALE

Toutes les formations

ARTICLES LES PLUS LUS