L'agence de cybersécurité de l'UE alerte sur de nouveaux risques liés à l'IA générative
Empoisonnement de données, création de deepfakes visant à manipuler l'opinion ou à extorquer des informations, fuite de données… L'agence de l'Union européenne chargée de la cybersécurité s'est penchée dans le cadre d'un rapport annuel sur de nouvelles menaces liées à l'émergence d'outils d'intelligence artificielle générative.
Les avertissements sur les conséquences de l'intelligence artificielle générative n'en finissent pas de tomber. Alors que le projet d'AI Act poursuit son chemin en Europe, c'est au tour de l'Agence de l'Union européenne pour la cybersécurité (Enisa) d'avertir les régulateurs du Vieux continent quant aux nouvelles menaces que génère "l'adoption exponentielle" d'outils comme le robot conversationnel ChatGPT ou Google Bard.
L'Enisa a inclus cette alerte dans le cadre d'un rapport annuel sur les tendances de menaces observées en 2023, rapporte Euractiv. Rappelant d'abord la fuite de données qu'a subi OpenAI en mars dernier, compromettant notamment des informations de paiement de nombre de ses clients, l'agence identifie plusieurs typologies de risques.
Des cyberattaques plus performantes
La première est l'utilisation par les cybercriminels d'outils d'IA pour "concevoir des attaques sophistiquées et ciblées à grande vitesse et à grande échelle". "Nous avons observé au moins trois domaines fortement influencés par l'IA : l'élaboration de courriels et de messages de phishing plus convaincants qui imitent de près des sources légitimes, les deepfakes qui se concentrent principalement sur le clonage de la voix et l'exploration de données pilotée par l'IA", relève l'agence.
Elle met l'accent sur le clonage de la voix, certains attaquants se faisant passer pour d'autres personnes via l'envoi de messages vocaux montés de toutes pièces, pour récupérer des informations confidentielles ou solliciter des versements. Ce qui accroît fortement le potentiel de réussite de ces attaques et rend de plus en plus de personnes vulnérables.
Empoisonnement de données et désinformation
De plus, le fonctionnement-même des outils d'intelligence artificielle et des grands modèles de langage (LLM) qui les alimentent est un risque en soi, selon l'Enisa. "[Ils] nécessitent d'énormes quantités de données pour être correctement entraînés et obtenir une génération de données de haute qualité, écrit l'agence dans son rapport. Ils deviennent donc une cible privilégiée pour les cybercriminels car ils sont très sensibles à l'empoisonnement des données."
Cette technique, qui consiste à caviarder les bases de données par le biais de fausses informations notamment, vise à détériorer l'acuité d'outils, par exemple à faire tenir à un robot conversationnel des discours mensongers. Ce qui pourrait, à très grande échelle, estime l'agence européenne, jouer un rôle néfaste auprès de l'opinion publique, en particulier dans un contexte d'élection. Et de résumer : "Le besoin d'outils pour contrer la désinformation générée par l'IA à l'ère de ChatGPT devient une nécessité."
SUR LE MÊME SUJET
L'agence de cybersécurité de l'UE alerte sur de nouveaux risques liés à l'IA générative
Tous les champs sont obligatoires
0Commentaire
Réagir