Anthropic victime d’une fuite de données causée par une erreur humaine
La start-up américaine, spécialisée dans l’entraînement de grands modèles de langage, a appris lundi 22 janvier la fuite d’informations sensibles sur ses clients. Une fuite attribuée à un prestataire ayant envoyé par inadvertance un fichier à un tiers.
“Notre enquête montre qu’il s’agit d’un incident isolé, causé par une erreur humaine, et non par une fuite des systèmes d’Anthropic”, s’est justifié en fin de semaine dernière un porte-parole de la start-up d’intelligence artificielle générative Anthropic. L’entreprise américaine à l’origine du grand modèle de langage (LLM) Claude affirme avoir fait le nécessaire vis-à-vis de ses clients.
Une fuite qui concernerait un “sous-ensemble” de noms de clients
Malgré cela, la société été touchée par une fuite de données relativement importante, à la suite de l’envoi par un prestataire d’un fichier à un tiers. Un fichier qui concernerait un “sous-ensemble” de noms de clients et des soldes de crédits ouverts en fin d’année dernière. La société n’a néanmoins pas communiqué sur le nombre de clients touchés.
Le média en ligne Windows Report a mis la main sur l’e-mail adressé aux clients d’Anthropic suite à la fuite de données. Ce dernier précise que les informations ayant fuité “n’incluent pas de données personnelles sensibles, y compris des informations bancaires ou de paiement”, ajoutant que la firme n’avait “pas connaissance de comportements malveillants résultant de cette divulgation”. Anthropic a toutefois invité ses clients à rester attentifs sur un éventail plus large de données, comme des demandes “de paiement, de modification d’instructions de paiement, d’e-mails contenant des liens suspects, ou des demandes d’informations d’identification”.
Les grands modèles de langage loin d’être étanches
Anthropic n’est pas la seule société entraînant de grands modèles de langage à connaître des vulnérabilités sur sa gestion des données. En juin 2023, une société de renseignement singapourienne avait trouvé plus de 100 000 identifiants d’utilisateurs s’étant connectés sur l’agent conversationnel d’OpenAI, ChatGPT. Des identifiants déjà en vente sur le darkweb, la France figurant au rang des pays les plus touchés.
La découverte de cette fuite intervient quelques jours avant que la Federal Trade Commission (FTC), agence américaine de contrôle des pratiques anticoncurrentielles, ne commence à enquêter sur les investissements et partenariats de cinq entreprises. Parmi elles : Alphabet, Amazon et Microsoft, mais aussi Anthropic et sa rivale OpenAI. Selon le porte-parole d’Anthropic, la fuite de données ne serait en aucun cas liée à l’enquête de la FTC.
SUR LE MÊME SUJET
Anthropic victime d’une fuite de données causée par une erreur humaine
Tous les champs sont obligatoires
0Commentaire
Réagir