Anthropic victime d’une fuite de données causée par une erreur humaine

La start-up américaine, spécialisée dans l’entraînement de grands modèles de langage, a appris lundi 22 janvier la fuite d’informations sensibles sur ses clients. Une fuite attribuée à un prestataire ayant envoyé par inadvertance un fichier à un tiers.

Partager
Anthropic victime d’une fuite de données causée par une erreur humaine

“Notre enquête montre qu’il s’agit d’un incident isolé, causé par une erreur humaine, et non par une fuite des systèmes d’Anthropic”, s’est justifié en fin de semaine dernière un porte-parole de la start-up d’intelligence artificielle générative Anthropic. L’entreprise américaine à l’origine du grand modèle de langage (LLM) Claude affirme avoir fait le nécessaire vis-à-vis de ses clients.

Une fuite qui concernerait un “sous-ensemble” de noms de clients

Malgré cela, la société été touchée par une fuite de données relativement importante, à la suite de l’envoi par un prestataire d’un fichier à un tiers. Un fichier qui concernerait un “sous-ensemble” de noms de clients et des soldes de crédits ouverts en fin d’année dernière. La société n’a néanmoins pas communiqué sur le nombre de clients touchés.

Le média en ligne Windows Report a mis la main sur l’e-mail adressé aux clients d’Anthropic suite à la fuite de données. Ce dernier précise que les informations ayant fuité “n’incluent pas de données personnelles sensibles, y compris des informations bancaires ou de paiement”, ajoutant que la firme n’avait “pas connaissance de comportements malveillants résultant de cette divulgation”. Anthropic a toutefois invité ses clients à rester attentifs sur un éventail plus large de données, comme des demandes “de paiement, de modification d’instructions de paiement, d’e-mails contenant des liens suspects, ou des demandes d’informations d’identification”.

Les grands modèles de langage loin d’être étanches

Anthropic n’est pas la seule société entraînant de grands modèles de langage à connaître des vulnérabilités sur sa gestion des données. En juin 2023, une société de renseignement singapourienne avait trouvé plus de 100 000 identifiants d’utilisateurs s’étant connectés sur l’agent conversationnel d’OpenAI, ChatGPT. Des identifiants déjà en vente sur le darkweb, la France figurant au rang des pays les plus touchés.

La découverte de cette fuite intervient quelques jours avant que la Federal Trade Commission (FTC), agence américaine de contrôle des pratiques anticoncurrentielles, ne commence à enquêter sur les investissements et partenariats de cinq entreprises. Parmi elles : Alphabet, Amazon et Microsoft, mais aussi Anthropic et sa rivale OpenAI. Selon le porte-parole d’Anthropic, la fuite de données ne serait en aucun cas liée à l’enquête de la FTC.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

CHERCHE TALENTS NUMERIQUE

Les formations USINE DIGITALE

Toutes les formations

ARTICLES LES PLUS LUS