Paniqué devant les progrès des modèles open source chinois, Anthropic les accuse de violer sa propriété intellectuelle

Risques pour la “sécurité nationale”, “diffusion incontrôlée” de sa technologie, perte d’un “avantage concurrentiel”... Anthropic emploie les grands mots contre sa concurrence chinoise, qu’il accuse d’enfreindre les conditions d’utilisation de ses produits pour en extraire la substantifique moëlle. Une rhétorique grotesque étant donné ses propres pratiques.
Anthropic - Claude application mobile

Anthropic tire la sonnette d’alarme contre les laboratoires d’intelligence artificielle chinois. La start-up réputée pour ses modèles Claude déclare avoir identifié “des campagnes à l’échelle industrielle” menées par trois laboratoires — DeepSeek, Moonshot et MiniMax — qui viserait selon elle à “extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles”.

Anthropic les accuse de “distiller” Claude, une méthode d’entraînement qui consiste à obtenir de grandes quantités de réponses d’un modèle et de s’en servir pour en entraîner un autre. Anthropic dit avoir détecté plus de 16 millions d’échanges avec Claude menés par environ 24 000 comptes frauduleux, en violation de ses conditions d’utilisation et des restrictions d’accès régionales qu’elle avait mises en place.

Anthropic a été condamné pour avoir entraîné ses modèles sur des œuvres téléchargées illégalement

Le principe de la distillation de modèles n’est pas nouveau. Il est régulièrement utilisé par de nombreux chercheurs et des interrogations sur son utilisation avaient d’ailleurs émergé dès la sortie de DeepSeek-R1. Cependant, en parlant “d’attaque par distillation”, Anthropic se présente concrètement comme une victime et ses concurrents comme des agresseurs qui voleraient ses capacités durement acquises en une fraction du temps et à une fraction du coût qu’il faudrait pour les développer de manière indépendante.

Le souci avec cette rhétorique, c’est qu’Anthropic (tout comme OpenAI) a entraîné ses modèles sur des millions et des millions d’ouvrages téléchargés illégalement (livres, publications scientifiques, bande dessinées, code source, etc.), fait pour lequel l’entreprise a déjà été condamnée.

A cela s’ajoute l’Internet tout entier et sans doute d’autres sources qu’on ne soupçonne pas. Il avait par exemple été rélevé l’année dernière que la start-up avait un projet secret d’achat et de numérisation d’ouvrages physiques en très grande quantité qui auraient ensuite été détruits pour ne pas laisser de traces.

Somme toute, Anthropic reproche aujourd’hui à d’autres ce qu’elle a fait elle-même par le passé : extraire des contenus sans autorisation légale. Cela crée un double standard : d’un côté, elle se présente comme victime d’un viol de sa propriété intellectuelle, de l’autre, elle exploite massivement des œuvres protégées pour ses propres modèles. Une posture particulièrement cynique.

Modèles propriétaire vs open source

Rappelons aussi que les trois entreprises chinoises mises en cause publient leurs recherches et distribuent leurs modèles sous licence ouverte. Ils parlent de leurs méthodes d’entraînement, donnent des informations sur leurs sources, et publient les poids de leurs modèles (les paramètres appris durant l’entraînement). On peut remettre en cause la véracité de ces informations, mais c’est toujours mieux qu’Anthropic, qui malgré sa posture sécuritaire (où en son nom) ne publie rien.

Au passage, le billet de blog de la société indique qu’elle a pu identifier individuellement les employés de ses concurrents chinois à partir des métadonnées de Claude... ce qui revient à admettre qu’elle peut facilement désanonymiser ses utilisateurs et n’hésite pas à le faire. C’est, sur le principe, une violation du Règlement général sur la protection des données (RGPD) de l’Union européenne, mais passons. Quoique... ses clients européens devraient peut-être s’assurer qu’ils ne traitent pas d’informations trop confidentielles avec Claude, juste au cas où.

Le danger existentiel de la Chine, vieille marotte d’Anthropic

La start-up de Dario Amodei en appelle à la sécurité nationale des Etats-Unis pour tenter de motiver une action gouvernementale. C’est l’une de ses vieilles marottes, les laboratoires d’IA chinois étant systématiquement présentés comme un danger existentiel car (entre autres) leurs modèles ne seraient pas assez “sécurisés”. Ils pourraient “être utilisés pour créer des armes biologiques” ou “mener des activités cybercriminelles”. A contrario, l’utilisation de Claude par l’armée américaine ne pose aucun problème.

Tout cela est une tentative assez transparente de mettre en place un système de capture réglementaire, où seuls les acteurs déjà établis pourraient évoluer. Anthropic exige aussi à nouveau des contrôles à l’exportation stricts sur les GPU. Le gouvernement américain a récemment relâché son embargo sur les puces de Nvidia, et cela ne plaît clairement pas à la start-up. La réalité est que les acteurs chinois ont, pendant ce temps, tout de même réussi à se procurer des GPU de pointe par des canaux détournés, preuve que l’action n’a donc pas été très efficace jusqu’à présent.

Les Européens apprécieront au passage ce jingoïsme débridé où l’hégémonie des Etats-Unis est présentée comme un objectif à atteindre à tout prix. On en viendrait presque à se demander qui, au final, est le plus dangereux.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Cherche talents numériques
Témoignage : faire carrière dans le nucléaire, une mauvaise idée ?

Le nucléaire suscite souvent des idées reçues : secteur réservé aux ingénieurs, journées confinées en centrales, missions où tout se passe sur papier... Pourtant, de nombreuses entreprises, comme Assystem, première entreprise d’ingénierie nucléaire en Europe, démontrent que la réalité est tout autre, comme en témoignent Adeline, Victor et Gaëlle.

Le témoignage
Les webinars