Aux Etats-Unis, les grands de l'IA s'engagent à s'auto-réguler
OpenAI, Google ou encore Meta prennent des engagements pour encadrer le développement de l'intelligence artificielle générative. Ils s'engagent notamment à mettre en place un système de marquage des contenus.
En attendant un projet plus vaste de réglementation, les Etats-Unis ont obtenu des engagements de la part des grands noms de l’intelligence artificielle générative. Vendredi 21 juillet, la Maison-Blanche va officialiser un accord avec OpenAI, Google ou encore Meta pour mettre en place un certain nombre de règles visant à encadrer le développement de cette technologie.
Marquage des contenus
Sept entreprises ont accepté ces engagements “volontaires”. Et surtout non contraignants : aucune sanction n’est en effet prévue en cas de non-respect. Microsoft, le premier actionnaire d’OpenAI, et Amazon font aussi partie de cette liste, tout comme les start-up Anthropic et Inflection AI, qui conçoivent des rivaux de ChatGPT. Mais pas Apple, qui ne travaille officiellement pas sur des projets liés à l’IA générative —même si Bloomberg affirme que le groupe est en train de développer son propre chatbot.
La principale mesure concerne la mise en place d’un marquage des contenus générés par l’IA, permettant par exemple d’identifier les fausses photos ou vidéos. Ce système est considéré comme primordial pour lutter contre la désinformation. Il fait d’ailleurs partie des obligations prévues par le projet européen de réglementation de l’intelligence artificielle.
Engagements limités
Les sept entreprises signataires s'engagent aussi à autoriser des audits indépendants de leur modèle d’IA générative, et à partager ces informations avec l’administration américaine. Elles promettent de respecter la vie privée de leurs utilisateurs et à s’assurer que leur IA n’inclut pas de biais discriminatoires. Elles assurent, par ailleurs, qu’elles vont utiliser leurs avancées technologiques pour répondre “aux plus grands problèmes sociétaux”, comme le changement climatique et la prévention du cancer.
Si elles constituent une première étape, ces mesures ne vont pas aussi loin que les propositions de réglementation récemment émises par des parlementaires américains. Aucun engagement ne porte ainsi sur la lutte contre les contenus illégaux, ni sur la transparence des données utilisées pour l'entraînement des modèles d’IA, qui pourrait déboucher sur une rémunération des détenteurs de droits.
SUR LE MÊME SUJET
Aux Etats-Unis, les grands de l'IA s'engagent à s'auto-réguler
Tous les champs sont obligatoires
0Commentaire
Réagir