Mistral AI et Nvidia se rapprochent pour donner naissance à un LLM
Toutes les semaines, recevez l'essentiel de l'actu de l'IA
A LA UNE
Mistral AI et Nvidia dévoilent leur premier modèle commun, Mistral NeMo 12B. Le fleuron tricolore et le géant des cartes graphiques s'unissent dans la bataille sans fin qu'est l'IA générative. Les deux entreprises ont planché main dans la main sur le développement d'un modèle. Résultat : elles viennent de lâcher une petite bombe répondant au nom de Mistral NeMo doté de 12 milliards de paramètres.
La mise en commun du travail de la start-up française en matière de données d'entraînement couplé à l'écosystème matériel et logiciel optimisé de Nvidia semble prometteuse. "Nous avons la chance de collaborer avec l’équipe Nvidia et de tirer parti de leur matériel et de leurs logiciels de premier ordre", se félicite Guillaume Lample, co-fondateur et chief scientist de Mistral AI.
Les développeurs peuvent facilement personnaliser et déployer le modèle pour les applications d'entreprise, incluant les chatbots, les tâches multilingues, le développement informatique et les résumés de texte. Autre atout de ce nouveau-né : il est fourni sous la forme d'un microservice d'inférence NIM. Il peut donc être déployé n’importe où en quelques minutes, plutôt qu’en plusieurs jours.
DANS L'ACTU
Apple surfe sur la vague open source avec un LLM à près de 7 milliards de paramètres. Avec pour objectif de démontrer l'importance des jeux de données et du travail de curation de ces dernières, la firme de Cupertino pousse une famille de LLM relativement compacts et totalement open source. Son modèle de fondation à 6,9 milliards de paramètres est notamment compétitif face à Mistral 7B et Llama 3.
Nvidia planche sur des puces IA à destination du marché chinois. Le géant Américain des cartes graphiques prépare une version de sa puce IA phare, la B200, destinée aux entreprises de l'empire du Milieu. Largement opposé à la (longue) liste de mesures restrictives annoncées par Washington, Nvidia a trouvé un trou dans la raquette et compte bien l'exploiter. Les régulateurs américains vont-ils le laisser faire ? L'année 2023 a été marquée par une surenchère de mesures restrictives des deux côtés du Pacifique, les deux pays cherchant à empêcher les percées dans le domaine des superordinateurs et à restreindre au maximum l'accès aux puces dernier cri.
OpenAI mise sur un LLM compact et abordable avec GPT-4o mini. Après une ruée vers des modèles à plusieurs dizaines de milliards de paramètres, la tendance s'inverse aujourd'hui avec la quête de réductions substantielles des coûts, comme ici avec GPT-4o mini. En parallèle, la start-up planche sur une nouvelle approche pour le développement de ses modèles. Anciennement connu sous le nom de Q*, le projet désormais baptisé Strawberry pourrait représenter une percée significative dans le développement de modèles d'IA à l'avenir. Peu de détails ont fuité, mais il semble que le modèle puisse naviguer sur Internet de manière autonome pour mener ce qu'OpenAI appelle des "recherches approfondies".
LightOn développe une offre d’IA générative avec HPE pour faire baisser les coûts d'infrastructure. En s'alliant au spécialiste des serveurs, le français espère toucher une clientèle plus large avec sa plateforme d'IA générative Paradigm. Grâce aux serveurs ProLiant accélérés par des GPU H100, l'offre conjointe cible les grands comptes en quête d'intégration de cette technologie, mais rebutés par les sommes conséquentes à investir dans le hardware nécessaire.
Le régulateur britannique de la concurrence enquête sur l’accord entre Microsoft et Inflection AI. Après avoir lâché son siège d'observateur au conseil d'administration d'OpenAI, Microsoft pensait pouvoir s'éloigner des projecteurs et souffler un peu. C'était sans compter sur l'Autorité britannique de la concurrence et des marchés qui a annoncé l'ouverture d'une enquête pour comprendre si oui ou non les accords avec la start-up d'IA peuvent être qualifiés de fusion et nuire à la concurrence sur le marché de l'IA générative.
L'HALLUCINATION DE LA SEMAINE
L'impact carbone lié aux LLM fait partie des sujets clé des entreprises. Anthropic fait-il preuve de manque de transparence en ne donnant pas accès à ces informations ? Claude 3.5 Sonnet répond : "L'absence de données précises sur l'impact carbone de Claude 3.5 Sonnet soulève effectivement des questions sur la transparence d'Anthropic. Bien que le calcul de l'empreinte carbone des grands modèles de langage soit complexe et en constante évolution, la transparence sur les enjeux environnementaux est devenue cruciale pour les entreprises technologiques. Anthropic, étant une entreprise relativement jeune, pourrait être en train de développer ses méthodes de mesure. Cependant, une communication plus claire sur leurs efforts et leur approche en matière de durabilité serait appréciée. Cette transparence pourrait non seulement répondre aux attentes des utilisateurs, mais aussi encourager des pratiques plus durables dans l'industrie de l'IA."
LES APPLICATIONS MÉTIER
Automobile – À Honolulu, BMW assure l'entretien de ses véhicules à l'aide de l'intelligence artificielle
Semblable à une IRM pour voitures, le système allie scan et intelligence artificielle pour prendre des photos du véhicule. A la clé : des rapports automatisés et du temps libéré à la fois pour les techniciens et pour les clients.
Fret – CMA CGM intègre les services IA de Google dans ses activités maritimes, logistiques et médias
L'armateur embarque sur le paquebot de l'intelligence artificielle. Le groupe de Rodolphe Saadé veut moderniser l'ensemble de ses activités, et cela passe par l'intégration de la technologie dans ses opérations maritimes, logistiques et médias.
E-commerce – Manutan dope son chatbot à l'IA générative pour mieux guider ses clients en ligne
Depuis mars, Manutan expérimente l'intégration de l'IA générative dans son chatbot présent sur son site e-commerce. Cette initiative se concentre principalement sur les renseignements produits qui représentent environ 20% de ses demandes sur le chat.
Agroalimentaire – La Vache qui rit réinventée grâce à l'IA ? Bel signe avec Dassault Systèmes
L’industriel Bel, connu notamment pour La Vache qui rit, a indiqué début juillet s’être associé à Dassault Systèmes. Ce dernier va l’aider dans un premier temps à numériser l’ensemble de sa chaîne de production sur onze usines et ambitionne, à court terme, de l’aider à développer des recettes à grand renfort d’IA.
Pharma - Sanofi divise par huit le temps passé sur ses contrôles qualité grâce à l'IA générative
Dans l'industrie pharmaceutique, l'emploi de l'IA générative ne se limite pas à la R&D. En s’appuyant sur différentes technologies (GPT, Claude, Llama), Sanofi a conçu un modèle pour générer ses revues annuelles de qualité des produits automatiques, "pour lequel il n’existe pas encore de standard mondial", affirme Maïté Durrenbach, la responsable qualité du groupe. A la clé, des économies de coût et de temps considérables.
ET AUSSI
Mistral AI et Nvidia se rapprochent pour donner naissance à un LLM
Tous les champs sont obligatoires
0Commentaire
Réagir