Satya Nadella disait vouloir "faire danser" Google en lançant Bing Chat (depuis devenu Bing Copilot) en février 2023, une mise à jour de son moteur de recherche permettant d'obtenir des réponses en langage naturel plutôt que la traditionnelle liste de liens. Cela n'avait finalement pas fait bouger les parts de marché d'un iota, mais le dirigeant de Microsoft est tout de même parvenu – accidentellement – à mettre à mal son concurrent. Comment ? En conduisant Google à lancer une fonctionnalité similaire par défaut (baptisée AI Overviews), fonctionnalité à la fiabilité discutable.
L'actualité "tech" du week-end a d'ailleurs consisté pour beaucoup de publications à reprendre les diverses aberrations publiées sur les réseaux sociaux par des utilisateurs (recommandation de mettre de la colle dans une pizza pour éviter que le fromage ne coule trop, manger au moins un caillou par jour pour avoir des minéraux, il est possible de courir dans le vide au-dessus d'une falaise comme Vil Coyote...) et à expliquer comment contourner ou désactiver cette fonctionnalité. De son côté, Google s'acharnerait apparemment à corriger manuellement les résultats erronés, qui ne seraient que des exceptions et pas la règle. On lui souhaite bien du courage.
Impossible de détecter le sarcasme
La réalité c'est qu'un grand modèle de langage ne fait que retourner des résultats qui ressemblent statistiquement aux masses de données sur lesquelles il a été entraîné. Des techniques comme le Retrieval Augmented Generation (RAG) permettent d'ancrer les résultats dans une base de connaissance... mais encore faut-il que celle-ci soit fiable. Cette fiabilité constituait tout l'intérêt du système "PageRank" qui a fait le succès explosif de l'entreprise au début des années 2000, éclipsant totalement ses concurrents comme AltaVista ou Yahoo. Or pour les cas suscités, les aberrations venaient de Reddit, méga-forum de discussion comportant des millions de messages sur tous sujets... certains très sérieux et informatifs, de nombreux autres facétieux voire tout simplement faux ou stupides.
Le problème est que le système n'est pas capable de faire la différence entre les deux, et ne le sera jamais en l'état actuel de la technologie. D'ailleurs, les résumés générés automatiquement par Google sur certaines questions souffraient déjà souvent de ce type de problème, lié entre autres à la recrudescence de sites parasites conçus uniquement pour générer du trafic publicitaire et qui sont désormais omniprésents dans les résultats de recherche grâce à leur utilisation de techniques SEO de pointe. C'est pourquoi certains utilisateurs passaient déjà directement par Reddit pour obtenir des réponses sur Internet, voire par TikTok. C'est aussi le constat qui a conduit au lancement de Perplexity, service qui cherche à concurrencer Google... grâce à l'IA générative.
A qui la faute ? Difficile à dire, même si certains pointent du doigt des changements organisationnels survenus en 2019 comme la cause directe de ce triste état des choses. Quoi qu'il en soit, en pliant face à la pression de la concurrence (OpenAI développe lui aussi un service de recherche en langage naturel, suite logique du succès de ChatGPT) et lançant cette nouvelle fonctionnalité, Google se retrouve un peu piégé et mis face à ses responsabilités pour un service hégémonique qui remplit de moins en moins son rôle d'utilité publique.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
