IA générative et environnement : méfions-nous des idées reçues !

L'avènement des grands modèles de langage a déclenché une course à l'armement dans la construction de data centers d'un nouveau genre, plus proches du supercalculateur que de l'entrepôt de données, et donc particulièrement énergivores. Va-t-on droit dans le mur pour autant ? Attention aux idées reçues, met en garde Josh Parker, Head of Sustainability chez Nvidia. Il détaille dans cette tribune comment les gains en efficacité énergétique des composants pourront mitiger l'augmentation de la consommation mondiale.

Partager
IA générative et environnement : méfions-nous des idées reçues !

La croissance rapide de l'IA ces dernières années a déclenché une vague d'investissements sans précédent dans les centres de données du monde entier pour développer la prochaine génération d'algorithmes, alimentant la crainte que le fonctionnement de ces systèmes ne précipite le monde dans une crise énergétique.

Cependant, pour déterminer l'impact réel de l'IA sur la consommation mondiale d'énergie, il faut considérer la situation dans son ensemble :

  • L’informatique basée sur l'IA ne représente encore qu'une infime partie de la consommation mondiale d'énergie. Selon l'Agence internationale de l'énergie, les centres de données ont représenté environ 2 % des émissions de carbone liées à l'énergie en 2022, et aujourd'hui, tous les centres de données ne fonctionnent pas avec l'IA.
  • L'IA, alimentée par une technologie de calcul accéléré en pleine évolution, devient chaque année beaucoup plus efficace sur le plan énergétique.
  • L'IA fournit des informations et des résultats qui peuvent accroître l'efficacité énergétique dans les domaines qui consomment le plus d'énergie, notamment la production d'énergie, la fabrication, le transport, le chauffage et la climatisation résidentiels.

Les progrès récents de l'IA et du calcul accéléré ont permis aux développeurs d'exploiter davantage de capacités de calcul tout en consommant moins d'énergie. Certains le font déjà, dans les domaines de la science du climat, des services financiers et des soins de santé. Mais pour parvenir à une adoption généralisée, il est essentiel de séparer les idées fausses de la réalité.

Voici les principales, ainsi que les perspectives à long terme et les faits qui les réfutent.

Idée fausse 1 : L'empreinte carbone et la consommation d'énergie des centres de données augmenteront au même rythme que le calcul.

La demande croissante de puissance de calcul n'entraîne pas une augmentation équivalente de la consommation d'énergie.?
Les centres de données mondiaux ont connu une augmentation de 550 % des instances de calcul (qui sont des machines virtuelles) et un bond de 2 500 % de la capacité de stockage entre 2010 et 2018, tandis que la consommation d'électricité n'a augmenté que de 6 %, selon un rapport de l'Information Technology and Innovation Foundation, un groupe de réflexion basé à Washington.?

Ces premières économies d'énergie étaient en grande partie dues aux effets de la loi de Moore, qui prévoyait que le nombre de transistors sur une puce doublerait environ tous les deux ans, entraînant un doublement semestriel de la puissance de calcul tout en maintenant une consommation d'énergie similaire.

Cependant, au milieu des années 2010, la loi de Moore a commencé à ralentir, les limites physiques de la réduction des transistors étant devenues plus difficiles à surmonter. Ce ralentissement a mis en évidence la nécessité de nouvelles approches pour maintenir et accélérer les gains d'efficacité. L'informatique accélérée est apparue comme la solution, en tirant parti de matériel spécialisé tel que les processeurs graphiques (GPU) pour effectuer des tâches plus efficacement que les unités centrales de traitement (CPU).

Aujourd'hui, l'informatique accélérée transforme les centres de données du monde entier, les GPU et les technologies de réseau avancées remplaçant les serveurs CPU traditionnels qui peinent à suivre l'augmentation de la demande informatique. Les capacités de calcul parallèle des GPU les rendent vingt fois plus économes en énergie que les CPU. Si chaque centre de données passait d'une infrastructure basée sur les CPU à une infrastructure basée sur les GPU, le monde économiserait environ 40 térawattheures d'énergie, soit l'équivalent de la consommation annuelle de cinq millions de foyers américains.

Idée fausse 2 : Les processus de calcul nécessaires au fonctionnement des systèmes d'IA sont beaucoup plus gourmands en ressources que les méthodes précédentes.

La demande de nouveaux modèles d'IA, et donc la demande de calcul, croît de manière exponentielle. Il en résulte que l'IA consomme actuellement plus d'énergie à un rythme plus rapide que l'efficacité des calculs ne s'améliore.

Mais les performances et l'efficacité énergétique des calculs accélérés augmentent à chaque génération de GPU : à chaque avancée, les développeurs et les scientifiques peuvent accomplir plus de calculs avec moins d'énergie. La puce d'IA la plus avancée aujourd'hui est aussi performante que les supercalculateurs qui étaient parmi les plus rapides au monde il y a dix ans.?

Les nouveaux GPU offrent des performances de calcul trente fois supérieures et une efficacité énergétique vingt-cinq fois supérieure à celles des GPU construits il y a seulement deux ans. Cela représente une efficacité accrue de 45 000 fois sur plusieurs années.

Idée fausse 3 : L'IA consomme plus d'énergie qu'elle n'en économise.

Le taux d'adoption de l'IA aujourd'hui entraîne une augmentation à court terme de la consommation d'énergie, mais les perspectives à long terme sont optimistes.

Les prédictions d'une "apocalypse de l'IA" reposent souvent sur des extrapolations à partir de statistiques publiées sur l'apprentissage de l'IA. Mais l'apprentissage de modèles prédictifs et génératifs d'IA n'est pas un but en soi : le véritable objectif est d'utiliser ces modèles. Les informations qu'un modèle d'IA fournit lors de l'inférence peuvent permettre de gagner du temps et de l'énergie et de réduire les émissions de carbone dans des domaines gourmands en ressources tels que l'agriculture, les prévisions météorologiques, les transports, la fabrication industrielle et la découverte de médicaments.

L'informatique accélérée et l'IA peuvent également alimenter des modèles climatiques qui aident les organisations mondiales à prévoir plus efficacement les conditions météorologiques, à gérer les catastrophes naturelles, à construire des infrastructures résistantes au climat et à sauver des vies.

Une vision holistique et longitudinale est nécessaire pour calculer pleinement les gains d'efficacité découlant de l'adoption de l'IA. Alors que de nombreuses initiatives d'IA en sont actuellement aux phases de construction d'infrastructures ou de formation, et que leur mise en œuvre à grande échelle est encore à venir, les premiers utilisateurs en constatent déjà les avantages.?

Les efforts visant à accroître l'efficacité énergétique et à décarboner les bâtiments dans tous les secteurs d'activité constituent un cas d'utilisation critique de l'IA. Aux États-Unis, les bâtiments sont responsables de 40 % de la consommation totale d'énergie et, selon l'Agence de protection de l'environnement, 30% de l'énergie utilisée dans les bâtiments commerciaux est gaspillée.

Peter Herweck, ancien PDG de Schneider Electric, a prédit que dans les prochaines années, l'IA pourrait réduire la consommation d'énergie des bâtiments jusqu'à 25%. Les données collectées par les appareils et compteurs intelligents produisent des données qui pourraient entraîner l'optimisation des bâtiments résidentiels et commerciaux.

Par exemple, en collaborant avec BrainBox AI, qui aide les clients à optimiser leurs bâtiments grâce à l'IA, une entreprise pharmaceutique a réalisé des économies annuelles d'électricité de 156 000 kilowattheures en améliorant l'efficacité de ses équipements sur son campus en Californie

Le secteur de la santé est énergivore : les installations de ce secteur représentent près de 10 % de la consommation énergétique des bâtiments commerciaux aux États-Unis et environ 4,6 % des émissions mondiales de gaz à effet de serre. Les recherches qui y sont menées pour sauver des vies sont également très gourmandes en calculs.

Le séquençage du génome en est un exemple. Le séquençage de l'ADN des tumeurs et des tissus sains est essentiel pour comprendre les facteurs génétiques du cancer et identifier les traitements. Grâce à l'IA, le Wellcome Sanger Institute a considérablement réduit le « temps d'exécution » (c'est-à-dire le temps nécessaire à un programme pour exécuter sa fonction) et la consommation d'énergie de l'analyse génomique, économisant ainsi environ 1 000 mégawattheures par an et réduisant potentiellement les coûts d'un million de dollars par rapport aux méthodes traditionnelles basées sur les CPU.

Idée fausse 4 : Les réseaux électriques ne peuvent pas supporter la charge énergétique de l'utilisation croissante de l'IA.
Les modèles d'IA peuvent être entraînés n'importe où, et il existe une opportunité majeure de construire de futurs centres de données dans des régions du monde où l’énergie est disponible en abondance, comme à proximité des réservoirs géothermiques, qui agissent comme des sources d'énergie renouvelable 24 heures sur 24 et 7 jours sur 7, non affectées par les conditions météorologiques.

Plutôt que de placer chaque centre de données dans des zones urbaines où la demande en électricité est déjà importante, ils pourraient être construits à proximité de ces sources d'énergie renouvelable. Cela permet de minimiser les problèmes de transmission tout en réduisant ou en éliminant l'empreinte carbone liée aux opérations.

Une fois entraînés, les modèles peuvent être déployés sur des GPU, qui sont vingt fois plus efficaces que les CPU pour les tâches d'inférence de l'IA. Au-delà des grands centres de données, les modèles légers optimisés pour l'inférence peuvent fonctionner n'importe où : sur de petits systèmes embarqués sur un robot ou un autre dispositif périphérique, sur des postes de travail de bureau ou sur des serveurs cloud situés n'importe où dans le monde.??

L'IA devient une technologie essentielle pour les entreprises de presque tous les secteurs d'activité, afin d'améliorer la productivité et de permettre de nouvelles avancées et découvertes rapides. Et bien que l'empreinte énergétique directe de l'IA soit certainement en augmentation, l'IA s'avère également être un outil puissant pour trouver des moyens d'économiser l'énergie et pourrait très bien devenir le meilleur outil dont nous disposons pour faire progresser la durabilité dans le monde entier.

Josh Parker, Head of Sustainability, Nvidia

Cette tribune a initialement été publiée sur l’Atlantic Council Global Energy Agenda. Les avis d'experts sont publiés sous l'entière responsabilité de leurs auteurs et n'engagent en rien la rédaction.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

CHERCHE TALENTS NUMERIQUE

ARTICLES LES PLUS LUS