La puissance de calcul nécessaire pour entraîner et interagir avec des modèles d’intelligence artificielle, comme Chat GPT, a un impact non négligeable sur l’environnement à cause d’infrastructures informatiques énergivores.
Selon une étude, la mise à jour d’un simple modèle d’IA engendrerait une consommation d’énergie égale à 100 foyers américains sur un an.
Les risques environnementaux étaient au menu des discussions du premier sommet mondial de l’intelligence artificielle (IA), qui s’est achevé jeudi 2 novembre 2023. À raison, puisque la question du coût environnemental de l’IA se fait de plus en plus pressante. Les systèmes d’IA de grande envergure, comme ceux conçus pour comprendre et générer des réponses en langage naturel (à la Chat GPT), nécessitent une grande puissance de calcul. Et qui dit traitement intensif des données dit consommation énergétique importante.
Des data centers gourmands en énergie
Pour fonctionner et offrir des informations sur une variété de sujets, la version gratuite de Chat GPT (modèle GPT-3,5) compte environ 175 milliards de paramètres. Ces paramètres sont appris lors de la phase d’entraînement du modèle, où celui-ci est exposé à de grandes quantités de documents pour analyser et comprendre le langage humain. Mais d’après un article publié en 2019 par une équipe de chercheurs du Massachussetts, ce type d’entraînement émettrait cinq fois plus de CO2 que le cycle de vie complet d’une voiture. Les récentes estimations de Bloomberg, relayées par Les Echos, montrent quant à elles que la mise à jour d’un simple modèle d’IA engendrerait une consommation d’énergie égale à 100 foyers américains sur un an.
Pourquoi ? Parce que cette puissance de calcul n’est possible que grâce à des cartes graphiques hébergées par des data centers. Ce sont des installations qui abritent des milliers de serveurs, les équipements nécessaires pour traiter, stocker et distribuer des données à grande échelle. Or, ces infrastructures informatiques consomment beaucoup d’électricité, certaines fonctionnant encore avec des énergies fossiles (charbon et gaz) très polluantes. Qui plus est, puisqu’ils génèrent de la chaleur lorsqu’ils fonctionnent, ils sont équipés de systèmes de refroidissement (tels que des climatiseurs) essentiels pour évacuer la chaleur et maintenir une température optimale. D’après une étude menée par les universités du Colorado Riverside et d’Arlington Texas, relevée par Gizmodo, l’entraînement de GPT-3 aurait consommé 700 mètres cubes d’eau, tandis qu’un demi-litre d’eau serait dépensé à chaque échange de 25 à 50 questions avec Chat GPT.
À LIRE AUSSI : Quand l’intelligence artificielle rime avec calculs superficiels
« Un enjeu très important »
Au total, le numérique génère 2,1% à 3,9 % des émissions mondiales de CO2, contre 2,5 % pour l’aviation civile, d’après une étude parue dans la revue Patterns en 2021. Et son empreinte carbone devrait continuer à s’accroître, car le volume de données ne cesse d’augmenter et avec elle les capacités de stockage. D’après Statista, en 2025, le volume de données numériques créées ou répliquées à l’échelle mondiale serait 90 fois supérieur à celui de 2010. Résultat : la capacité de stockage mondiale devrait croître en moyenne de près de 20 % par an sur la période 2020-2025.
Face à ces chiffres, l’IA est de plus en plus au cœur de la critique environnementale. Mais pour Aurélie Bugeau, chercheuse au laboratoire bordelais de recherche en informatique (LaBRI), « la consommation énergétique des IA doit être mise en relation avec ce que cela permet ». « Il y a des tâches exécutées par des IA pour lesquelles on est peut-être davantage prêt à accepter un coût environnemental que d’autres, explique-t-elle. L’évaluation doit se faire au cas par cas, mais ce qui est sûr c’est que l’impact de l’IA sur l’environnement est un enjeu très important. » À l’humain de trancher le débat, à moins que les algorithmes n’aient pas dit leur dernier mot.
À LIRE AUSSI : Coût écologique de l’IA : « Les solutions ne sont pas toutes technologiques »
Adam Lebert