L’engouement pour les modèles d’IA générative de grande envergure, comme ChatGPT, s’accompagne de coûts écologiques que ce soit en électricité ou en eau.
Selon les projections de l’Agence internationale de l’énergie, la consommation électrique des centres de données et des infrastructures dédiées à l’intelligence artificielle pourrait doubler entre 2022 et 2026. Cette augmentation représenterait l’équivalent de la consommation électrique totale d’un pays comme la Suède ou l’Allemagne.
Développer un modèle comme ChatGPT produit environ 284 tonnes d’équivalent CO2, soit l’équivalent de 300 vols aller-retour entre New York et San Francisco, selon une étude de l’Université du Massachusetts.
Mais l’entraînement n’est qu’une partie du problème. L’utilisation quotidienne de ces IA est également très énergivore. Chaque requête effectuée sur ChatGPT consomme dix fois plus d’électricité qu’une recherche classique sur Google. Aujourd’hui, l’IA est responsable de 0,03 % de la consommation électrique mondiale, un chiffre qui pourrait rapidement augmenter avec l’expansion de ces technologies.
Cette demande énergétique croissante repose également sur les centres de données, épine dorsale de l’IA qui doivent être maintenus à une certaine température pour éviter la surchauffe des serveurs. Pour ce faire, d’imposantes tours de refroidissement sont mises à contribution, évaporant des milliers de litres d’eau froide qui ne peuvent être récupérés. Selon les estimations, l’entraînement du modèle ChatGPT-3 a demandé environ 700 000 litres d’eau – non seulement pour le refroidissement, mais aussi pour la production d’une partie de l’électricité renouvelable qui alimente ces installations.
Dans son dernier rapport environnemental, Microsoft qui a mis au point un partenariat avec Open AI, mentionne une augmentation de sa consommation d’eau globale de 34% entre 2021 et 2022. Soit l’équivalent de 2500 piscines olympiques.
Une étude de la Cornell University établissait en octobre 2023 que l’IA pourrait consommer en 2027 entre 4,2 et 6,6 milliards de mètres cube d’eau : c’est une consommation légèrement supérieure à celle du Danemark.
Une session de questions-réponses avec ChatGPT-3 consommerait en moyenne un demi-litre d’eau. Avec 10 millions de requêtes quotidiennes, cette demande d’eau commence à entrer en concurrence avec d’autres usages, notamment dans les régions frappées par la sécheresse. À The Dalles, dans l’Oregon, les centres de données de Google ont provoqué des tensions en accaparant un quart de l’approvisionnement en eau de la ville, suscitant la colère des agriculteurs.
L’IA est également pointée du doigt pour son rôle dans l’augmentation de la demande en semi-conducteurs. La production de ces puces nécessite l’extraction de terres rares, souvent réalisée au détriment de l’environnement. En parallèle, la planète fait face à une multiplication des déchets électroniques, toxiques en raison de la présence de plomb, de mercure ou de cadmium.
Face à ces chiffres, les interrogations sur la durabilité écologique des technologies d’IA se multiplient. Alors que l’IA continue de s’intégrer dans nos vies quotidiennes, la question de son empreinte énergétique devient une priorité incontournable.