L’intelligence artificielle est impossible à ignorer en ligne. Un résumé généré par l’IA peut apparaître aléatoirement en haut des résultats lorsque vous effectuez une recherche sur Google. Ou bien, vous pourriez être invité à essayer l’outil d’IA de Meta en naviguant sur Facebook. Et cet emoji étincelant omniprésent continue de hanter mes rêves.
Cette ruée pour intégrer l’IA dans autant d’interactions en ligne que possible remonte au lancement révolutionnaire de ChatGPT par OpenAI fin 2022. La Silicon Valley est rapidement devenue obsédée par l’IA générative, et près de deux ans plus tard, les outils d’IA alimentés par des modèles de langage géants imprègnent l’expérience utilisateur en ligne.
Un effet secondaire malheureux de cette prolifération est que les processus informatiques nécessaires au fonctionnement des systèmes d’IA générative sont beaucoup plus gourmands en ressources. Cela a conduit à l’arrivée de l’ère de l’hyper-consommation d’internet, une période définie par la propagation d’un nouveau type d’informatique qui nécessite des quantités excessives d’électricité et d’eau pour être construit et exploité.
« En arrière-plan, ces algorithmes qui doivent être exécutés pour n’importe quel modèle d’IA générative sont fondamentalement très, très différents du type traditionnel de recherche Google ou d’email », explique Sajjad Moazeni, chercheur en ingénierie informatique à l’Université de Washington. « Pour les services de base, ceux-ci étaient très légers en termes de quantité de données qui devaient circuler entre les processeurs. » En comparaison, Moazeni estime que les applications d’IA générative sont environ 100 à 1 000 fois plus intensives en calcul.
Les besoins énergétiques de la technologie pour l’entraînement et le déploiement ne sont plus le secret honteux de l’IA générative, car expert après expert l’année dernière a prédit des augmentations de la demande énergétique dans les centres de données où les entreprises travaillent sur des applications d’IA. Presque comme si c’était prévu, Google a récemment cessé de se considérer comme neutre en carbone, et Microsoft pourrait piétiner ses objectifs de durabilité dans la course actuelle pour construire les plus grands et meilleurs outils d’IA.
« L’empreinte carbone et la consommation d’énergie seront proportionnelles à la quantité de calcul que vous effectuez, car fondamentalement, ces centres de données sont alimentés proportionnellement à la quantité de calcul qu’ils effectuent », déclare Junchen Jiang, chercheur en systèmes réseau à l’Université de Chicago. Plus le modèle d’IA est grand, plus le calcul requis est souvent important, et ces modèles de pointe deviennent absolument gigantesques.
Bien que la consommation totale d’énergie de Google ait doublé entre 2019 et 2023, Corina Standiford, porte-parole de l’entreprise, a déclaré qu’il ne serait pas juste de dire que la consommation d’énergie de Google a explosé pendant la course à l’IA. « Réduire les émissions de nos fournisseurs est extrêmement difficile, ce qui représente 75 % de notre empreinte », dit-elle dans un email. Les fournisseurs que Google blâme incluent les fabricants de serveurs, d’équipements réseau et d’autres infrastructures techniques pour les centres de données—un processus énergivore nécessaire pour créer des pièces physiques pour les modèles d’IA de pointe.