Alors que les organisations réfléchissent à la manière de déployer l'inférence de l'IA, que ce soit dans le nuage ou à la périphérie, l'impact sur l'environnement devient une préoccupation majeure. La conversation tourne souvent autour de l'efficacité énergétique, mais la durabilité va au-delà des factures d'électricité. Pour évaluer la véritable empreinte environnementale de l'informatique en périphérie par rapport à l'informatique en nuage, nous devons tenir compte de trois facteurs clés : la consommation d'énergie, l'utilisation de l'eau et les déchets électroniques.
Si l'inférence basée sur le cloud est généralement plus efficace pour l'exécution de grands modèles à usage général grâce aux économies d'échelle et à l'optimisation des opérations des centres de données, ce n'est qu'une partie de l'histoire. L'inférence en périphérie implique généralement des modèles plus petits, spécifiques à une tâche, déployés sur du matériel adapté à des charges de travail spécifiques. Cela permet un calcul très efficace avec une énergie par opération nettement inférieure.
En outre, le rythme rapide de l'innovation dans le domaine de l'IA périphérique réduit l'écart de performance avec le cloud. Les ordinateurs portables et de bureau équipés de matériel puissant optimisé pour l'IA - comme Qualcomm AI Engine, AMD Ryzen AI et les GPU NVIDIA RTX - sont désormais capables d'exécuter localement de grands modèles de langage (LLM). HP, par exemple, a récemment dévoilé une gamme d'ordinateurs portables, de mini-PC et de stations de travail à tour conçus pour rapprocher les capacités LLM de l'utilisateur. Ces déploiements locaux peuvent réduire la dépendance à l'égard de l'infrastructure en nuage tout en permettant une IA de haute performance sur l'appareil.
1. Consommation d'énergie
Pourquoi l'énergie est-elle nécessaire ?
L'inférence de l'IA consomme de l'énergie parce qu'elle implique le déplacement et le traitement de grands volumes de données. Chaque opération, telle que la multiplication des poids dans un réseau neuronal ou l'accès à la mémoire, nécessite des changements physiques dans le matériel, ce qui génère de la chaleur.
L'énergie nécessaire augmente considérablement avec la taille du modèle et la longueur du contexte. Alors que les utilisateurs moyens peuvent saisir de courtes invites, les applications d'entreprise impliquent souvent des documents de plusieurs pages ou des interactions soutenues. Comme l'a récemment fait remarquer Sam Altman, une seule invite d'IA moyenne consomme déjà autant d'énergie que de laisser une ampoule allumée pendant plusieurs minutes. Si l'on multiplie ce chiffre par la complexité des charges de travail des entreprises, les enjeux environnementaux augmentent rapidement.
Efficacité des calculs et frais généraux
Alors que les coûts énergétiques théoriques par opération sur les bits sont minimes, l'efficacité réelle dépend fortement de la conception du matériel. Les accélérateurs conçus à cet effet, tels que Hailo, Blaize et Axelera, sont capables d'exécuter l'inférence avec un minimum de gaspillage, en particulier pour les modèles de petite et moyenne taille.
Dans les centres de données, les frais généraux liés à l'énergie s'accumulent. Les valeurs PUE (Power Usage Effectiveness) se situent généralement entre 1,1 et 1,5, ce qui signifie que 10 à 30 % de l'énergie d'une installation est consommée non pas par le calcul, mais par le refroidissement, la conversion d'énergie et d'autres frais généraux. Les appareils de périphérie, en revanche, fonctionnent dans des environnements plus cléments et renoncent souvent à tout refroidissement actif.
Accès aux énergies renouvelables
De nombreux fournisseurs d'informatique en nuage alimentent leurs centres de données avec une part importante d'énergie renouvelable. Des fournisseurs d'hypercalculateurs comme Google, Microsoft et AWS déclarent utiliser entre 60 et 90 % d'énergie renouvelable, et se sont engagés publiquement à atteindre 100 % d'ici à la fin de la décennie.
Cependant, les déploiements en périphérie ne sont pas nécessairement désavantagés. En Europe, par exemple, le bouquet énergétique local dans de nombreuses régions comprend une forte proportion d'énergies renouvelables, qui rivalise parfois avec celle des grands centres de données, voire la dépasse. Les dispositifs d'IA en périphérie fonctionnant dans de tels environnements peuvent donc avoir une très faible empreinte carbone.
2. Consommation d'eau
Le refroidissement du matériel informatique de haute performance implique souvent des systèmes refroidis à l'eau. Bien que la plupart des grandes entreprises adoptent des systèmes en boucle fermée ou refroidis à l'air et s'efforcent de ne pas consommer d'eau, l'utilisation de l'eau reste actuellement un facteur non négligeable.
Les appareils de périphérie, en revanche, nécessitent rarement un refroidissement actif et échappent totalement aux problèmes de consommation d'eau liés à l'exploitation d'un centre de données.
3. Déchets électroniques (E-Waste)
L'infrastructure des centres de données est conçue pour durer, les serveurs ayant généralement une durée de vie de 5 à 7 ans. Cependant, l'évolution rapide du matériel d'IA signifie que de nombreux GPU sont mis à niveau tous les 2 ou 3 ans pour bénéficier d'une meilleure efficacité énergétique et de meilleures performances, ce qui crée des déchets électroniques avant que les appareils n'atteignent leur fin de vie physique.
L'informatique périphérique utilise souvent des appareils grand public ou intégrés, qui ont une durée de vie comparable - généralement de 2 à 4 ans.
Conclusions
L'Edge AI, avec sa portée plus étroite et ses modèles plus spécialisés, fonctionne souvent sur des architectures 10 à 100 fois plus petites que celles utilisées dans le cloud. Avec du matériel moderne, comme les puces d'IA de Hailo et AMD Ryzen AI, ces modèles peuvent être exécutés efficacement avec un minimum de frais généraux et une consommation d'énergie nettement inférieure.
L'inférence en nuage a un rôle à jouer pour les charges de travail généralisées à grande échelle. Mais elle s'accompagne d'un surcoût énergétique plus élevé, d'exigences en matière de refroidissement de l'eau et de cycles de rafraîchissement rapide du matériel.
Lorsqu'elle est déployée de manière réfléchie, et en particulier dans les régions où l'électricité est propre, l'intelligence artificielle peut offrir des avantages environnementaux significatifs. Alors que le marché évolue rapidement avec des offres telles que la nouvelle gamme de PC IA de HP, la possibilité de réduire l'empreinte carbone de l'IA en exécutant les charges de travail localement devient de plus en plus pratique.
L'informatique de pointe est un outil puissant pour rendre l'IA non seulement plus intelligente, mais aussi plus écologique.