Des chiffres tous azimuts sur les débuts de ChatGPT
Selon une étude californienne, le développement du modèle d'apprentissage de Chat GPT3 aurait en 2023 produit “502 à 552 tonnes de CO2 (selon les sources) et consommé 1 300 mégawattheures d'énergie”. Cela représenterait grossièrement “un peu plus de 200 aller-retour Paris New-York”.
Le coût de fonctionnement de l'IA générative à pondérer
Toutefois, certains data centers sont plus ou moins énergivores en fonction notamment de :
- la taille et la puissance des composants des processeurs
- l’extraction des matières premières et du procédé de production
- l’assemblage et du transport
- la géolocalisation (territoires chauds ou froids)
- l'énergie utilisée par les pays d'implantation pour les faire fonctionner (hydroélectricité, charbon, pétrole, etc.)
Des émissions de dioxyde de carbone pour chaque requête
Concernant l’empreinte liée à chaque requête, il n’est pas rare de lire que “100 requêtes sur Chat GPT émettent 100 fois moins de Co2 que de consommer 100 g de viande de bœuf”.
Cette affirmation reste difficile à réfuter ou à étayer par la communauté scientifique en raison de la multitude de paramètres à prendre en compte.
Une consommation d'eau et d'électricité excessive
Pour le chercheur Californien Ren Shaolei dans un article du Washington Post, le refroidissement des serveurs exploitant nos données équivaudrait à “consommer 1 bouteille d’eau et à allumer 14 ampoules LED sur 1 heure” rien que pour une réponse d’une centaine de lignes du Chatbot.
Parallèlement, le MIT synthétise les résultats de l’étude de la chercheuse Sasha Luccioni qui estime une “consommation de 0.042 kWh pour 1000 textes générés par ChatGPT” et 60 fois plus pour une image.
Si la juxtaposition de ces différentes informations à variables croissantes ne constitue pas un résultat fiable, elle permet tout de même de nous alerter sur le poids écologique que représentent nos actions numériques.
Source image : https://app.leonardo.ai/