- 18:00Le Maroc renforce sa présence sur la scène cybernétique internationale
- 17:30Financement électoral : le RN visé par une perquisition spectaculaire à Paris
- 17:00Aya Gold & Silver creuse à Boumadine
- 16:30Embraer s’ancre au Maroc : vers une coopération stratégique dans l’aéronautique civile et militaire
- 16:30Cinéma marocain : une année 2024 placée sous le signe du renouveau
- 16:06Volkswagen et Mercedes fragilisés aux États-Unis par les droits de douane de Donald Trump
- 16:04Mohamed Mehdi Bensaid défend une réforme ambitieuse du secteur de la presse
- 16:00IA : Vers des modèles plus petits pour une intelligence artificielle plus verte
- 15:45Mondial des clubs : un choc royal entre le PSG triomphant et un Real Madrid en quête de renaissance
Suivez-nous sur Facebook
IA : Vers des modèles plus petits pour une intelligence artificielle plus verte
Réduire l'empreinte énergétique de l'IA : l'Unesco mise sur des modèles allégés et des requêtes plus courtes
Alors que l’usage de l’intelligence artificielle générative explose dans le monde, une question cruciale émerge : comment en limiter l’impact environnemental ? Dans un rapport publié mardi à l’occasion du forum AI for Good à Genève, l’Unesco propose une piste prometteuse : recourir à des modèles de langage plus petits, combinés à des requêtes plus concises, pour réduire drastiquement la consommation énergétique des systèmes d’IA.
Selon les estimations révélées en juin par Sam Altman, PDG d’OpenAI, chaque requête adressée à ChatGPT consommerait en moyenne 0,34 Wh d’électricité. Un chiffre à première vue anodin, mais qui, multiplié par le milliard de requêtes quotidiennes, représente 310 GWh par an soit l'équivalent de la consommation électrique annuelle de trois millions de personnes en Éthiopie, souligne le rapport de l’agence onusienne.
Pour faire face à cette tendance, l’Unesco encourage le développement et l’usage de modèles de langage spécialisés, de petite taille, conçus pour accomplir des tâches précises avec une efficacité énergétique bien supérieure. Couplés à des requêtes moins longues, ces petits modèles permettraient de réduire jusqu’à 90 % la consommation énergétique, tout en garantissant une pertinence des réponses jugée satisfaisante par les chercheurs.
Les données fournies par l’étude sont parlantes : expliquer un concept via un grand modèle à partir d’une requête de 300 mots revient, chaque jour, à consommer autant d’électricité que 38.000 foyers britanniques. La même demande, formulée en 150 mots et adressée à un petit modèle spécialisé, tombe à l'équivalent de moins de 4.000 foyers.
Toutefois, cette approche a ses limites. Les modèles plus petits sont plus efficaces dans des contextes ciblés, mais moins performants pour des usages généralistes. Une nuance que l’Unesco juge essentielle dans la réflexion autour d’une IA durable.
Les grands acteurs du secteur n’ont pas tardé à s’adapter. Google a lancé Gemma, Microsoft propose Phi-3, et OpenAI a dévoilé récemment GPT-4o mini. Du côté de l’Europe, la start-up française Mistral AI entend se faire une place sur ce créneau avec son modèle allégé baptisé Ministral.
Au moment où les modèles de langage deviennent omniprésents dans les outils numériques, le choix de solutions plus sobres s’impose comme une responsabilité environnementale autant qu’une opportunité technologique. L’intelligence artificielle ne pourra durablement s’imposer qu’à la condition de maîtriser sa propre consommation.