Le numérique est-il un progrÚs

Intelligence artificielle
Robotique
Langages, programmation & logiciel
Algorithmes
Architecture & SystĂšmes
Histoire du numérique
interstices.info
Réseaux & Communication
Intelligence artificielle
Robotique
Langages, programmation & logiciel
Algorithmes
Architecture & SystĂšmes
Histoire du numérique
interstices.info
Réseaux & Communication
Culture & Société
Sécurité & Vie privée
Données
Traitement dâimages & Son
Modélisation & Simulation
Médecine & Sciences du vivant
Interaction Humain/Machine
Environnement & PlanĂšte
Le numĂ©rique tel que nous le connaissons aujourdâhui nâest pas soutenable. Outre son empreinte environnementale dĂ©jĂ significative, câest surtout sa croissance qui nous alerte. Mais le numĂ©rique a ceci de particulier quâil peut ĂȘtre Ă la fois une partie du problĂšme et une partie de la solution Ă la crise environnementale. Câest Ă nous, citoyens, consommateurs et scientifiques, de choisir ce que nous voulons en faire.
Les sciences et technologies du numĂ©rique nous aident Ă comprendre notre systĂšme Terre. Que serait un rapport du Giec sur le rĂ©chauffement climatique sans la modĂ©lisation et la simulation numĂ©rique ? Elles nous offrent aussi des outils pour limiter les intrants en agriculture, pour analyser la biodiversitĂ©, pour dĂ©velopper la prise de conscience citoyenne grĂące Ă la science participative. La transition Ă©nergĂ©tique reposera sur une combinaison dâactions, comprenant plus de sobriĂ©tĂ©, mais aussi des technologies nouvelles. Optimiser les rĂ©seaux Ă©lectriques et la production dâĂ©nergies renouvelables, amĂ©liorer les chaĂźnes logistiques qui reprĂ©sentent une part considĂ©rable de lâempreinte carbone de lâindustrie, dĂ©velopper la captation et le stockage du CO2, etc. : tout cela sâappuiera nĂ©cessairement sur les sciences et technologies du numĂ©rique. Et pourtant, on lâa dit, le numĂ©rique tel quâil est aujourdâhui doit Ă©voluer.
Ă nous, citoyens, de nous interroger sur lâusage que notre sociĂ©tĂ© fait du numĂ©rique. Emparons-nous des leviers que le numĂ©rique met Ă notre disposition, donnons-nous les moyens de comprendre les apports et les limites de nouvelles technologies, orientons les politiques et la rĂ©gulation pour empĂȘcher les excĂšs, sans passer Ă cĂŽtĂ© des opportunitĂ©s.
Ă nous, consommateurs, de nous interroger sur lâusage que nous faisons du numĂ©rique. Nous avons le devoir de nous informer sur lâimpact de nos choix. Avoir une vision globale, connaĂźtre les ordres de grandeur, ĂȘtre conscients de nos marges dâaction et comprendre ce que signifierait plus de frugalitĂ©. Cela nous Ă©vitera les solutions gadget et nous aidera Ă nous concentrer sur des comportements ayant un rĂ©el impact.
Ă nous, scientifiques, de proposer aux jeunes gĂ©nĂ©rations des sujets de recherche porteurs de sens, ouvrant des voies fertiles. Le temps nâest pas au solutionnisme technologique, nous savons bien quâoptimiser une partie du systĂšme ne suffira pas. Mais sachons nous garder des remises en cause paralysantes et stĂ©riles, car lâurgence climatique est lĂ et nous devons agir. De plus en plus dâinformaticiens et de mathĂ©maticiens se tournent rĂ©solument vers les sujets posĂ©s par les transitions Ă©nergĂ©tiques et environnementales, en collaboration avec dâautres disciplines, y compris des sciences humaines et sociales. Faire Ă©voluer le numĂ©rique Ă lâaune de son impact environnemental ouvre des champs de recherche nouveaux : revisiter la conception mĂȘme des algorithmes, la maniĂšre de les programmer, la maniĂšre de les exĂ©cuter ; repenser lâarchitecture des processeurs en les spĂ©cialisant davantage ; reconsidĂ©rer lâĂ©quilibre entre calculs centralisĂ©s et calculs distribuĂ©s, entre ce qui est dĂ©portĂ© dans le cloud et ce qui reste proche de lâutilisateur, etc. Tous ces sujets sont encore largement Ă dĂ©fricher.
Ce numĂ©ro spĂ©cial aborde quelques-unes de ces problĂ©matiques, Ă travers des tĂ©moignages de grands acteurs et des exemples issus de la recherche. Son ambition est dâillustrer, sans en occulter les limites, lâapport des sciences et des technologies du numĂ©rique aux grands dĂ©fis environnementaux de notre Ă©poque.
Page 3
Le numérique pour comprendre le systÚme Terre
Page 4 Interview de Jean Jouzel
« Les modĂ©lisateurs sont les premiers Ă avoir sonnĂ© lâalarme sur le climat »
Page 6 Un climat de moins en moins incertain
Page 10 Infographie
Le climat de demain, une affaire de modélisation
Page 12 Submersions : comment mieux les anticiper ?
Page 14 Les statistiques de lâextrĂȘme 02
Page 17 Le numérique au service de la transition énergétique
Page 18 Interview de Gilles Babinet
La France a tout pour devenir une « greentech nation » !
Page 20 Pour un déploiement réussi des énergies renouvelables
Page 22 Portfolio
La recherche en action chez Inria
Page 26 La mer quâon voit danser, un potentiel sous-exploitĂ©
Page 29 Interview de Florence Delprat-Jannaud
Mélodie numérique en sous-sol
Page 30 La géothermie, entre simulation et réalité 03
Page 31 Le numĂ©rique, câest bon pour la nature ?
Page 32 Interview de Bruno David
Le numérique peut-il contribuer à préserver la biodiversité ?
Page 34 Quel avenir pour le peuple invisible de lâocĂ©an ?
Page 36 Tous botanistes !
Page 38 Vers une agriculture plus vertueuse
Page 41 Le numérique trace son sillon 04
Page 45 Le numĂ©rique face Ă lui-mĂȘme
Page 46 Interview de Hugues Ferreboeuf Raisonner notre usage du numérique ?
Page 48 Infographie
Le coût énergétique du numérique
Page 50 Apprendre à limiter les impacts du numérique
Page 52 La fabrique du numérique frugal
Page 56 Des nuages Ă la diĂšte
Page 60 Des « data centers » façon puzzle
Page 62 Pour une IA plus responsable
Page 64 Interview de Tamara Ben-Ari Vers une recherche plus vertueuse
DĂšs la fin du xixe siĂšcle, grĂące au SuĂ©dois Svante Arrhenius, lâidĂ©e de rĂ©chauffement climatique liĂ© aux Ă©missions de CO 2 dans lâatmosphĂšre a fait son entrĂ©e dans les cercles scientifiques. Depuis, grĂące notamment au numĂ©rique, que de chemin parcouru dans la comprĂ©hension des mĂ©canismes du systĂšme Terre ! En modĂ©lisant trĂšs finement les interactions des diffĂ©rents acteurs (ocĂ©an, atmosphĂšre, continentsâŠ), les chercheurs prĂ©voient lâĂ©volution du climat et anticipent de mieux en mieux les Ă©vĂ©nements extrĂȘmes. Un premier pas pour sâadapter.
Climatologue spĂ©cialisĂ© sur lâĂ©volution des climats passĂ©s, et vice-prĂ©sident du groupe n ° 1 du Giec entre 2002 et 2015.
Quel rĂŽle la modĂ©lisation a-t-elle jouĂ© dans lâhistoire de la climatologie ?
La question de lâeffet de serre Ă©tait Ă©voquĂ©e dĂšs le dĂ©but du xx e siĂšcle. Cependant, câest le dĂ©veloppement des premiers ordinateurs, pendant la Seconde Guerre mondiale, puis lâavĂšnement des modĂšles mĂ©tĂ©orologiques et climatiques dans les annĂ©es 1960, qui ont vĂ©ritablement permis de sonner lâalarme sur les risques posĂ©s par les activitĂ©s humaines sur notre climat.
Le pionnier est le climatologue nippo-amĂ©ricain Syukuro Manabe, qui, en 1967, a publiĂ© le premier modĂšle global effectif du climat, prĂ©disant lâaugmentation de la tempĂ©rature moyenne de la Terre. Ce modĂšle se focalisait sur ce quâon appelle la « sensibilitĂ© climatique », dĂ©finie comme le rĂ©chauffement Ă la surface de la Terre en rĂ©ponse
Ă un doublement de la concentration de lâatmosphĂšre en dioxyde de carbone (CO2) par rapport Ă lâĂšre prĂ©industrielle. Il projetait une hausse de 2,3 °C de la tempĂ©rature moyenne globale. Les climatologues avaient bien conscience quâun changement de composition de lâatmosphĂšre pouvait induire un rĂ©chauffement, mais câĂ©tait la premiĂšre fois que cela Ă©tait quantifiĂ©. Cette avancĂ©e majeure en climatologie a dâailleurs valu le prix Nobel de physique Ă Syukuro Manabe en 2021.
Les modĂšles du climat ont Ă©galement contribuĂ© Ă une prise de conscience de la classe politique⊠Oui, ils y ont largement contribuĂ©. Ă cet Ă©gard, le rapport Charney, publiĂ© en 1979, a Ă©tĂ© un dĂ©clencheur. Il rĂ©pondait Ă une demande de la Maison Blanche Ă lâAcadĂ©mie nationale des sciences amĂ©ricaine visant Ă Ă©valuer le rĂŽle des activitĂ©s humaines dans lâĂ©volution du climat. CoordonnĂ© par le mĂ©tĂ©orologue Jule Charney, ce rapport proposait une projection proche de celle de Syukuro Manabe, Ă savoir quâen doublant la quantitĂ© de gaz carbonique dans lâatmosphĂšre, le rĂ©chauffement serait compris entre + 1,5 °C et + 4,5 °C. Il pointait Ă©galement la responsabilitĂ© humaine dans la hausse des Ă©missions de gaz Ă effet de serre. Cela a Ă©tĂ© le prĂ©lude Ă une dĂ©cennie extrĂȘmement active en climatologie ayant conduit Ă une prise de conscience plus large du rĂ©chauffement climatique et Ă la crĂ©ation du Groupe dâexperts intergouvernemental sur lâĂ©volution du climat (Giec), en 1988. Des scientifiques comme Bert Bolin, coauteur du rapport Charney et premier prĂ©sident du Giec, ont dâailleurs jouĂ© un rĂŽle majeur dans lâaccĂ©lĂ©ration de la prise de conscience.
Depuis sa création, le Giec utilise des modÚles numériques toujours plus précis. Pouvez-vous nous parler de cette évolution ?
Vus dâaujourdâhui, les premiers modĂšles climatiques du Giec paraissent rudimentaires. Dans les annĂ©es 1970 et 1980, ils se limitaient Ă lâatmosphĂšre avec un ocĂ©an rĂ©duit Ă une seule couche de surface. Il faut attendre les annĂ©es 1990 pour voir des modĂšles couplĂ©s du climat intĂ©grant les aĂ©rosols, le cycle du carbone et la vĂ©gĂ©tation, puis la chimie atmosphĂ©rique et les glaces continentales â incluant les calottes glaciaires â un peu plus tard. Lâexplosion des capacitĂ©s de calculs, le recours Ă des supercalculateurs, et lâaccumulation des donnĂ©es, notamment satellitaires, ont ainsi dĂ©bouchĂ© sur des modĂšles beaucoup plus complets. Sans le dĂ©veloppement du numĂ©rique et des capacitĂ©s informatiques, notre communautĂ© nâaurait pas pu embrasser toute cette complexitĂ©.
De la mĂȘme façon, la rĂ©solution spatiale des modĂšles numĂ©riques sâest considĂ©rablement amĂ©liorĂ©e ces derniĂšres annĂ©es, les mailles passant de centaines de kilomĂštres de cĂŽtĂ© Ă une dizaine de kilomĂštres seulement. Dans son dernier rapport, le Giec a ainsi mis en ligne un atlas des changements climatiques Ă lâĂ©chelle rĂ©gionale qui tient compte de la topographie de la rĂ©gion, du couvert vĂ©gĂ©tal⊠Il devient ainsi possible de visualiser la façon dont les principales variables climatiques (tempĂ©rature, prĂ©cipitations, ventâŠ) vont Ă©voluer dans nâimporte quelle rĂ©gion du globe.
Un outil intĂ©ressant pour, Ă nouveau, les dĂ©cideurs politiquesâŠ
TrĂšs important ! Si vous vous placez de leur point de vue, ce qui importe, câest lâĂ©volution du climat dans, par exemple, leur circonscription dans le but de mettre en Ćuvre des mesures pertinentes dâadaptation au changement climatique pour ce territoire. En France, lâadaptation va ĂȘtre trĂšs diffĂ©rente dans des rĂ©gions cĂŽtiĂšres menacĂ©es par la montĂ©e des eaux ou dans une station de ski, dans les Alpes, par exemple. Ces modĂšles
ne doivent toutefois pas occulter les incertitudes inhĂ©rentes au systĂšme climatique. Ce nâest pas parce quâon amĂ©liore la rĂ©solution que les incertitudes disparaissent. Il y a des limites Ă la prĂ©visibilitĂ© du climat.
Lesquelles ?
Le systĂšme climatique reste un systĂšme chaotique, au sens mathĂ©matique. Et plus lâĂ©chelle est fine, plus les incertitudes ont tendance Ă augmenter : câest vrai pour les tempĂ©ratures, mais surtout pour les prĂ©cipitations. Ces incertitudes naissent notamment du fait quâon ne connaĂźt pas lâĂ©volution de lâocĂ©an. MĂȘme avec des moyens numĂ©riques illimitĂ©s, on ne pourra jamais prĂ©dire quel temps il fera dans trente ans dans une rĂ©gion donnĂ©e, par exemple. Autres incertitudes : celles qui sont liĂ©es aux extrĂȘmes climatiques ou Ă lâĂ©lĂ©vation du niveau de la mer qui, Ă long terme, risque dâĂȘtre largement dominĂ©e par les contributions difficiles Ă modĂ©liser des calottes glaciaires.
Les modÚles numériques à haute résolution restent-ils pertinents malgré tout ?
Il y aura toujours des incertitudes, mais on commence Ă mieux les cerner. Lâimportant est de les quantifier et de les expliciter pour avoir conscience des limites des modĂšles. Câest ce que font avec talent les modĂ©lisateurs du climat du Giec. Il est vrai que du cĂŽtĂ© de la communautĂ© scientifique, nous Ă©tions un peu rĂ©ticents au dĂ©part Ă lâidĂ©e de cette rĂ©gionalisation des modĂšles du climat. Dâailleurs, si vous lisez les premiers rapports du groupement, cette rĂ©gionalisation nâexistait pas du tout. Si le groupe I, en charge des Ă©lĂ©ments scientifiques a franchi le pas et mis Ă disposition un tel atlas Ă lâĂ©chelle rĂ©gionale, câest parce quâil y a eu des progrĂšs considĂ©rables ces derniĂšres annĂ©es. ProgrĂšs des capacitĂ©s de calcul bien sĂ»r, mais aussi progrĂšs dans lâaccĂšs aux donnĂ©es climatiques Ă lâĂ©chelle rĂ©gionale. Sans elle, les modĂšles climatiques numĂ©riques Ă haute rĂ©solution nâauraient sans doute jamais vu le jour. .
« En cinquante ans, les simulations du climat ont gagnĂ© en complexitĂ© au rythme des progrĂšs de lâinformatique et de lâaccĂšs aux donnĂ©es. Le Giec sâappuie aujourdâhui sur des modĂšles Ă haute rĂ©solution »> Scannez ce QR code pour accĂ©der au site du Giec.
DĂ©crire lâĂ©volution du climat, et notamment lâinteraction de lâocĂ©an et de lâatmosphĂšre, est possible dĂšs lors quâon dispose dâun modĂšle. Mais comment contrĂŽler lâincertitude de ses rĂ©sultats ? Mieux savoir, en dâautres termes, ce que lâon ne sait pas ?
Notre planĂšte se rĂ©chauffera-t-elle de 2, 3 ou⊠5 ° C dâici Ă la fin du siĂšcle ? La question nâest pas seulement acadĂ©mique : chaque degrĂ© de plus multipliera les canicules et les alĂ©as climatiques extrĂȘmes qui mettront les populations, mais aussi les Ă©cosystĂšmes, Ă rude Ă©preuve. Les pics de chaleur de lâĂ©té 2022 nâen ont Ă©tĂ© quâun timide aperçu⊠Quelles rĂ©gions du globe se rĂ©chaufferont le plus vite ? Faut-il sâattendre Ă plus dâouragans ? Ă des pluies diluviennes ou, au contraire des sĂ©cheresses intenses ? Toute lâagriculture en dĂ©pend. Les scientifiques du Groupe dâexperts intergouvernemental sur lâĂ©volution du climat (Giec) redoublent donc dâefforts, depuis plus de trente ans, pour rĂ©pondre avec toujours plus de prĂ©cision. Comment ? En sâappuyant sur des modĂšles. CâestĂ -dire des systĂšmes dâĂ©quations mathĂ©matiques qui traduisent, de façon simplifiĂ©e, les grands principes physiques qui gouvernent lâĂ©volution du climat.
Deux acteurs principaux y jouent leur partition : lâatmosphĂšre et lâocĂ©an. « LâatmosphĂšre rĂ©agit Ă court terme et lâocĂ©an Ă plus long terme, car il a beaucoup plus dâinertie. Sa capacitĂ© thermique est mille fois plus importante. Câest une rĂ©serve de chaleur monstrueuse », explique Ăric Blayo, enseignant-chercheur au Laboratoire Jean-Kuntzmann, de lâuniversitĂ© de Grenoble-Alpes, du CNRS, et membre de lâĂ©quipe-projet Airsea dâInria, dont lâobjectif est de dĂ©velopper des
mĂ©thodes mathĂ©matiques pour modĂ©liser les flux atmosphĂ©riques et ocĂ©aniques. Deux flux quâil faut coupler lâun avec lâautre, mais qui interagissent aussi avec les surfaces terrestres et les zones de glace, dĂ©crites par autant de sous-modĂšles interconnectĂ©s. Comment dĂ©crire lâĂ©volution de tout cet ensemble, dâune complexitĂ© inouĂŻe, avec le moins dâerreurs et dâincertitudes possible ?
Dâabord en utilisant la bonne physique, traduite par les bonnes mathĂ©matiques. Pour lâatmosphĂšre de mĂȘme que pour lâocĂ©an, câest celle de la mĂ©canique des fluides sur une Terre en rotation. Elle repose sur des Ă©quations bien Ă©tablies, comme celles de Navier-Stokes, qui ne peuvent cependant ĂȘtre rĂ©solues que de façon approchĂ©e, et sur quelques grands principes, comme la conservation de la masse, de lâĂ©nergie, de la quantitĂ© de mouvement⊠Une physique plutĂŽt bien maĂźtrisĂ©e... tant quâon reste Ă grande Ă©chelle. Mais tout se complique lorsquâon prĂ©tend ĂȘtre un peu plus prĂ©cis.
« DĂ©crire sous forme dâĂ©quations mathĂ©matiques ce qui se passe dans les nuages, par exemple, est un cauchemar : on a de lâeau dans tous ses Ă©tats, liquide, solide et gazeux, qui interagit avec dâautres espĂšces chimiques qui prĂ©cipitent, et la poussiĂšre fabrique des grains de condensation qui vont dĂ©clencher la pluie⊠ou pas », poursuit le mathĂ©maticien.
LâatmosphĂšre et lâocĂ©an, deux acteurs majeurs du climat, dont les interactions sont au cĆur des modĂšles.
La physique des turbulences sur une mer agitĂ©e est un autre sac de nĆuds, qui empĂȘche de calculer prĂ©cisĂ©ment les Ă©changes locaux dâeau, de vapeur et de chaleur entre lâocĂ©an et lâatmosphĂšre. « Cela fait des dĂ©cennies que des physiciens trĂšs pointus travaillent lĂ -dessus et on a encore une incertitude de prĂšs de 30 % », observe-t-il.
Dâautant quâun modĂšle dâatmosphĂšre, ou dâocĂ©an, ne dĂ©crit Ă©videmment pas de façon exacte la physique en tout point. Il divise le volume en « briques » ou mailles Ă©lĂ©mentaires, dans lesquelles tempĂ©rature, pression, taux dâhumiditĂ©, concentrations chimiques et autres variables physico-chimiques nâont que des valeurs moyennes. Des Ă©quations assez simples font Ă©voluer les valeurs dans chaque maille Ă partir de ce qui se passe dans les mailles voisines, en comptabilisant au mieux ce qui entre et ce qui sort. Plus les mailles sont petites, plus le modĂšle est
prĂ©cis (voir lâencadrĂ© page 9), mais Ă©galement plus les calculs deviennent gigantesques, jusquâĂ saturer trĂšs vite les capacitĂ©s des plus gros calculateurs mondiaux. La maille idĂ©ale, de lâordre du kilomĂštre en rĂ©solution horizontale pour lâatmosphĂšre, et de la centaine de mĂštres pour lâocĂ©an, reste un objectif hors de portĂ©e des ordinateurs actuels. Il faut donc trouver les approximations les plus pertinentes, et simplifier en particulier les phĂ©nomĂšnes turbulents Ă lâinterface de ces deux milieux.
Tout cela serait cependant un peu vain si on nâalimentait en parallĂšle ces Ă©quations avec de bonnes donnĂ©es, qui dĂ©crivent lâĂ©tat physique rĂ©el de notre planĂšte. Les climatologues sâappuient sur la rĂ©volution de lâobservation satellite qui a marquĂ© les annĂ©es 2000. Les mesures sont devenues abondantes
Les trous dans les données sont comblés grùce à des mathématiques dérivées des méthodes de contrÎle de missiles
développées pendant la guerre froide
Le numérique | pour comprendre le systÚme Terre
pour lâatmosphĂšre, mais restent plus difficiles Ă obtenir pour les profondeurs marines, malgrĂ© les milliers de drones sous-marins qui quadrillent les ocĂ©ans. Que faire quand les donnĂ©es manquent ? « Les trous vont ĂȘtre comblĂ©s par les Ă©quations du modĂšle, en tenant compte du degrĂ© dâerreur quâil y a dans chacune des sources dâinformation, grĂące Ă des mathĂ©matiques dĂ©rivĂ©es des mĂ©thodes de contrĂŽle de missiles dĂ©veloppĂ©es pendant la guerre froide pour rectifier une trajectoire au fur et Ă mesure des observations », prĂ©cise Ăric Blayo.
Responsable de lâĂ©quipe-projet Odyssey, commune Ă Inria, lâuniversitĂ© de Bretagne occidentale Rennes 1, IMT Atlantique, le CNRS et lâIfremer.
Quâapportera la nouvelle gĂ©nĂ©ration de modĂšles sur laquelle vous travaillez ?
La rĂ©solution des modĂšles actuels reste trop grossiĂšre. Par exemple, ils reprĂ©sentent mal le Gulf Stream, qui a une importance majeure sur le climat de lâEurope de lâOuest. On peut surmonter ces insuffisances en ajoutant aux Ă©quations dĂ©terministes une composante alĂ©atoire qui reprĂ©sente lâĂ©lĂ©ment inconnu, avec des conditions initiales qui ne sont pas connues partout et des lois dâĂ©volution qui incorporent un bruit. GrĂące Ă cette modĂ©lisation alĂ©atoire de la dynamique, il devient possible dâintĂ©grer des composantes non rĂ©solues du systĂšme, et de simuler plusieurs rĂ©alisations pour quantifier lâincertitude. Câest possible par le biais du calcul diffĂ©rentiel stochastique.
Vous introduisez aussi de lâintelligence artificielle. Pour en faire quoi ?
LâidĂ©e est dâapprendre une composante qui corrige le modĂšle grossier. Soit sur des modĂšles de plus haute rĂ©solution, lancĂ©s dans des cas ciblĂ©s, soit directement sur les observations. Quelle composante faut-il introduire pour que le modĂšle grossier
corresponde mieux à la dynamique observée ?
LâIA va identifier des relations entre la reprĂ©sentation en basse rĂ©solution et, par exemple, les observations.
Mais le machine learning peut aussi aider à déterminer dans quel régime de la dynamique océanique on se trouve. On obtient alors des modÚles simplifiés qui caractérisent bien la dynamique, sans devoir utiliser un modÚle à trÚs haute résolution.
Ă ceci prĂšs quâon ne saura pas sur quelle logique la machine a fondĂ© ces relations⊠Nâest-ce pas gĂȘnant ?
Si. LâidĂ©e nâest donc pas dâapprendre tout le modĂšle, mais juste des composantes mal connues. Le couplage ocĂ©an-atmosphĂšre est un des endroits oĂč le machine learning peut apporter beaucoup, quand on doit travailler Ă grande Ă©chelle. On commence Ă avoir des rĂ©sultats sur des modĂšles simplifiĂ©s. Il faut monter en complexitĂ©. Le machine learning ne sâest pas encore trop attaquĂ© Ă lâapprentissage de systĂšmes dynamiques.
Il faudra donc dĂ©velopper des mĂ©thodes propres. Nous nâen sommes quâaux balbutiements.
Affiner par endroits le maillage pour intĂ©grer des Ă©vĂ©nements localisĂ©s est lâun des dĂ©fis actuels. Car il devient de plus en plus clair que les phĂ©nomĂšnes locaux, Ă petite Ă©chelle, influencent les grands Ă©quilibres, qui eux-mĂȘmes dĂ©terminent les effets rĂ©gionaux, dans une cascade de couplages non linĂ©aires qui exigent des mathĂ©matiques spĂ©cifiques dĂ©veloppĂ©es en partie par lâĂ©quipe-projet Airsea. Leur caractĂ©ristique majeure est que lâeffet nây est nullement proportionnel Ă la cause : deux Ă©tats presque semblables peuvent vite diverger selon deux trajectoires trĂšs diffĂ©rentes, comme lâillustre la fameuse mĂ©taphore de lâ« effet papillon », selon laquelle un battement dâailes de papillon au BrĂ©sil pourrait dĂ©clencher, par une cascade dâeffets amplifiĂ©s, une tornade au Texas.
Comment ce qui se passe Ă petite Ă©chelle se rĂ©percute Ă grande Ă©chelle, et vice versa , de la haute mer jusquâaux bords dâun estuaire ? Cette question a Ă©tĂ© au cĆur du programme Surf, dont lâobjectif Ă©tait de faire fonctionner ensemble diffĂ©rents modĂšles dâocĂ©an comme le classique modĂšle global Nemo, créé par un consortium de pays europĂ©ens, ou le nouveau modĂšle Croco (Coastal and regional ocean community), qui fonctionne Ă une Ă©chelle plus rĂ©gionale pour Ă©tudier lâocĂ©an cĂŽtier. « LâidĂ©e, câĂ©tait de voir comment faire passer lâinformation dâun modĂšle Ă grande Ă©chelle vers un modĂšle Ă plus petite et comment lâincertitude se propage quand on fait ce couplage, dans une cascade de modĂšles depuis lâocĂ©an hauturier, oĂč la topographie ne change pas, oĂč il nây a pas de vagues et oĂč les Ă©quations sont assez simplifiĂ©es, jusquâaux modĂšles littoraux qui intĂšgrent les marĂ©es, les sĂ©diments et les dĂ©placements de bancs de sable », explique Arthur Vidard, porteur chez Inria du DĂ©fi Surf pour lâĂ©quipe-projet Airsea, en charge du dĂ©veloppement de mĂ©thodes de calcul numĂ©rique des Ă©coulements ocĂ©aniques et atmosphĂ©riques.
Une gageure, tant les difficultĂ©s sont nombreuses. Alors que lâocĂ©an est considĂ©rĂ© comme un milieu en trois dimensions, la faible profondeur du littoral ou dâun estuaire en fait au contraire un milieu Ă deux dimensions. Les systĂšmes dâĂ©quations ne sont donc pas les mĂȘmes. Or lâobjectif est bien de les faire fonctionner simultanĂ©ment ensemble.
Quelle confiance peut-on avoir dans les résultats ? Pour répondre, une méthode simple consiste à produire plusieurs simulations, en modifiant un peu les paramÚtres et les modÚles, et voir si les résultats
Pas de rĂ©volution, mais des progrĂšs constants et continus. Câest sans doute ainsi quâon peut qualifier lâĂ©volution des modĂšles, depuis les esquisses dĂ©veloppĂ©es aprĂšs la Seconde Guerre mondiale jusquâaux monstres informatiques dâaujourdâhui.
Câest pour les besoins de la mĂ©tĂ©orologie quâun premier modĂšle global de circulation de lâatmosphĂšre est créé Ă Princeton, aux Ătats-Unis, sous lâautoritĂ© de John von Neumann. La premiĂšre simulation de circulation globale de lâatmosphĂšre est rĂ©alisĂ©e en 1955, avec les moyens de calculs de lâĂ©poque. Dans les annĂ©es 1960, un modĂšle simule un climat dans lequel le taux de CO2 aurait doublĂ©. Le premier Ă©quivalent français est créé en 1968 au Laboratoire de mĂ©tĂ©orologie dynamique (LMD). En 1979, la premiĂšre confĂ©rence mondiale sur le climat donne un coup dâaccĂ©lĂ©rateur, avec la mise en orbite de plusieurs satellites dâobservation. Les premiers modĂšles restent simples et simulent surtout les cycles glaciaires. Ils permettent malgrĂ© tout aux climatologues dâalerter, Ă la fin des annĂ©es 1980, sur le risque de rĂ©chauffement global. Les annĂ©es 1990 voient les premiĂšres prises en compte des couplages entre lâatmosphĂšre et lâocĂ©an. Les modĂšles intĂšgrent ensuite un nombre croissant dâĂ©lĂ©ments, de milieux et de cycles (ocĂ©an, glace, chimie, vĂ©gĂ©tation, carboneâŠ) et tirent profit de lâaugmentation fulgurante de la puissance des supercalculateurs : entre le premier acquis
par MĂ©tĂ©o-France en 1992 et ceux dont lâorganisme dispose aujourdâhui, la frĂ©quence de calculs a Ă©tĂ© multipliĂ©e par plus de 10 millions ! Les annĂ©es 2000 consacrent lâĂšre de lâobservation globale de la Terre par satellite, avec une plĂ©iade dâinstruments mis en orbite. Mais dans lâombre, les mathĂ©matiques sâamĂ©liorent aussi, « notamment dans la façon dont on approxime les Ă©quations », commente Ăric Blayo. Les modĂšles physiques, eux, gagnent en prĂ©cision, en dĂ©taillant les phĂ©nomĂšnes localisĂ©s. Car lâenjeu est aujourdâhui de rĂ©gionaliser les prĂ©visions. Et pour cela, il faut affiner la physique sur chacun des compartiments du « systĂšme Terre ». « On sâest rendu compte, par exemple, que la glace du Groenland fondait beaucoup plus vite que ce qui Ă©tait prĂ©vu il y a quinze ans. En cause, des phĂ©nomĂšnes physiques qui nâavaient pas Ă©tĂ© identifiĂ©s : quand vous avez 2 kilomĂštres dâĂ©paisseur de glace, ça pĂšse lourd, donc ça Ă©chauffe les points les plus bas. Et ça peut suffire Ă faire fondre la glace Ă la base. Câest la mĂȘme chose en Antarctique, sur le socle rocheux : vous avez par endroits des riviĂšres dâeau liquide qui, par entraĂźnement, font fondre la glace beaucoup plus rapidement que ce que prĂ©voyaient les prĂ©cĂ©dents modĂšles », explique le chercheur. Les climatologues doivent-ils avouer que leurs simulations gardent une part dâincertitude ? Les dĂ©bats ont Ă©tĂ© vifs, tant cette incertitude risquait dâĂȘtre mal comprise du grand public. « Le rĂ©sultat peut ĂȘtre
sont Ă©quivalents ou sâils divergent. Si par exemple quatre simulations sur cinq donnent sensiblement la mĂȘme valeur, lâindice de fiabilitĂ© sera de 4 sur 5. Les nouvelles gĂ©nĂ©rations de modĂšles ne donnent pas, hĂ©las, un Ă©ventail de rĂ©sultats forcĂ©ment plus rĂ©duit que les anciennes. Comment faire mieux ?
« Un gros travail a Ă©tĂ© fait pour dĂ©finir lâincertitude et voir comment elle se propageait. LâidĂ©e Ă©tait de chercher son point de dĂ©part, dĂ» Ă une mauvaise localisation des particules quand on discrĂ©tise les donnĂ©es. Il faut garder cette incertitude, lâajouter dans les Ă©quations comme une forme de perturbation stochastique, redĂ©velopper tout le systĂšme dâĂ©quations discrĂ©tisĂ©es et programmer ensuite », explique
Dans les modĂšles climatiques, lâocĂ©an et lâatmosphĂšre sont divisĂ©s en cellules, en mailles, dans lesquelles sont effectuĂ©s les calculs.
incertain tout en livrant un message important », rappelle Arthur Vidard. Lâincertitude finit par ĂȘtre gĂ©rĂ©e par les modĂšles eux-mĂȘmes, qui introduisent Ă prĂ©sent des termes alĂ©atoires au cĆur mĂȘme de leurs Ă©quations. LâIA remplacerat-elle Ă terme ces modĂšles ? « Certains se demandent en effet sâil ne faudrait pas faire apprendre un modĂšle mĂ©tĂ©o ou climatique Ă une intelligence artificielle, jeter le modĂšle et se contenter de prĂ©voir trĂšs rapidement grĂące Ă lâIA. On jetterait donc des dĂ©cennies de recherche. Mais lâIA apporte des solutions alternatives pour donner de meilleurs rĂ©sultats sur des phĂ©nomĂšnes trĂšs prĂ©cis, ponctuels, dans des petits coins de nos modĂšles quâon ne sait pas bien dĂ©crire actuellement », souligne Ăric Blayo.
pas Ă pas Arthur Vidard. Un processus quâil faut rĂ©pĂ©ter dâun modĂšle Ă lâautre, pour garder une reprĂ©sentation fidĂšle de cette incertitude. « Ce nâest pas tant son amplitude, qui peut aussi ĂȘtre calculĂ©e, que sa forme qui nous intĂ©resse », prĂ©cise le chercheur.
Ces questions resteront au cĆur du nouveau projet Mediation (Methodological developments for a robust and efficient digital twin of the ocean), dĂ©veloppĂ© par lâĂ©quipe-projet Airsea, qui vise Ă crĂ©er un vĂ©ritable jumeau numĂ©rique de lâocĂ©an. Il intĂ©grera en particulier lâactivitĂ© biologique du phytoplancton, dont la chlorophylle influe sur lâabsorption des rayons solaires. Sobre en calcul, il aidera les climatologues Ă faire des simulations robustes et variĂ©es, aux incertitudes quantifiĂ©es. Peut-ĂȘtre pourrons-nous alors mieux prĂ©voir le futur incertain que nous allons devoir affronter.
Les scĂ©narios du Giec sur lâĂ©volution du climat sâappuient sur des simulations de plus en plus prĂ©cises et des modĂšles toujours plus performants. En nous rĂ©vĂ©lant ce Ă quoi nous devons nous attendre, ils invitent Ă rĂ©agir.
DâannĂ©e en annĂ©e, les modĂšles climatiques (Ă partir de 1990, ce sont ceux des rapports du Giec) ont intĂ©grĂ© de plus en plus de processus physiques.
Le Giec dĂ©finit des trajectoires socioĂ©conomiques partagĂ©es (SSP) correspondant chacune Ă des scĂ©narios dâĂ©missions de gaz Ă effet de serre, du plus vertueux (SSP5-1,9) au plus dommageable (SSP5-8,5).
Variation des températures pour un réchauffement global de 1 °C
Changement observé pour un réchauffement global de 1 °C
Simulation pour un réchauffement global de 1 °C
Changement attendu (en °C) par rapport à la période 1850-1900
Simulation dâune hausse globale de 1,5 °C.
Les continents se rĂ©chauffent plus que les ocĂ©ans, de mĂȘme que lâArctique et lâAntarctique par rapport aux tropiques.
Simulation dâune hausse globale de 2 °C
Simulation dâune hausse globale de 4 °C
Variation des précipitations (en %) par rapport à 1850-1900
Simulation pour un réchauffement global de 1,5 C
Variation de température (en °C)
Les modĂšles montrent que les prĂ©cipitations augmenteront aux hautes latitudes, dans la zone Ă©quatoriale du Pacifique et dans certaines rĂ©gions soumises Ă la mousson. Ă lâinverse, elles diminuent dans les zones subtropicales.
Simulation pour un réchauffement global de 2 C
Simulation pour un réchauffement global de 4 C
Variation (en %)
Prévoir les inondations en zones cÎtiÚres et quantifier les risques qui leur sont inhérents suppose de considérer les phénomÚnes dans leur globalité, mais aussi de recourir à des outils numériques innovants.
Le 8 septembre 1900, lâinondation associĂ©e Ă lâouragan dit « de Galveston » avait ravagĂ© lâĂźle Ă©ponyme, au Texas, et tuĂ© plus de 6 000 personnes. Un phĂ©nomĂšne similaire (on parle dâonde de tempĂȘte) sâest produit au mĂȘme endroit dans le sillage de lâouragan Ike, en 2008, faisant dâimportants dĂ©gĂąts, mais cette fois moins de victimes du fait dâune Ă©vacuation prĂ©ventive. De tels Ă©vĂ©nements nous rappellent que les zones cĂŽtiĂšres sont des rĂ©gions Ă part. Elles accueillent environ 10 % de la population mondiale, une proportion sans cesse croissante, et une multitude dâactivitĂ©s humaines. Or cette concentration augmente le potentiel destructeur des inondations, qui plus est accru par le changement climatique. Que faire pour amĂ©liorer la prĂ©vention et aider Ă la gestion de crise ? Recourir Ă la modĂ©lisation pour comprendre les phĂ©nomĂšnes en jeu et simuler diffĂ©rents scĂ©narios.
Cependant, caractĂ©riser le risque de submersion cĂŽtiĂšre dâun site est un dĂ©fi majeur. Cela exige de considĂ©rer la nature multiphysique et multiĂ©chelle des processus liĂ©s Ă des Ă©vĂ©nements extrĂȘmes comme les ouragans, les tsunamis et les tempĂȘtes. En effet, le niveau de lâeau et lâintensitĂ© des courants observĂ©s sur une cĂŽte sont dâabord les consĂ©quences
de conditions atmosphĂ©riques, dâun sĂ©isme ou dâun glissement sous-marin : ces soubresauts sont propagĂ©s par la dynamique des vagues sur de trĂšs longues distances et finalement transformĂ©s Ă lâĂ©chelle trĂšs locale par lâinteraction avec le fond marin et les structures cĂŽtiĂšres.
Prendre en compte cette complexitĂ© alourdit le coĂ»t et la durĂ©e des simulations. De plus, lâintĂ©rĂȘt croissant pour les approches probabilistes et lâanalyse des cas extrĂȘmes impose de rĂ©aliser des centaines, voire des milliers de simulations. Dans ce contexte, la plupart des outils opĂ©rationnels actuels rĂ©vĂšlent rapidement leurs limites. Pour rĂ©pondre Ă ces besoins, on privilĂ©gie une approche holistique combinant expertises mathĂ©matiques et numĂ©riques et, quand cela est possible, les observations de terrain.
CĂŽtĂ© modĂ©lisation, Inria utilise une mĂ©thodologie qui repose sur une « boucle », dont les trois Ă©tapes principales sont : lâĂ©criture et lâĂ©tude dâĂ©quations diffĂ©rentielles prenant en compte les principaux processus physiques aux Ă©chelles pertinentes ; un traitement numĂ©rique dit « adaptatif », prĂ©servant les propriĂ©tĂ©s des modĂšles et permettant dâatteindre automatiquement la rĂ©solution nĂ©cessaire pour capter chaque phĂ©nomĂšne ; la vĂ©rification des incertitudes et de la variabilitĂ© des rĂ©sultats liĂ©e aux hypothĂšses physiques et aux choix de modĂ©lisation. Suivant la pertinence et la fiabilitĂ© des rĂ©sultats, on rĂ©itĂšre la boucle, avec les modĂšles ou le traitement numĂ©rique modifiĂ©s.
Cette approche holistique a montrĂ© son potentiel pour comprendre certains phĂ©nomĂšnes complexes dâĂ©coulement comme les ressauts hydrauliques oscillants, ou mascarets. Ces brusques surĂ©lĂ©vations de
Le BRGM organise des campagnes de simulations des niveaux dâeau atteints lors du passage dâouragans virtuels> de recherche au centre Inria de lâuniversitĂ© de Bordeaux dans lâĂ©quipe-projet Cardamom.
lâeau dâun fleuve se produisent lorsque le courant est inversĂ© par lâeffet de la marĂ©e montante ou en rĂ©action Ă des phĂ©nomĂšnes dâorigine tellurique comme des tremblements de terre ou des tsunamis. Ces ressauts sont parfois dangereux, car ils mettent en mouvement dâimportantes masses dâeau Ă mĂȘme de dĂ©passer le niveau des berges.
En France, le phĂ©nomĂšne est connu, par exemple dans les estuaires de la Gironde et de la Seine. Des mesures rĂ©centes ont mis en Ă©vidence deux rĂ©gimes distincts pouvant se produire dans un mĂȘme estuaire : lâun avec dâimportantes oscillations dâeau, lâautre peu perceptible Ă lâĆil nu. Ce dernier, bien quâobservĂ© prĂ©cĂ©demment en laboratoire, nâavait pas dâexplication physique. Une campagne de simulations a conduit Ă formuler lâhypothĂšse que les deux rĂ©gimes auraient des causes physiques diffĂ©rentes et que les ressauts invisibles seraient liĂ©s Ă un trĂšs rapide processus dâĂ©quilibrage des forces de gravitĂ© exercĂ©es par la masse dâeau sur les parois du canal ou de la riviĂšre. En reformulant les Ă©quations afin de tenir compte de ces hypothĂšses et des Ă©chelles appropriĂ©es, nous avons reproduit thĂ©oriquement les observations et confirmĂ© cette interprĂ©tation (voir la figure ci-dessous)
Le BRGM utilise nos mĂ©thodes numĂ©riques adaptatives pour organiser par exemple, dans le cadre du projet Carib-Coast, des campagnes de simulations des niveaux dâeau atteints lors du passage dâouragans virtuels, notamment dans les CaraĂŻbes (voir la figure ci-dessus). Chaque simulation prend en considĂ©ration la complexitĂ© du milieu ocĂ©anique (sa profondeur et son relief) aux diffĂ©rentes Ă©chelles spatiales de la mer des CaraĂŻbes, de ses Ăźles et des villes cĂŽtiĂšres. Pour ce faire, on exploite la flexibilitĂ© dâun maillage non structurĂ© dĂ©crivant lâespace avec un jeu de points, de segments et de faces, sous la forme par exemple de triangles. Il est alors possible de faire varier la rĂ©solution lors des simulations reproduisant avec un moindre coĂ»t les Ă©chelles physiques correctes tout au long de lâhistoire de lâouragan, de sa genĂšse Ă son impact sur la cĂŽte.
GrĂące Ă ces techniques et avec une Ă©quipe multidisciplinaire de chercheurs dâInria, du BRGM, du CNRS et des universitĂ©s de Bordeaux et de Montpellier, nous avons lâambition avec le projet Uhaina dâĂ©tablir un continuum entre la recherche scientifique et les applications pour fournir, entre autres, des outils dâanticipation des risques de submersion marine bĂ©nĂ©ficiant de lâĂ©tat de lâart en matiĂšre de modĂšles numĂ©riques, de techniques de simulation et de calcul Ă haute performance. De quoi mieux protĂ©ger GalvestonâŠ
Les catastrophes naturelles semblent survenir au hasard. Sont-elles pour autant imprĂ©visibles ? Non, grĂące Ă la thĂ©orie des valeurs extrĂȘmes !
Auteurs
> StĂ©phane Girard Directeur de recherche, responsable de lâĂ©quipe-projet Statify au centre Inria de lâuniversitĂ© Grenoble-Alpes.
> Thomas Opitz Chercheur statisticien Ă Inrae.
> Antoine Usseglio-Carleve Maßtre de conférences à Avignon université.
Canicules, sĂ©cheresses, feux de forĂȘts, tempĂȘtes et inondations ont durement marquĂ© la France en 2022. Et ces catastrophes naturelles aux consĂ©quences humaines et matĂ©rielles importantes sont loin de se limiter Ă un seul pays. Ainsi, la mĂȘme annĂ©e, au Pakistan, des inondations ont fait au moins 1 700 morts, affectĂ© 33 millions dâhabitants, dĂ©truit 250 000 habitationsâŠ
La plupart de ces Ă©vĂ©nements sont favorisĂ©s, voire directement dĂ©clenchĂ©s par des conditions climatiques et mĂ©tĂ©orologiques particuliĂšres et leurs interactions avec notre façon dâoccuper et dâutiliser la surface de la Terre. Ces cataclysmes sont-ils pour autant prĂ©visibles ?
Premier Ă©lĂ©ment de rĂ©ponse, selon les climatologues, le rĂ©chauffement global aura pour consĂ©quence lâaugmentation de la frĂ©quence et de lâintensitĂ© de ces Ă©pisodes catastrophiques. Mais il reste de grandes incertitudes sur le « comment », le « quand » et le « oĂč ». De fait, il est difficile de prĂ©voir de façon dĂ©terministe les conditions mĂ©tĂ©orologiques au-delĂ de plusieurs jours, en raison de la nature chaotique de la dynamique atmosphĂ©rique. En revanche, les reprĂ©sentations probabilistes et les mĂ©thodes statistiques pour Ă©tudier les Ă©vĂ©nements extrĂȘmes Ă
partir des observations du passĂ© nous aident Ă mieux anticiper les risques du futur en prĂ©voyant la nature, la frĂ©quence et lâampleur de tels Ă©vĂ©nements qui se produiraient dans un territoire et dans un horizon temporel bien dĂ©finis.
Nous Ă©tudions comment ces probabilitĂ©s varient dans lâespace et dans le temps, ainsi que la conjonction de plusieurs types de phĂ©nomĂšnes, par exemple des prĂ©cipitations et des vents extrĂȘmes lors de tempĂȘtes particuliĂšrement dĂ©vastatrices. Un objectif majeur est de mieux anticiper les effets nĂ©fastes cumulĂ©s dus aux interactions entre plusieurs risques, qui peuvent largement dĂ©passer la somme des effets « risque par risque ». Pour cela, nous utilisons une branche particuliĂšre de la statistique, la thĂ©orie des valeurs extrĂȘmes. En quoi consiste-t-elle ?
De nombreuses analyses statistiques « classiques » se focalisent sur la partie centrale de la distribution des donnĂ©es et traduisent leur comportement en termes de moyennes, au dĂ©triment des « queues » de la distribution, oĂč se trouvent les valeurs extrĂȘmes. Ainsi, si nous ajustions un modĂšle de statistique classique Ă partir de toutes les donnĂ©es disponibles, celui-ci manquerait de prĂ©cision pour estimer les Ă©vĂ©nements extrĂȘmes. Câest pourquoi nous analysons la distribution du maximum (ou bien du minimum, ou encore des valeurs qui dĂ©passent un certain seuil) plutĂŽt que les donnĂ©es dans leur ensemble. Câest le
point de dĂ©part de la thĂ©orie des valeurs extrĂȘmes. Dans le cas de lâĂ©volution du niveau dâune riviĂšre par exemple, les seules valeurs vraiment intĂ©ressantes (sur le plan des impacts) sont les valeurs Ă©levĂ©es ou basses. Trop Ă©levĂ©es, des inondations risquent dâapparaĂźtre, trop basses, la riviĂšre va vers lâassĂšchement.
Le comportement du maximum (ou du minimum) peut ĂȘtre dĂ©duit mathĂ©matiquement du comportement thĂ©orique du phĂ©nomĂšne Ă©tudiĂ©, mais câest impossible en pratique dĂšs lors que lâensemble des probabilitĂ©s thĂ©oriques pour les Ă©vĂ©nements dâintĂ©rĂȘt, appelĂ© la « loi de probabilitĂ© », est inconnu. On prĂ©fĂšre alors sâappuyer sur le thĂ©orĂšme des valeurs extrĂȘmes, qui fournit une approximation du comportement du maximum quand la taille de lâĂ©chantillon est grande. Ce thĂ©orĂšme a notamment pour origine les travaux du mathĂ©maticien britannique Leonard Tippett, qui a thĂ©oriquement caractĂ©risĂ©
en 1928 les lois de maxima possibles. Il Ă©tait motivĂ© par des questions trĂšs concrĂštes liĂ©es Ă lâindustrie des filatures de coton au Royaume-Uni : un tissu se dĂ©chire quand le fil de rĂ©sistance minimale se casseâŠ
La forme de loi des valeurs extrĂȘmes dĂ©pend dâun paramĂštre clĂ©, nommĂ© « indice des valeurs extrĂȘmes », souvent notĂ© « gamma », qui dĂ©termine qualitativement et quantitativement le comportement des valeurs extrĂȘmes (voir la figure page suivante) . Si ce paramĂštre est nĂ©gatif, les valeurs extrĂȘmes sont bornĂ©es supĂ©rieurement et ne peuvent pas dĂ©passer une certaine limite. Si gamma est nul, les queues de la distribution sont dites « lĂ©gĂšres » : la probabilitĂ© dâobserver une valeur extrĂȘme dĂ©croĂźt exponentiellement en fonction de son amplitude. Enfin, quand lâindice est positif, les queues de la distribution sont « lourdes » : la probabilitĂ© dâune valeur extrĂȘme reste importante, mĂȘme pour des valeurs trĂšs Ă©levĂ©es, et dĂ©croĂźt seulement comme une puissance de son amplitude inverse.
Les analyses statistiques « classiques » traduisent le comportement des données en termes de moyennes.
Ce faisant, elles nĂ©gligent les valeurs extrĂȘmes
Les conditions mĂ©tĂ©orologiques favorables aux feux de forĂȘts dĂ©pendent des interactions complexes entre tempĂ©rature, prĂ©cipitations, humiditĂ© de lâair et vitesse du vent, qui varient sur des Ă©chelles spatiales et temporelles diffĂ©rentes. Dans des conditions particuliĂšres de ces paramĂštres, la vĂ©gĂ©tation se dessĂšche, ce qui facilite lâĂ©closion du feu ainsi que sa propagation. Lâeffet de ces variables sur le risque incendie est synthĂ©tisĂ© Ă lâaide dâindices « feu-mĂ©tĂ©o », lesquels reflĂštent le niveau dâintensitĂ© attendu si un feu se dĂ©clenche un jour donnĂ©. Ces indices sont largement utilisĂ©s Ă travers le monde par les services opĂ©rationnels, comme MĂ©tĂ©o-France, afin dâanticiper le niveau de risque sur les jours Ă venir en fonction des prĂ©visions mĂ©tĂ©orologiques. Ils sont Ă©galement utilisĂ©s par les scientifiques afin de simuler lâactivitĂ© potentielle des feux sur les dĂ©cennies Ă venir Ă partir des scĂ©narios dâĂ©volution du climat du Giec.
Câest ce dernier cas qui nous intĂ©resse, car il caractĂ©rise typiquement les amplitudes dâĂ©vĂ©nements ayant un trĂšs fort impact, comme les feux de forĂȘts susceptibles de brĂ»ler de grandes surfaces (voir lâencadrĂ© ci-dessus) . Dans cette situation, lâĂ©tude « classique » des moyennes et des variances de lâĂ©chantillon risque au contraire dâinduire en erreur, ces grandeurs ne pouvant ĂȘtre dĂ©finies mathĂ©mati-
quement lorsque gamma est grand ! Une composante importante de notre recherche se focalise donc sur la redĂ©finition des mĂ©thodes dâanalyse de donnĂ©es classiques (classification, analyse des dĂ©pendances, rĂ©duction de dimensionâŠ) dans ce cadre extrĂȘme.
La valeur de gamma, qui est inconnue a priori, est estimĂ©e Ă partir des observations du passĂ©. De lĂ , nous pouvons construire deux quantitĂ©s Ă©troitement liĂ©es, utiles pour les prĂ©dictions. Dâabord, le niveau de retour qui, pour une longueur dâintervalle de temps fixĂ©e, correspond au seuil dĂ©passĂ© une fois en moyenne pendant cette pĂ©riode. Ensuite, le temps (ou la pĂ©riode) de retour, qui, pour un seuil fixĂ©, indique le temps nĂ©cessaire pour observer un dĂ©passement en moyenne. Ainsi, la crue de la Seine de 1910 est souvent qualifiĂ©e de crue centennale, car on estime que la hauteur dâeau mesurĂ©e de 8,62 mĂštres au pont dâAusterlitz, Ă Paris, a une pĂ©riode de retour de cent ans. Inversement, la hauteur de 8,62 mĂštres correspond donc au niveau de retour Ă cent ans.
Dans le cas dâune loi Ă queue lourde, donc Ă indice des valeurs extrĂȘmes positif, un doublement de ce gamma se traduit par lâĂ©lĂ©vation au carrĂ© du niveau de retour, Ă pĂ©riode fixĂ©e. RĂ©ciproquement, ce doublement conduit Ă une diminution Ă la racine carrĂ©e du temps de retour, Ă niveau de retour fixĂ©. Par ordre croissant, des valeurs typiques de gamma (voir la figure ci-contre) estimĂ©es sont de lâordre de 0,1 pour des prĂ©cipitations dans la rĂ©gion de Montpellier, 0,25 pour des hauteurs de vagues lors dâun tsunami, 0,7 pour des surfaces brĂ»lĂ©es par des feux de forĂȘt en rĂ©gion mĂ©diterranĂ©enne française, et 0,8 pour les dommages financiers causĂ©s par les tornades aux Ătats-Unis. En dâautres termes, des niveaux de retour dont lâobservation semble impossible Ă lâĂ©chelle dâun siĂšcle lorsque la valeur de gamma est petite auront une pĂ©riode de retour de plus en plus courte Ă mesure que lâindice des valeurs extrĂȘmes augmente.
La valeur de lâ « indice des valeurs extrĂȘmes » (gamma) influe sur le lien entre les niveaux de retour et les pĂ©riodes de retour. Plus gamma est grand, plus la probabilitĂ© de voir advenir un Ă©vĂ©nement extrĂȘme (Ă haut niveau) dans un temps raccourci (pĂ©riode de retour) augmente.
De nombreux projets en cours, Ă lâintersection de la thĂ©orie des valeurs extrĂȘmes, de la statistique spatiale et de lâintelligence artificielle, ambitionnent de mieux caractĂ©riser et prĂ©dire lâampleur des risques extrĂȘmes en fonction du territoire, de la saison, des conditions mĂ©tĂ©orologiques et du changement climatique. Ils offrent Ă la fois des dĂ©fis scientifiques passionnants et des perspectives pour mieux prĂ©venir les consĂ©quences du changement climatique.
Pour Ă©chapper autant que faire se peut aux foudres du rĂ©chauffement climatique, dĂ©cideurs et politiques en appellent Ă une indispensable transition Ă©nergĂ©tique. En quoi consiste-t-elle ? Quelles Ă©nergies renouvelables faut-il privilĂ©gier (marines, gĂ©othermieâŠ) et quel est leur potentiel ? Que faire du CO2 Ă©mis ? Les chercheurs dâInria sont Ă pied dâĆuvre pour montrer que le numĂ©rique est des plus pertinents pour rĂ©pondre Ă toutes ces questions. Ă la clĂ©, lâavĂšnement dâune sociĂ©tĂ© plus vertueuse !
Le numĂ©rique peut-il contribuer Ă dĂ©velopper un monde plus vertueux, câest-Ă -dire plus respectueux de lâenvironnement ?
De quelle maniÚre exactement les technologies numériques favorisent-elles la transition
Pour rĂ©ussir la transition Ă©nergĂ©tique, qui est indispensable pour justement protĂ©ger lâenvironnement et attĂ©nuer les effets du rĂ©chauffement climatique, plusieurs facteurs entrent en jeu. Le premier consiste Ă©videmment Ă optimiser les moyens de production des Ă©nergies, comme les Ă©oliennes, les parcs photovoltaĂŻques, les centrales nuclĂ©aires ou la production dâhydrogĂšne⊠Mais, juste aprĂšs, le second facteur le plus efficace est probablement le numĂ©rique. Câest dire le potentiel de ces technologies ! Avec Ă la clĂ© des bĂ©nĂ©fices multiples sur la consommation dâĂ©nergie, et plus largement sur le changement climatique.
Il existe dâabord un lien direct entre transition Ă©nergĂ©tique et numĂ©rique. Cela concerne ce que lâon appelle les smart grids, câest-Ă -dire les rĂ©seaux Ă©lectriques intelligents dans lesquels on pilote lâĂ©nergie en temps rĂ©el pour adapter la demande Ă lâoffre. Prenons lâexemple de ce moment oĂč tous les gens rentrent du travail le soir. Ils prennent une douche, cuisinent, mettent leur voiture Ă©lectrique Ă recharger⊠On observe alors une pointe de consommation dâĂ©lectricitĂ©. Or si lâon mettait en place un ensemble de technologies afin de piloter, et notamment de diffĂ©rer cette demande, on « Ă©craserait » cette pointe de consommation et rĂ©duirait considĂ©rablement lâempreinte carbone de la production dâĂ©lectricitĂ©. Lâalimentation dâun ballon dâeau chaude, la charge dâun vĂ©hicule, la mise en route dâune machine Ă laver ou de certains Ă©quipements industriels peuvent en effet ĂȘtre facilement diffĂ©rĂ©es. Le plus souvent sans aucune gĂȘne pour les utilisateurs et avec un impact trĂšs important sur le rĂ©seau Ă©lectrique.
Ceci repose notamment sur des technologies dites de machine learning, une intelligence artificielle par laquelle les machines apprennent automatiquement. Mais pour que ça marche, il faudrait adopter une approche systĂ©mique, Ă lâĂ©chelle de la nation, dâune part en normalisant les technologies, et dâautre part en les promouvant et en modifiant sensiblement les habitudes des consommateurs.
Le phĂ©nomĂšne est encore trĂšs nouveau et notre pays nâest pas Ă lâavant-garde dans ce domaine. Câest dommage. Ailleurs dans le monde, comme en Chine par exemple, quelques smart cities (« villes intelligentes ») existent dĂ©jĂ . Mais il sâagit davantage dâopĂ©rations de communication que de
rĂ©alité⊠En revanche, certains industriels, comme Schneider Electric, Siemens ABB ou encore Huawei, sâintĂ©ressent de trĂšs prĂšs Ă ces sujets.
Existe-t-il dâautres domaines dâapplication des technologies numĂ©riques qui contribuent Ă©galement Ă la dĂ©carbonation ?
Les exemples ne manquent pas ! Lâagriculture, par exemple, Ă©met une quantitĂ© considĂ©rable de gaz Ă effet de serre. Or les agriculteurs doivent gĂ©rer des centaines de paramĂštres simultanĂ©s pour ĂȘtre productifs : types de semences, climat, matĂ©riel⊠Le machine learning est Ă mĂȘme de prendre en compte cet aspect multifactoriel afin dâoptimiser ces paramĂštres et ainsi de rĂ©duire les Ă©missions de carbone et de mĂ©thane des exploitations.
Autre illustration, cette fois dans lâindustrie : les chaĂźnes dâapprovisionnement, qui reprĂ©sentent jusquâĂ 80 % des Ă©missions de CO2. Ces chaĂźnes sont dâune grande complexitĂ© et visent Ă synchroniser des flux en provenance de multiples points du globe pour finalement fabriquer des produits trĂšs Ă©laborĂ©s.
Or afin dâĂ©viter les ruptures de stocks, les moyens de transport carbonĂ©s (avion, camionâŠ) sont souvent privilĂ©giĂ©s de façon sous-optimale.
De nombreux travaux dĂ©montrent que les outils numĂ©riques prĂ©dictifs sont dâune grande utilitĂ© pour optimiser ces flux, avec pour consĂ©quence la diminution sensible de lâempreinte carbone de ce secteur. Il existe dâautres exemples dans le logement, les transports de personnes, les systĂšmes de soins, etc.
En revanche, on sait aussi que le numĂ©rique est lui-mĂȘme fortement Ă©metteur de CO2⊠Quelles sont les solutions ?
Comme on lâa vu prĂ©cĂ©demment, il y a effectivement un volet dit green IT dans le numĂ©rique, grĂące auquel diffĂ©rents secteurs sont en mesure de diminuer leur consommation Ă©nergĂ©tique, leur empreinte carbone ou leurs Ă©missions de gaz Ă effet de serre. Mais il y a Ă©galement un volet que lâon pour-
rait appeler grey IT⊠NĂ©anmoins, je reste optimiste pour lâavenir. La France a les moyens et les atouts pour bientĂŽt passer de start-up nation Ă greentech nation, car plusieurs facteurs contribuent Ă amĂ©liorer la performance des technologies numĂ©riques.
Dâabord, il existe une volontĂ© forte des fabricants dâĂ©quipements de rĂ©duire leur empreinte carbone. Les plus grands, comme Samsung et Apple, ont rĂ©cemment annoncĂ© viser lâobjectif zĂ©ro Ă©missions nettes (dit « zĂ©ro net ») pour, respectivement, 2035 et 2050. En France, les opĂ©rateurs Orange, SFR et Bouygues Telecom veulent lâatteindre au plus tard en 2040, tandis que Free a pris cet engagement pour 2030. Un objectif particuliĂšrement ambitieux, car Ă la diffĂ©rence de la notion de neutralitĂ© carbone, le rĂ©fĂ©rentiel zĂ©ro net correspond Ă une rĂ©duction Ă zĂ©ro des Ă©missions propres Ă lâactivitĂ©, induisant en particulier le scope 3, câest-Ă -dire le pĂ©rimĂštre le plus large de calcul des Ă©missions de gaz Ă effet de serre incluant le transport, le traitement des dĂ©chets, lâexploitation des ressourcesâŠ
De nombreux constructeurs ont Ă©galement fait des annonces similaires, plus gĂ©nĂ©ralement calĂ©es sur 2040. Y parviendront-ils ? Câest difficile Ă dire⊠Mais ce serait un pas considĂ©rable. Car, dâaprĂšs mes calculs, le B2C (business to consumer) reprĂ©sente probablement 50 à 55 % des Ă©missions de CO2 du secteur numĂ©rique. De plus, les systĂšmes informatiques actuels, trĂšs largement sous-performants devraient ĂȘtre considĂ©rablement amĂ©liorĂ©s. En effet, lâintelligence artificielle fait des progrĂšs substantiels sur le plan de lâefficacitĂ©. Il est donc lĂ©gitime dâespĂ©rer quâun usage massif du numĂ©rique ne soit pas nĂ©cessairement aussi Ă©metteur de CO 2 que lâon pourrait le craindre. Enfin, la loi de Moore, qui double la puissance de calcul Ă consommation Ă©gale tous les deux ans, limite elle aussi notablement les Ă©missions du secteur numĂ©rique. .
« Pour rĂ©ussir la transition Ă©nergĂ©tique, plusieurs facteurs entrent en jeu. Le premier consiste Ă©videmment Ă optimiser les moyens de production dâĂ©nergie. Mais le second facteur le plus efficace est probablement le numĂ©rique »
Ă
I Lâimportant, câest le CO2 Ouvrage collectif sous la direction de MichaĂ«l Trabbia, avec la participation de Gilles Babinet, DĂ©bats publics, 2022.
Comment planifier et mettre en Ćuvre la transition Ă©nergĂ©tique dans un monde aux ressources limitĂ©es ? En couplant des modĂšles numĂ©riques Ă des approches participatives et aux sciences humaines et sociales !
Si lâon en croit le discours institutionnel, la transition vers les Ă©nergies renouvelables est enclenchĂ©e. Selon le dernier rapport de lâAgence internationale de lâĂ©nergie (AIE), la crise Ă©nergĂ©tique que nous connaissons actuellement accĂ©lĂšre mĂȘme leur dĂ©ploiement. Si bien que, sur la pĂ©riode 2022-2027, lâĂ©olien devrait doubler ses capacitĂ©s installĂ©es par rapport aux cinq derniĂšres annĂ©es, et le photovoltaĂŻque les tripler ! Une bonne nouvelle en soi ?
Dans le monde scientifique, des voix dissonantes commencent Ă se faire entendre. Selon certaines, cette notion de transition nâa jamais Ă©tĂ© observĂ©e historiquement â les Ă©nergies se sont toujours accumulĂ©es et non substituĂ©es â et reste donc incertaine pour le futur. De plus, des travaux de modĂ©lisation remettent en cause la possibilitĂ© dâopĂ©rer une transition tout en maintenant la croissance Ă©conomique. En effet, les ressources Ă dĂ©ployer (humaines, financiĂšres, matĂ©riellesâŠ) sont limitĂ©es, et ce qui est mobilisĂ© pour la transition ne pourra lâĂȘtre pour les autres secteurs.
LâĂ©quipe-projet Steep dâInria travaille sur ce sujet avec lâĂ©quipe MinĂ©ralogie de lâInstitut des sciences de la terre (ISTerre), qui a dĂ©veloppĂ© DyMEMDS, un modĂšle dynamique reliant le produit intĂ©rieur brut (PIB) Ă la consommation dâĂ©nergies et de matĂ©riaux tels que les mĂ©taux ou le bĂ©ton. Ă titre dâexemple, nous estimons que le dĂ©ploiement de lâĂ©olien et du solaire, nĂ©cessaire au scĂ©nario Sky, imaginĂ© par Shell (qui prĂ©voit une multiplication par trois de la consommation dâĂ©lectricitĂ© dans le monde entre 2015 et 2050), mobiliserait en 2050 lâĂ©quivalent de 75 % du cuivre consommĂ© pour tous les usages en 2015 !
Notre objectif est donc de contribuer à enrichir les débats sur les autres perspectives possibles pour nos sociétés, tant au niveau local que global. à quoi ressemblerait une économie qui ne dépasserait pas les limites planétaires ?
Quels arbitrages devront ĂȘtre faits entre les critĂšres socioĂ©conomiques et environnementaux ? Notre approche consiste Ă imaginer et Ă©valuer des futurs radicalement diffĂ©rents.
Comment sây prend-on ? Nous analysons dâabord lâĂ©conomie dâun point de vue biophysique, câestĂ -dire en tenant compte des stocks et des flux de matiĂšres et dâĂ©nergies sur lesquels les sociĂ©tĂ©s reposent. Par analogie avec les sciences de la vie, le terme de « mĂ©tabolisme territorial » est justement apparu pour dĂ©signer les flux (aliments, matĂ©riauxâŠ) qui permettent Ă un territoire de se dĂ©velopper et dâĂ©voluer en rĂ©pondant aux besoins de base de la population (se nourrir, se logerâŠ).
Il importe aussi de penser les problĂšmes de façon globale, en valeur absolue, plutĂŽt que par unitĂ© de bien ou de service. On sait en effet quâaugmenter lâefficacitĂ© Ă©nergĂ©tique dâune technologie ne garantit pas la baisse de la consommation globale. Câest mĂȘme le contraire qui est observĂ© empiriquement : on parle dâ« effet rebond » en gĂ©nĂ©ral, et ici de « paradoxe de Jevons ». Enfin, la prise en compte des effets indirects est indispensable : certaines actions ne font que dĂ©placer les problĂšmes vers dâautres endroits du monde, dâautres secteurs ou dâautres enjeux.
Prenons lâexemple de lâĂ©conomie des services, qui est souvent prĂ©sentĂ©e comme dĂ©matĂ©rialisĂ©e. Celle-ci repose en rĂ©alitĂ© sur le transport et le numĂ©rique, deux secteurs Ă©minemment matĂ©riels.
Pour modĂ©liser les flux de matiĂšre et dâĂ©nergie, nous utilisons des outils numĂ©riques, comme lâoptimisation et la propagation dâincertitudes (le modĂšle doit restituer ce qui relĂšve de connaissances robustes et ce qui demeure des zones dâombre Ă prĂ©ciser ultĂ©rieurement). Ces outils sont aujourdâhui matures et valorisĂ©s par TerriFlux, une coopĂ©rative issue de lâĂ©quipe-projet Steep spĂ©cialisĂ©e dans lâanalyse du fonctionnement multiĂ©chelle des filiĂšres de production. Les modĂšles les plus prĂ©cis concernent les filiĂšres agroalimentaires et forĂȘt-bois, qui sont au cĆur du dĂ©veloppement de la bioĂ©conomie (Ă©conomie basĂ©e sur la biomasse plutĂŽt que sur le carbone fossile). Ils aident en particulier Ă mieux apprĂ©hender les potentielles concurrences dâusage, notamment entre lâalimentation, humaine ou animale, les matĂ©riaux biosourcĂ©s et lâĂ©nergie.
Notre travail consiste Ă©galement Ă effectuer une analyse qualitative des dimensions immatĂ©rielles et institutionnelles. Qui sont les acteurs derriĂšre les flux Ă©tudiĂ©s ? Comment sont-ils organisĂ©s et quelles sont leurs relations de pouvoir ? Ces questions, qui relĂšvent des sciences humaines et sociales, sont indispensables pour identifier les blocages et imaginer des mĂ©canismes pour les dĂ©passer. Enfin, pour ancrer les modĂšles Ă©voquĂ©s ci-dessus dans les territoires et se confronter au monde rĂ©el, le recours Ă des processus participatifs sâimpose. Lâobjectif est de faciliter lâengagement de tous les acteurs (citoyens, associations, Ă©lusâŠ) dans une dynamique transformative.
> Scannez ce QR code pour dĂ©couvrir comment Inria accompagne lâĂ©mergence dâĂ©nergies plus propres.
Des dĂ©marches de ce type dĂ©butent au PĂŽle dâĂ©quilibre territorial et rural (PETR) du Grand Briançonnais et dans le cadre du Projet alimentaire inter-territorial (PAiT) de la grande rĂ©gion grenobloise. Le but est dâĂ©valuer si les modĂšles dĂ©veloppĂ©s en laboratoire les aident Ă mieux cerner les vulnĂ©rabilitĂ©s de leur territoire et Ă imaginer des stratĂ©gies de transformation.
Dans un scénario de croissance et de transition, la construction des infrastructures éoliennes et photovoltaïques nécessiterait en 2050
lâĂ©quivalent de 75 % de tout le cuivre consommĂ© en 2015
Sur le front de la lutte contre le rĂ©chauffement climatique et la protection de la biodiversitĂ©, les Ă©quipes-projets dâInria sont mobilisĂ©es pour faire avancer la science.
1 âą ModĂšle de circulation ocĂ©anique Ă trĂšs haute rĂ©solution (1 km). On distingue un jet central de lâOuest vers lâEst, trĂšs instable, qui mĂ©andre beaucoup, ce qui crĂ©e des tourbillons. © Inria / MOISE - CNRS / LEGI / Photo N. Hairon. 2 âą Avec lâapplication mobile Ambiciti, les tĂ©lĂ©phones captent le niveau du bruit ambiant et donnent accĂšs aux mesures prises pendant le trajet. © Inria - MIMOVE / Photo C. Morel. 3 âą Mesure de la pollution pour Ă©tablir des prĂ©dictions et des estimations sur la qualitĂ© de lâair. © Inria - AGORA / Photo C. Morel.
1 âą Approximation macroscopique dâune ville pour prĂ©venir les inondations. Ă lâĂ©cran, on distingue lâaxe principal et les rues latĂ©rales. © Inria - LEMON / Photo H. Raguet. 2 âą ModĂ©lisation dâun objet flottant sur lâeau. © Inria - ANGE / Photo C. Morel. 3 âą ModĂ©lisation et contrĂŽle de phytopathogĂšnes de plantes pĂ©rennes, notamment les cafĂ©iers au Cameroun (sur le tableau, des drupes de cafĂ©ier). © Inria - BIOCORE / Photo L. Jacq. 4 âą ModĂ©lisation des mĂ©ristĂšmes (les zones de croissance des plantes) et, Ă droite, la vascularisation dâune tomate. © Inria - VIRTUAL PLANTS / Photo H. Raguet.
houlomotrice produite par le mouvement des vagues, lâĂ©olien offshore , lâĂ©nergie de la biomasse marine, en particulier des microalgues (voir lâencadrĂ© page ci-contre) et bien dâautres encoreâŠ
Dans Quatrevingt-Treize , paru en 1874, Victor Hugo est catĂ©gorique : « RĂ©flĂ©chissez au mouvement des vagues, au flux et reflux, au va-et-vient des marĂ©es. Quâest-ce que lâocĂ©an ? Une Ă©norme force perdue. Comme la terre est bĂȘte ! Ne pas employer lâocĂ©an ! » Certains ne lâavaient pas attendu, par exemple en construisant dĂšs le xiie siĂšcle des moulins Ă marĂ©es. Mais dans un contexte de rĂ©chauffement climatique toujours plus aigu, lâimpĂ©rieuse nĂ©cessitĂ© dâune transition Ă©nergĂ©tique a considĂ©rablement augmentĂ© lâintĂ©rĂȘt pour les Ă©nergies renouvelables dâorigine marine (EMR). Et elles sont nombreuses ! Outre lâĂ©nergie marĂ©motrice, citons les Ă©nergies hydroliennes exploitant les courants marins, lâĂ©nergie
Le potentiel de ces EMR est gigantesque. En thĂ©orie, selon le World Energy Council, il serait de⊠2 millions de terawattheures par an (TWh/an). Aujourdâhui, un peu plus de 100 000 TWh/an seraient techniquement ou Ă©conomiquement exploitables, largement de quoi couvrir les besoins de lâhumanitĂ© estimĂ©s Ă 20 000 TWh/an. Cependant, il y a loin de la coupe aux lĂšvres, car actuellement les EMR reprĂ©senteraient Ă peine 0,05 % de la production mondiale dâĂ©nergie renouvelable. Comment augmenter cette part ? Un prĂ©alable Ă cet essor attendu passe par savoir oĂč lâon va, et pour ce faire la modĂ©lisation sâimpose, Ă toutes les Ă©tapes.
Câest un des champs dâinvestigation de lâĂ©quipeprojet Cardamom dâInria Bordeaux-Sud-Ouest, Ă Talence. « Nous simulons des dispositifs qui rĂ©cupĂšrent lâĂ©nergie de la houle », explique Mario Ricchiuto, responsable de lâĂ©quipe-projet Cardamom. LâidĂ©e est ancienne, le premier brevet connu
Vagues, marĂ©es, courants⊠La mer regorge de sources dâĂ©nergies renouvelables presque inĂ©puisables et pourtant largement sousexploitĂ©es. La modĂ©lisation des ressources et des moyens de les exploiter aiderait Ă inverser la tendance.Au sein de lâĂ©quipe-projet Cardamom, le mouvement des vagues est simulĂ© (ici, lors dâun tsunami) aussi bien pour prĂ©voir les risques de submersion que pour Ă©valuer le potentiel Ă©nergĂ©tique.
Dans un petit photobiorĂ©acteur expĂ©rimental conçu par lâĂ©quipe-projet Biocore, la culture de microalgues est gĂ©rĂ©e par ordinateur.
visant Ă lâutilisation de lâĂ©nergie des vagues ayant Ă©tĂ© dĂ©posĂ© Ă Paris⊠en 1799 ! De quoi sâagit-il prĂ©cisĂ©ment ? Dâobjets, plus ou moins complexes, mis en mouvement par les vagues et dotĂ©s de mĂ©canismes consacrĂ©s Ă la rĂ©cupĂ©ration de lâĂ©nergie associĂ©e.
La modĂ©lisation intervient en divers endroits, prĂ©cise Mario Ricchiuto : « Dâabord, il sâagit de modĂ©liser le littoral et lâenvironnement cĂŽtier, car il est indispensable de connaĂźtre la mĂ©tĂ©o des vagues ou celle des courants pour caractĂ©riser un site dâun point de vue de ses propriĂ©tĂ©s physiques et estimer son potentiel Ă©nergĂ©tique. »
La deuxiĂšme Ă©tape porte sur la modĂ©lisation de la prĂ©sence dâun objet flottant Ă la surface de lâeau et y oscillant. Cette phase est beaucoup plus complexe quâil nây paraĂźt au premier abord et met en jeu toute une panoplie dâapproches diffĂ©rentes auxquelles sâintĂ©resse particuliĂšrement Martin Parisot, qui a rĂ©cemment rejoint lâĂ©quipe-projet. Lâobjectif est de dĂ©crire mathĂ©matiquement le systĂšme, avec des Ă©quations appropriĂ©es, Ă des niveaux variables de finesse (un paramĂštre important qui influe sur le temps de calcul) et de comprendre les structures qui se cachent derriĂšre.
Que ce soit pour les vagues seules ou en prĂ©sence dâun objet, des modĂšles particuliĂšrement efficaces ont Ă©tĂ© obtenus grĂące Ă une « astuce » : plutĂŽt que de sâattaquer Ă lâĂ©coulement tridimensionnel de lâeau, la dimension verticale et la surface libre sont rĂ©unies en une seule et mĂȘme inconnue de façon Ă obtenir un modĂšle Ă deux dimensions. Une fois les Ă©quations ad hoc réécrites, ce passage de la 3D Ă la 2D, sâil sâaccompagne certes dâune perte dâinformations, autorise un calcul beaucoup plus rapide. Dans certaines applications, le gain de temps est dâun facteur 100, voire 1 000 !
Dâautres travaux ont Ă©galement rĂ©vĂ©lĂ© un phĂ©nomĂšne intĂ©ressant. Les Ă©quations utilisĂ©es pour modĂ©liser la surface libre relĂšvent de la physique des fluides compressibles, par exemple celle de lâair dans un ballon quâon peut comprimer. DĂšs lors quâon pose un dispositif houlomoteur sur lâeau, les Ă©quations se rapprochent de celles de fluides incompressibles, ce qui se comprend, car lâobjet contraint lâeau.
Ajoutons que cette dĂ©marche de modĂ©lisation dâun objet posĂ© sur une surface libre ne sâapplique pas seulement Ă la situation dâun dispositif houlomoteur flottant sur la mer. Elle peut se gĂ©nĂ©raliser, Martin Parisot
Il y a trente ans, les chercheurs sâintĂ©ressaient aux algues avec des yeux dâocĂ©anographes. Depuis une vingtaine dâannĂ©es, ils ont aussi ceux dâĂ©nergĂ©ticiens. En effet, certaines microalgues stockent des lipides dont il est possible de faire des carburants, et câest lâun des sujets dâĂ©tude de lâĂ©quipe-projet Biocore dâInria (avec Inrae et le laboratoire dâOcĂ©anographie de Villefranche-sur-Mer), dont Olivier Bernard est le responsable. Plus largement, prĂ©cise-t-il, « il sâagit dâĂ©tudier des Ă©cosystĂšmes artificiels dans diverses conditions ». Pourquoi les microalgues ? Parce que, rĂ©sume le chercheur, « ces organismes se dĂ©veloppent rapidement, ont une productivitĂ© dix fois supĂ©rieure Ă celle des plantes terrestres et, en culture, nâentrent pas en compĂ©tition avec les plantations vivriĂšres. » Deux voies principales se distinguent pour extraire de lâĂ©nergie, celle des lipides citĂ©e plus haut, et celle qui consiste Ă mĂ©thaniser la matiĂšre organique obtenue aprĂšs culture sur, par exemple, des effluents urbains. Dans ce dernier cas, le bilan environnemental est bien meilleur. Quelle que soit la voie choisie, la modĂ©lisation sâimpose pour comprendre le fonctionnement de lâĂ©cosystĂšme complexe riche en mĂ©canismes parfois contradictoires. Par exemple, plus la biomasse algale est importante, plus la lumiĂšre pĂ©nĂštre difficilement le milieu. Il sâagit dĂšs lors dâidentifier les conditions idĂ©ales dâexploitation. Olivier Bernard travaille, avec Julien Salomon, de lâĂ©quipe-projet Ange, sur la question du brassage, afin que chaque individu ait accĂšs Ă suffisamment de lumiĂšre. Ici, les efforts de modĂ©lisation portent sur le couplage fort entre hydrodynamique et biologie, indispensable Ă maĂźtriser. Ces rĂ©flexions ont menĂ© Biocore Ă imaginer un systĂšme oĂč les algues ne sont pas agitĂ©es, mais collĂ©es Ă un support rotatif, ce qui rĂ©duit lâĂ©nergie consommĂ©e. La rĂ©colte, par simple raclage, en est aussi simplifiĂ©e. Le systĂšme est exploitĂ© par la sociĂ©tĂ© Inalve. En amont de ce brevet, on trouve les travaux menĂ©s dans le cadre du projet Algae in silico, financĂ© par Inria. AchevĂ© en 2020, il trouve des prolongements notamment dans un programme soutenu par lâANR et copilotĂ© par lâIRD, Inria, Total Ănergies⊠LâidĂ©e ? Produire de lâĂ©nergie Ă partir dâalgues en utilisant des rĂ©sidus pĂ©troliers. Double avantage donc, puisque la dĂ©pollution est favorisĂ©e.
y travaille, Ă lâĂ©coulement dâune riviĂšre souterraine en contact avec le substrat rocheux ou bien au dĂ©placement dâobjets lourds, comme des voitures emportĂ©es lors dâune submersion.
> Scannez ce QR code pour dĂ©couvrir comment les chercheurs dâInria passent du modĂšle physique au modĂšle numĂ©rique.
LâĂ©tape de modĂ©lisation suivante porte sur le dispositif, houlomoteur ou autre, lui-mĂȘme, sur son ancrage et son fonctionnement parfois complexe comme celui que dĂ©veloppe la start-up bordelaise Seaturns, dont Inria est partenaire. Ce type de modĂ©lisation est aussi au cĆur des travaux de lâĂ©quipeprojet Ange, dont Julien Salomon est le responsable.
ï 300 Ă 800 TWh/an pour les hydroliennes et lâĂ©nergie des marĂ©es
ï 8 000 Ă 80 000 TWh/an pour lâĂ©nergie des vagues et de la houle
ï 18 500 TWh/an pour lâĂ©olien offshore
ï 10 000 TWh/an pour lâĂ©nergie thermique des mers
Il raconte : « Pour exploiter les EMR, ingĂ©nieurs et chercheurs en mĂ©canique conçoivent des dispositifs. Notre tĂąche consiste Ă introduire un coup dâĆil mathĂ©matique en apportant des mĂ©thodes certifiĂ©es, câest-Ă -dire basĂ©es sur des thĂ©orĂšmes. Plus prĂ©cisĂ©ment, Ă partir dâĂ©quations quâils nous fournissent et que lâon ne sait pas rĂ©soudre, nous dĂ©veloppons des mĂ©thodes numĂ©riques pour approcher le plus rapidement possible leurs solutions avec une estimation de lâerreur commise. »
Aujourdâhui, quiconque rĂ©flĂ©chit au design dâune pale dâhydrolienne ou dâĂ©olienne utilise un procĂ©dĂ©
imaginĂ© dans les annĂ©es 1920 par le Britannique Hermann Glauert. Approximative, sans Ă©quations â ni diffĂ©rentielles ni aux dĂ©rivĂ©es partielles â, elle consiste en un systĂšme de trois Ă©quations non linĂ©aires Ă rĂ©soudre par des techniques jusquâalors non certifiĂ©es. Julien Salomon a proposĂ© de nouvelles façons de faire, plus rapides et dĂ©sormais certifiĂ©es. « La mĂ©thode Glauert est toujours utilisĂ©e, prĂ©cise-t-il, mais en premiĂšre instance pour un design initial, celui-ci Ă©tant ensuite affinĂ© par des modĂ©lisations plus complexes⊠et plus gourmandes en temps de calcul afin de converger vers un rĂ©sultat optimal, par exemple sur le plan du rendement. » Ces innovations nĂ©es chez Inria ont Ă©tĂ© utilisĂ©es notamment pour une hydrolienne flottante installĂ©e sur la Garonne par la sociĂ©tĂ© bordelaise Hydrotube Ănergie.
Au-delĂ du dispositif seul, Mario Ricchiuto rappelle que lâon doit imaginer une Ă©tape de modĂ©lisation supplĂ©mentaire, celle de la mise en place dâun parc dâengins dĂ©ployĂ©s sur un site Ă fort potentiel. Quelle disposition choisir ? Quelles interactions prĂ©voir ? Autant de questions auxquelles seule la modĂ©lisation pourra rĂ©pondre.
Ă plus court terme, lâĂ©tape suivante pour Julien Salomon consistera Ă complexifier le modĂšle quâil a conçu afin de le rendre plus prĂ©cis encore, par exemple en prenant en compte la traĂźnĂ©e Ă lâarriĂšre de lâengin. Ăgalement dans les cartons dâAnge, un projet sur le raz Blanchard, un courant trĂšs puissant (Ă©quivalent Ă une ou deux centrales nuclĂ©aires) entre le cap de la Hague et lâĂźle anglo-normande dâAurigny, que lâon aimerait exploiter. Il convient donc dâen estimer le potentiel (voir la figure ci-contre)
Cette simulation des courants de marĂ©e au niveau du raz Blanchard rĂ©vĂšle les vitesses moyennĂ©es de lâeau (en mĂštres par seconde, croissantes, du blanc au rouge). Ici, lâinstant montrĂ© correspond au jusant pour une marĂ©e de vives-eaux (coefficient 108).
Les prĂ©visions de mĂ©tĂ©o locale, notamment des vents trĂšs localisĂ©s et en temps rĂ©el, sont utiles pour les Ă©oliennes, mais aussi pour les rĂ©gates en mer. Aussi Mireille Bossy, spĂ©cialiste du sujet et responsable de lâĂ©quipe-projet Calisto, au centre Inria dâuniversitĂ© CĂŽte dâAzur, est-elle mobilisĂ©e pour les Jeux olympiques 2024, dont les Ă©preuves de voile se dĂ©rouleront Ă Marseille.
Quant Ă lâĂ©quipe-projet Cardamom, elle travaille actuellement avec lâĂ©quipe-projet Memphis Ă une expĂ©rience de « mĂ©lange de modĂšles » ! Il sâagit de combiner des modĂšles trĂšs aboutis, trĂšs fins dans leurs rĂ©sultats, avec dâautres plus « approximatifs » mais plus rapides, de façon Ă obtenir un modĂšle hybride, Ă©quivalent Ă un modĂšle trĂšs onĂ©reux, mais ici avec un coĂ»t plus rĂ©duit. Cette approche dite « multifidĂ©litĂ© » est en cours dâapplication sur le flotteur de la sociĂ©tĂ© Seaturns Ă©voquĂ© prĂ©cĂ©demment.
Pris parmi de nombreux projets de recherche et dâapplications pour exploiter les EMR, ces quelques exemples laissent espĂ©rer une augmentation prochaine et notable de leur part dans le mix Ă©nergĂ©tique. Il sera alors loin le temps oĂč lâĂ©nergie des vagues ne servait quâĂ actionner des cloches juchĂ©es sur des bouĂ©es en guise de signalisation maritime, ce que Victor Hugo Ă©voquait dans LâHomme qui rit comme une « sorte de clocher de la mer⊠»
Quel est le rĂŽle du stockage du CO2 dans la lutte contre le changement climatique ?
Lâenjeu, câest la dĂ©carbonation, en particulier des industries au niveau europĂ©en, mais aussi de la production mondiale dâĂ©nergie, afin de diminuer la quantitĂ© de CO2 Ă©mis dans lâatmosphĂšre. Ă ce titre, le captage et le stockage du CO 2 constituent des solutions. Le principe consiste Ă piĂ©ger le CO2 prĂ©sent dans les fumĂ©es rejetĂ©es par les installations industrielles, ou Ă le capter directement dans lâair, puis soit Ă le rĂ©utiliser, soit, pour la plus grande part, Ă le transporter et le stocker dans un rĂ©servoir gĂ©ologique.
Dans les scĂ©narios de lâAgence internationale de lâĂ©nergie (AIE), cela reprĂ©sente 15 à 20 % de lâeffort global de dĂ©carbonation Ă lâhorizon 2050. Jâinsiste donc sur le fait quâil sâagit dâune solution parmi dâautres, auxquelles il faut Ă©galement recourir : le dĂ©veloppement des Ă©nergies renouvelables, lâefficacitĂ© Ă©nergĂ©tique, la sobriĂ©tĂ© et la transformation des procĂ©dĂ©s, lorsque cela est possible, pour quâils Ă©mettent moins de CO2
En quoi le numérique est-il un outil nécessaire au stockage géologique du CO2 ?
Le numĂ©rique est prĂ©sent Ă tous les Ă©tages de la chaĂźne, du captage au stockage. Pour ce dernier, il est nĂ©cessaire de connaĂźtre le sous-sol. On peut certes faire des forages, mais la connaissance que nous obtenons reste trĂšs locale. Le numĂ©rique aide Ă construire des modĂšles de lâintĂ©rieur de la Terre. Il sâagit de le cartographier par exemple Ă partir des donnĂ©es des ondes sismiques qui se rĂ©flĂ©chissent sur les discontinuitĂ©s des roches. De la sorte, les chercheurs traquent des rĂ©servoirs formĂ©s de roches poreuses, relativement profondes (Ă plus de 800 mĂštres) et surmontĂ©s par une couche impermĂ©able, de lâargile par exemple.
Coordinatrice CO2 Ă IFP Ănergies nouvelles (IFPEN) et prĂ©sidente du Club CO2
AprĂšs cette premiĂšre phase de caractĂ©risation, lâĂ©tape suivante consiste Ă Ă©tudier comment le soussol se comportera aprĂšs injection du gaz (rĂ©actions chimiques avec les roches, phĂ©nomĂšnes dâĂ©coulement...). Pour cela, et pour la surveillance Ă court, moyen, et long terme, sont nĂ©cessaires non seulement un Ă©quipement de mesure, mais aussi une modĂ©lisation fine, multiphysique et multiĂ©chelle. Pour ce faire, de nombreux outils existent et sont perfectionnĂ©s en permanence, notamment dans lâĂ©quipe-projet Makutu (pour « magicien », en maori), menĂ© par Inria et lâInstitut polytechnique de Bordeaux, lâuniversitĂ© de Pau et des Pays de lâAdourâŠ
De mĂȘme, le logiciel CooresFlow, de lâIFPEN offre une solution intĂ©grĂ©e de simulation de toutes les Ă©tapes du cycle de vie dâune installation de stockage de CO2
OĂč en sont concrĂštement les projets de stockage ?
En France, dans les annĂ©es 2010, le dĂ©monstrateur de Lacq-Rousse a exposĂ© la capacitĂ© de capter, transporter, stocker plusieurs dizaines de milliers de tonnes de CO2. Dans le monde, en 2022, 43 millions de tonnes de CO2 ont Ă©tĂ© captĂ©es et stockĂ©es. Cependant, selon le scĂ©nario le plus ambitieux de lâAIE, en 2035, ce stockage devra ĂȘtre 100 fois supĂ©rieur. Ă en croire les estimations, il y a les capacitĂ©s suffisantes dans les aquifĂšres salins profonds et dans les rĂ©servoirs dâhydrocarbures dĂ©plĂ©tĂ©s, câest-Ă -dire « vidĂ©s ».
La France dispose Ă©galement de capacitĂ©s, quâil conviendrait de caractĂ©riser plus finement. Sachant quâentre six Ă dix ans sont nĂ©cessaires pour passer dâun site potentiel Ă un site de stockage industriel, il y a un enjeu majeur de dĂ©veloppement Ă grande Ă©chelle tout en tenant compte de la perception sociale de ce type dâinfrastructure. Le sous-sol est en effet considĂ©rĂ© aujourdâhui comme un bien commun dont lâusage doit ĂȘtre discutĂ© et partagĂ©. .
« Le numĂ©rique est prĂ©sent Ă tous les Ă©tages de la chaĂźne du stockage du CO2, du captage jusquâĂ la surveillance du rĂ©servoir »
La gĂ©othermie est souvent associĂ©e Ă lâIslande. Pourtant, si lâĂźle est en effet une grande terre de gĂ©othermie, cette Ă©nergie renouvelable est thĂ©oriquement exploitable en de nombreux endroits. Le principe est simple : envoyer de lâeau, ou un autre fluide, dans les profondeurs de la Terre, oĂč elle se rĂ©chauffe, et la rĂ©cupĂ©rer ensuite en surface.
La thĂ©orie se heurte toutefois Ă la pratique, car forer nâest pas possible partout, en raison de la nature des sols. Aussi, tout projet de gĂ©othermie doit-il sâappuyer sur une Ă©tude prĂ©alable du sous-sol. Pour ce faire, deux outils sont indispensables : les ondes sismiques et la modĂ©lisation.
Les ondes, quâelles soient de surface (elles sâenfoncent peu) ou Ă lâinverse de volume, se propagent diffĂ©remment selon la nature du milieu et rebondissent sur les interfaces entre deux types de matĂ©riaux. Aussi, en envoyant des ondes sismiques dans le sol et en les dĂ©tectant on obtient des informations sur la nature du sous-sol.
Deux cas de figure se prĂ©sentent : soit la structure du sous-sol est connue et on cherche Ă savoir comment les ondes sây propagent (on parle de problĂšme direct) ; soit on dispose dâenregistrements sismiques expĂ©rimentaux Ă partir desquels on tente de reconstituer lâorganisation du sous-sol (problĂšme inverse). Dans les deux situations, la modĂ©lisation intervient. Pour rĂ©soudre ce problĂšme inverse, typique de la prospection, les chercheurs effectuent, virtuellement, de nombreux problĂšmes directs sur un modĂšle de sous-sol puis comparent les enregistrements sismiques numĂ©riques Ă ceux quâon a obtenus sur le terrain. Sâils sont proches, le modĂšle est bon, sinon, ce dernier est modifiĂ© de façon Ă converger vers le rĂ©el. Cette Ă©tape est rĂ©alisĂ©e grĂące Ă une « fonction de coĂ»t », qui aiguille les changements Ă apporter pour tendre vers le rĂ©el, par exemple en modifiant la densitĂ© en certains points.
Cet objet mathĂ©matique Ă©tait au centre du projet Pixil, un rĂ©seau franco-espagnol dâindustriels (RealTimeSeismic, Ingeo, TLS GeothermicsâŠ) et de chercheurs (Inria, Barcelona Supercomputing CenterâŠ).
Ă lâaide de modĂšles en 2D, plus faciles Ă manipuler dâun point de vue informatique, ils ont obtenu une fonction de coĂ»t particuliĂšrement efficace.
Le projet Pixil est dĂ©sormais achevĂ©, mais la recherche continue. Et Julien Diaz, directeur de recherche dans lâĂ©quipe-projet Magique 3D chez Inria de prĂ©ciser quâil est prĂ©vu de tester cette fonction de coĂ»t dans des modĂšles plus rĂ©alistes, toujours en 2D, mais fondĂ©s sur des cas physiques rĂ©els. Sous lâĂ©gide du consortium Geothermica, il est aussi prĂ©vu de prendre en compte des milieux plus compliquĂ©s, comme des matĂ©riaux poreux, et de sâintĂ©resser au couplage des ondes sismiques et Ă©lectromagnĂ©tiques. Ă chaque fois, lâalliance de la modĂ©lisation et du terrain aidera au dĂ©veloppement de cette Ă©nergie renouvelable quâest la gĂ©othermie.
Le projet Pixil vise Ă modĂ©liser le sous-sol en comparant des donnĂ©es de terrain (Ă gauche) Ă celles des simulations (Ă droite). Lâobjectif ? Les faire coĂŻncider.
La biodiversitĂ© et, plus largement, lâenvironnement pĂątissent des activitĂ©s humaines, Ă commencer par lâagriculture. Ce nâest pas inĂ©luctable, et pour inverser la tendance, le numĂ©rique propose de nombreuses solutions. Dâabord, pour comprendre cette nature, par exemple en Ă©lucidant le fonctionnement des Ă©cosystĂšmes et en aidant (avec parfois lâaide des citoyens) Ă lâinventaire des espĂšces. Ensuite, pour favoriser la transition vers des pratiques agricoles plus vertueuses, comme lâagroĂ©cologie, tout en amĂ©liorant la vie des exploitants, oĂč quâils vivent.
Quel est le constat actuel sur le plan de la perte de biodiversité ?
Si lâon regarde les prĂ©cĂ©dentes grandes extinctions, on se rend compte que la Terre connaĂźt actuellement le mĂȘme processus et quâon se dirige vers une extinction. Mais oĂč en est-on sur cette trajectoire ? Et Ă quelle vitesse se dĂ©placet-on ? Le titre de mon livre Ă lâaube de la sixiĂšme extinction y rĂ©pond en partie : nous sommes Ă lâaube de cette extinction. Quand on observe les taux dâextinction constatĂ©s aujourdâhui, ainsi que les projections sur les dĂ©cennies qui viennent, on est loin du sommet de lâune des grandes crises quâa connues la planĂšte par le passĂ©. Câest la bonne nouvelle : on est au dĂ©but, on a encore un peu de temps pour rĂ©agir. En revanche, la mauvaise nouvelle, câest que la tendance sâaccĂ©lĂšre. On peut donc atteindre le sommet assez rapidement si on continue sur la mĂȘme lancĂ©e.
ConcrĂštement, cela se traduit par une perte de biodiversitĂ©, qui est scientifiquement documentĂ©e au moyen de suivis dâespĂšces en tous genres : oiseaux, amphibiens, plantes⊠Selon lâIPBES (Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services), qui est lâĂ©quivalent du Giec sur la biodiversitĂ©, entre 500 000 et 1 million dâespĂšces pourraient disparaĂźtre dans les dĂ©cennies qui viennent. Encore une fois, ce nâest pas irrĂ©mĂ©diable. Ă condition de rĂ©agirâŠ
Pourquoi câest important de sâen prĂ©occuper ?
Parce quâil ne faut pas oublier que nous sommes, nous aussi, une espĂšce vivante et que nous ne sommes rien sans les autres ! Nous hĂ©bergeons par exemple plus de bactĂ©ries que nous ne possĂ©dons de cellules, et celles-ci nous aident Ă digĂ©rer ou encore Ă nous protĂ©ger des agressions extĂ©rieures au niveau de lâĂ©piderme. Bref, on se nourrit du vivant, on respire grĂące au vivant, on se soigne et on sâhabille avec lui. Il est donc important de sâen prĂ©occuper, ne serait-ce que pour des raisons totalement Ă©goĂŻstes.
Comment faire pour protéger la biodiversité ? Cela passe essentiellement par des statuts de protection de certaines zones, comme les aires marines protégées par exemple ?
Lors de la COP15 sur la biodiversitĂ©, qui sâest dĂ©roulĂ©e fin 2022 Ă MontrĂ©al, un texte a Ă©tĂ© adoptĂ© sur ce quâon appelle le « 30-30 » : 30 % dâaires protĂ©gĂ©es en mer et Ă terre dâici Ă 2030. Mais, oĂč protĂ©ger ? Est-ce que protĂ©ger lâocĂ©an Austral autour de lâAntarctique est une action si utile dans la mesure oĂč il nây a pas grand monde qui y habite ? Ătendre le parc national de la Vanoise ou des Ăcrins, dans les Alpes, câest bien. Mais ce sont lĂ aussi des zones oĂč il y a peu dâinterfĂ©rences
humaines. Bien sĂ»r, il faut protĂ©ger certaines zones. Mais ce nâest absolument pas suffisant.
Il faut aussi adopter des « changements transformateurs », comme on les nomme, dans les zones oĂč il y a beaucoup de prĂ©sence humaine : les villes, les grandes plaines agricoles, les littoraux⊠Câest lĂ que sont les marges de progression importantes et les efforts Ă produire. Il faut notamment faire Ă©voluer certaines pratiques pour que la pression sur la biodiversitĂ© soit moindre. Par exemple, dans lâagriculture intensive, on pourrait trouver dâautres options que les herbicides et les pesticides â en rĂ©duisant effectivement lĂ©gĂšrement la productivitĂ© â pour avoir une pression bien moindre sur le vivant. Certes, il faut bien nourrir 8 milliards dâhumains, comme on me rĂ©torque souvent. Mais actuellement 30 % de la production agricole finit Ă la poubelle. Cela concerne diffĂ©rents niveaux de la chaĂźne : la rĂ©colte, le transport, les magasins, notre frigo et notre assiette. Il y a donc, lĂ encore, des marges de progression Ă©normes sans pour autant bouleverser complĂštement nos modes de vie.
Lâindustrie aussi doit sâadapter et faire autrement. Globalement, ce qui est important, câest de mettre en balance, dâun cĂŽtĂ©, les efforts que cela reprĂ©sente et, de lâautre, le risque quâon encourt si on continue sur cette trajectoire. Dans nâimporte quelle prise de dĂ©cision, quâelle soit politique ou mĂȘme personnelle, il y a trois paramĂštres : lâĂ©conomique, le social et lâenvironnemental, qui est souvent mis de cĂŽtĂ©. Dâici Ă la fin de la dĂ©cennie, il faudra prendre en compte ce paramĂštre environnemental de grĂ© ou de force. Sinon, il va dĂ©stabiliser en retour le social et lâĂ©conomique.
Le numĂ©rique ne va pas sauver la biodiversitĂ©, câest certain. Mais trois leviers y contribuent tout de mĂȘme. Le premier est la constitution de bases de donnĂ©es grĂące Ă la numĂ©risation des spĂ©cimens de collection. On peut aussi faire appel Ă lâintelli-
gence artificielle pour, par exemple, reconnaĂźtre des espĂšces. Recourir Ă des jumeaux numĂ©riques de lâocĂ©an ou de nâimporte quel Ă©cosystĂšme est Ă©galement intĂ©ressant. Les chercheurs tentent en effet de les faire Ă©voluer en fonction du changement climatique et de les confronter Ă la distribution de certaines espĂšces pour observer les consĂ©quences possibles. Globalement, le numĂ©rique fait donc avancer la science et fournit Ă la connaissance scientifique des outils sur la biodiversitĂ© dont on ne disposait pas, ou peu, jusquâĂ prĂ©sent.
Les technologies numériques sont donc plutÎt bonnes pour la nature, non ?
Elles ont malheureusement un coĂ»t Ă©nergĂ©tique non nĂ©gligeable. On parle de 10 % de la production Ă©lectrique française. Câest Ă©norme ! Et ces nouvelles technologies, comme tous les Ă©crans qui nous accaparent, nous Ă©loignent de lâobservation du monde qui nous entoure. Elles ne sont donc pas trĂšs bĂ©nĂ©fiques pour la nature, car elles ne nous permettent pas dâĂȘtre en bonne relation avec elle.
Au Muséum, de quelle maniÚre utilisez-vous ces technologies ?
Nos collections sont un patrimoine universel. Câest un bien commun de lâhumanitĂ© dont nous prenons soin et que nous nous devons de mettre Ă disposition. Nous numĂ©risons donc les collections sous forme de textes, dâimages ou dâobjets 3D. Comme la numĂ©risation de lâherbier national du MusĂ©um par exemple, qui compte 6 millions de planches numĂ©risĂ©es sur un total de 8 millions. Nous organisons aussi une quarantaine de programmes de sciences participatives dans lesquelles le numĂ©rique est un outil indispensable. Il y a dans cette dĂ©marche une vertu de collecte de donnĂ©es, mais Ă©galement une vertu dâengagement : cela entraĂźne les citoyens dans une dynamique responsable dâobservation. Le cĆur du problĂšme est lĂ . Nous avons perdu notre capacitĂ© Ă observer la nature. Or ce genre de programme forge une Ă©thique intellectuelle et donc des citoyens plus responsables vis-Ă -vis de la planĂšte. .
« Le numĂ©rique ne va pas sauver la biodiversitĂ©. Mais trois leviers y contribuent tout de mĂȘme : la constitution de bases de donnĂ©es, lâintelligence artificielle et lâutilisation de jumeaux numĂ©riques Ȉ lire I Bruno David, Ă lâaube de la sixiĂšme extinction â Comment habiter la Terre, Grasset, 2021.
ConnaĂźtre la biodiversitĂ© planctonique, prĂ©voir comment elle sera impactĂ©e par le changement climatique et lâimpactera Ă son tour est essentiel. Câest le but de lâambitieux projet international multidisciplinaire OcĂ©anIA.
est essentiel pour orienter les politiques publiques destinĂ©es Ă le prĂ©server. Câest lâobjet du DĂ©fi OceanIA.
Pour en savoir +
âą Le site dâOcĂ©anIA : oceania.inria.cl/
«Lâessentiel est invisible pour nos yeux », disait Antoine de Saint-ExupĂ©ry. Pour preuve, un acteur majeur de lâĂ©quilibre de la planĂšte est constituĂ© de milliards de microorganismes, comme des virus, des bactĂ©ries et le phytoplancton, câest-Ă -dire des microalgues. Ce peuple invisible qui dĂ©rive au grĂ© des courants est le premier maillon de la chaĂźne alimentaire marine, le producteur de la moitiĂ© de lâoxygĂšne terrestre, et il stocke Ă lui seul environ 40 % du CO 2 de lâatmosphĂšre ! Riche dâune grande diversitĂ© gĂ©nĂ©tique, il est aujourdâhui menacĂ© entre autres par le rĂ©chauffement de lâocĂ©an et son acidification. Comprendre sa dynamique et les mĂ©canismes en jeu
« LâidĂ©e est nĂ©e lors de la COP25 fin 2019 quand nous avons rencontrĂ© lâĂ©quipe de la fondation Tara OcĂ©an », raconte Nayat SĂĄnchez-Pi, directrice dâInria Chili, Ă Santiago. Les douze expĂ©ditions menĂ©es sur la goĂ©lette Tara depuis 2003 ont rapportĂ© quantitĂ© dâinformations sur lâocĂ©an, sa biodiversitĂ© et les impacts du changement climatique. Mais les corrĂ©lations entre cette biodiversitĂ© notamment planctonique et les services Ă©cosystĂ©miques quâelle rend restent en grande partie Ă dĂ©couvrir. Selon elle, « seule lâintelligence artificielle (IA) peut aider Ă relever ce dĂ©fi en crĂ©ant de nouveaux outils de modĂ©lisation du fonctionnement de lâocĂ©an ».
LancĂ© fin 2020 pour une durĂ©e de quatre ans, OcĂ©anIA rĂ©unit des informaticiens, des mathĂ©maticiens, des biologistes, des ocĂ©anographes et des politologues dâorganisations françaises et chiliennes. Une des approches consiste Ă intĂ©grer plus de donnĂ©es sur la biodiversitĂ© et son comportement dans
Quel avenir pour le peuple invisible de lâocĂ©an ?
Ce terme regroupe des microorganismes capables de photosynthÚse, notamment des microalgues le plus souvent unicellulaires, mais aussi des bactéries (des cyanobactéries)
les gros modĂšles dits « mĂ©canistes » utilisĂ©s par le Giec, qui reproduisent et combinent les grands mĂ©canismes biologiques, comme la fixation du CO 2 par le plancton, et gĂ©ophysiques, par exemple le mouvement des masses dâeau.
« LâidĂ©e est de simplifier ces modĂšles mĂ©canistes relativement imprĂ©cis, puis de les corriger en affinant leurs composantes biologiques, notamment la capacitĂ© de croissance, la mortalitĂ© ou la capacitĂ© du plancton Ă sâadapter aux changements de tempĂ©rature », prĂ©cise Olivier Bernard, chercheur dans lâĂ©quipe-projet Biocore, associant Inrae et le laboratoire ocĂ©anographique de Villefranche-sur-Mer. Celle-ci a par exemple travaillĂ© sur la vingtaine dâespĂšces de phytoplancton du genre Micromonas, dites « sentinelles », car leur diversitĂ© est reprĂ©sentative de celle de lâensemble de ces microorganismes. Ce genre, largement Ă©tudiĂ© en laboratoire, est prĂ©sent dans presque tous les ocĂ©ans. « On connaĂźt sa capacitĂ© de dĂ©veloppement en laboratoire selon la tempĂ©rature, ajoute-t-il. On essaie de lier ces rĂ©sultats et les donnĂ©es gĂ©nomiques de terrain rĂ©coltĂ©es par
la goĂ©lette Tara pour regrouper ces espĂšces en cinq grands groupes par des approches de classification. Le but est ensuite dâidentifier les dĂ©terminants qui expliquent leur prĂ©sence relative ici et lĂ ainsi que leur rĂ©ponse face Ă lâĂ©volution de la tempĂ©rature. »
Les chercheurs sont dĂ©jĂ capables de prĂ©dire la biodiversitĂ© du genre Micromonas, son Ă©volution face au changement climatique (voir la figure ci-dessous) et les variables les plus importantes de cette dynamique, comme la latitude et la profondeur : « Lâimpact du changement climatique serait encore plus drastique dans les zones tropicales et aux pĂŽles, indique Olivier Bernard. Alors que la biodiversitĂ© augmenterait dans les rĂ©gions de latitude proche de 40°, nord ou sud. »
Pour aller plus loin et alimenter les algorithmes dâapprentissage automatique (ou Machine learning) mobilisĂ©s par OcĂ©anIA, trĂšs gourmands en donnĂ©es, une des stratĂ©gies consiste Ă analyser des images satellites, car certaines couleurs tĂ©moignent de la prĂ©sence de pigments spĂ©cifiques Ă certaines espĂšces.
Pour produire ces nouvelles connaissances sur la biodiversitĂ©, son rĂŽle et son fonctionnement Ă lâĂ©chelle planĂ©taire, les outils dĂ©veloppĂ©s doivent ĂȘtre explicables pour comprendre les causes de tel ou tel phĂ©nomĂšne, les liens entre les mĂ©canismes impliquĂ©s et pour, Ă terme, guider des choix politiques comme la prĂ©servation des Ă©cosystĂšmes les plus performants en matiĂšre de sĂ©questration de CO 2 . « Or, explique Nayat SĂĄnchez-Pi, les mĂ©thodes dâapprentissage automatique notamment dâapprentissage profond (deep learning) identifient des liens entre des donnĂ©es (comme des espĂšces) et des prĂ©visions (les groupes dans lesquels on peut les classer) sans raison apparente. Pour pallier cet obstacle et comprendre la dynamique sous-jacente, nous utilisons des mĂ©thodes dâIA explicables comme celle de lâinfĂ©rence causale, qui vise Ă explorer des relations de cause Ă effet entre phĂ©nomĂšnes et non les simples corrĂ©lations. »
LâĂ©volution de la diversitĂ© phytoplanctonique dâici Ă 2091-2100, par rapport Ă la plus rĂ©cente dont on dispose (2001-2010), a Ă©tĂ© calculĂ©e Ă partir de celle du genre Micromonas. Les diminutions (en violet), au niveau des tropiques, sont plus importantes que les augmentations (en vert), aux plus hautes latitudes.
Ă terme, ces nouveaux modĂšles seraient Ă©galement pertinents pour des Ă©tudes du Giec. « OcĂ©anIA est ainsi un formidable banc dâessai pour la communauté IA, reconnaĂźt la chercheuse. Nous testons de nombreuses mĂ©thodes qui seront utiles dans dâautres champs conditionnĂ©s par lâexplicabilitĂ©, comme des modĂšles hybrides intĂ©grant des connaissances physiques dans les rĂ©seaux de neurones. » Il sâagit lĂ aussi de rendre visible lâessentielâŠ
Prendre des dĂ©cisions pour lutter contre le dĂ©clin mondial de la biodiversitĂ© suppose de disposer de donnĂ©es fiables et indiscutables. Mais comment collecter ces informations sur la multitude dâorganismes vivants, animaux et vĂ©gĂ©taux, Ă lâĂ©chelle de la planĂšte ? En impliquant la sociĂ©tĂ© civile !
LâidĂ©e est nĂ©e il y a une vingtaine dâannĂ©es et se traduit aujourdâhui par des plateformes de sciences participatives dâampleur mondiale comme eBird, iNaturalist et celle que nous avons dĂ©veloppĂ©e, Pl@ntNet. Elles mobilisent des millions de contributeurs qui recensent et photographient les organismes vivants. Au-delĂ de cette collecte de donnĂ©es, ces initiatives contribuent Ă reconnecter les gens avec la nature.
Un des ingrĂ©dients clĂ©s du succĂšs de ces plateformes est la mise Ă disposition dâapplications mobiles dotĂ©es dâintelligence artificielle. Pl@ntNet, en particulier, portĂ©e par un consortium de recherche français (Inria, Cirad, Inrae et IRD), a Ă©tĂ© pionniĂšre pour lâidentification des espĂšces vĂ©gĂ©tales, dĂšs 2013. Avec plusieurs centaines de milliers dâutilisateurs journaliers, elle recense aujourdâhui plus de 43 000 espĂšces de plantes Ă lâĂ©chelle mondiale.
ConcrĂštement, la difficultĂ© ici est le manque dâexpertise pour identifier les espĂšces (ou taxons) et leur associer un nom scientifique en latin sur la base de critĂšres morphologiques prĂ©cis et extrĂȘmement variĂ©s comme la forme de la pointe des feuilles, le nombre et la couleur des pĂ©tales, la prĂ©sence dâune pilositĂ© particuliĂšre sur la tige⊠Ainsi, pour reconnaĂźtre une plante parmi des centaines de milliers dâespĂšces connues, les botanistes comptent sur leur mĂ©moire, leur sens de lâobservation et des « flores », ces ouvrages qui prĂ©cisent les critĂšres dâidentification de chaque taxon en termes scientifiques. Cette expertise est difficile Ă acquĂ©rir, car les diffĂ©rences sont souvent trĂšs subtiles.
Pour apprendre Ă reconnaĂźtre toutes ces espĂšces selon leur variabilitĂ© morphologique, un algorithme dâintelligence artificielle requiert un apprentissage
GrĂące aux millions dâimages collectĂ©es par des contributeurs du monde entier, lâapplication dâidentification dâespĂšces vĂ©gĂ©tales Pl@ntNet contribue tant Ă leur inventaire quâĂ la recherche scientifique.Au cas oĂč vous ne connaĂźtriez pas Thunbergia erecta, Pl@ntNet est lĂ pour vous aider. > Alexis Joly Directeur de recherche Inria dans lâĂ©quipe-projet ZĂ©nith et cofondateur de Pl@ntNet. > Pierre Bonnet Biologiste au Cirad et coordinateur de Pl@ntNet.
fondĂ© sur un grand nombre dâimages. Or, concernant la botanique, depuis des siĂšcles, la caractĂ©risation de nouvelles espĂšces repose sur des planches dâherbiers et des dessins. La photographie nâest devenue une pratique courante que trĂšs rĂ©cemment. Peu dâimages numĂ©riques sont donc disponibles, voire aucune pour plus de la moitiĂ© des espĂšces vĂ©gĂ©tales ! La collecte de donnĂ©es dâapprentissage devient alors un enjeu tout aussi important que la conception des algorithmes.
La diversitĂ© et le nombre de contributeurs des plateformes de sciences participatives ont palliĂ© ce manque de donnĂ©es et permis le niveau actuel de performance et de couverture taxonomique des diffĂ©rentes applications. Ainsi, le modĂšle dâapprentissage utilisĂ© dans Pl@ntNet est directement entraĂźnĂ© sur une partie des observations faites par les utilisateurs, mais seulement celles dont le degrĂ© de confiance est Ă©levĂ©, car validĂ©es par un nombre suffisant de personnes ou par des personnes suffisamment expertes.
Les observations et propositions de noms dâespĂšces dâun dĂ©butant avec Pl@ntNet ont donc peu de chances dâalimenter directement lâIA. Il doit dâabord gagner en crĂ©dibilitĂ© en contribuant avec des observations
> Scannez ce QR code pour tĂ©lĂ©charger lâapplication Pl@ntNet
mondiale par Pl@ntNet
reconnues de bonne qualitĂ© par le plus grand nombre dâutilisateurs et en repĂ©rant des espĂšces que vous nâavez pas encore dans votre collection. Actuellement, prĂšs de 80 000 personnes alimentent directement lâIA de Pl@ntNet sans validation dâun autre utilisateur. Ce qui nâempĂȘche pas les plus experts de corriger parfois quelques imprĂ©cisions. On qualifie dâ « apprentissage automatique coopĂ©ratif » ce nouveau type de paradigme basĂ© sur la mutualisation des connaissances de la communautĂ© dans un seul outil partagĂ© par tous.
Les observations des novices ne sont pas pour autant perdues, car lâIA peut en identifier une grande partie de façon autonome. Et si lâutilisateur a acceptĂ© que ses observations soient gĂ©olocalisĂ©es, elles rejoignent lâinventaire national du patrimoine naturel français (INPN) ou le systĂšme mondial dâinformation sur la biodiversitĂ© (GBIF). GrĂące Ă ces donnĂ©es, les chercheurs de nombreuses disciplines dĂ©veloppent des modĂšles, des cartes ou des indicateurs Ă destination des acteurs de la conservation. En retour, les contributeurs de Pl@ntNet ont accĂšs aux publications scientifiques basĂ©es sur leurs donnĂ©es grĂące au systĂšme de suivi du GBIF.
Dans quelques annĂ©es, ces travaux permettront le dĂ©veloppement dâoutils grand public pour le suivi de la biodiversitĂ©. Les citoyens, les dĂ©cideurs, les associations et les entreprises pourront par exemple dĂ©terminer trĂšs prĂ©cisĂ©ment les zones les plus riches en biodiversitĂ© ou les plus critiques de leur territoire afin de dĂ©cider collectivement du meilleur chemin Ă suivre pour la prĂ©server.
Pour en savoir +
âą Le site de Pl@ntNet : https://plantnet.org/
âą Le site de lâINPN : https://inpn.mnhn.fr/
âą Le site du GBIF : https://www.gbif.org/
⹠Les articles fondés sur Pl@ntNet : https://bit.ly/Gbif-PlantNet
Le 6 janvier 2023, lâĂtat lançait un PEPR (Programme et Ă©quipements prioritaires de recherche) sur lâagroĂ©cologie et le numĂ©rique dans le cadre de France 2030. PilotĂ© par Inrae et Inria, ce programme doit financer la transition agroĂ©cologique Ă hauteur de 65 millions dâeuros. Les ambitions sont multiples : accompagnement de lâĂ©volution des pratiques, caractĂ©risation des ressources gĂ©nĂ©tiques animales et vĂ©gĂ©tales, dĂ©veloppement de nouveaux agroĂ©quipements ou dâoutils dâaide Ă la dĂ©cision. Plus largement, cette initiative illustre la nĂ©cessitĂ© de bĂątir un numĂ©rique positif, au service de
systÚmes agroalimentaires durables, assurant une alimentation sûre, de qualité et abordable. Mais de quoi parle-t-on plus précisément ?
Le Stockholm Resilience Center dĂ©finit neuf limites planĂ©taires, qui constituent aujourdâhui un cadre partagĂ© pour quantifier lâinfluence des humains sur la planĂšte. Parmi ces limites, le changement dâutilisation des sols, les perturbations du cycle de lâazote et du phosphore, lâutilisation de lâeau douce ou lâintroduction dâentitĂ©s nouvelles dans la biosphĂšre sont directement liĂ©es aux pratiques agricoles.
IncitĂ©e Ă changer de modĂšle, lâagriculture cherche Ă sâorienter vers des pratiques plus vertueuses comme celles de lâagroĂ©cologie.
Avec lâaide du numĂ©rique...Le 6 janvier 2023, le PEPR sur lâagroĂ©cologie et le numĂ©rique a Ă©tĂ© lancĂ© officiellement par les ministĂšres en charge de la Recherche, de lâAgriculture, de la Transition numĂ©rique et par le secrĂ©tariat gĂ©nĂ©ral pour lâinvestissement, en charge de France 2030.
CombinĂ©e aux enjeux de sĂ©curitĂ© alimentaire et de maintien dâune activitĂ© rurale vivante et attractive, cette pression environnementale plaide pour une transition majeure des systĂšmes agricoles. Dans ce contexte, lâagroĂ©cologie formule aujourdâhui les rĂ©ponses les plus convaincantes. Ă la fois ensemble de pratiques, philosophie et mouvement, elle sâappuie sur les fonctionnalitĂ©s offertes par les Ă©cosystĂšmes afin de rĂ©duire la pression sur lâenvironnement (voir lâencadrĂ© page suivante).
La FAO encadre la notion en dix caractĂ©ristiques principales rĂ©sumĂ©es en « une approche intĂ©grĂ©e qui applique concomitamment des notions et des principes Ă©cologiques et sociaux Ă la conception et Ă la gestion des systĂšmes alimentaires et agricoles [...] et vise Ă optimiser les interactions entre les vĂ©gĂ©taux, les animaux, les humains et lâenvironnement, sans oublier les aspects sociaux. »
Cependant, si elle est nĂ©cessaire, la transition vers une agroĂ©cologie est Ă©galement Ă©pineuse. En effet, elle demande de passer dâun systĂšme simple et efficace â appuyĂ© sur les monocultures, la mĂ©canisation et la chimie â Ă une reconnaissance de la complexitĂ© des Ă©cosystĂšmes. « LâagroĂ©cologie, câest refuser volontairement lâuniformitĂ© pour profiter de lâhĂ©tĂ©rogĂ©nĂ©itĂ© et la valoriser, et cela demande Ă©normĂ©ment dâinformation », rĂ©sume Xavier Reboud, directeur de recherches Ă Inrae.
Câest dans ce contexte que la capacitĂ© du numĂ©rique Ă organiser la complexitĂ© peut sâavĂ©rer prĂ©cieuse. « Il est nĂ©cessaire de fournir aux agriculteurs et Ă tous les acteurs concernĂ©s des outils, des ressources et de nouvelles connaissances pour rĂ©ussir la transition tout en sâadaptant aux alĂ©as climatiques », explique Jacques Sainte-Marie, directeur scientifique adjoint dâInria.
changer ce que lâon fait. On dĂ©livre la bonne dose au bon moment et au bon endroit, mais on renforce Ă©galement le modĂšle dominant. Dans un modĂšle agroĂ©cologique, en revanche, il importe de trouver en amont comment mettre le systĂšme dans une situation oĂč il est en mesure de se protĂ©ger lui-mĂȘme de façon assez robuste. Lâutilisation du numĂ©rique implique un pilotage doux oĂč lâon va orienter de maniĂšre mesurĂ©e les changements que lâon opĂšre », prĂ©cise Xavier Reboud.
Si lâagroĂ©cologie est un sujet trop vaste et mouvant pour rĂ©aliser un panorama exhaustif des convergences avec le numĂ©rique, on peut nĂ©anmoins distinguer trois grandes familles oĂč ce dernier est important : produire de la connaissance ; accompagner, optimiser et faciliter la production ; inscrire les producteurs dans une filiĂšre. DĂ©taillons-les.
DES CONNAISSANCES AVANT TOUT
Comprendre et modĂ©liser les Ă©cosystĂšmes complexes de lâagroĂ©cologie est un enjeu majeur. Pour y parvenir, lâextraction des donnĂ©es agricoles les plus pertinentes est indispensable, et met Ă contribution toute une gamme de solutions numĂ©riques. « Nous sommes en mesure de collecter des donnĂ©es de gĂ©nomique Ă grande Ă©chelle. Les donnĂ©es physiologiques se multiplient grĂące aux capteurs portĂ©s par les animaux. Nous disposons de plus en plus de donnĂ©es dâimagerie et de tĂ©lĂ©dĂ©tection », dĂ©taille Claire Rogel-Gaillard, directrice scientifique adjointe Agriculture Ă Inrae. En parallĂšle, la dĂ©mocratisation des smartphones rend les dispositifs les plus perfectionnĂ©s accessibles au plus grand nombre.
Reste Ă©galement Ă dĂ©passer une reprĂ©sentation qui associe encore le numĂ©rique au modĂšle agro-industriel dominant. Cette perception est sans doute Ă mettre sur le compte de lâagriculture de prĂ©cision, qui met Ă profit le potentiel des nouvelles technologies pour optimiser les pratiques existantes, sans les remettre en cause. « Lâagriculture de prĂ©cision aide Ă faire mieux, sans viser Ă
Sur la base des connaissances produites, le numĂ©rique joue ensuite un rĂŽle plus opĂ©rationnel. Il dote ainsi les agriculteurs de nouveaux outils dâaide Ă la dĂ©cision, particuliĂšrement importants dans une phase initiale dâapprentissage de lâagroĂ©cologie. Les mĂąts dotĂ©s de stations mĂ©tĂ©o, comme ceux que dĂ©veloppe la start-up Weenat, couplĂ©s Ă des logiciels prĂ©dictifs orientent par exemple les choix dâirrigation ou de traitement des cultures. « Nous restons dans une agriculture de prĂ©cision, mais câest un cas emblĂ©matique. Il prĂ©figure la capacitĂ© du numĂ©rique Ă jouer un rĂŽle dâinterface entre un systĂšme complexe et une dĂ©cision », explique Xavier Reboud.
Ă©cosystĂ©miques, capture du carbone, production de donnĂ©es prĂ©cieuses : lâapport de lâagriculture au-delĂ des denrĂ©es alimentaires reste difficile Ă Ă©valuer> Scannez ce QR code pour accĂ©der au podcast dâInria : Ă quoi sert la recherche... en agriculture numĂ©rique ?
LâagroĂ©cologie, un terme forgĂ© dans les annĂ©es 1920, est une science, dont le nom Ă©voque lâappropriation par lâagronomie des concepts et mĂ©thodes de lâĂ©cologie scientifique. Elle consiste en diverses pratiques favorisant des fonctions Ă©cologiques utiles Ă lâamĂ©lioration de lâactivitĂ© agricole. Dans les faits, il sâagit dâaugmenter lâhĂ©tĂ©rogĂ©nĂ©itĂ© des plantes cultivĂ©es dans les parcelles ou dâen ajouter Ă la pĂ©riphĂ©rie de façon Ă exploiter les complĂ©mentaritĂ©s. De la sorte, on privilĂ©gie lâĂ©nergie solaire par rapport aux Ă©nergies fossiles, et on profite du moindre interstice, quâil soit spatial ou temporel.
LâarchĂ©type est la milpa (ou « trois sĆurs »), qui combine, depuis plus de deux mille ans en AmĂ©rique centrale, le haricot, le maĂŻs et des courges. Dans ce systĂšme, le haricot grimpant sur le maĂŻs lui apporte de lâazote au niveau des racines, tandis quâau pied, des courges, avec souvent dâautres lĂ©gumes, couvrent le sol, limitant ainsi le dĂ©veloppement des adventices et lâĂ©vaporation. Autre exemple, lâassociation de lĂ©gumineuses et de cĂ©rĂ©ales profite aux deux plantes grĂące Ă lâenrichissement du sol, la rĂ©duction des adventices, la diminution des maladies, la rĂ©duction du risque dâĂ©rosionâŠ
La robotique offre Ă©galement de belles promesses. Au-delĂ de la pĂ©nibilitĂ© quâelle allĂ©gerait en remplaçant lâhumain pour des tĂąches difficiles, elle laisse imaginer une rentabilitĂ© nouvelle pour des pratiques vertueuses, mais aujourdâhui peu viables. La culture de la betterave en agriculture biologique par exemple reste aujourdâhui complexe. Elle demande un dĂ©sherbage mĂ©canique de qualitĂ©, qui reprĂ©sente un coĂ»t de main-dâĆuvre souvent rĂ©dhibitoire. Dans ce contexte, lâadoption de robots dĂ©sherbeurs ouvrirait de nouvelles perspectives pour la filiĂšre.
Le numérique a aussi un rÎle à jouer dans la transformation des interactions des agriculteurs entre eux, avec leurs consommateurs, ou avec le reste de leur filiÚre. Ainsi, le développement de réseaux sociaux spécifiques faciliterait les échanges de bonnes pratiques dans un domaine encore émergent. Vis-à -vis du consommateur, la plateformisation de la distribu-
tion valoriserait les circuits courts tout en donnant une visibilitĂ© nouvelle aux pratiques agroĂ©cologiques. « La question de la traçabilitĂ© est facilitĂ©e par le numĂ©rique, grĂące Ă la collecte du cycle de vie des produits, source dâinformations prĂ©cises pour le consommateur et garantie dâune forme de confiance », explique VĂ©ronique Bellon-Maurel, cheffe adjointe du dĂ©partement MathNum dâInrae, et directrice de lâInstitut Convergences agriculture numĂ©rique #DigitAg.
MalgrĂ© ces promesses encourageantes, le dĂ©veloppement du numĂ©rique au service de lâagroĂ©cologie subit aujourdâhui divers freins. Certains, comme la connectivitĂ© ou le coĂ»t dâaccĂšs aux solutions, sont relativement Ă©vidents. Face Ă une offre en plein essor, les agriculteurs ne sont pas toujours en mesure dâĂ©valuer le retour sur investissement ou lâefficacitĂ© environnementale rĂ©elle des solutions. Sur les territoires, des initiatives comme le laboratoire dâusages Occitanum sâattĂšlent Ă lever cette barriĂšre en Ă©valuant les diffĂ©rentes technologies en conditions rĂ©elles.
Plus complexes, les freins psychologiques plaident Ă©galement pour un travail sur lâacceptabilitĂ© des solutions. « Il peut y avoir un blocage Ă lâidĂ©e dâune forme de dĂ©pendance du systĂšme de production par rapport Ă des donnĂ©es non maĂźtrisĂ©es. La crainte dâun Big Brother agricole qui pourrait spolier lâagriculteur de son savoir-faire doit ĂȘtre prise en compte », explique Claire Rogel-Gaillard.
De façon plus prospective, une application raisonnĂ©e et efficace du numĂ©rique ouvre de nouvelles voies au mĂ©tier dâagriculteur. Elle mettrait par exemple en valeur certaines contributions du monde agricole aux transitions socioĂ©cologiques, encore invisibles aujourdâhui. Services Ă©cosystĂ©miques, capture du carbone, production de donnĂ©es prĂ©cieuses : lâapport de lâagriculture au-delĂ des denrĂ©es alimentaires reste difficile Ă Ă©valuer. « Le lien entre agroĂ©cologie et numĂ©rique peut changer la nature de ce que les agriculteurs vont fournir Ă la sociĂ©tĂ© et Ă©largir leurs missions », explique Claire Rogel-Gaillard. Reste aujourdâhui Ă mettre en place de nouvelles comptabilitĂ©s et de nouveaux indicateurs, Ă mĂȘme de faire passer lâagroĂ©cologie Ă une nouvelle Ă©chelle. Car, comme lâindique Xavier Reboud, « lâagroĂ©cologie sera considĂ©rĂ©e comme le systĂšme le plus performant quand on aura trouvĂ© un moyen de rendre compte des dimensions qui ne sont pas directement marchandes des productions agricoles. »
Le numérique fait une entrée fracassante dans les exploitations agricoles, aussi bien dans les pays développés que dans les émergents : robots, drones, IA... cÎtoient désormais tracteurs et moissonneuses.
Des images issues de satellites aux robots, en passant par les drones, les capteurs connectĂ©s dans les champs, les bases de donnĂ©es et toutes sortes de logiciels dâaide Ă la dĂ©cision, le numĂ©rique apporte progressivement aux exploitants des outils trĂšs variĂ©s destinĂ©s Ă faciliter leur travail, optimiser qualitativement et quantitativement leurs productions, et rĂ©duire les tĂąches les plus pĂ©nibles et rĂ©pĂ©titives. Mais un autre objectif est Ă lâordre du jour : lâagriculture doit faire sa transition Ă©cologique. Le numĂ©rique peut aider Ă prendre en compte ces nouvelles contraintes : restreindre la consommation dâĂ©nergie, dâeau et dâautres ressources, lâusage de pesticides dangereux pour les Ă©cosystĂšmes, les Ă©missions de gaz Ă effet de serre⊠et bien dâautres.
Inria joue un rĂŽle majeur dans cette dĂ©marche. Signe des temps, elle sâest associĂ©e Ă lâInstitut national de recherche pour lâagriculture, lâalimentation et lâenvironnement (Inrae) pour publier, en janvier 2022, un livre blanc intitulĂ© « Agriculture et numĂ©rique » (voir lâencadrĂ© page suivante) et sous-titrĂ© « Tirer le meilleur du numĂ©rique pour contribuer Ă la transition vers des agricultures et des systĂšmes alimentaires durables ». Ce document prĂ©sente notamment lâĂ©tat de lâart des technologies numĂ©riques destinĂ©es au monde agricole et propose des pistes pour mieux exploiter encore le potentiel quâelles recĂšlent pour la transition agroĂ©cologique. Il prolonge un partenariat entre les deux organismes dĂ©jĂ anciens, qui se traduit, outre le PEPR (Programme et Ă©quipements prioritaires de recherche) rĂ©cemment lancĂ© (voir
Dans trente ans, lâhumanitĂ© comptera un milliard et demi de bouches Ă nourrir supplĂ©mentaires, alors que le dĂ©rĂšglement climatique et lâappauvrissement de la biodiversitĂ© obligent dĂ©jĂ Ă rĂ©viser sĂ©rieusement les pratiques agricoles. La situation impose notamment un usage plus sobre des ressources, Ă commencer par lâĂ©nergie et lâeau, mais aussi des fertilisants, pesticides et autres intrants nuisibles aux Ă©cosystĂšmes. Câest pourquoi lâagroĂ©cologie est dĂ©sormais un enjeu crucial en France et dans un nombre croissant de pays. Le numĂ©rique peut contribuer largement Ă inventer cette nouvelle agriculture. Mais quel numĂ©rique dĂ©velopper pour accompagner cette agriculture plus vertueuse et bĂ©nĂ©fique, Ă la fois du point de vue des agriculteurs et des consommateurs, plus gĂ©nĂ©ralement de la sociĂ©tĂ© ? Le document proposĂ© par Inria et Inrae tente dâĂ©clairer ces questions et propose des pistes pour orienter les recherches afin de mieux comprendre, maĂźtriser, prĂ©parer, Ă©quiper et accompagner le dĂ©ploiement du numĂ©rique en agriculture et dans la chaĂźne alimentaire, en prenant en compte la maniĂšre dont il va transformer les filiĂšres et leur Ă©cosystĂšme, lâobjectif Ă©tant que ces mesures bĂ©nĂ©ficient Ă la transition Ă©cologique, Ă la territorialisation et Ă des chaĂźnes dâapprovisionnement rééquilibrĂ©es. Sont successivement analysĂ©s les enjeux de la transformation de lâagriculture et des systĂšmes alimentaires, lâĂ©tat de lâart des technologies numĂ©riques existantes, les possibilitĂ©s offertes par le numĂ©rique pour la transition agroĂ©cologique et une meilleure inclusion dans la sociĂ©tĂ©, les risques liĂ©s Ă un dĂ©veloppement non maĂźtrisĂ© de lâagriculture numĂ©rique, enfin les questions et dĂ©fis techniques identifiĂ©s qui pourraient mobiliser Inria et Inrae mais aussi lâĂ©cosystĂšme français de la recherche, pour dĂ©velopper un numĂ©rique responsable pour lâagriculture.
lâarticle page 38) sur lâagroĂ©cologie et le numĂ©rique, par cinq Ă©quipes-projets communes, deux unitĂ©s mixtes de services et la participation conjointe Ă de nombreux projets du programme Investissements dâAvenirâŠ
Des logiciels variĂ©s ont Ă©tĂ© dĂ©veloppĂ©s pour faciliter la vie des exploitants, Ă commencer par de simples outils de gestion de lâexploitation. Mais depuis quelque temps dĂ©jĂ , des recherches, menĂ©es notamment par des scientifiques dâInria, souvent en coopĂ©ration avec des Ă©quipes dâInrae, visent Ă offrir au monde de lâagriculture des solutions pour analyser, modĂ©liser, simuler, optimiser, aider Ă la dĂ©cision. En faisant notamment appel Ă lâintelligence artificielle (IA), en particulier des algorithmes dâapprentissage artificiel, et Ă des approches relevant de lâingĂ©nierie des connaissances.
Un exemple ? Dilepix, une start-up créée en 2018 notamment par AurĂ©lien Yol, ingĂ©nieur dans lâĂ©quipe-projet Lagadic (Inria, Irisa) Ă Rennes. Il sâagit
de dĂ©ployer des camĂ©ras, dans des champs, sur les machines agricoles⊠et de les relier Ă une IA afin de dĂ©tecter en temps rĂ©el les situations qui nĂ©cessitent une intervention, comme lâarrivĂ©e dâinsectes ravageurs, dâadventices ou bien lâapparition des graines ou des fleurs (voir la figure page ci-contre). LâĂ©conomie de temps et de produits rĂ©alisĂ©e rend lâagriculture plus rentable et plus durable.
Cependant, et ces exemples le montrent, la plupart de ces outils sont utilisĂ©s dans les nations dĂ©veloppĂ©es, et dâabord par les plus grandes exploitations agricoles. Mais certaines Ă©quipes de recherche sâintĂ©ressent Ă la situation des pays Ă©mergents et imaginent des solutions adaptĂ©es Ă des rĂ©gions. LâĂ©quipe-projet Scool dâInria est de celles-ci, et son responsable, Philippe Preux, professeur Ă lâuniversitĂ© de Lille et chercheur au Centre de recherche en informatique, signal et automatique de Lille (CRIStal, UMR CNRS, universitĂ© de Lille, Centrale Lille, Inria et IMT Nord Europe) raconte : « Dans le cadre de lâaction humanitaire internationale Africa Rising, nous concevons des solutions reposant sur lâapprentissage automatique pour le conseil en agriculture. Notre crĂ©neau, câest lâaide Ă la prise de dĂ©cision et la recommandation. Nos travaux visent les petits cultivateurs des pays en dĂ©veloppement. Nous voulons aider les paysans Ă nourrir leurs familles et Ă gagner de lâargent en vendant leurs rĂ©coltes, tout en respectant lâenvironnement et en travaillant dans une logique dâagriculture durable. Il sâagit donc de rĂ©duire la pollution, minimiser lâusage des pesticides, Ă©viter de lessiver le sol⊠Nous avons Ă©tudiĂ© la situation au Malawi et constatĂ© quâil nây avait pas assez de donnĂ©es de terrain pour entraĂźner nos modĂšles. Nous avons validĂ© cette approche en faisant appel Ă la simulation et obtenu des rĂ©sultats trĂšs encourageants. LâidĂ©e est dâaboutir Ă une solution audio : lâagriculteur accĂšde grĂące Ă un simple tĂ©lĂ©phone portable Ă un serveur vocal interactif. Il rĂ©pond Ă des questions. Et reçoit des conseils. » Des recommandations relatives aux variĂ©tĂ©s, aux semis, aux amendements, Ă lâirrigationâŠ
« Nous avons Ă©galement entamĂ© en Inde une coopĂ©ration avec une Ă©quipe dâune universitĂ© dâagronomie qui dispose dâune ferme expĂ©rimentale, poursuit Philippe Preux. Dans ce contexte, le problĂšme nâest plus de nourrir sa famille, il est donc possible de tester des hypothĂšses plus risquĂ©es, des scĂ©narios que lâon nâoserait pas envisager avec des agriculteurs dont la survie est en jeu. Câest trĂšs intĂ©ressant, car pour entraĂźner nos modĂšles dâapprentissage automatique, nous avons besoin de donnĂ©es positives mais aussi de nĂ©gatives, câest-Ă -dire issues de situations oĂč on a fait des choix malheureux, des choses qui nâont pas marchĂ©. »
Pour remplir leur rĂŽle dâassistance et de conseil, ces logiciels ont besoin de toutes sortes de donnĂ©es. Certaines devront encore longtemps ĂȘtre saisies sur le clavier dâun ordinateur. Un outil inattendu est le smartphone, qui simplifie la saisie de donnĂ©es, in situ, « au champ », et offre mĂȘme dâenvoyer une image vers un logiciel susceptible dâĂ©valuer le nombre de fruits dans un arbre ou dâidentifier un parasite.
Câest par exemple le cas de PixFruit, un outil dĂ©veloppĂ© par Julien Sarron, chercheur au Centre de coopĂ©ration internationale en recherche agronomique pour le dĂ©veloppement (Cirad), qui aide Ă estimer les rendements des manguiers Ă partir de photos prises avec un tĂ©lĂ©phone sur lesquelles les fruits sont repĂ©rĂ©s grĂące Ă une IA (voir la figure page suivante) Cette Ă©valuation guide ensuite la prise de dĂ©cision des agriculteurs, alimente des bases de donnĂ©es locales et favorise les Ă©changes entre acteurs de la filiĂšre.
Certaines informations utiles Ă lâagriculteur sont fournies par des organismes ad hoc , par exemple MĂ©tĂ©o-France, qui propose, en ligne, des cartes et infor-
Dilepix propose un service dâanalyse dâimages pour automatiser la surveillance des exploitations agricoles et repĂ©rer, par exemple, les adventices.
mations chiffrĂ©es sur les conditions en cours, ainsi que des prĂ©dictions jusquâĂ quinze jours. En outre, Ă partir des images issues des satellites, des algorithmes sont capables dâestimer et de cartographier les besoins en irrigation ou en engrais azotĂ©, dâĂ©valuer la croissance de certaines cultures. DĂ©celer des pathologies sâavĂšre plus difficile, mais on y travaille.
« Lâutilisation dâimages satellitaires est en train de se dĂ©mocratiser, notamment pour la prĂ©conisation de la fertilisation azotĂ©e », assure Corentin Leroux. Cet agronome et consultant en matiĂšre de numĂ©rique agricole a cofondĂ© lâAnnuaire des outils numĂ©riques en agriculture. « Cette tendance est favorisĂ©e par lâexistence dâimages, de donnĂ©es en libre accĂšs. » LâAgence spatiale europĂ©enne (ESA) diffuse en effet gracieusement des images multispectrales (treize gammes dâondes dans le visible et le proche infrarouge) issues des satellites Sentinel 2. « De plus en plus de logiciels intĂšgrent lâimagerie satellitaire, prĂ©cise lâexpert, tandis que des entreprises dĂ©veloppent des âmoulinettesâ qui retravaillent les donnĂ©es brutes afin de fournir des images plus parlantes aux agriculteurs. »
Nos travaux visent Ă aider les paysans Ă nourrir leurs familles, Ă gagner de lâargent en vendant leurs rĂ©coltes, tout en respectant lâenvironnement
Dâautres donnĂ©es sont aujourdâhui captĂ©es localement, « Ă la ferme ». Des sondes connectĂ©es plantĂ©es dans le sol collectent ainsi des informations aussi diverses que lâhumiditĂ© du sol, sa tempĂ©rature et sa salinitĂ©, et mĂȘme, pour certaines, sa compaction et sa concentration en oxygĂšne. Citons encore les piĂšges connectĂ©s, capables par exemple dâattirer un insecte ravageur, ou plusieurs, et de reconnaĂźtre et dĂ©compter les individus, grĂące Ă un algorithme de vision artificielle. CĂŽtĂ© Ă©levage, des colliers connectĂ©s pour les bovins et ovins et des mangeoires mesurant la quantitĂ© de nourriture ingĂ©rĂ©e par chaque animal sont disponibles.
Le drone est un autre moyen dâacquĂ©rir et collecter des donnĂ©es agricoles. Il peut ĂȘtre dotĂ© de camĂ©ras classiques, ou multispectrales, voire dans certains rares cas « hyperspectrales » (une centaine de bandes Ă©troites de frĂ©quence, ou plus), qui les rendraient par exemple capables de dĂ©tecter prĂ©cocement des carences ou des maladies. Ou encore de capteurs chimiques, permettant de dĂ©tecter certaines pathologies. Voire des dispositifs capables de prĂ©lever des Ă©chantillons (branche, feuilleâŠ) dans les champs.
« Le modĂšle Ă©conomique autour des drones nâest pas Ă©vident Ă trouver, et rentre parfois en concurrence forte avec les images satellitaires, remarque Corentin Leroux. On retrouve aujourdâhui plutĂŽt les drones dans des applications assez spĂ©cifiques. »
Le numĂ©rique peut encore aider lâagriculteur lorsquâil passe Ă lâaction. Les exemples les plus frappants relĂšvent de la robotique. Des robots agricoles arpentent dĂ©jĂ certaines exploitations en France. Fin 2021, la start-up française NaĂŻo Technologies est devenue le premier fabricant mondial Ă proposer des robots dĂ©sherbeurs et viticoles certifiĂ©s pour une utilisation sans aucune supervision humaine.
Interaction et lâĂquipex, câest-Ă -dire Ă©quipement dâexcellence, Amiqual4Home) est Ă©quipĂ© dâun systĂšme de guidage par GPS et dâune technologie dâoptoguidage qui lâoriente quand il sâagit de planter, dĂ©sherber, rĂ©colter, transporter⊠Le numĂ©rique et les nouvelles technologies font ainsi leur entrĂ©e dans les exploitations maraĂźchĂšres, oĂč elles rĂ©duisent la pĂ©nibilitĂ© du travail tout en augmentant la productivitĂ©.
La robotique, câest le domaine de Philippe Martinet, directeur de recherche chez Inria Sophia-Antipolis, au sein de lâĂ©quipe-projet Acentauri. « Nous nous intĂ©ressons notamment Ă des problĂ©matiques multirobots, indique le chercheur. Ainsi, dans le cadre du projet Ninsar, auquel participent Ă©galement deux autres Ă©quipes-projets dâInria (Chroma et Rainbow), quatre dâInrae et dix relevant dâautres organismes (en particulier CNRS et CEA), nous travaillons sur des solutions reposant sur des flottes de robots lĂ©gers, aĂ©roterrestres, capables de coopĂ©rer pour rĂ©soudre des tĂąches variĂ©es, multiples et rĂ©pĂ©titives. Comme le dĂ©sherbage dans divers contextes. »
Remarquons que robots terrestres et drones, sâils sont dotĂ©s de capteurs, ont un rĂŽle essentiel Ă jouer dans la collecte de donnĂ©es. « Avec le projet Robforisk, en collaboration avec Inrae, nous cherchons Ă suivre lâĂ©volution des maladies forestiĂšres, afin de les juguler, indique Philippe Martinet. Entre autres, il sâagit de dĂ©tecter des parasites Ă lâaide de drones dotĂ©s de camĂ©ras, de capteurs chimiques et Ă mĂȘme dâeffectuer des prĂ©lĂšvements Ă la cime des arbres, collaborant avec de petits robots terrestres. Par ailleurs, poursuit le chercheur, dans le cadre du PEPR (Programme et Ă©quipements prioritaires de recherche) AgroĂ©cologie et NumĂ©rique (voir lâarticle page 38), nous rĂ©flĂ©chissons Ă une « main » pour lâagriculture : Ă©quipĂ©e dâeffecteurs et de capteurs, elle manipulerait une branche, une feuille, des objets mous. » Cette main serait utile pour rĂ©colter, mais aussi pour collecter des Ă©chantillons Ă des fins dâanalyseâŠ
Citons aussi le robot Toutilo, un vĂ©hicule enjambeur de cultures proposĂ© par la start-up Touti Terre (voir la figure page 41). Multifonction, lâengin conçu en collaboration avec Inria (lâĂ©quipe-projet Pervasive
Symbole de lâagriculture industrialisĂ©e, la moissonneuse-batteuse de 15 mĂštres de large ne disparaĂźtra sans doute pas de sitĂŽt. Mais la figure de proue de lâagriculture numĂ©risĂ©e pourrait bien ĂȘtre demain le robot agile, sensible et qui joue collectif.
Plusieurs équipesprojets travaillent sur des solutions reposant sur des flottes de robots légers, aéroterrestres, capables de coopérer pour résoudre des tùches variées, multiples et répétitives
D u simple citoyen avec son smartphone jusquâaux prestataires de clouds et autres services de streaming aux capacitĂ©s de stockage gigantesques, les activitĂ©s numĂ©riques ont une empreinte environnementale qui croĂźt de façon exponentielle. Il est donc temps pour les acteurs du numĂ©rique de se pencher sur leurs propres activitĂ©s et de se rĂ©inventer. Les pistes sont nombreuses : nouveaux types de data centers, meilleure conception des algorithmes, intelligence artificielle frugale⊠Les usagers, et les chercheurs, ont aussi un rĂŽle Ă jouer, en adoptant des comportements plus Ă©conomes.
Quelle est lâempreinte carbone du numĂ©rique ?
Au niveau mondial, le numĂ©rique est responsable de 8 à 10 % de la consommation Ă©lectrique et de 3 à 4 % des Ă©missions de gaz Ă effet de serre. Et cette consommation est en croissance annuelle de 6 à 8 %, de sorte quâelle double tous les dix ans environ. En France, oĂč lâĂ©lectricitĂ© est essentiellement nuclĂ©aire, le numĂ©rique reprĂ©sente 2 à 3 % de lâempreinte carbone nationale, en augmentation de 4 à 5 % par an.
Directeur du programme de travail sur lâimpact environnemental du numĂ©rique dans le Shift Project.
Nos ordinateurs sont de plus en plus efficaces, certes, mais la consommation progresse plus vite que lâefficacitĂ© des infrastructures informatiques. Par ailleurs, la consommation liĂ©e aux terminaux augmente Ă©galement, et pour une raison simple :
on en a de plus en plus. Aux Ătats-Unis, on compte aujourdâhui plus de treize Ă©quipements numĂ©riques par habitant. En Europe, câest moins de dix.
Une meilleure efficacitĂ© Ă©nergĂ©tique nâinduit-elle pas toujours une baisse de la consommation ?
Non, câest mĂȘme parfois le contraire lorsque surgit « lâeffet rebond ». Les Ă©conomistes parlent du « paradoxe de Jevons », formulĂ© en 1865 par lâĂ©conomiste britannique William Stanley Jevons et reformulĂ© dans les annĂ©es 1980 par deux Ă©conomistes, Daniel Khazzoom, aux Ătats-Unis, et Leonard Brookes, en Grande-Bretagne. Le « postulat de Khazzoom-Brookes » constate quâun gain dâefficacitĂ© Ă©nergĂ©tique peut entraĂźner, paradoxalement, une augmentation de la consommation dâĂ©nergie. Ainsi la 5G, plus efficace que la 4G, offre un dĂ©bit supĂ©rieur Ă moindre coĂ»t, ce qui favorise de nouveaux usages⊠et finalement une augmentation de la consommation Ă©nergĂ©tique.
Cependant, le numĂ©rique permet dâĂ©conomiser lâĂ©nergie dans bien des secteursâŠ
Bien entendu. Mais il faut garder Ă lâesprit que lorsquâon introduit du numĂ©rique quelque part, on ajoute tout dâabord une nouvelle consommation Ă©lectrique, et donc on augmente lâempreinte carbone de lâapplication considĂ©rĂ©e. Prenons un exemple simple : lâĂ©clairage « intelligent ». Le numĂ©rique permet, Ă lâaide de capteurs, de dĂ©tecter la prĂ©sence de personnes et donc de nâallumer une ampoule que lorsque câest nĂ©cessaire. Il y a donc un potentiel dâĂ©conomie parce quâune ampoule ne sera pas allumĂ©e tout le temps. Mais le module numĂ©rique qui dĂ©tecte les personnes doit fonctionner et donc consommer de lâĂ©lectricitĂ© en permanence. Si on fait le calcul en nâoubliant rien, on constate que le remplacement dâune LED non intelligente par une intelligente nâest pas toujours justifiĂ©.
Peut-on amĂ©liorer lâefficacitĂ© des logiciels ?
Câest une piste intĂ©ressante. Produire des logiciels plus Ă©conomes, câest faire le contraire de ce quâon fait depuis quinze ans. On a dĂ©veloppĂ© dans la derniĂšre pĂ©riode sans sâinquiĂ©ter de la puissance consommĂ©e. Câest lâune des causes du remplacement prĂ©maturĂ© des smartphones, en moyenne tous les vingt-trois mois. Autre exemple : Windows 11 oblige Ă remplacer tous
les ordinateurs qui ont plus de quatre ans. On se souvient de lâĂ©poque lointaine oĂč on apprenait Ă Ă©crire du code Ă©conomique. Aujourdâhui beaucoup de dĂ©veloppements sâappuient sur des briques logicielles gĂ©nĂ©ralement non optimisĂ©es.
Les Gafam installent leurs propres centrales solaires. Câest une bonne chose ?
Les Gafam ont les data centers les plus efficaces du monde. Mais ils en ont de plus en plus ! Chez Google, la consommation Ă©lectrique sâaccroĂźt en moyenne de 24 % par an. Alors, certes, les Gafam installent de plus en plus de capacitĂ© de production dâĂ©nergie renouvelable, essentiellement du photovoltaĂŻque. Câest bon pour eux, mais pas pour la planĂšte. Lorsquâils installent un nouveau data center , ils dĂ©couvrent parfois une production Ă©lectrique locale mĂ©diocre. Câest pourquoi ils fiabilisent leur alimentation avec du solaire ou de lâĂ©olien. Ce qui abaisse leurs propres Ă©missions. Mais il y a une limite Ă la capacitĂ© de produire de lâĂ©lectricitĂ© renouvelable. Et ce que les Gafam prennent nâest pas disponible pour les autres.
Certaines initiatives visent Ă rĂ©cupĂ©rer la chaleur dĂ©gagĂ©e par les data centersâŠ
Câest bien sĂ»r intĂ©ressant en principe, mais cela reste anecdotique. RĂ©cupĂ©rer la chaleur dâun data center pour chauffer une piscine est techniquement facile, mais ces structures ne sont pas toujours Ă cĂŽtĂ© dâune piscine⊠Le plus souvent, ce couplage nĂ©cessite lâexistence dâun rĂ©seau de chaleur auquel se raccorder. On le voit, beaucoup de conditions doivent ĂȘtre rĂ©unies. En fin de compte, on pourrait inciter les Gafam Ă chauffer du rĂ©sidentiel ou de lâindustriel avec leurs data centers, mais la mise en Ćuvre reste complexe.
LâidĂ©e, entre autres, dâinstaller des serveurs Ă la place de radiateurs Ă©lectriques, comme le fait la start-up Qarnot est intĂ©ressante (voir lâarticle p. 60) . Mais comment cela se passe-t-il dans la rĂ©alitĂ©, par exemple en pĂ©riode de chaleur ?
à Londres, cet été, la température est montée à 39 degrés⊠et deux data centers sont tombés en panne !
Freiner lâusage du numĂ©rique est donc nĂ©cessaire ?
PlutĂŽt que de limiter nos ambitions, ayons-en de nouvelles ! Les techniques numĂ©riques ont Ă©voluĂ© bien plus vite que notre capacitĂ© Ă les maĂźtriser. On devrait dĂ©penser plus de temps de cerveau Ă rĂ©flĂ©chir sur la maniĂšre de bien utiliser le numĂ©rique, pour ĂȘtre capable dâĂ©voluer vers une sociĂ©tĂ© plus sobre Ă©nergĂ©tiquement, tout en maintenant un niveau acceptable de bien-ĂȘtre. Nous devons mettre les gains dâefficacitĂ© numĂ©rique au service de la sobriĂ©tĂ© Ă©nergĂ©tique. Et ce nâest pas seulement un problĂšme technique. Il nous faut rĂ©apprendre Ă maĂźtriser nos usages du numĂ©rique, un peu comme on apprend Ă boire du vin⊠avec modĂ©ration â par exemple en jouant moins Ă Game of Thrones en 3D et rĂ©alitĂ© virtuelle, au profit de la lecture, des Ă©checs ou de la promenade en forĂȘt.
Une gouvernance plus dĂ©terminĂ©e est indispensable pour plus de rĂ©gulation sur lâoffre, les fabricants, les Gafam⊠Oui, des textes lĂ©gislatifs sont nĂ©cessaires. Par exemple, lâinterdiction de lâ autoplay , câest-Ă -dire le dĂ©marrage automatique de vidĂ©os sur une page web, serait une bonne idĂ©e. Plus gĂ©nĂ©ralement, des choix par dĂ©faut Ă©conomes doivent ĂȘtre proposĂ©s. On peut laisser les gens libres de consommer des ressources comme ils veulent sans que cela soit automatique, parce que toutes les options « gourmandes » sont prĂ©rĂ©glĂ©es. Cela fait partie des prĂ©conisations du rapport « Digital Reset », publiĂ© par le projet europĂ©en D4S (Digitalization for Sustainability â Science in Dialogue), dont je suis lâun des coauteurs. Et le Shift Project insiste Ă©galement sur la nĂ©cessitĂ© dâune planification du numĂ©rique. Ce secteur Ă©conomique connaĂźt une dynamique insoutenable. Six acteurs, Ă savoir Google, Apple, Microsoft, Amazon, Netflix et Facebook, sont responsables de 75 % de lâaugmentation du trafic internet, qui a Ă©tĂ© multipliĂ© par deux entre 2018 et 2021. Cet emballement ne va pas se stabiliser de luimĂȘme, nous devons intervenir. .
« Il nous faut réapprendre à maßtriser nos usages du numérique, un peu comme on apprend à boire du vin⊠avec modération »à lire I Rapport du Shift Project « Déployer la sobriété numérique » theshiftproject.org/ article/deployer-lasobriete-numeriquerapport-shift/
DerriĂšre un courriel, une requĂȘte sur un moteur de recherche, le stockage dâune photo sur le « cloud »⊠se cache une consommation Ă©nergĂ©tique importante, et qui va croissant. Et donc un impact environnemental non nĂ©gligeable.
LâEMPREINTE DU NUMĂRIQUE EN FRANCE
10 % de la consommation électrique annuelle est consacrée au numérique.
Cela reprĂ©sente pour chaque Français lâĂ©quivalent de la consommation Ă©lectrique dâun radiateur de 1 000 watts pendant 30 jours. Lâimpact environnemental est Ă©gal Ă celui dâun trajet de 2 259 kilomĂštres en voiture.
Ănergie primaire Gaz Ă effet de serre Eau ĂlectricitĂ©
6 % de la consommation
3,8 % des émissions 0,2 % de la consommation 14 % de la consommation
Ămissions de gaz Ă effet de serre
ïŸ 116 millions de tours du monde.
Eau
ïŸ 1 542 milliards de bouteilles dâeau de 1,5 litre.
2,5 % de lâempreinte carbone de la France est liĂ©e au numĂ©rique
20 millions de tonnes de dĂ©chets par an sont produites sur lâensemble du cycle de vie des Ă©quipements, soit 299 kilogrammes par Français.
62,5 millions de tonnes de ressources sont exploitées par an pour produire et utiliser les équipements numériques.
LA PART DE LâIMPACT ENVIRONNEMENTAL SELON LE TYPE DâOUTILS
De 65 Ă 90 %
Terminaux utilisateurs (tĂ©lĂ©viseurs, smartphones, ordinateursâŠ)
De 4 Ă 22 % Data centers
De 2 à 14 % Réseaux
ïŸ 1,5 milliard de Français parcourant chaque jour 50 kilomĂštres en voiture pendant un an.
ïŸ 3,6 milliards de douches.
Si le numérique était un pays, son empreinte serait 2 à 3 fois celle de la France.
LâEMPREINTE CARBONE DU NUMĂRIQUE PAR POSTE (EN 2019)
Production Utilisation
Réseaux 11 %
Terminaux utilisateurs 38 %
Centre de données 14 %
Ordinateurs 10 %
Smartphones 8 %
TV 15 %
Autres 4 %
QUATRE SCĂNARIOS DâĂVOLUTION POUR LE NUMĂRIQUE
La part du numĂ©rique dans les Ă©missions de gaz Ă effet de serre dâici Ă 2025 (Ă gauche) et dans la consommation dâĂ©nergie primaire (Ă droite) variera selon les scĂ©narios prospectifs dĂ©finis par le Shift Project.
Le rythme de gain dâefficacitĂ© Ă©nergĂ©tique (EE) reste identique Ă celui observĂ© historiquement de 2013 Ă 2019, tandis que le trafic et la production dâĂ©quipements croissent modĂ©rĂ©ment.
Le rythme de gain dâefficacitĂ© Ă©nergĂ©tique reste identique Ă celui observĂ© historiquement de 2013 Ă 2019, tandis que le trafic et la production dâĂ©quipements croissent beaucoup.
Par rapport au prĂ©cĂ©dent, ce scĂ©nario prend en compte un (lĂ©ger) ralentissement des gains dâefficacitĂ© Ă©nergĂ©tique observĂ© Ă partir de 2020 dans les data centers et au sein des rĂ©seaux, mobiles notamment.
La production des nouveaux types dâĂ©quipements et le trafic ralentissent, tandis que le rythme de gain dâefficacitĂ© Ă©nergĂ©tique reste identique Ă celui observĂ© historiquement de 2013 Ă 2019. Ce scĂ©nario, qui implique une rupture significative dans les modes de consommation numĂ©rique, se traduit par une stabilisation des Ă©missions de gaz Ă effet de serre.
«Toujours plus ! », affirmait un succĂšs de librairie au dĂ©but des annĂ©es 1980. Câest assurĂ©ment vrai du numĂ©rique, omniprĂ©sent dans notre quotidien, et qui devrait lâĂȘtre de plus en plus. Ses impacts environnementaux dĂ©jĂ parvenus Ă des niveaux alarmants sont appelĂ©s Ă augmenter encore. Le sujet est dâautant plus prĂ©occupant que de nouvelles technologies comme lâintelligence artificielle, la blockchain ou les objets connectĂ©s augmenteront la demande en Ă©nergie et en Ă©quipements numĂ©riques.
La tendance est là , mais les impacts environnementaux du numérique restent néanmoins
difficiles Ă Ă©valuer. Les raisons sont multiples : la complexitĂ© des systĂšmes, lâhĂ©tĂ©rogĂ©nĂ©itĂ© des architectures et des infrastructures, la multitude des technologies, des impacts et des acteurs⊠Autre Ă©cueil Ă cette Ă©valuation, les effets rebonds par lesquels une hausse de la consommation des biens et des services contrebalance les progrĂšs technologiques : de fait, lâaugmentation des dĂ©bits des rĂ©seaux a induit des applications consommant plus de donnĂ©es.
Cette évaluation est pourtant essentielle pour tendre vers une utilisation plus responsable et raisonnée du numérique et aider le citoyen à changer ses usages. Seule une approche systémique per -
LâĂ©valuation de lâempreinte environnementale du numĂ©rique reste approximative. Pour y remĂ©dier, les recherches se multiplient, les contenus pĂ©dagogiques sâĂ©toffent et la lĂ©gislation Ă©volue.>
Benjamin NinassiAdjoint au responsable du programme Environnement et NumĂ©rique chez Inria Auteur Le mooc « Impacts environnementaux du numĂ©rique » (ici, une copie dâĂ©cran) aide tout un chacun Ă prendre conscience de lâempreinte environnementale des Ă©quipements numĂ©riques⊠et Ă la diminuer.
mettrait Ă la fois dâapprĂ©hender et de privilĂ©gier les dĂ©marches low tech, de distinguer les gains dâefficacitĂ© des impĂ©ratifs de sobriĂ©tĂ© et dâanticiper les indĂ©sirables effets rebonds.
La prise de conscience est le premier pas. Et câest le sens par exemple du mooc (cours en ligne massivement ouvert) de sensibilisation aux impacts environnementaux du numĂ©rique, rĂ©alisĂ© par Inria en partenariat avec lâassociation ClassâCode et sous lâimpulsion de la direction du NumĂ©rique pour lâĂ©ducation (DNE). Disponible gratuitement en français et en anglais sur la plateforme France UniversitĂ© NumĂ©rique, il est accessible au grand public et peut servir de support aux professeurs dâinformatique pour introduire ces notions dans leurs enseignements. ParallĂšlement, afin de sensibiliser lâensemble des acteurs du monde professionnel, Inria Academy lâa dĂ©clinĂ© en une formation adaptĂ©e aux entreprises.
Ă plus grande Ă©chelle, le gouvernement a nommĂ© le 14 novembre 2022 un haut comitĂ© sur le numĂ©rique Ă©coresponsable, chargĂ© dâĂ©tablir dâici au printemps 2023 une feuille de route sur la dĂ©carbonation de la filiĂšre numĂ©rique. GrĂące Ă son expertise, Inria appuie ces politiques publiques. Lâinstitut participe Ă©galement aux actions portĂ©es par lâAdeme, dont un projet menĂ© en partenariat avec EcoInfo pour renforcer le dĂ©ploiement de la sobriĂ©tĂ© numĂ©rique sur le territoire par des actions de sensibilisation et de formation, des mĂ©thodologies standardisĂ©es et des outils pour les mettre en Ćuvre.
Des solutions opĂ©rationnelles voient le jour et accompagnent cette prise de conscience. Parmi elles, citons le « RĂ©fĂ©rentiel gĂ©nĂ©ral dâĂ©coconception de services numĂ©riques », destinĂ© Ă aider les concepteurs dâun service numĂ©rique Ă rĂ©duire la consommation en ressources informatiques et Ă©nergĂ©tiques, ainsi que la contribution Ă lâobsolescence des Ă©quipements. Autre exemple, le guide « Bonnes pratiques â NumĂ©rique responsable pour les organisations » sâadresse Ă toute personne en relation avec les systĂšmes dâinformation.
Ces deux documents ont Ă©tĂ© publiĂ©s, respectivement en juin 2021 et fĂ©vrier 2022, dans le cadre de la mission interministĂ©rielle NumĂ©rique Ă©coresponsable avec lâappui de nombreux contributeurs.
Des projets de recherche sont par ailleurs menĂ©s en partenariat entre les mondes acadĂ©mique et industriel, comme Distiller, entre Inria, OVHcloud et Orange, sur la rĂ©duction des impacts des infrastructures cloud , ou encore le DĂ©fi Pulse, pour la valorisation de la chaleur fatale liĂ©e au calcul haute performance Ă©tudiĂ©e par Inria et Qarnot Computing (voir lâarticle page 60)
Les exigences lĂ©gales Ă©voluent de mĂȘme, au niveau français comme europĂ©en. Par exemple, la loi Reen du 15 novembre 2021 vise Ă rĂ©duire lâempreinte environnementale du numĂ©rique en France. Pour ce faire, deux leviers ont Ă©tĂ© introduits : lâobligation pour les collectivitĂ©s de plus de 50 000 habitants dâĂ©laborer une stratĂ©gie numĂ©rique responsable et pour les formations initiales dâingĂ©nieur dâinclure un module sur lâĂ©coconception de services numĂ©riques.
Lâenjeu est de taille. Il sâagit dâintroduire les pratiques dâĂ©coconception by design , câest-Ă -dire dĂšs la conception, dans la mise en place de tout service numĂ©rique et, surtout, de former les ingĂ©nieurs au technodiscernement afin de proposer un avenir technologiquement raisonnĂ©, rĂ©silient et inclusif.
> Scannez ce QR code pour découvrir le mooc « Impacts environnementaux du numérique ».
LâĂ©coconception est dâautant plus cruciale quâelle touche directement Ă la lutte contre lâobsolescence matĂ©rielle et logicielle, contribue Ă la sobriĂ©tĂ© numĂ©rique et favorise la rĂ©duction de la fracture numĂ©rique. Mais, sâil doit devenir naturel Ă chacun de privilĂ©gier des solutions low tech , il est avant tout nĂ©cessaire de questionner la pertinence du besoin en amont de la conception. Autrement dit, la rĂ©duction des impacts environnementaux du numĂ©rique est loin de se limiter Ă cibler des gains dâefficacitĂ© technique. Elle nĂ©cessite que toutes les parties prenantes soient formĂ©es : architectes, dĂ©veloppeurs, designers, chefs de projet, mais aussi utilisateurs et maĂźtres dâouvrage, en considĂ©rant lâintĂ©rĂȘt dâun service numĂ©rique avant de chercher Ă en amĂ©liorer lâefficacitĂ©. Une rĂ©flexion que chacun devrait menerâŠ
Pour en savoir +
Publications de la mission interministérielle Numérique écoresponsable : https://ecoresponsable.numerique.gouv.fr/publications/
Le « RĂ©fĂ©rentiel gĂ©nĂ©ral dâĂ©coconception de services numĂ©riques : https://ecoresponsable.numerique.gouv.fr/publications/referentiel-general-ecoconception/ Le guide « Bonnes pratiques â NumĂ©rique responsable pour les organisations » : https://ecoresponsable.numerique.gouv.fr/publications/bonnes-pratiques/
DĂ©sormais, toute collectivitĂ© de plus de 50 000 habitants se doit dâĂ©laborer une stratĂ©gie
> Daniel Romero
IngĂ©nieur de recherche en informatique dans lâĂ©quipe-projet Spirals, chez Inria.
Auteurs
> Romain RouvoyEnseignant-chercheur en informatique au Centre de recherche en informatique, signal et automatique de Lille (CRIStAL), universitĂ© de Lille, CNRS, membre de lâĂ©quipeprojet Spirals dâInria.
Les algorithmes de nos applications et logiciels sont parfois trÚs énergivores. Comment les rendre plus frugaux ?
En estimant en temps réel leur consommation énergétique grùce à des outils innovants, les wattmÚtres virtuels.
Ănâen pas douter, le secteur du numĂ©rique est ce que les Grecs appelaient un pharmakon , câest-Ă -dire Ă la fois un remĂšde et un poison. Dans son rapport de 2020, la Convention citoyenne pour le climat pointait cette situation paradoxale. Ses auteurs insistaient sur lâambivalence du numĂ©rique, outil clĂ© de la transition Ă©cologique, mais aussi moteur de la hausse des Ă©missions de gaz Ă effet serre (GES). De fait, comme lâindique dans un rapport la Commission de lâamĂ©nagement du territoire et du dĂ©veloppement durable du SĂ©nat, la part des Ă©missions de GES du numĂ©rique en France est de 2,5 %. Et, si rien nâest fait, ce chiffre augmentera jusquâĂ atteindre 6,7 % en 2040 ! Soit une valeur supĂ©rieure aux Ă©missions du transport aĂ©rien en France, estimĂ©e Ă 4,7 %.
Fait notable, 81 % de ces Ă©missions liĂ©es au secteur du numĂ©rique sont dues Ă la fabrication de terminaux Ă©lectroniques : smartphones, ordinateurs, imprimantes, Ă©crans, consoles de jeux⊠Viennent ensuite les centres de donnĂ©es (14 %) et les rĂ©seaux (5 %). Ă cet Ă©gard, les fournisseurs de cloud, comme OVHcloud (voir lâarticle page 56) ou Qarnot computing (voir lâarticle page 60), mĂšnent des actions visant Ă diminuer leur impact environnemental par le recours aux Ă©nergies renouvelables, lâoptimisation de leurs composants
Ă©lectroniques, le refroidissement de leurs serveurs⊠Tous ces efforts se concentrent essentiellement sur le matĂ©riel Ă©lectronique, Ă©ludant un autre aspect fondamental de la consommation Ă©nergĂ©tique des data centers : les logiciels et algorithmes qui sây exĂ©cutent. Il y a pourtant lĂ une rĂ©elle piste dâamĂ©lioration et dâoptimisation. Par exemple, pour un mĂȘme logiciel, la consommation Ă©nergĂ©tique peut varier dâun facteur 100 selon le langage de programmation utilisĂ© (voir lâencadrĂ© page 54), comme C, PythonâŠ
Câest tout lâenjeu de lâinformatique dite « frugale » : concevoir des logiciels, des applications, des algorithmes moins Ă©nergivores, ou imaginer des configurations plus durables. Mais encore faut-il ĂȘtre capable de mesurer et donc dâidentifier au prĂ©alable dâoĂč vient le problĂšme de consommation dâĂ©nergie. Lorsquâon interroge les dĂ©veloppeurs sur les difficultĂ©s quâils rencontrent pour crĂ©er des logiciels Ă©coconçus, lâune de leurs principales rĂ©ponses est lâabsence dâoutils pour quantifier la consommation Ă©nergĂ©tique des diffĂ©rentes parties de leur code ou de leur logiciel.
Il existe certes des wattmĂštres pour Ă©valuer la consommation Ă©nergĂ©tique dâĂ©quipements Ă©lectroniques comme les serveurs des data centers. Mais le
problĂšme avec ce genre dâapproche est le coĂ»t de leur dĂ©ploiement Ă grande Ă©chelle, car il faudrait Ă©quiper chaque serveur dâun wattmĂštre, et ce que lâon appelle « la granularitĂ© de la mesure ». En effet, ces outils mesurent la consommation globale dâun serveur en considĂ©rant lâensemble de ses composants : processeur, mĂ©moire vive, disque dur, carte graphique, carte rĂ©seau⊠et, bien entendu, tous les logiciels qui sây exĂ©cutent. Cette mesure globale rend complexe, voire impossible, toute estimation de la contribution respective de chaque couche logicielle dans cette consommation Ă©nergĂ©tique.
Une approche innovante consiste Ă mettre au point des wattmĂštres « virtuels » : des outils numĂ©riques capables de mesurer ou dâestimer finement la consommation Ă©nergĂ©tique dâun logiciel ou dâun processus informatique au sein dâun processeur. Le but est dâidentifier les sous-couches logicielles ou les processus les plus Ă©nergivores. Câest
tout lâobjet des recherches que nous menons dans notre Ă©quipe-projet Spirals au Centre de recherche en informatique, signal et automatique de Lille (CRIStAL) et au centre Inria de lâuniversitĂ© de Lille.
Depuis 2012, nous avons mis au point un systĂšme baptisĂ© PowerAPI, disponible en open source sur la plateforme GitHub, que nous avons imaginĂ© comme une boĂźte Ă outils permettant Ă quiconque dâassembler des wattmĂštres virtuels Ă la demande, en fonction de ses besoins. Les cas dâusage de PowerAPI ciblent notamment le suivi de la consommation de services logiciels dĂ©ployĂ©s dans des infrastructures virtualisĂ©es du cloud computing
Les wattmĂštres que nous mettons en place avec cette technologie sont constituĂ©s de quatre briques Ă©lĂ©mentaires : une sonde, une source, une formule et une destination. Ces termes un peu techniques dĂ©crivent une architecture finalement assez simple. La sonde est un logiciel dĂ©veloppĂ© dans le langage de programmation C et peut ĂȘtre installĂ©e sur toute machine (du serveur de data center jusquâĂ lâordinateur personnelâŠ) dont on veut mesurer la consommation Ă©nergĂ©tique. Cette sonde est reliĂ©e au processeur et reçoit ainsi des indicateurs de performances matĂ©rielles corrĂ©lĂ©es avec la consommation dâĂ©nergie du serveur ciblĂ©. Ces indicateurs sont ensuite stockĂ©s dans une source, en lâoccurrence des fichiers textes ou des systĂšmes de gestion de bases de donnĂ©es comme MongoDB, afin dâĂȘtre ensuite utilisĂ©s dans une « formule ». Cette formule est en fait un
Un ordinateur est « trĂšs bĂȘte » : on ne sâen rend pas compte en tant quâutilisateur, car tout est trĂšs rapide, mais ils exĂ©cutent de nombreuses actions inutilesPowerAPI aide Ă mesurer la consommation Ă©nergĂ©tique dâun processus systĂšme afin de faciliter la prise en compte des bonnes pratiques dâĂ©coconception logicielle.
Y a-t-il des langages informatiques Ă privilĂ©gier pour faire des Ă©conomies dâĂ©nergie ?
Lors dâune confĂ©rence internationale dâinformatique (ACM Sigplan), organisĂ©e en 2017 Ă Vancouver, des chercheurs en informatique avaient publiĂ© un tableau des langages de programmation associĂ©s Ă leur impact Ă©nergĂ©tique, permettant dâidentifier lesquels sont les plus efficients. Globalement, il en ressort que les langages dits « compilĂ©s », comme le C ou le C++, plus proches du fonctionnement des machines (ordinateurs, serveursâŠ), sont moins consommateurs dâĂ©nergie que les langages dits « interprĂ©tĂ©s », comme le Python. Et pour cause ! Cette famille fait appel Ă un petit programme informatique intermĂ©diaire qui, Ă la façon dâun interprĂšte Ă lâONU, traduit en temps rĂ©el le langage Python en des instructions comprĂ©hensibles pour un ordinateur. Ainsi le C est 75 fois moins Ă©nergivore que le Python.
Est-ce Ă dire quâun langage est Ă privilĂ©gier par rapport Ă un autre ?
Non, il nây en a pas de meilleur dans lâabsolu ! Il faut adopter le meilleur langage pour un contexte donnĂ©. Par ailleurs, les dĂ©veloppeurs ont souvent des prĂ©fĂ©rences. Les spĂ©cialistes du machine learning vont plutĂŽt utiliser Python, par exemple. Ce langage est bien adaptĂ© Ă leurs applications, ils sont Ă lâaise avec, ils le connaissent bien⊠Difficile dans ces conditions de les convaincre de changer. MalgrĂ© tout, il existe des solutions moins radicales pour les accompagner dans une dĂ©marche de sobriĂ©tĂ©.
Que peuvent-ils mettre en place pour rendre leurs algorithmes plus frugaux ?
Je vois trois grands leviers pour réduire la consommation des
algorithmes utilisant des langages gourmands en Ă©nergie. Le premier consiste Ă optimiser ce que lâon appelle lâ« environnement dâexĂ©cution » et son paramĂ©trage. Lâenvironnement dâexĂ©cution est un logiciel grĂące auquel un algorithme fonctionne dans ce langage. Il est associĂ© Ă un « interprĂ©teur », dont le rĂŽle est, comme je le disais, de traduire un langage donnĂ© en instructions comprĂ©hensibles pour un ordinateur. Or il existe plusieurs types dâinterprĂ©teurs et le choix de ce dernier a une grande incidence sur le coĂ»t Ă©nergĂ©tique. Pour reprendre lâexemple du Python, selon lâinterprĂ©teur, ce coĂ»t peut ĂȘtre divisĂ© par dix. Par ailleurs, souvenons-nous quâun ordinateur mĂȘme trĂšs puissant est « trĂšs bĂȘte » : on ne sâen rend pas compte en tant quâutilisateur, car tout est trĂšs rapide, mais nos ordinateurs exĂ©cutent de nombreuses actions inutiles. Le paramĂ©trage de lâenvironnement dâexĂ©cution aide Ă les minimiser. Cette optimisation pourrait sâappuyer sur des wattmĂštres virtuels comme PowerAPI.
Ă terme, il est possible dâimaginer un systĂšme qui transmette une information sur la consommation Ă©nergĂ©tique de chaque ligne de code, associĂ© Ă un systĂšme de recommandation pour aider les dĂ©veloppeurs Ă rendre leurs algorithmes plus frugaux. Un de nos thĂ©sards a dâailleurs travaillĂ© sur lâintĂ©gration de cette dimension Ă©nergĂ©tique dans les environnements dâexĂ©cution du langage Python.
DeuxiĂšme levier : Ă©viter de recalculer ce qui a dĂ©jĂ Ă©tĂ© calculĂ©, en mettant en jeu des mĂ©moires qui conservent le rĂ©sultat dâun calcul afin de le rĂ©utiliser. TroisiĂšme levier : jouer sur la prĂ©cision des calculs. Pourquoi avoir une prĂ©cision avec dix chiffres aprĂšs la virgule alors quâun arrondi Ă lâentier supĂ©rieur a la mĂȘme efficacitĂ© ?
algorithme dâapprentissage statistique qui analyse ces indicateurs bruts pour estimer la consommation du serveur avec prĂ©cision. Nous avons en particulier mis au point un modĂšle numĂ©rique nommĂ© SmartWatts, capable de capturer en temps rĂ©el et de façon intelligente la dynamique du processeur, afin dâestimer la consommation Ă©nergĂ©tique de chaque processus logiciel. Enfin, ces estimations sont stockĂ©es dans une base de donnĂ©es, la destination. Toutes ces informations peuvent alors faire lâobjet dâune analyse fine afin dâidentifier sur quel Ă©lĂ©ment faire levier pour rĂ©duire la consommation Ă©nergĂ©tique dâune application ou dâun logiciel.
En 2022, nous avons proposĂ© une dĂ©monstration de cet outil Ă EuraTechnologies, un incubateur et accĂ©lĂ©rateur de start-up, Ă Lille. Il sâagissait dâestimer en temps rĂ©el la consommation sur un ordinateur portable et un serveur. Sur lâordinateur, deux navigateurs (Firefox et Chromium) ont Ă©tĂ© utilisĂ©s pour accĂ©der aux mĂȘmes applications internet : une application dâe-commerce et un rĂ©seau social de type Facebook, lesquelles sâexĂ©cutaient sur un serveur hĂ©bergĂ© par Inria. Nous avons ainsi pu comparer la consommation de ces deux navigateurs (Chromium est le moins Ă©nergivore) pour une mĂȘme application cible, de mĂȘme que la consommation individuelle des diffĂ©rents services logiciels qui composent ces applications internet potentiellement complexes.
Ătant donnĂ© le contexte actuel liĂ© aux enjeux de sobriĂ©tĂ© Ă©nergĂ©tique, diffĂ©rents partenaires de lâindustrie ont montrĂ© leur intĂ©rĂȘt pour PowerAPI. GrĂące au soutien dâInria et en cohĂ©rence avec son programme NumĂ©rique et environnement, lancĂ© fin 2022, un consortium a Ă©tĂ© créé avec trois autres
En 2022, lâoutil SmartWatts, capable de capturer en temps rĂ©el et de façon intelligente la dynamique dâun processeur, a Ă©tĂ© prĂ©sentĂ© Ă EuraTechnologies, Ă Lille.
DĂ©but 2022, lâAgence nationale de recherche (ANR) a dĂ©cidĂ© de financer, pour quarante-deux mois, le programme de recherche Distiller (recommender service for sustainable cloud native software), menĂ© par Inria (lâĂ©quipe-projet Spirals), en association avec le cabinet Davidson consulting et les prestataires de services cloud OVHcloud et Orange. Il sâagit dâabord dâanalyser lâĂ©cosystĂšme des logiciels cloud afin de proposer des modĂšles de configuration optimisĂ©s Ă lâaide de diffĂ©rents algorithmes dâintelligence artificielle. Autre objectif poursuivi, lâĂ©tude de lâensemble des couches dâune application cloud native, depuis lâinfrastructure physique au code informatique, avec lâambition de rĂ©duire drastiquement lâempreinte environnementale en proposant une nouvelle gĂ©nĂ©ration de logiciels.
membres fondateurs : OVHcloud, Davidson consulting, et Orange. Celui-ci a pour objectif de financer le dĂ©veloppement et la maintenance de PowerAPI comme un ensemble dâoutils sous licence libre.
Nous pouvons Ă©galement citer deux projets phares articulĂ©s autour de PowerAPI : le DĂ©fi Pulse, avec la sociĂ©tĂ© Qarnot computing, qui cherche Ă valoriser les Ă©missions du calcul intensif, et le projet Distiller (voir lâencadrĂ© ci-dessus) , financĂ© par lâAgence nationale de la recherche (ANR) et dont lâobjectif est de rĂ©duire la consommation Ă©nergĂ©tique des applications dans le cloud . LâidĂ©e est de dĂ©terminer quels langages de programmation, bibliothĂšques, configurations, infrastructures seraient optimaux pour dĂ©velopper un cloud avec la plus grande efficacitĂ© Ă©nergĂ©tique. En utilisant notre wattmĂštre virtuel, nous espĂ©rons ainsi construire empiriquement un indicateur de durabilitĂ© Ă destination des ingĂ©nieurs. Ils disposeront alors de toutes les informations nĂ©cessaires pour concevoir les systĂšmes le plus durables et frugaux possible dĂšs leur conception.
Traduction automatique, reconnaissance de la parole et des images⊠Les algorithmes dâapprentissage profond, ou deep learning , sont dĂ©sormais omniprĂ©sents dans nos usages numĂ©riques (voir lâarticle page 62) . Mais Ă quel coĂ»t ? Pour ĂȘtre efficaces en pratique, ces algorithmes sont entraĂźnĂ©s au prĂ©alable sur des milliers, voire des millions de donnĂ©es. Dans cette phase dâapprentissage, les algorithmes optimisent les paramĂštres dâun modĂšle cible : essai aprĂšs essai, ils utilisent des donnĂ©es dâentraĂźnement en trĂšs grande quantitĂ© pour affiner ce modĂšle afin quâil minimise les erreurs de prĂ©diction. La seconde phase est celle de lâexploitation du modĂšle appris dans des applications telles que la traduction automatique. Des travaux ont mis en Ă©vidence que la premiĂšre phase dâentraĂźnement est extrĂȘmement Ă©nergivore par rapport Ă la seconde. Dans une Ă©tude interne de lâĂ©quipe-projet Spirals, nous avons montrĂ© que ce genre dâalgorithme devait ĂȘtre sollicitĂ© 4 millions de fois avant dâatteindre le coĂ»t Ă©nergĂ©tique de sa phase dâentraĂźnement ! Autre rĂ©sultat, lâimpact carbone dâun tel apprentissage peut reprĂ©senter cinq fois la durĂ©e de vie dâune voiture !
> Scannez ce QR code pour découvrir comment réduire notre empreinte numérique.
Un levier parmi dâautres pour encourager lâutilisation dâalgorithmes dâapprentissage plus frugaux serait dâĂ©viter de pousser la phase dâapprentissage Ă son maximum, les derniĂšres Ă©tapes Ă©tant les plus gourmandes en Ă©nergie. Pour gagner un dixiĂšme de prĂ©cision, on double facilement lâĂ©nergie consommĂ©e depuis le dĂ©but de lâapprentissage. LâintĂ©rĂȘt de cet investissement est Ă©vident dans le cadre dâune application mĂ©dicale, comme la dĂ©tection de tumeurs, mais cela est questionnable lorsquâil sâagit dâamĂ©liorer le ciblage des utilisateurs dans le contexte de la publicitĂ© en ligne. Le partage de modĂšles appris est aussi une piste Ă encourager de façon plus systĂ©matique, avec lâidĂ©e de « rentabiliser » le coĂ»t dâun apprentissage en rĂ©utilisant le modĂšle aussi souvent que possible. Heureusement, la communautĂ© du machine learning a pris conscience de cette problĂ©matique environnementale et il y a fort Ă parier que cela se traduira par de nombreuses innovations.
Lâessor du cloud, ou « informatique dans les nuages », fait exploser les besoins en data centers. RĂ©sultat ?
Leur consommation Ă©nergĂ©tique devient stratosphĂ©rique, malgrĂ© dâindĂ©niables progrĂšs dans le refroidissement des serveurs. Des solutions existent pour les mettre au rĂ©gime.
Propre, Ă©conome en Ă©nergie comme en carbone, la rĂ©volution numĂ©rique avait Ă©tĂ© vendue comme ayant beaucoup dâattraits. La rĂ©alitĂ© est plus nuancĂ©e. Selon une Ă©tude publiĂ©e en 2020 par le Shift Project, nos appareils numĂ©riques consommaient en 2017 prĂšs de 14 % de lâĂ©lectricitĂ© mondiale, augmentant chaque annĂ©e leur consommation globale dâenviron 10 %. Quant Ă leurs Ă©missions de gaz Ă effet de serre, elles dĂ©passeraient celles du transport aĂ©rien.
Parmi les infrastructures les plus gourmandes, les data centers se taillent la part du lion. Ces vastes entrepĂŽts de milliers de serveurs font partie des Ă©quipements qui ont vu leur consommation Ă©lectrique augmenter le plus. Pourtant les grands du secteur, comme Google, Amazon, Microsoft ou, en Europe, OVHcloud, avec qui Inria a signĂ© un partenariat stratĂ©gique (voir lâencadrĂ© page 59), affirment faire de gros efforts. Pour des raisons Ă©conomiques â lâĂ©lectricitĂ© coĂ»te cher â mais aussi pour revendiquer un moindre impact environnemental. Avec quels rĂ©sultats ?
« Câest difficile dâaccĂ©der aux donnĂ©es de consommation des data centers, car elles font souvent partie du secret des affaires. Du coup les experts ne sont pas dâaccord entre eux. Certains estiment que leur consommation Ă©lectrique sâest stabilisĂ©e. Dâautres quâelle a au contraire augmentĂ©. Mais si on prend la consommation Ă©lectrique officielle de Google,
elle a plus que doublĂ© entre 2016 et 2020 », observe Anne-CĂ©cile Orgerie, chercheuse CNRS au laboratoire Irisa (Institut de recherche en informatique et systĂšmes alĂ©atoires), membre de lâĂ©quipe-projet Myriads dâInria. Et celle de Facebook a plus que triplĂ© sur cette mĂȘme pĂ©riode.
Les experts sont au moins dâaccord sur un point : les data centers ont beaucoup progressĂ© dans lâefficacitĂ© Ă©nergĂ©tique de leurs bĂątiments. Des progrĂšs mesurĂ©s par le PUE (power usage effectiveness), qui indique combien de watts sont consommĂ©s par lâinstallation pour fournir un watt en bout de chaĂźne Ă chaque serveur. « Aujourdâhui, on est Ă un PUE de 1,30, lĂ oĂč on Ă©tait Ă plus de 2 Ă la fin des annĂ©es 2000 », souligne Romain Rouvoy, professeur au dĂ©partement dâinformatique de lâuniversitĂ© de Lille et membre de lâĂ©quipeprojet Spirals dâInria. Un gain dâefficacitĂ© spectaculaire dĂ» Ă des mĂ©thodes plus performantes de refroidissement des serveurs, lâun des postes les plus Ă©nergivores.
La plus simple consiste Ă installer ces data centers dans des rĂ©gions fraĂźches pour bĂ©nĂ©ficier dâun air naturellement froid. Câest ce quâont fait les Gafam en plaçant des centres de calcul en Finlande ou en Islande. Mais la simplicitĂ© a des limites : comme leurs utilisateurs se trouvent pour la plupart beaucoup plus
au sud, il faut dĂ©rouler des milliers de kilomĂštres de cĂąbles et augmenter dâautant les temps de latence.
Dans les rĂ©gions plus chaudes, la climatisation sâimpose. Les premiers data centers utilisaient des procĂ©dĂ©s classiques, qui soufflent de lâair froid dans le bĂątiment par un faux plancher et aspirent lâair chaud pour le refroidir par compression dâun fluide rĂ©frigĂ©rant. Comme les climatisations de maison.
Des premiers progrĂšs sont venus avec le watercooling, qui fait circuler de lâeau froide Ă lâintĂ©rieur de chaque serveur. Des tuyaux lâamĂšnent Ă proximitĂ© des processeurs, qui sont les parties les plus chaudes. « Il faut une grosse infrastructure. Les centres de calcul de Google, en Caroline du Sud, utilisent 900 000 litres dâeau ! Mais câest beaucoup plus efficace quâun refroidissement par air. Google est parvenu Ă atteindre un PUE de 1,10 fin 2021 », note Anne-CĂ©cile Orgerie.
Une autre technique permet de faire encore mieux : le liquid-cooling, qui immerge cette fois les serveurs dans des bains dâhuile. « Lâhuile circule pour Ă©vacuer
la chaleur, mais comme les Ă©changes thermiques sont bien meilleurs quâavec lâeau, elle nâa pas besoin de circuler beaucoup. Et donc ça nĂ©cessite bien moins dâĂ©lectricitĂ©, tout en fournissant une tempĂ©rature plus homogĂšne », explique lâinformaticienne.
Des combinaisons mixtes associent une climatisation centrale classique et des circuits dâeau secondaires pour refroidir lâair chaud. Mais avec un PUE de lâordre de 1,10, il va ĂȘtre difficile de descendre plus bas. « Il faut sâattaquer Ă la partie difficile, la consommation des serveurs eux-mĂȘmes », prĂ©vient donc Anne-CĂ©cile Orgerie. Faire en sorte que chaque watt qui arrive dans la machine soit Ă son tour utilisĂ© plus efficacement.
Dâabord en nâallumant que les serveurs nĂ©cessaires. Car un serveur allumĂ©, mĂȘme lorsquâil ne fait rien, dĂ©pense dĂ©jĂ jusquâĂ prĂšs de la moitiĂ© de sa consommation Ă pleine puissance. Pourquoi ne pas lâĂ©teindre ? Le problĂšme est quâil mettra jusquâĂ trois minutes pour se remettre en route. « Or on a perdu
Un serveur allumĂ©, mĂȘme lorsquâil ne fait rien, dĂ©pense dĂ©jĂ jusquâĂ prĂšs de la moitiĂ© de sa consommation Ă pleine puissanceComment rĂ©duire la consommation Ă©nergĂ©tique des serveurs ?
Expert en empreinte environnementale chez Orange
Vous Ă©tudiez lâimpact environnemental global des data centers. Leur consommation Ă©lectrique est-elle le paramĂštre le plus pertinent ?
La rĂ©ponse est trĂšs variable selon la gĂ©nĂ©ration de matĂ©riel et le type dâĂ©lectricitĂ© utilisĂ©e. Sur les derniers data centers dâOrange, nous avons amĂ©liorĂ© le refroidissement en les installant en Normandie, oĂč nous utilisons au maximum lâair frais extĂ©rieur. LâefficacitĂ© Ă©nergĂ©tique, le PUE, y est dĂ©sormais de 1,30 (1,30 watt consommĂ© pour fournir 1 watt aux serveurs) lĂ oĂč nous pouvions ĂȘtre Ă 2 il y a vingt ans. Câest donc la fabrication des Ă©quipements qui est devenue le plus impactante, et qui reprĂ©sente aujourdâhui 70 Ă 80 % de lâempreinte environnementale, parce que vous ĂȘtes dans un data center trĂšs rĂ©cent qui utilise une Ă©lectricitĂ© dĂ©carbonĂ©e. Mais sur un vieux data center en Allemagne, vous pouvez facilement inverser le ratio avec 80 % sur lâĂ©nergie et 20 % sur la fabrication.
Vous vous occupez plutĂŽt de la partie logicielle. Quâa fait Orange dans ce domaine ?
Nous avons dâabord cherchĂ© Ă savoir combien consommait un logiciel ou tel composant dâun logiciel. Câest trĂšs compliquĂ© car il faut rĂ©ussir Ă subdiviser la consommation et lâattribuer Ă un morceau de code ou Ă un autre. Câest ce que fait lâapplication PowerAPI, dĂ©veloppĂ©e avec Inria et lâuniversitĂ© de Lille. La suite logique de ces travaux, câest que ces Ă©lĂ©ments logiciels consomment moins. On y travaille dans le cadre du projet collaboratif Distiller, auquel participe le groupe OVH, Inria, et Davidson Consulting. Il faut que les logiciels tirent profit de la mutualisation des ressources, quâils permettent de dĂ©placer des charges de travail dans le temps et dans lâespace en fonction des critĂšres Ă©nergĂ©tiques
et environnementaux. Et jouent sur la sobriété, en faisant à la fois moins et de maniÚre plus efficace.
Et développer des programmes sur mesure ?
Câest une question sur laquelle nous travaillons : Ă quel moment vaut-il mieux dĂ©velopper soi-mĂȘme quelque chose qui soit plus efficace et rĂ©ponde strictement Ă son besoin â mais cela a un coĂ»t financier et environnemental â, ou prendre quelque chose dâexistant, qui ira au-delĂ des besoins, mais sur lequel la phase de dĂ©veloppement a Ă©tĂ© mutualisĂ©e ? Notre intuition est que pour un programme trĂšs utilisĂ©, il doit ĂȘtre intĂ©ressant de faire du sur-mesure, mais quand le niveau dâutilisation est plus intermĂ©diaire, utiliser des briques plus gĂ©nĂ©riques, des frameworks, reste trĂšs utile.
Comment trouver lâĂ©quilibre entre performance et Ă©cologie ? Quand on travaille sur lâefficacitĂ©, les deux ne sont pas contradictoires. Utiliser un mix Ă©nergĂ©tique bas carbone, amĂ©liorer le refroidissement, mutualiser les infrastructures permet de rĂ©pondre aux besoins avec un moindre impact environnemental. Notre responsabilitĂ© est dâĂȘtre le plus efficace possible, mais ce nâest quâune moitiĂ© de lâĂ©quation. Lâautre moitiĂ©, câest la sobriĂ©tĂ© : il faut que le client, quelque part, nous en demande moins. La prise de conscience est nĂ©anmoins en train de se gĂ©nĂ©raliser. Câest une tendance de fond parce que tout le monde se rend compte quâon nâa pas le choix, que ce soit sur la partie Ă©nergĂ©tique, en particulier ces derniers mois durant lesquels nous avons tous vu des changements dans nos factures, que sur la partie environnementale. Nous avons de plus en plus de demandes de nos clients sur ces aspects. Câest un cercle vertueux qui incite tout le monde Ă faire face Ă cette question.
lâhabitude dâattendre un service internet. Tout doit ĂȘtre disponible tout de suite, Ă la seconde prĂšs. Les serveurs restent donc tout le temps allumĂ©s. Si on veut les Ă©teindre, il faut arriver Ă prĂ©dire le trafic. Ce qui nâest pas si compliquĂ© parce quâil est trĂšs pĂ©riodique. Avec des algorithmes simples, on peut allumer et Ă©teindre les serveurs au bon moment », souligne la chercheuse. Reste Ă convaincre les administrateurs systĂšmes quâĂ©teindre frĂ©quemment leurs serveurs ne causera pas plus de pannes. « Nous avons dĂ©montrĂ© sur nos propres infrastructures de calculs que leurs craintes ne sont pas fondĂ©es », insiste-t-elle.
Mais on peut aller plus loin, en mutualisant les ressources. « Un serveur aplatit sa consommation quand on le sollicite beaucoup. Cinq machines utilisĂ©es Ă 20 % consomment donc beaucoup plus quâune seule machine utilisĂ©e Ă 100 % », calcule Romain Rouvoy. DâoĂč lâintĂ©rĂȘt de partager un mĂȘme serveur entre clients.
La virtualisation permet aujourdâhui de faire tourner plusieurs systĂšmes dâexploitation de façon indĂ©pendante et cloisonnĂ©e, sur un mĂȘme ordinateur divisĂ© en autant de « machines virtuelles ». Alors quâil fallait auparavant un serveur physique diffĂ©rent pour chaque tĂąche, il est possible depuis les annĂ©es 2010 de simuler plusieurs serveurs totalement indĂ©pendants sur une mĂȘme machine.
« Mais pour mutualiser efficacement, il faut reproduire au niveau du logiciel lâoptimisation Ă©nergĂ©tique quâon a rĂ©ussi Ă faire sur les infrastructures, note Romain Rouvoy. Si le service a besoin dâun watt, il faut que lâordinateur qui le propose ne consomme lui-mĂȘme idĂ©alement quâun watt. » Et donc quâil ne sâĂ©parpille pas Ă faire des tĂąches inutiles. Comment ?
Dâabord en « Ă©teignant » les machines virtuelles inutilisĂ©es. Car les clients en commandent pour leurs besoins en cloud, mais souvent ne les utilisent pas. Or chaque machine virtuelle consomme des ressources. « Lâenjeu est de regrouper un maximum de services sur un minimum de machines, et dâĂ©teindre les autres », prĂ©cise le chercheur. La plupart des applications sont en effet en mesure de migrer dâune machine virtuelle Ă une autre, dâun serveur Ă un autre, tout en continuant de sâexĂ©cuter. Certaines peuvent aussi ĂȘtre diffĂ©rĂ©es pour sâexĂ©cuter en fond quand les besoins sont faibles, en particulier la nuit.
On imaginait au dĂ©but des annĂ©es 2010 que mutualiser les serveurs allait rĂ©duire leur nombre. Or ce nâest pas du tout ce quâon a observĂ©âŠ
Abaisser la frĂ©quence du microprocesseur quand les besoins en calcul sont modestes diminue sa consommation. Les composants de calcul inutilisĂ©s peuvent ĂȘtre Ă©teints. Et le microprocesseur lui-mĂȘme divisĂ© en processeurs virtuels, Ă©ventuellement proposĂ©s en « surbooking » : comme pour les avions, on vend un peu plus de puissance que celle qui est rĂ©ellement disponible, en misant sur le fait que certains clients nâutiliseront pas celle quâils ont rĂ©servĂ©e.
La mĂ©moire, elle, se partage plus difficilement. Pour des raisons de sĂ©curitĂ© des donnĂ©es, mais aussi parce quâil est difficile dâestimer la quantitĂ© utile pour un service. Le rĂ©flexe est donc de rĂ©server plus, voire beaucoup plus, que nĂ©cessaire. Or la mĂ©moire est en gĂ©nĂ©ral la ressource la plus utilisĂ©e dâun data center. DâoĂč lâimportance de concevoir des logiciels moins gourmands. Et de dĂ©graisser sans pitiĂ© les « obĂ©siciels ».
Comme lâindustrie du logiciel doit produire beaucoup et rapidement, elle utilise en effet souvent des briques standardisĂ©es appelĂ©es frameworks , qui raccourcissent les temps de dĂ©veloppement. « Ces frameworks sont prĂ©vus pour couvrir un maximum de situations et embarquent une Ă©norme boĂźte Ă outils, alors que le programme nâen utilise en fait quâune partie », explique Romain Rouvoy. RĂ©sultat ?
Depuis 2020, Inria, Ă travers de nombreuses Ă©quipes-projets (Avalon, Inocs, Myriads, Spirals, Stack) a lancĂ© un partenariat â on parle de « DĂ©fis » â avec lâun des leaders europĂ©ens du cloud, OVHcloud, installĂ© dans le nord de la France, Ă Roubaix. Lâobjectif est de concevoir un cloud aux impacts environnementaux le plus faibles possible Ă toutes les Ă©tapes de son fonctionnement. Comment cela se concrĂ©tise-t-il ? Dâabord, les serveurs sont refroidis Ă lâeau, et dispensent les installations de climatiseurs. Ensuite, la chaleur dĂ©gagĂ©e sert Ă chauffer les bĂątiments, ainsi que la crĂšche. Dâautres idĂ©es pour diminuer lâempreinte carbone sont Ă lâĂ©tude. De son cĂŽtĂ©, Inria bĂ©nĂ©ficie des installations dâOVHcloud pour tester et valider des stratĂ©gies dĂ©veloppĂ©es par ses Ă©quipes-projets.
Des logiciels de plus en plus gros, qui nĂ©cessitent pour tourner des machines de plus en plus puissantes. « Alors que le service nâa peut-ĂȘtre besoin que de trĂšs peu de ressources en rĂ©alitĂ©, soupire lâexpert en logiciels frugaux. Le dĂ©fi va donc ĂȘtre de mettre ces programmes Ă la diĂšte. Cela nĂ©cessite dâaccepter de dĂ©velopper moins vite, pour concevoir des algorithmes plus efficients et qui consomment moins de mĂ©moire. Ă ceci prĂšs que le client paie pour avoir plus de fonctionnalitĂ©s, plus de performances, pas pour consommer moins. » Tous ces efforts pourraient donc se rĂ©vĂ©ler vains si rien nâĂ©tait fait pour inciter Ă restreindre les usages.
« On imaginait au dĂ©but des annĂ©es 2010 que mutualiser les serveurs allait rĂ©duire leur nombre. Or ce nâest pas du tout ce quâon a observĂ© : les ventes de serveurs ont continuĂ© Ă augmenter. Car lâusage a augmentĂ© encore plus fort », observe Anne-CĂ©cile Orgerie. Plus un service devient efficace et bon marchĂ©, plus on en profite pour en demander plusâŠ
« Nos efforts se heurtent au fait que les fournisseurs dâaccĂšs veulent sâassurer une marge pour pallier une panne de machine ou une augmentation imprĂ©vue de requĂȘtes des clients, ils prĂ©voient donc plus de machines que nĂ©cessaire, qui vont tourner Ă vide une grande partie du temps », insiste Romain Rouvoy. Pour un client dâe-commerce, quelques secondes dâattente sur un site pour quâun nouveau serveur se mette en route signifie pour le marchand des commandes perdues. Il prĂ©fĂšre donc rĂ©server des ressources supplĂ©mentaires, quitte Ă ce quâelles se rĂ©vĂšlent le plus souvent inutiles.
« La piste importante dont on parle peu, câest donc de sensibiliser les utilisateurs Ă rĂ©duire leur usage, confirme Anne-CĂ©cile Orgerie. Les infrastructures de streaming sont dimensionnĂ©es pour les pics du dimanche soir, alors que les nuits du lundi au mardi sont beaucoup plus calmes. Mais tous ces serveurs continuent dâĂȘtre allumĂ©s. On pourrait demander aux utilisateurs de choisir leur vidĂ©o Ă lâavance, le dimanche matin, plutĂŽt que de la regarder tous en direct le soir. » GĂ©nĂ©raliser, en somme, le vieux systĂšme dâheure creuse et dâheure pleine des abonnements Ă©lectriques. Mais les clients suivront-ils ? Car ce sont eux qui, en fin de compte, imposent leurs exigences. « Le grand public est de plus en plus sensible Ă ces questions », veut croire lâinformaticienne. Acceptera-t-il pour autant moins de performance, de rĂ©activitĂ© ou de puissance ? « Câest ce quâon appelle la âsobriĂ©tĂ©â, et ce nâest pas simple, reconnaĂźt la chercheuse. Cela ne veut pas dire quâon va vivre moins bien, mais quâil va falloir renoncer Ă avoir toujours plus. »
Comment lutter contre le gùchis énergétique des centres de données ?
En les rĂ©partissant lĂ oĂč la chaleur quâils produisent peut ĂȘtre valorisĂ©e.
Le numĂ©rique infuse dans toutes les activitĂ©s humaines, et mĂȘme dans les plus personnelles, au point que certains annoncent lâavĂšnement dâ Homo numericus . Un argument souvent entendu en faveur de cette tendance est celui de lâimmatĂ©rialitĂ© du numĂ©rique, de sa virtualitĂ©. Cette idĂ©e a fait long feu, car le matĂ©riel sur lequel sâappuie ce dernier, sâil est invisible dans notre plus proche environnement, existe bel et bien ailleurs.
Cet ailleurs, ce sont les réseaux, les fibres, les cùbles intercontinentaux, les terminaux, et les data centers
Auteurs
Ces « grandes usines du numĂ©rique » maillent nos villes et nos campagnes, et, au-delĂ de leur impact spatial, sont des infrastructures complexes qui doivent rĂ©pondre Ă trois injonctions : garantir une sĂ©curitĂ© absolue, fonctionner sans interruption et ĂȘtre maintenues Ă une tempĂ©rature stable et modĂ©rĂ©e. Dans ce modĂšle traditionnel, on constate un double gĂąchis Ă©nergĂ©tique. La chaleur fatale informatique, câest-Ă -dire la chaleur dĂ©gagĂ©e par tous les Ă©quipements, est le plus souvent perdue, et, pire, de lâĂ©nergie est utilisĂ©e pour sâen dĂ©barrasser ! Mais ce nâest pas une⊠fatalitĂ©.
La sociĂ©tĂ© Qarnot, actrice du cloud français, sâest engagĂ©e en 2010 dans un changement de paradigme, pour limiter la consommation de ressources des data centers et valoriser la chaleur fatale informatique pour chauffer utilement des villes. Par quels moyens ? PlutĂŽt que de concentrer les serveurs en un seul lieu, le data center au sens classique, lâentreprise les distribue et les rĂ©partit dans des sites demandeurs en chaleur : les serveurs deviennent chaudiĂšre ! De la sorte, localement, jusquâĂ 96 % de la chaleur Ă©mise
Il fallait oser penser le « data center » sans ses murs pour parvenir à un modÚle aux consommations de ressources optimisées> Quentin Laurens Directeur des relations extérieures chez Qarnot. > Rémi Bouzel Directeur scientifique chez Qarnot.
Dans cette salle, de lâair froid propulsĂ© Ă lâintĂ©rieur du couloir hermĂ©tiquement clos traverse les serveurs pour diminuer leur tempĂ©rature.
par les serveurs en fonctionnement est rĂ©utilisĂ©e. La solution proposĂ©e est le QBx, un cluster de calcul qui embarque douze serveurs haute performance refroidis par de lâeau circulante. En exĂ©cutant des calculs intensifs pour des clients divers (recherche mĂ©dicale, prĂ©vision mĂ©tĂ©orologique, simulations complexes, IAâŠ) ces serveurs dĂ©gagent de la chaleur emmagasinĂ©e par lâeau de refroidissement, qui est ensuite distribuĂ©e pour ĂȘtre utilisĂ©e. Cette eau portĂ©e Ă plus de 65 °C chauffe aujourdâhui logements et bureaux, piscines, et demain rĂ©seaux de chaleur et industries grandes consommatrices de calories.
Pour relier au mieux les grands consommateurs de chaleur et les clients de calcul informatique, Qarnot a dĂ©veloppĂ© un orchestrateur, le Qware, qui collecte les tĂąches de calcul avant de les distribuer sur lâinfrastructure dĂ©centralisĂ©e. Ce logiciel, accessible par une API (une interface), est une porte dâentrĂ©e pour de nombreux services, par exemple pour des rendus 3D (on parle ici de Software as a Service, ou SaaS).
Ainsi, Qarnot sâappuie sur deux atouts principaux : le premier est la faible empreinte carbone de son service, dâune part, et de ses infrastructures, dâautre part. En effet, outre la valorisation presque intĂ©grale de la chaleur fatale, plus besoin de construire des bĂątiments consacrĂ©s Ă lâactivitĂ© informatique. La clĂ© est la mutualisation dâune seule source dâĂ©nergie pour deux usages : le calcul et la chaleur.
PrĂ©vu pour quatre ans, le DĂ©fi Pulse (pour Pushing low-carbon services towards the edge), mis en place par Inria et Qarnot avec le soutien de lâAdeme, ambitionne de mesurer, comprendre et optimiser les consommations dâĂ©nergie des infrastructures de calcul distribuĂ©es (on parle dâedge computing) comme celles que proposent Qarnot. Ce projet est pensĂ© comme une structure dâexploration permettant de dĂ©velopper une recherche Ă risques. « Notre idĂ©e, câest dâanalyser quelles sont les solutions les plus pertinentes, et quels sont les leviers sur lesquels il faut se pencher, pour rĂ©duire lâimpact des infrastructures tout en maximisant lâutilitĂ© de leurs Ă©missions », indique Romain Rouvoy, professeur Ă lâuniversitĂ© de Lille, membre de lâĂ©quipe-projet Spirals dâInria, et coordinateur du DĂ©fi Pulse avec RĂ©mi Bouzel. Le programme sâarticule autour de deux axes. Dâabord, Ă©valuer les atouts dâune infrastructure distribuĂ©e et de mesurer prĂ©cisĂ©ment les Ă©conomies de consommation par rapport aux modĂšles centralisĂ©s comme les data centers. Ensuite, imaginer diffĂ©rentes stratĂ©gies de rĂ©duction de lâempreinte carbone des calculs, en optimisant la distribution des tĂąches Ă tous les niveaux. Un dĂ©fi des plus vertueux donc.
La performance environnementale dâun data center doit ĂȘtre jugĂ©e Ă lâaune de plusieurs critĂšres : efficacitĂ© Ă©nergĂ©tique, empreinte carbone, consommation dâeau, rĂ©utilisation dâĂ©nergie⊠La performance Ă©nergĂ©tique dâun data center est caractĂ©risĂ©e par lâefficacitĂ© de son utilisation de lâĂ©nergie, notĂ©e PUE. Il sâagit du rapport de sa consommation dâĂ©nergie sur le total de celle quâutilisent les Ă©quipements informatiques. En moyenne, en 2020, les data centers français avaient un PUE de 1,57 (contre plus de 2,5 en 2007). LâidĂ©al Ă©tant de tendre vers 1. LâefficacitĂ© du recyclage de lâĂ©nergie, notĂ©e ERE, rend compte, quant Ă elle, de la rĂ©utilisation dâune partie de lâĂ©nergie produite par le data center, comme la chaleur). Sans rĂ©cupĂ©ration dâĂ©nergie, lâERE est Ă©gale au PUE, sinon, elle est infĂ©rieure, lâidĂ©al Ă©tant lĂ de tendre vers 0.
Le data center A est efficace, mais ne rĂ©cupĂšre pas lâĂ©nergie. Le B est moins efficace, mais recycle 50 % de la chaleur produite.
Pour aller plus loin dans lâĂ©valuation de la performance, la mesure des consommations et leur rĂ©duction, Qarnot sâest engagĂ©e avec Inria et lâAdeme dans le DĂ©fi Pulse (voir lâencadrĂ© ci-contre)
Le deuxiĂšme atout est la souverainetĂ© numĂ©rique, de plus en plus prĂ©gnante dans la sphĂšre du cloud Ă mesure notamment de lâessor de ce dernier et du contexte dâiniquitĂ© quâinstaurent les lois dâextraterritorialitĂ© amĂ©ricaines. LĂ -dessus, Qarnot a trois avantages Ă faire valoir : lâactionnariat est essentiellement français ; tout ce qui relĂšve du matĂ©riel (hardware) est installĂ©, pilotĂ© et maintenu en interne ; enfin, concernant la partie logicielle, tout aussi importante au regard de la souverainetĂ©, lâentreprise sâen empare en dĂ©veloppant ses propres outils, en particulier son orchestrateur.
Il fallait oser penser le data center sans ses murs pour parvenir Ă un modĂšle aux consommations de ressources optimisĂ©es et transformer un serveur en radiateur. Avec Qarnot, le data center est distribuĂ© et, de fait, nâest plus seulement consommateur dâĂ©nergie. Il devient aussi fournisseur.
Lâintelligence artificielle peut aider Ă rĂ©duire lâimpact environnemental de certaines activitĂ©s, mais elle est elle-mĂȘme gourmande en Ă©quipements et Ă©nergie. Comment sortir de ce paradoxe ?
Lâengouement gĂ©nĂ©ral pour lâagent conversationnel ChatGPT, dĂ©veloppĂ© par la sociĂ©tĂ© OpenAI, en est une nouvelle preuve, lâintelligence artificielle (IA) fait dĂ©sormais partie de nos vies. Elle est particuliĂšrement active dans nos activitĂ©s numĂ©riques quotidiennes, comme la navigation sur internet et les rĂ©seaux sociaux : les publicitĂ©s que nous y subissons, les produits qui nous sont proposĂ©s, les articles que nous lisons, les vidĂ©os et films que nous regardons⊠sont tous sĂ©lectionnĂ©s par des algorithmes dâIA. Par ailleurs, elle impressionne par ses performances dans les tĂąches de traduction de textes, de reconnaissance dâobjets dans les images, notamment mĂ©dicales⊠Et, on le sait moins, elle est aussi prĂ©sente dans de nombreuses activitĂ©s scientifiques et Ă©conomiques, fortement gĂ©nĂ©ratrices de donnĂ©es numĂ©riques.
Cet essor sans prĂ©cĂ©dent rĂ©sulte de lâutilisation le plus souvent dâalgorithmes dâapprentissage automatique, capables, par exemple, dâapprendre Ă traduire un texte Ă partir de millions de phrases produites par des humains. AlimentĂ© par un nombre considĂ©rable de donnĂ©es, lâalgorithme Ă©labore un grand modĂšle dont les paramĂštres sont « ajustĂ©s » afin de modĂ©liser au mieux les donnĂ©es observĂ©es. Pour le traitement de la parole, du texte et la vision artificielle, les
rĂ©seaux de neurones profonds constituent lâĂ©tat de lâart actuel en matiĂšre dâalgorithmes dâapprentissage automatique. Ils comportent souvent des milliards de paramĂštres. Quâen est-il de leur empreinte environnementale ?
Disons-le dâemblĂ©e, lâIA ne constitue pas une solution miracle pour la rĂ©duction de lâimpact environnemental dâautres activitĂ©s. Elle constitue un outil des sciences de lâingĂ©nieur, parmi de nombreux, pour optimiser lâutilisation de diffĂ©rentes ressources, avec cependant quelques spĂ©cificitĂ©s.
Par exemple, elle aide Ă minimiser le coĂ»t de mise en Ćuvre des modĂšles de climat. En effet, dans ce domaine, une modĂ©lisation fine des Ă©changes atmosphĂ©riques et ocĂ©aniques est requise, ce qui, par les mĂ©thodes traditionnelles, est coĂ»teux (en temps, en argent, en Ă©lectricitĂ©âŠ). GrĂące Ă lâIA, des modĂšles simplifiĂ©s dĂ©veloppĂ©s Ă partir de donnĂ©es, offrent ainsi des solutions approchĂ©es plus Ă©conomes, parfois suffisantes en pratique.
LâIA a aussi sa place dans lâoptimisation de systĂšmes complexes, comme la gestion thermique dâun bĂątiment. GrĂące Ă lâinstallation de capteurs et un pilotage utilisant notamment lâIA, il est possible dâĂ©conomiser
sur la facture Ă©nergĂ©tique. Cependant, comme pour toute nouvelle solution technologique, une analyse fine de son impact environnemental est indispensable. Et on doit ĂȘtre particuliĂšrement attentif aux classiques « effets rebonds » : si une technologie est plus performante, elle risque dâĂȘtre utilisĂ©e plus massivement, avec en fin de compte un impact net nĂ©gatif.
Le revers de la mĂ©daille est que lâIA sâinscrit dans le cadre plus gĂ©nĂ©ral des activitĂ©s numĂ©riques, dont lâempreinte carbone actuelle est de lâordre de 3,8 % des Ă©missions mondiales, selon le Shift Project et lâAdeme. Mesurer lâimpact prĂ©cis de lâIA est difficile, mais au vu de son utilisation systĂ©matique, il est assurĂ©ment vouĂ© Ă sâaccroĂźtre. Ă lâinstar de toute activitĂ© numĂ©rique, cet impact rĂ©sulte Ă la fois de la fabrication des machines et de la consommation Ă©lectrique nĂ©cessaire Ă leur fonctionnement, cela dans des proportions variables selon les usages, mais en gĂ©nĂ©ral comparables.
Dans le cas de lâIA par apprentissage automatique, on distingue deux phases. Dans la premiĂšre, lâapprentissage du modĂšle est de plus en plus gourmand, mais cette opĂ©ration nâest rĂ©alisĂ©e essentiellement quâune seule fois par modĂšle, en utilisant de nombreuses machines. Par exemple, lâimpact carbone du dĂ©veloppement dâun modĂšle moderne est comparable Ă celui dâun citoyen europĂ©en durant un siĂšcle.
Dans la deuxiĂšme phase, le modĂšle est dĂ©ployĂ© sur un grand nombre de machines, oĂč son utilisation est beaucoup moins coĂ»teuse Ă chaque fois quâil est utilisĂ©, mais il le sera potentiellement Ă de nombreuses reprises par des millions de personnes.
Un des fondements de lâinformatique, sur lequel la discipline sâest construite, est lâoptimisation des ressources, en grande partie celles du temps de calcul et de la mĂ©moire nĂ©cessaires, qui sont le plus souvent corrĂ©lĂ©s au coĂ»t Ă©conomique des solutions proposĂ©es. Afin dâaller plus loin, minimiser lâimpact Ă©nergĂ©tique constitue un nouvel axe de dĂ©veloppement : par exemple, on peut dans certains cas opter dĂ©libĂ©rĂ©ment pour un allongement du temps de calcul en contrepartie dâune rĂ©duction de lâĂ©nergie totale consommĂ©e.
Un autre axe de progrĂšs est le dĂ©veloppement de mĂ©thodes dites « frugales » : câest particuliĂšrement important pour lâapprentissage profond, oĂč la taille des modĂšles nâa cessĂ© de croĂźtre, car ces grands modĂšles fonctionnent mieux en pratique. Mais cette explosion de la taille des modĂšles est-elle rĂ©ellement nĂ©cessaire ?
La rĂ©ponse constitue un enjeu majeur de lâapprentissage automatique dans les prochaines annĂ©es. PeutĂȘtre peut-on poser la question Ă ChatGPTâŠ
Lâempreinte carbone du dĂ©veloppement dâun modĂšle dâIA moderne est comparable Ă celle dâun citoyen europĂ©en durant un siĂšcleLâĂ©quipe-projet Tyrex dâInria travaille Ă la prochaine gĂ©nĂ©ration de systĂšmes dâanalyse de donnĂ©es, au cĆur des applications dâintelligence artificielle. > Scannez ce QR code pour dĂ©couvrir comment rendre une IA plus Ă©conome.
Lâinitiative Labos 1point5, est nĂ©e en 2018 au sein de la communautĂ© scientifique, de la base. Elle est aujourdâhui soutenue par le CNRS, lâInrae, lâAdeme et Inria. Quel est son but ?
Le nom du collectif fait rĂ©fĂ©rence Ă lâobjectif de lâaccord de Paris de limiter Ă 1,5 °C le rĂ©chauffement climatique. Le but est donc de se donner les moyens de transformer la recherche face aux enjeux environnementaux en partant du terrain. Au-delĂ du rĂŽle de cohĂ©rence portĂ© par notre action, rappelons que lâempreinte carbone de la recherche nâest pas nĂ©gligeable. Nos derniĂšres estimations Ă lâĂ©chelle nationale lâĂ©valuent en moyenne Ă un peu plus de 1 000 tonnes dâĂ©quivalent CO2 (t CO2e) par an et par laboratoire, soit 5,5 t CO 2e par an et par personne pour son activitĂ© professionnelle. MĂȘme si ce dernier chiffre ne peut pas sâajouter directement aux 9 t CO2e par an de lâempreinte moyenne dâun français (car il y aurait des doubles comptages), il montre que la recherche doit aussi participer Ă lâeffort de rĂ©duction des Ă©missions de gaz Ă effet de serre (GES).
Que permet lâapplication GES 1point5, spĂ©cialement dĂ©veloppĂ©e par le collectif ?
Lâapplication en ligne GES 1point5, dont lâensemble du code source est sous licence libre, permet Ă la fois aux laboratoires de disposer dâun outil fait par et pour la communautĂ©, mais aussi la construction dâune base de donnĂ©es nationale des empreintes carbone des laboratoires, avec une mĂ©thodologie commune et transparente.
Analyser et publier nos rĂ©sultats alimente un champ de recherche Ă©mergent et permet dâancrer les transformations dans la recherche ellemĂȘme. Aujourdâhui, le pĂ©rimĂštre de GES 1point5 comprend les bĂątiments (Ă©lectricitĂ©, chauffageâŠ), les achats, le matĂ©riel informatique, les dĂ©placements professionnels et les trajets entre le domicile et le travail.
Quels sont les premiers enseignements de cette base de données ?
Les moyennes que jâĂ©voquais prĂ©cĂ©demment sont Ă interprĂ©ter avec prĂ©caution parce quâelles masquent une grande hĂ©tĂ©rogĂ©nĂ©itĂ© entre les laboratoires. Certains ont une empreinte dominĂ©e par le chauffage (sâil y a une animalerie par exemple), dâautres par les dĂ©placements professionnels (typiquement en sciences sociales) ou par les dĂ©placements entre le domicile et le travail pour certains laboratoires Ă©loignĂ©s des centresvilles. Nous trouvons quâen moyenne, les postes les plus Ă©metteurs sont les achats et le chauffage, puis les voyages en avion. Le numĂ©rique, au sens du matĂ©riel informatique, a une empreinte comparativement assez faible.
Cependant les grandes infrastructures de recherche, dont les supercalculateurs, sont encore en cours dâintĂ©gration sous lâimpulsion de MarieAlice Foujols, de lâinstitut Pierre-Simon Laplace (IPSL). Ă titre indicatif, cet institut, qui rĂ©alise notamment des simulations climatiques, a estimĂ© lâempreinte carbone de ses projets de calcul Ă 1 180 t CO 2 e pour lâannĂ©e 2018. Mais, passĂ© cette Ă©tape quantitative, lâobjectif de Labos 1point5 est de permettre le dĂ©bat, de mettre les laboratoires en rĂ©seau, de les accompagner, dâidentifier les freins. Car transformer la recherche afin de rĂ©duire les Ă©missions ne signifie pas arrĂȘter de produire des connaissances, mais questionner ce qui nous pousse Ă le faire au prix dâune utilisation trop importante des ressources. .
Des chercheurs sâunissent pour dâabord comprendre et ensuite rĂ©duire lâimpact des activitĂ©s de recherche sur lâenvironnement, notamment sur le climat.Tamara Ben-Ari Agronome Ă Inrae, cofondatrice du collectif Labos 1point5
Acentauri
Intelligence artificielle et algorithmes efficaces pour la robotique autonome. Inria, CNRS, universitĂ© CĂŽtĂ© dâAzur https://www.inria.fr/fr/acentauri
Agora
AlGorithmes et Optimisation pour Réseaux Autonomes. Inria, Institut national des sciences appliquées de Lyon https://www.inria.fr/fr/agora
Airsea
Mathématiques et calcul scientifique appliqués aux écoulements océaniques et atmosphériques.
Inria, université de Grenoble-Alpes, CNRS https://www.inria.fr/fr/airsea
Ange
Analyse numérique, géophysique et environnement.
Inria, CNRS, Sorbonne Université https://www.inria.fr/fr/ange
Biocore
Biological control of artificial ecosystems. Inria, CNRS, INRAE, Sorbonne Université https://www.inria.fr/fr/biocore
Calisto
Approches stochastiques pour les Ă©coulements complexes et lâenvironnement Inria, CNRS https://www.inria.fr/fr/calisto
Cardamom
Certified Adaptive discRete moDels for robust simulAtions of CoMplex flOws with Moving fronts.
Inria, Institut Polytechnique de Bordeaux https://www.inria.fr/fr/cardamom
Direction scientifique :
Jean-Frédéric Gerbeau
Conseil scientifique :
Jacques Sainte-Marie
Directeur de la communication :
Laurent Stencel
Responsable éditoriale :
Ariane Beauvillard
Responsable iconographique :
Camille Picard
Direction artistique :
Sophie Barbier
Crédit photo de couverture : ©heroal
Chroma
Robots coopératifs et adaptés à la présence humaine en environnements.
Inria, Institut national des sciences appliquées de Lyon https://www.inria.fr/fr/chroma
Lemon
Littoral, environnement, modÚles et outils numériques.
Inria, université de Montpellier, CNRS https://www.inria.fr/fr/lemon
Makutu
Modélisation et simulation de la propagation des ondes fondées sur des mesures expérimentales pour caractériser des milieux géophysiques et héliophysiques et concevoir des objets complexes. Inria, Institut polytechnique de Bordeaux, université de Pau, CNRS, TotalEnergies https://www.inria.fr/fr/makutu
Memphis
ModÚles et méthodes pour les problÚmes multiphysiques et interactions. Inria, université de Bordeaux https://www.inria.fr/fr/memphis
Myriads
Conception et mise en Ćuvre de systĂšmes distribuĂ©s autonomes.
Inria, Institut national des sciences appliquĂ©es de Rennes, universitĂ© Rennes 1, CNRS, Ăcole normale supĂ©rieure de Rennes. https://www.inria.fr/fr/myriads
Odyssey
Océan dynamique observations analyse. Inria, université Rennes 1, université de Bretagne occidentale, Mines-Télécom Atlantique, Ifremer, CNRS https://www.inria.fr/fr/odyssey
Pervasive
Pervasive interaction with smart objects and environments
Inria, CNRS, université Grenoble-Alpes, Grenoble INP https://team.inria.fr/pervasive/
170 bis bd du Montparnasse
75014 Paris
Directrice de la rédaction : Cécile Lestienne
Directeur de la publication et gérant : Nicolas Bréon
Publicité : Stéphanie Jullien et Mathilde Salomon
Développement numérique : Philippe Ribeau-Gésippe
Responsable Marketing : Fréderic-Alexandre Talec
Community manager et partenariats : Aëla Keryhuel
Fabrication :
Marianne Sigogne et Stéphanie Ho
Rédacteur-en-chef adjoint responsable de ce supplément :
LoĂŻc Mangin
Ont également participé à ce supplément :
Isabelle Bellin
Laure Blancard
Gautier Cariou
Guillaume Ladvie
Emmanuel Monnier
Gaël Oert
Réviseuse : Anne-Rozenn Jouble
Conception graphique et maquette : Charlotte Calament
Cheffes de projet :
Stéphanie Jullien et Mathilde Salomon
Rainbow Robotique interactive et référencée capteurs. Inria, CNRS, université Rennes 1, INSA Rennes
https://www.inria.fr/fr/rainbow
Scool
Prise de dĂ©cision sĂ©quentielle dans lâincertain. Inria, CNRS, universitĂ© de Lille https://www.inria.fr/fr/scool
Sierra Apprentissage statistique et parcimonie. Inria, ENS Paris, CNRS https://www.inria.fr/fr/sierra
Spirals
Self-adaptation for distributed services and large software systems. Inria, université de Lille https://www.inria.fr/fr/spirals
Statify
ModĂšles statistiques bayĂ©siens et des valeurs extrĂȘmes pour donnĂ©es structurĂ©es et de grande dimension. Inria, CNRS, universitĂ© de Grenoble-Alpes https://www.inria.fr/fr/statify
Steep Soutenabilité, territoires, environnement, économie et politique. Inria, CNRS, université de Grenoble-Alpes https://www.inria.fr/fr/steep
Tyrex
Types and reasoning for the web. Inria, CNRS, Université de Grenoble Alpes. https://www.inria.fr/fr/tyrex
Zenith
Gestion de données scientifiques. Inria, CNRS, université de Montpellier https://www.inria.fr/fr/zenith
Supplément gratuit au numéro 546 (avril 2023) du mensuel
Pour La Science
ISSN 0 153-4092
N° Commission paritaire : 0927K82079 Dépot légal : avril 2023.
ImprimĂ© en FranceMaury imprimeur S.A. MalesherbesN dâimprimeur : 268236
La pĂąte Ă papier utilisĂ©e pour la fabrication du papier de cet ouvrage provient de forĂȘts certifiĂ©es et gĂ©rĂ©es durablement.
> Scannez ce QR code pour dĂ©couvrir le dossier Inria « Environnement et numĂ©rique » : Comment les sciences du numĂ©rique aident (aussi) Ă prĂ©server lâenvironnement ?
Pour en savoir plus sur Inria : inria.fr Découvrez notre revue de vulgarisation scientifique en sciences du numérique interstices.info