Le numérique est-il un progrÚs durable - supplément en partenariat avec Inria

Page 2

Le numérique est-il un progrÚs

durable ? SupplĂ©ment rĂ©alisĂ© en partenariat avec N° 546 - AVRIL 2023 Pour comprendre le systĂšme Terre Au service de la transition Ă©nergĂ©tique Bon pour la nature ? Le numĂ©rique face Ă  lui-mĂȘme Ne peut ĂȘtre vendu sĂ©parĂ©ment

Intelligence artificielle

Robotique

Langages, programmation & logiciel

Algorithmes

Architecture & SystĂšmes

Histoire du numérique

interstices.info

Réseaux & Communication

Explorez les sciences du numérique

Culture & Société

Sécurité & Vie privée

Données

Traitement d’images & Son

Modélisation & Simulation

Médecine & Sciences du vivant

Interaction Humain/Machine

Environnement & PlanĂšte

i i

Le numĂ©rique tel que nous le connaissons aujourd’hui n’est pas soutenable. Outre son empreinte environnementale dĂ©jĂ  significative, c’est surtout sa croissance qui nous alerte. Mais le numĂ©rique a ceci de particulier qu’il peut ĂȘtre Ă  la fois une partie du problĂšme et une partie de la solution Ă  la crise environnementale. C’est Ă  nous, citoyens, consommateurs et scientifiques, de choisir ce que nous voulons en faire.

Les sciences et technologies du numĂ©rique nous aident Ă  comprendre notre systĂšme Terre. Que serait un rapport du Giec sur le rĂ©chauffement climatique sans la modĂ©lisation et la simulation numĂ©rique ? Elles nous offrent aussi des outils pour limiter les intrants en agriculture, pour analyser la biodiversitĂ©, pour dĂ©velopper la prise de conscience citoyenne grĂące Ă  la science participative. La transition Ă©nergĂ©tique reposera sur une combinaison d’actions, comprenant plus de sobriĂ©tĂ©, mais aussi des technologies nouvelles. Optimiser les rĂ©seaux Ă©lectriques et la production d’énergies renouvelables, amĂ©liorer les chaĂźnes logistiques qui reprĂ©sentent une part considĂ©rable de l’empreinte carbone de l’industrie, dĂ©velopper la captation et le stockage du CO2, etc. : tout cela s’appuiera nĂ©cessairement sur les sciences et technologies du numĂ©rique. Et pourtant, on l’a dit, le numĂ©rique tel qu’il est aujourd’hui doit Ă©voluer.

À nous, citoyens, de nous interroger sur l’usage que notre sociĂ©tĂ© fait du numĂ©rique. Emparons-nous des leviers que le numĂ©rique met Ă  notre disposition, donnons-nous les moyens de comprendre les apports et les limites de nouvelles technologies, orientons les politiques et la rĂ©gulation pour empĂȘcher les excĂšs, sans passer Ă  cĂŽtĂ© des opportunitĂ©s.

À nous, consommateurs, de nous interroger sur l’usage que nous faisons du numĂ©rique. Nous avons le devoir de nous informer sur l’impact de nos choix. Avoir une vision globale, connaĂźtre les ordres de grandeur, ĂȘtre conscients de nos marges d’action et comprendre ce que signifierait plus de frugalitĂ©. Cela nous Ă©vitera les solutions gadget et nous aidera Ă  nous concentrer sur des comportements ayant un rĂ©el impact.

À nous, scientifiques, de proposer aux jeunes gĂ©nĂ©rations des sujets de recherche porteurs de sens, ouvrant des voies fertiles. Le temps n’est pas au solutionnisme technologique, nous savons bien qu’optimiser une partie du systĂšme ne suffira pas. Mais sachons nous garder des remises en cause paralysantes et stĂ©riles, car l’urgence climatique est lĂ  et nous devons agir. De plus en plus d’informaticiens et de mathĂ©maticiens se tournent rĂ©solument vers les sujets posĂ©s par les transitions Ă©nergĂ©tiques et environnementales, en collaboration avec d’autres disciplines, y compris des sciences humaines et sociales. Faire Ă©voluer le numĂ©rique Ă  l’aune de son impact environnemental ouvre des champs de recherche nouveaux : revisiter la conception mĂȘme des algorithmes, la maniĂšre de les programmer, la maniĂšre de les exĂ©cuter ; repenser l’architecture des processeurs en les spĂ©cialisant davantage ; reconsidĂ©rer l’équilibre entre calculs centralisĂ©s et calculs distribuĂ©s, entre ce qui est dĂ©portĂ© dans le cloud et ce qui reste proche de l’utilisateur, etc. Tous ces sujets sont encore largement Ă  dĂ©fricher.

Ce numĂ©ro spĂ©cial aborde quelques-unes de ces problĂ©matiques, Ă  travers des tĂ©moignages de grands acteurs et des exemples issus de la recherche. Son ambition est d’illustrer, sans en occulter les limites, l’apport des sciences et des technologies du numĂ©rique aux grands dĂ©fis environnementaux de notre Ă©poque.

| Pour la Science / supplĂ©ment au n° 546 ‱ 1 Édito
> Jean-Frédéric Gerbeau Directeur général délégué à la science chez Inria © Inria / Photo Pierre Morel
par

Page 3

Le numérique pour comprendre le systÚme Terre

Page 4 Interview de Jean Jouzel

« Les modĂ©lisateurs sont les premiers Ă  avoir sonnĂ© l’alarme sur le climat »

Page 6 Un climat de moins en moins incertain

Page 10 Infographie

Le climat de demain, une affaire de modélisation

Page 12 Submersions : comment mieux les anticiper ?

Page 14 Les statistiques de l’extrĂȘme 02

Page 17 Le numérique au service de la transition énergétique

Page 18 Interview de Gilles Babinet

La France a tout pour devenir une « greentech nation » !

Page 20 Pour un déploiement réussi des énergies renouvelables

Page 22 Portfolio

La recherche en action chez Inria

Page 26 La mer qu’on voit danser, un potentiel sous-exploitĂ©

Page 29 Interview de Florence Delprat-Jannaud

Mélodie numérique en sous-sol

Page 30 La géothermie, entre simulation et réalité 03

Page 31 Le numĂ©rique, c’est bon pour la nature ?

Page 32 Interview de Bruno David

Le numérique peut-il contribuer à préserver la biodiversité ?

Page 34 Quel avenir pour le peuple invisible de l’ocĂ©an ?

Page 36 Tous botanistes !

Page 38 Vers une agriculture plus vertueuse

Page 41 Le numérique trace son sillon 04

Page 45 Le numĂ©rique face Ă  lui-mĂȘme

Page 46 Interview de Hugues Ferreboeuf Raisonner notre usage du numérique ?

Page 48 Infographie

Le coût énergétique du numérique

Page 50 Apprendre à limiter les impacts du numérique

Page 52 La fabrique du numérique frugal

Page 56 Des nuages Ă  la diĂšte

Page 60 Des « data centers » façon puzzle

Page 62 Pour une IA plus responsable

Page 64 Interview de Tamara Ben-Ari Vers une recherche plus vertueuse

| Pour la Science / supplĂ©ment au n° 546 ‱ 2 Sommaire |
01

Le numérique pour comprendre le systÚme Terre

DĂšs la fin du xixe siĂšcle, grĂące au SuĂ©dois Svante Arrhenius, l’idĂ©e de rĂ©chauffement climatique liĂ© aux Ă©missions de CO 2 dans l’atmosphĂšre a fait son entrĂ©e dans les cercles scientifiques. Depuis, grĂące notamment au numĂ©rique, que de chemin parcouru dans la comprĂ©hension des mĂ©canismes du systĂšme Terre ! En modĂ©lisant trĂšs finement les interactions des diffĂ©rents acteurs (ocĂ©an, atmosphĂšre, continents
), les chercheurs prĂ©voient l’évolution du climat et anticipent de mieux en mieux les Ă©vĂ©nements extrĂȘmes. Un premier pas pour s’adapter.

| Pour la Science / supplĂ©ment au n° 546 ‱ 3
Partie 1

« Les modĂ©lisateurs sont les premiers Ă  avoir sonnĂ© l’alarme sur le climat »

Climatologue spĂ©cialisĂ© sur l’évolution des climats passĂ©s, et vice-prĂ©sident du groupe n ° 1 du Giec entre 2002 et 2015.

Quel rĂŽle la modĂ©lisation a-t-elle jouĂ© dans l’histoire de la climatologie ?

La question de l’effet de serre Ă©tait Ă©voquĂ©e dĂšs le dĂ©but du xx e siĂšcle. Cependant, c’est le dĂ©veloppement des premiers ordinateurs, pendant la Seconde Guerre mondiale, puis l’avĂšnement des modĂšles mĂ©tĂ©orologiques et climatiques dans les annĂ©es 1960, qui ont vĂ©ritablement permis de sonner l’alarme sur les risques posĂ©s par les activitĂ©s humaines sur notre climat.

Le pionnier est le climatologue nippo-amĂ©ricain Syukuro Manabe, qui, en 1967, a publiĂ© le premier modĂšle global effectif du climat, prĂ©disant l’augmentation de la tempĂ©rature moyenne de la Terre. Ce modĂšle se focalisait sur ce qu’on appelle la « sensibilitĂ© climatique », dĂ©finie comme le rĂ©chauffement Ă  la surface de la Terre en rĂ©ponse

Ă  un doublement de la concentration de l’atmosphĂšre en dioxyde de carbone (CO2) par rapport Ă  l’ùre prĂ©industrielle. Il projetait une hausse de 2,3 °C de la tempĂ©rature moyenne globale. Les climatologues avaient bien conscience qu’un changement de composition de l’atmosphĂšre pouvait induire un rĂ©chauffement, mais c’était la premiĂšre fois que cela Ă©tait quantifiĂ©. Cette avancĂ©e majeure en climatologie a d’ailleurs valu le prix Nobel de physique Ă  Syukuro Manabe en 2021.

Les modĂšles du climat ont Ă©galement contribuĂ© Ă  une prise de conscience de la classe politique
 Oui, ils y ont largement contribuĂ©. À cet Ă©gard, le rapport Charney, publiĂ© en 1979, a Ă©tĂ© un dĂ©clencheur. Il rĂ©pondait Ă  une demande de la Maison Blanche Ă  l’AcadĂ©mie nationale des sciences amĂ©ricaine visant Ă  Ă©valuer le rĂŽle des activitĂ©s humaines dans l’évolution du climat. CoordonnĂ© par le mĂ©tĂ©orologue Jule Charney, ce rapport proposait une projection proche de celle de Syukuro Manabe, Ă  savoir qu’en doublant la quantitĂ© de gaz carbonique dans l’atmosphĂšre, le rĂ©chauffement serait compris entre + 1,5 °C et + 4,5  °C. Il pointait Ă©galement la responsabilitĂ© humaine dans la hausse des Ă©missions de gaz Ă  effet de serre. Cela a Ă©tĂ© le prĂ©lude Ă  une dĂ©cennie extrĂȘmement active en climatologie ayant conduit Ă  une prise de conscience plus large du rĂ©chauffement climatique et Ă  la crĂ©ation du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), en 1988. Des scientifiques comme Bert Bolin, coauteur du rapport Charney et premier prĂ©sident du Giec, ont d’ailleurs jouĂ© un rĂŽle majeur dans l’accĂ©lĂ©ration de la prise de conscience.

| Pour la Science / supplĂ©ment au n° 546 ‱ 4 Grand angle © L. Mangin

Depuis sa création, le Giec utilise des modÚles numériques toujours plus précis. Pouvez-vous nous parler de cette évolution ?

Vus d’aujourd’hui, les premiers modĂšles climatiques du Giec paraissent rudimentaires. Dans les annĂ©es 1970 et 1980, ils se limitaient Ă  l’atmosphĂšre avec un ocĂ©an rĂ©duit Ă  une seule couche de surface. Il faut attendre les annĂ©es 1990 pour voir des modĂšles couplĂ©s du climat intĂ©grant les aĂ©rosols, le cycle du carbone et la vĂ©gĂ©tation, puis la chimie atmosphĂ©rique et les glaces continentales – incluant les calottes glaciaires – un peu plus tard. L’explosion des capacitĂ©s de calculs, le recours Ă  des supercalculateurs, et l’accumulation des donnĂ©es, notamment satellitaires, ont ainsi dĂ©bouchĂ© sur des modĂšles beaucoup plus complets. Sans le dĂ©veloppement du numĂ©rique et des capacitĂ©s informatiques, notre communautĂ© n’aurait pas pu embrasser toute cette complexitĂ©.

De la mĂȘme façon, la rĂ©solution spatiale des modĂšles numĂ©riques s’est considĂ©rablement amĂ©liorĂ©e ces derniĂšres annĂ©es, les mailles passant de centaines de kilomĂštres de cĂŽtĂ© Ă  une dizaine de kilomĂštres seulement. Dans son dernier rapport, le Giec a ainsi mis en ligne un atlas des changements climatiques Ă  l’échelle rĂ©gionale qui tient compte de la topographie de la rĂ©gion, du couvert vĂ©gĂ©tal
 Il devient ainsi possible de visualiser la façon dont les principales variables climatiques (tempĂ©rature, prĂ©cipitations, vent
) vont Ă©voluer dans n’importe quelle rĂ©gion du globe.

Un outil intéressant pour, à nouveau, les décideurs politiques


TrĂšs important ! Si vous vous placez de leur point de vue, ce qui importe, c’est l’évolution du climat dans, par exemple, leur circonscription dans le but de mettre en Ɠuvre des mesures pertinentes d’adaptation au changement climatique pour ce territoire. En France, l’adaptation va ĂȘtre trĂšs diffĂ©rente dans des rĂ©gions cĂŽtiĂšres menacĂ©es par la montĂ©e des eaux ou dans une station de ski, dans les Alpes, par exemple. Ces modĂšles

ne doivent toutefois pas occulter les incertitudes inhĂ©rentes au systĂšme climatique. Ce n’est pas parce qu’on amĂ©liore la rĂ©solution que les incertitudes disparaissent. Il y a des limites Ă  la prĂ©visibilitĂ© du climat.

Lesquelles ?

Le systĂšme climatique reste un systĂšme chaotique, au sens mathĂ©matique. Et plus l’échelle est fine, plus les incertitudes ont tendance Ă  augmenter : c’est vrai pour les tempĂ©ratures, mais surtout pour les prĂ©cipitations. Ces incertitudes naissent notamment du fait qu’on ne connaĂźt pas l’évolution de l’ocĂ©an. MĂȘme avec des moyens numĂ©riques illimitĂ©s, on ne pourra jamais prĂ©dire quel temps il fera dans trente ans dans une rĂ©gion donnĂ©e, par exemple. Autres incertitudes : celles qui sont liĂ©es aux extrĂȘmes climatiques ou Ă  l’élĂ©vation du niveau de la mer qui, Ă  long terme, risque d’ĂȘtre largement dominĂ©e par les contributions difficiles Ă  modĂ©liser des calottes glaciaires.

Les modÚles numériques à haute résolution restent-ils pertinents malgré tout ?

Il y aura toujours des incertitudes, mais on commence Ă  mieux les cerner. L’important est de les quantifier et de les expliciter pour avoir conscience des limites des modĂšles. C’est ce que font avec talent les modĂ©lisateurs du climat du Giec. Il est vrai que du cĂŽtĂ© de la communautĂ© scientifique, nous Ă©tions un peu rĂ©ticents au dĂ©part Ă  l’idĂ©e de cette rĂ©gionalisation des modĂšles du climat. D’ailleurs, si vous lisez les premiers rapports du groupement, cette rĂ©gionalisation n’existait pas du tout. Si le groupe I, en charge des Ă©lĂ©ments scientifiques a franchi le pas et mis Ă  disposition un tel atlas Ă  l’échelle rĂ©gionale, c’est parce qu’il y a eu des progrĂšs considĂ©rables ces derniĂšres annĂ©es. ProgrĂšs des capacitĂ©s de calcul bien sĂ»r, mais aussi progrĂšs dans l’accĂšs aux donnĂ©es climatiques Ă  l’échelle rĂ©gionale. Sans elle, les modĂšles climatiques numĂ©riques Ă  haute rĂ©solution n’auraient sans doute jamais vu le jour. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 5
« En cinquante ans, les simulations du climat ont gagnĂ© en complexitĂ© au rythme des progrĂšs de l’informatique et de l’accĂšs aux donnĂ©es. Le Giec s’appuie aujourd’hui sur des modĂšles Ă  haute rĂ©solution »
> Scannez ce QR code pour accéder au site du Giec.

Un climat de moins en moins incertain

DĂ©crire l’évolution du climat, et notamment l’interaction de l’ocĂ©an et de l’atmosphĂšre, est possible dĂšs lors qu’on dispose d’un modĂšle. Mais comment contrĂŽler l’incertitude de ses rĂ©sultats ? Mieux savoir, en d’autres termes, ce que l’on ne sait pas ?

Notre planĂšte se rĂ©chauffera-t-elle de 2, 3 ou
 5 ° C d’ici Ă  la fin du siĂšcle ? La question n’est pas seulement acadĂ©mique : chaque degrĂ© de plus multipliera les canicules et les alĂ©as climatiques extrĂȘmes qui mettront les populations, mais aussi les Ă©cosystĂšmes, Ă  rude Ă©preuve. Les pics de chaleur de l’été 2022 n’en ont Ă©tĂ© qu’un timide aperçu
 Quelles rĂ©gions du globe se rĂ©chaufferont le plus vite ? Faut-il s’attendre Ă  plus d’ouragans ? À des pluies diluviennes ou, au contraire des sĂ©cheresses intenses ? Toute l’agriculture en dĂ©pend. Les scientifiques du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) redoublent donc d’efforts, depuis plus de trente ans, pour rĂ©pondre avec toujours plus de prĂ©cision. Comment ? En s’appuyant sur des modĂšles. C’estĂ -dire des systĂšmes d’équations mathĂ©matiques qui traduisent, de façon simplifiĂ©e, les grands principes physiques qui gouvernent l’évolution du climat.

Deux acteurs principaux y jouent leur partition : l’atmosphĂšre et l’ocĂ©an. « L’atmosphĂšre rĂ©agit Ă  court terme et l’ocĂ©an Ă  plus long terme, car il a beaucoup plus d’inertie. Sa capacitĂ© thermique est mille fois plus importante. C’est une rĂ©serve de chaleur monstrueuse », explique Éric Blayo, enseignant-chercheur au Laboratoire Jean-Kuntzmann, de l’universitĂ© de Grenoble-Alpes, du CNRS, et membre de l’équipe-projet Airsea d’Inria, dont l’objectif est de dĂ©velopper des

mĂ©thodes mathĂ©matiques pour modĂ©liser les flux atmosphĂ©riques et ocĂ©aniques. Deux flux qu’il faut coupler l’un avec l’autre, mais qui interagissent aussi avec les surfaces terrestres et les zones de glace, dĂ©crites par autant de sous-modĂšles interconnectĂ©s. Comment dĂ©crire l’évolution de tout cet ensemble, d’une complexitĂ© inouĂŻe, avec le moins d’erreurs et d’incertitudes possible ?

UNE INCERTITUDE DE 30 % !

D’abord en utilisant la bonne physique, traduite par les bonnes mathĂ©matiques. Pour l’atmosphĂšre de mĂȘme que pour l’ocĂ©an, c’est celle de la mĂ©canique des fluides sur une Terre en rotation. Elle repose sur des Ă©quations bien Ă©tablies, comme celles de Navier-Stokes, qui ne peuvent cependant ĂȘtre rĂ©solues que de façon approchĂ©e, et sur quelques grands principes, comme la conservation de la masse, de l’énergie, de la quantitĂ© de mouvement
 Une physique plutĂŽt bien maĂźtrisĂ©e... tant qu’on reste Ă  grande Ă©chelle. Mais tout se complique lorsqu’on prĂ©tend ĂȘtre un peu plus prĂ©cis.

« DĂ©crire sous forme d’équations mathĂ©matiques ce qui se passe dans les nuages, par exemple, est un cauchemar : on a de l’eau dans tous ses Ă©tats, liquide, solide et gazeux, qui interagit avec d’autres espĂšces chimiques qui prĂ©cipitent, et la poussiĂšre fabrique des grains de condensation qui vont dĂ©clencher la pluie
 ou pas », poursuit le mathĂ©maticien.

| Pour la Science / supplĂ©ment au n° 546 ‱ 6 Le numĂ©rique | pour comprendre le systĂšme Terre
© Shutterstock/Photobank.kiev.ua

L’atmosphĂšre et l’ocĂ©an, deux acteurs majeurs du climat, dont les interactions sont au cƓur des modĂšles.

La physique des turbulences sur une mer agitĂ©e est un autre sac de nƓuds, qui empĂȘche de calculer prĂ©cisĂ©ment les Ă©changes locaux d’eau, de vapeur et de chaleur entre l’ocĂ©an et l’atmosphĂšre. « Cela fait des dĂ©cennies que des physiciens trĂšs pointus travaillent lĂ -dessus et on a encore une incertitude de prĂšs de 30 % », observe-t-il.

D’autant qu’un modĂšle d’atmosphĂšre, ou d’ocĂ©an, ne dĂ©crit Ă©videmment pas de façon exacte la physique en tout point. Il divise le volume en « briques » ou mailles Ă©lĂ©mentaires, dans lesquelles tempĂ©rature, pression, taux d’humiditĂ©, concentrations chimiques et autres variables physico-chimiques n’ont que des valeurs moyennes. Des Ă©quations assez simples font Ă©voluer les valeurs dans chaque maille Ă  partir de ce qui se passe dans les mailles voisines, en comptabilisant au mieux ce qui entre et ce qui sort. Plus les mailles sont petites, plus le modĂšle est

prĂ©cis (voir l’encadrĂ© page 9), mais Ă©galement plus les calculs deviennent gigantesques, jusqu’à saturer trĂšs vite les capacitĂ©s des plus gros calculateurs mondiaux. La maille idĂ©ale, de l’ordre du kilomĂštre en rĂ©solution horizontale pour l’atmosphĂšre, et de la centaine de mĂštres pour l’ocĂ©an, reste un objectif hors de portĂ©e des ordinateurs actuels. Il faut donc trouver les approximations les plus pertinentes, et simplifier en particulier les phĂ©nomĂšnes turbulents Ă  l’interface de ces deux milieux.

COMBLER LES TROUS

Tout cela serait cependant un peu vain si on n’alimentait en parallĂšle ces Ă©quations avec de bonnes donnĂ©es, qui dĂ©crivent l’état physique rĂ©el de notre planĂšte. Les climatologues s’appuient sur la rĂ©volution de l’observation satellite qui a marquĂ© les annĂ©es 2000. Les mesures sont devenues abondantes

| Pour la Science / supplĂ©ment au n° 546 ‱ 7
Les trous dans les données sont comblés grùce à des mathématiques dérivées des méthodes de contrÎle de missiles
développées pendant la guerre froide

Le numérique | pour comprendre le systÚme Terre

pour l’atmosphĂšre, mais restent plus difficiles Ă  obtenir pour les profondeurs marines, malgrĂ© les milliers de drones sous-marins qui quadrillent les ocĂ©ans. Que faire quand les donnĂ©es manquent ? « Les trous vont ĂȘtre comblĂ©s par les Ă©quations du modĂšle, en tenant compte du degrĂ© d’erreur qu’il y a dans chacune des sources d’information, grĂące Ă  des mathĂ©matiques dĂ©rivĂ©es des mĂ©thodes de contrĂŽle de missiles dĂ©veloppĂ©es pendant la guerre froide pour rectifier une trajectoire au fur et Ă  mesure des observations », prĂ©cise Éric Blayo.

3 QUESTIONS À
 ÉTIENNE MÉMIN

Responsable de l’équipe-projet Odyssey, commune Ă  Inria, l’universitĂ© de Bretagne occidentale Rennes 1, IMT Atlantique, le CNRS et l’Ifremer.

Qu’apportera la nouvelle gĂ©nĂ©ration de modĂšles sur laquelle vous travaillez ?

La rĂ©solution des modĂšles actuels reste trop grossiĂšre. Par exemple, ils reprĂ©sentent mal le Gulf Stream, qui a une importance majeure sur le climat de l’Europe de l’Ouest. On peut surmonter ces insuffisances en ajoutant aux Ă©quations dĂ©terministes une composante alĂ©atoire qui reprĂ©sente l’élĂ©ment inconnu, avec des conditions initiales qui ne sont pas connues partout et des lois d’évolution qui incorporent un bruit. GrĂące Ă  cette modĂ©lisation alĂ©atoire de la dynamique, il devient possible d’intĂ©grer des composantes non rĂ©solues du systĂšme, et de simuler plusieurs rĂ©alisations pour quantifier l’incertitude. C’est possible par le biais du calcul diffĂ©rentiel stochastique.

Vous introduisez aussi de l’intelligence artificielle. Pour en faire quoi ?

L’idĂ©e est d’apprendre une composante qui corrige le modĂšle grossier. Soit sur des modĂšles de plus haute rĂ©solution, lancĂ©s dans des cas ciblĂ©s, soit directement sur les observations. Quelle composante faut-il introduire pour que le modĂšle grossier

corresponde mieux à la dynamique observée ?

L’IA va identifier des relations entre la reprĂ©sentation en basse rĂ©solution et, par exemple, les observations.

Mais le machine learning peut aussi aider à déterminer dans quel régime de la dynamique océanique on se trouve. On obtient alors des modÚles simplifiés qui caractérisent bien la dynamique, sans devoir utiliser un modÚle à trÚs haute résolution.

À ceci prĂšs qu’on ne saura pas sur quelle logique la machine a fondĂ© ces relations
 N’est-ce pas gĂȘnant ?

Si. L’idĂ©e n’est donc pas d’apprendre tout le modĂšle, mais juste des composantes mal connues. Le couplage ocĂ©an-atmosphĂšre est un des endroits oĂč le machine learning peut apporter beaucoup, quand on doit travailler Ă  grande Ă©chelle. On commence Ă  avoir des rĂ©sultats sur des modĂšles simplifiĂ©s. Il faut monter en complexitĂ©. Le machine learning ne s’est pas encore trop attaquĂ© Ă  l’apprentissage de systĂšmes dynamiques.

Il faudra donc dĂ©velopper des mĂ©thodes propres. Nous n’en sommes qu’aux balbutiements.

Affiner par endroits le maillage pour intĂ©grer des Ă©vĂ©nements localisĂ©s est l’un des dĂ©fis actuels. Car il devient de plus en plus clair que les phĂ©nomĂšnes locaux, Ă  petite Ă©chelle, influencent les grands Ă©quilibres, qui eux-mĂȘmes dĂ©terminent les effets rĂ©gionaux, dans une cascade de couplages non linĂ©aires qui exigent des mathĂ©matiques spĂ©cifiques dĂ©veloppĂ©es en partie par l’équipe-projet Airsea. Leur caractĂ©ristique majeure est que l’effet n’y est nullement proportionnel Ă  la cause : deux Ă©tats presque semblables peuvent vite diverger selon deux trajectoires trĂšs diffĂ©rentes, comme l’illustre la fameuse mĂ©taphore de l’« effet papillon », selon laquelle un battement d’ailes de papillon au BrĂ©sil pourrait dĂ©clencher, par une cascade d’effets amplifiĂ©s, une tornade au Texas.

CHANGEMENT D’ÉCHELLE

Comment ce qui se passe Ă  petite Ă©chelle se rĂ©percute Ă  grande Ă©chelle, et vice versa , de la haute mer jusqu’aux bords d’un estuaire ? Cette question a Ă©tĂ© au cƓur du programme Surf, dont l’objectif Ă©tait de faire fonctionner ensemble diffĂ©rents modĂšles d’ocĂ©an comme le classique modĂšle global Nemo, créé par un consortium de pays europĂ©ens, ou le nouveau modĂšle Croco (Coastal and regional ocean community), qui fonctionne Ă  une Ă©chelle plus rĂ©gionale pour Ă©tudier l’ocĂ©an cĂŽtier. « L’idĂ©e, c’était de voir comment faire passer l’information d’un modĂšle Ă  grande Ă©chelle vers un modĂšle Ă  plus petite et comment l’incertitude se propage quand on fait ce couplage, dans une cascade de modĂšles depuis l’ocĂ©an hauturier, oĂč la topographie ne change pas, oĂč il n’y a pas de vagues et oĂč les Ă©quations sont assez simplifiĂ©es, jusqu’aux modĂšles littoraux qui intĂšgrent les marĂ©es, les sĂ©diments et les dĂ©placements de bancs de sable », explique Arthur Vidard, porteur chez Inria du DĂ©fi Surf pour l’équipe-projet Airsea, en charge du dĂ©veloppement de mĂ©thodes de calcul numĂ©rique des Ă©coulements ocĂ©aniques et atmosphĂ©riques.

Une gageure, tant les difficultĂ©s sont nombreuses. Alors que l’ocĂ©an est considĂ©rĂ© comme un milieu en trois dimensions, la faible profondeur du littoral ou d’un estuaire en fait au contraire un milieu Ă  deux dimensions. Les systĂšmes d’équations ne sont donc pas les mĂȘmes. Or l’objectif est bien de les faire fonctionner simultanĂ©ment ensemble.

Quelle confiance peut-on avoir dans les résultats ? Pour répondre, une méthode simple consiste à produire plusieurs simulations, en modifiant un peu les paramÚtres et les modÚles, et voir si les résultats

| Pour la Science / supplĂ©ment au n° 546 ‱ 8

UNE BRÈVE HISTOIRE DES MODÈLES

Pas de rĂ©volution, mais des progrĂšs constants et continus. C’est sans doute ainsi qu’on peut qualifier l’évolution des modĂšles, depuis les esquisses dĂ©veloppĂ©es aprĂšs la Seconde Guerre mondiale jusqu’aux monstres informatiques d’aujourd’hui.

C’est pour les besoins de la mĂ©tĂ©orologie qu’un premier modĂšle global de circulation de l’atmosphĂšre est créé Ă  Princeton, aux États-Unis, sous l’autoritĂ© de John von Neumann. La premiĂšre simulation de circulation globale de l’atmosphĂšre est rĂ©alisĂ©e en 1955, avec les moyens de calculs de l’époque. Dans les annĂ©es 1960, un modĂšle simule un climat dans lequel le taux de CO2 aurait doublĂ©. Le premier Ă©quivalent français est créé en 1968 au Laboratoire de mĂ©tĂ©orologie dynamique (LMD). En 1979, la premiĂšre confĂ©rence mondiale sur le climat donne un coup d’accĂ©lĂ©rateur, avec la mise en orbite de plusieurs satellites d’observation. Les premiers modĂšles restent simples et simulent surtout les cycles glaciaires. Ils permettent malgrĂ© tout aux climatologues d’alerter, Ă  la fin des annĂ©es 1980, sur le risque de rĂ©chauffement global. Les annĂ©es 1990 voient les premiĂšres prises en compte des couplages entre l’atmosphĂšre et l’ocĂ©an. Les modĂšles intĂšgrent ensuite un nombre croissant d’élĂ©ments, de milieux et de cycles (ocĂ©an, glace, chimie, vĂ©gĂ©tation, carbone
) et tirent profit de l’augmentation fulgurante de la puissance des supercalculateurs : entre le premier acquis

par MĂ©tĂ©o-France en 1992 et ceux dont l’organisme dispose aujourd’hui, la frĂ©quence de calculs a Ă©tĂ© multipliĂ©e par plus de 10 millions ! Les annĂ©es 2000 consacrent l’ùre de l’observation globale de la Terre par satellite, avec une plĂ©iade d’instruments mis en orbite. Mais dans l’ombre, les mathĂ©matiques s’amĂ©liorent aussi, « notamment dans la façon dont on approxime les Ă©quations », commente Éric Blayo. Les modĂšles physiques, eux, gagnent en prĂ©cision, en dĂ©taillant les phĂ©nomĂšnes localisĂ©s. Car l’enjeu est aujourd’hui de rĂ©gionaliser les prĂ©visions. Et pour cela, il faut affiner la physique sur chacun des compartiments du « systĂšme Terre ». « On s’est rendu compte, par exemple, que la glace du Groenland fondait beaucoup plus vite que ce qui Ă©tait prĂ©vu il y a quinze ans. En cause, des phĂ©nomĂšnes physiques qui n’avaient pas Ă©tĂ© identifiĂ©s : quand vous avez 2 kilomĂštres d’épaisseur de glace, ça pĂšse lourd, donc ça Ă©chauffe les points les plus bas. Et ça peut suffire Ă  faire fondre la glace Ă  la base. C’est la mĂȘme chose en Antarctique, sur le socle rocheux : vous avez par endroits des riviĂšres d’eau liquide qui, par entraĂźnement, font fondre la glace beaucoup plus rapidement que ce que prĂ©voyaient les prĂ©cĂ©dents modĂšles », explique le chercheur. Les climatologues doivent-ils avouer que leurs simulations gardent une part d’incertitude ? Les dĂ©bats ont Ă©tĂ© vifs, tant cette incertitude risquait d’ĂȘtre mal comprise du grand public. « Le rĂ©sultat peut ĂȘtre

sont Ă©quivalents ou s’ils divergent. Si par exemple quatre simulations sur cinq donnent sensiblement la mĂȘme valeur, l’indice de fiabilitĂ© sera de 4 sur 5. Les nouvelles gĂ©nĂ©rations de modĂšles ne donnent pas, hĂ©las, un Ă©ventail de rĂ©sultats forcĂ©ment plus rĂ©duit que les anciennes. Comment faire mieux ?

UN JUMEAU POUR L’OCÉAN

« Un gros travail a Ă©tĂ© fait pour dĂ©finir l’incertitude et voir comment elle se propageait. L’idĂ©e Ă©tait de chercher son point de dĂ©part, dĂ» Ă  une mauvaise localisation des particules quand on discrĂ©tise les donnĂ©es. Il faut garder cette incertitude, l’ajouter dans les Ă©quations comme une forme de perturbation stochastique, redĂ©velopper tout le systĂšme d’équations discrĂ©tisĂ©es et programmer ensuite », explique

Dans les modĂšles climatiques, l’ocĂ©an et l’atmosphĂšre sont divisĂ©s en cellules, en mailles, dans lesquelles sont effectuĂ©s les calculs.

incertain tout en livrant un message important », rappelle Arthur Vidard. L’incertitude finit par ĂȘtre gĂ©rĂ©e par les modĂšles eux-mĂȘmes, qui introduisent Ă  prĂ©sent des termes alĂ©atoires au cƓur mĂȘme de leurs Ă©quations. L’IA remplacerat-elle Ă  terme ces modĂšles ? « Certains se demandent en effet s’il ne faudrait pas faire apprendre un modĂšle mĂ©tĂ©o ou climatique Ă  une intelligence artificielle, jeter le modĂšle et se contenter de prĂ©voir trĂšs rapidement grĂące Ă  l’IA. On jetterait donc des dĂ©cennies de recherche. Mais l’IA apporte des solutions alternatives pour donner de meilleurs rĂ©sultats sur des phĂ©nomĂšnes trĂšs prĂ©cis, ponctuels, dans des petits coins de nos modĂšles qu’on ne sait pas bien dĂ©crire actuellement », souligne Éric Blayo.

pas Ă  pas Arthur Vidard. Un processus qu’il faut rĂ©pĂ©ter d’un modĂšle Ă  l’autre, pour garder une reprĂ©sentation fidĂšle de cette incertitude. « Ce n’est pas tant son amplitude, qui peut aussi ĂȘtre calculĂ©e, que sa forme qui nous intĂ©resse », prĂ©cise le chercheur.

Ces questions resteront au cƓur du nouveau projet Mediation (Methodological developments for a robust and efficient digital twin of the ocean), dĂ©veloppĂ© par l’équipe-projet Airsea, qui vise Ă  crĂ©er un vĂ©ritable jumeau numĂ©rique de l’ocĂ©an. Il intĂ©grera en particulier l’activitĂ© biologique du phytoplancton, dont la chlorophylle influe sur l’absorption des rayons solaires. Sobre en calcul, il aidera les climatologues Ă  faire des simulations robustes et variĂ©es, aux incertitudes quantifiĂ©es. Peut-ĂȘtre pourrons-nous alors mieux prĂ©voir le futur incertain que nous allons devoir affronter.

| Pour la Science / supplĂ©ment au n° 546 ‱ 9
© CEA / CNRS / MĂ©tĂ©o-France 2019 –Animea Studio
> Scannez ce QR code pour découvrir le projet Surf.

Le climat de demain, une affaire de modélisation

Les scĂ©narios du Giec sur l’évolution du climat s’appuient sur des simulations de plus en plus prĂ©cises et des modĂšles toujours plus performants. En nous rĂ©vĂ©lant ce Ă  quoi nous devons nous attendre, ils invitent Ă  rĂ©agir.

DES MODÈLES TOUJOURS PLUS PERFORMANTS

D’annĂ©e en annĂ©e, les modĂšles climatiques (Ă  partir de 1990, ce sont ceux des rapports du Giec) ont intĂ©grĂ© de plus en plus de processus physiques.

Le Giec dĂ©finit des trajectoires socioĂ©conomiques partagĂ©es (SSP) correspondant chacune Ă  des scĂ©narios d’émissions de gaz Ă  effet de serre, du plus vertueux (SSP5-1,9) au plus dommageable (SSP5-8,5).

| Pour la Science / supplĂ©ment au n° 546 ‱ 10 Le numĂ©rique | pour comprendre le systĂšme Terre
AtmosphÚre Continents Océans et glaciers Aérosols Cycle du carbone Végétation Chimie atmosphérique Glaciers Mi-1970 Mi-1980 1990 1995 2001 2007 2014
SSP5-8,5 SSP5-7,0 SSP5-4,5 SSP5-2,6 SSP5-1,9
NIVEAU MARIN EN HAUSSE 1950 2000 2020 2050 2100 0 0,5 1 1,5 2 ScĂ©nario Ă  faible probabilitĂ© incluant la fonte des calottes polaires Hausse du niveau marin par rapport Ă  1900 (en mĂštres) UNE INFLUENCE HUMAINE INDÉNIABLE 2,0 1,5 1,0 0,5 0,0 - 0,5 Valeurs observĂ©es Simulations incluant activitĂ©s humaines et naturelles Simulations incluant seulement les activitĂ©s naturelles (Soleil et volcans) 1850 1900 1950 2000 2020 Hausse de la tempĂ©rature moyenne (en ° C) UNE TEMPÉRATURE MOYENNE EN HAUSSE 1950 2000 2015 2050 2100 - 1 0 1 2 3 4 5 SSP5-8,5 SSP5-7,0 SSP5-4,5 SSP5-2,6 SSP5-1,9 Hausse de la tempĂ©rature moyenne (en C)
UN

Variation des températures pour un réchauffement global de 1 °C

CHAQUE DEGRÉ COMPTE

Changement observé pour un réchauffement global de 1 °C

Simulation pour un réchauffement global de 1 °C

Changement attendu (en °C) par rapport à la période 1850-1900

Simulation d’une hausse globale de 1,5 °C.

Les continents se rĂ©chauffent plus que les ocĂ©ans, de mĂȘme que l’Arctique et l’Antarctique par rapport aux tropiques.

Simulation d’une hausse globale de 2 °C

Simulation d’une hausse globale de 4 °C

Variation des précipitations (en %) par rapport à 1850-1900

Simulation pour un réchauffement global de 1,5 C

Variation de température (en °C)

Les modĂšles montrent que les prĂ©cipitations augmenteront aux hautes latitudes, dans la zone Ă©quatoriale du Pacifique et dans certaines rĂ©gions soumises Ă  la mousson. À l’inverse, elles diminuent dans les zones subtropicales.

Simulation pour un réchauffement global de 2 C

Simulation pour un réchauffement global de 4 C

Variation (en %)

| Pour la Science / supplĂ©ment au n° 546 ‱ 11 © IPCC
- 40 - 30 - 20 - 10 0 10 20 30 40 + humide + sec
0 2 4 6 0,5 2,5 4,5 6,5 1 3 5 7 1,5 3,5 5,5

Submersions : comment mieux les anticiper ?

Prévoir les inondations en zones cÎtiÚres et quantifier les risques qui leur sont inhérents suppose de considérer les phénomÚnes dans leur globalité, mais aussi de recourir à des outils numériques innovants.

Le 8 septembre 1900, l’inondation associĂ©e Ă  l’ouragan dit « de Galveston » avait ravagĂ© l’üle Ă©ponyme, au Texas, et tuĂ© plus de 6 000 personnes. Un phĂ©nomĂšne similaire (on parle d’onde de tempĂȘte) s’est produit au mĂȘme endroit dans le sillage de l’ouragan Ike, en 2008, faisant d’importants dĂ©gĂąts, mais cette fois moins de victimes du fait d’une Ă©vacuation prĂ©ventive. De tels Ă©vĂ©nements nous rappellent que les zones cĂŽtiĂšres sont des rĂ©gions Ă  part. Elles accueillent environ 10 % de la population mondiale, une proportion sans cesse croissante, et une multitude d’activitĂ©s humaines. Or cette concentration augmente le potentiel destructeur des inondations, qui plus est accru par le changement climatique. Que faire pour amĂ©liorer la prĂ©vention et aider Ă  la gestion de crise ? Recourir Ă  la modĂ©lisation pour comprendre les phĂ©nomĂšnes en jeu et simuler diffĂ©rents scĂ©narios.

Cependant, caractĂ©riser le risque de submersion cĂŽtiĂšre d’un site est un dĂ©fi majeur. Cela exige de considĂ©rer la nature multiphysique et multiĂ©chelle des processus liĂ©s Ă  des Ă©vĂ©nements extrĂȘmes comme les ouragans, les tsunamis et les tempĂȘtes. En effet, le niveau de l’eau et l’intensitĂ© des courants observĂ©s sur une cĂŽte sont d’abord les consĂ©quences

de conditions atmosphĂ©riques, d’un sĂ©isme ou d’un glissement sous-marin : ces soubresauts sont propagĂ©s par la dynamique des vagues sur de trĂšs longues distances et finalement transformĂ©s Ă  l’échelle trĂšs locale par l’interaction avec le fond marin et les structures cĂŽtiĂšres.

UNE APPROCHE MULTIDISCIPLINAIRE

Prendre en compte cette complexitĂ© alourdit le coĂ»t et la durĂ©e des simulations. De plus, l’intĂ©rĂȘt croissant pour les approches probabilistes et l’analyse des cas extrĂȘmes impose de rĂ©aliser des centaines, voire des milliers de simulations. Dans ce contexte, la plupart des outils opĂ©rationnels actuels rĂ©vĂšlent rapidement leurs limites. Pour rĂ©pondre Ă  ces besoins, on privilĂ©gie une approche holistique combinant expertises mathĂ©matiques et numĂ©riques et, quand cela est possible, les observations de terrain.

CĂŽtĂ© modĂ©lisation, Inria utilise une mĂ©thodologie qui repose sur une « boucle », dont les trois Ă©tapes principales sont : l’écriture et l’étude d’équations diffĂ©rentielles prenant en compte les principaux processus physiques aux Ă©chelles pertinentes ; un traitement numĂ©rique dit « adaptatif », prĂ©servant les propriĂ©tĂ©s des modĂšles et permettant d’atteindre automatiquement la rĂ©solution nĂ©cessaire pour capter chaque phĂ©nomĂšne ; la vĂ©rification des incertitudes et de la variabilitĂ© des rĂ©sultats liĂ©e aux hypothĂšses physiques et aux choix de modĂ©lisation. Suivant la pertinence et la fiabilitĂ© des rĂ©sultats, on rĂ©itĂšre la boucle, avec les modĂšles ou le traitement numĂ©rique modifiĂ©s.

Cette approche holistique a montrĂ© son potentiel pour comprendre certains phĂ©nomĂšnes complexes d’écoulement comme les ressauts hydrauliques oscillants, ou mascarets. Ces brusques surĂ©lĂ©vations de

| Pour la Science / supplĂ©ment au n° 546 ‱ 12
© Shutterstock/com/ebe_dsgn © Inria
Le BRGM organise des campagnes de simulations des niveaux d’eau atteints lors du passage d’ouragans virtuels
> de recherche au centre Inria de l’universitĂ© de Bordeaux dans l’équipe-projet Cardamom.
Auteurs Le numérique | pour comprendre le systÚme Terre
> Andrea Filippini Ingénieur de recherche en modélisation au Bureau de recherches géologiques et miniÚres (BRGM).

l’eau d’un fleuve se produisent lorsque le courant est inversĂ© par l’effet de la marĂ©e montante ou en rĂ©action Ă  des phĂ©nomĂšnes d’origine tellurique comme des tremblements de terre ou des tsunamis. Ces ressauts sont parfois dangereux, car ils mettent en mouvement d’importantes masses d’eau Ă  mĂȘme de dĂ©passer le niveau des berges.

DES MASCARETS AUX OURAGANS

En France, le phĂ©nomĂšne est connu, par exemple dans les estuaires de la Gironde et de la Seine. Des mesures rĂ©centes ont mis en Ă©vidence deux rĂ©gimes distincts pouvant se produire dans un mĂȘme estuaire : l’un avec d’importantes oscillations d’eau, l’autre peu perceptible Ă  l’Ɠil nu. Ce dernier, bien qu’observĂ© prĂ©cĂ©demment en laboratoire, n’avait pas d’explication physique. Une campagne de simulations a conduit Ă  formuler l’hypothĂšse que les deux rĂ©gimes auraient des causes physiques diffĂ©rentes et que les ressauts invisibles seraient liĂ©s Ă  un trĂšs rapide processus d’équilibrage des forces de gravitĂ© exercĂ©es par la masse d’eau sur les parois du canal ou de la riviĂšre. En reformulant les Ă©quations afin de tenir compte de ces hypothĂšses et des Ă©chelles appropriĂ©es, nous avons reproduit thĂ©oriquement les observations et confirmĂ© cette interprĂ©tation (voir la figure ci-dessous)

Le BRGM utilise nos mĂ©thodes numĂ©riques adaptatives pour organiser par exemple, dans le cadre du projet Carib-Coast, des campagnes de simulations des niveaux d’eau atteints lors du passage d’ouragans virtuels, notamment dans les CaraĂŻbes (voir la figure ci-dessus). Chaque simulation prend en considĂ©ration la complexitĂ© du milieu ocĂ©anique (sa profondeur et son relief) aux diffĂ©rentes Ă©chelles spatiales de la mer des CaraĂŻbes, de ses Ăźles et des villes cĂŽtiĂšres. Pour ce faire, on exploite la flexibilitĂ© d’un maillage non structurĂ© dĂ©crivant l’espace avec un jeu de points, de segments et de faces, sous la forme par exemple de triangles. Il est alors possible de faire varier la rĂ©solution lors des simulations reproduisant avec un moindre coĂ»t les Ă©chelles physiques correctes tout au long de l’histoire de l’ouragan, de sa genĂšse Ă  son impact sur la cĂŽte.

GrĂące Ă  ces techniques et avec une Ă©quipe multidisciplinaire de chercheurs d’Inria, du BRGM, du CNRS et des universitĂ©s de Bordeaux et de Montpellier, nous avons l’ambition avec le projet Uhaina d’établir un continuum entre la recherche scientifique et les applications pour fournir, entre autres, des outils d’anticipation des risques de submersion marine bĂ©nĂ©ficiant de l’état de l’art en matiĂšre de modĂšles numĂ©riques, de techniques de simulation et de calcul Ă  haute performance. De quoi mieux protĂ©ger Galveston


| Pour la Science / supplĂ©ment au n° 546 ‱ 13
Sur cette simulation de l’impact d’un ouragan virtuel sur la Guadeloupe, on distingue la surĂ©lĂ©vation du niveau de l’eau Ă  l’échelle de l’arc antillais (grande carte) et de la submersion cĂŽtiĂšre induite sur la ville de Sainte-Anne (zoom)
a b
Un mascaret (a, à Podensac, en Gironde) est reproduit dans un canal artificiel en laboratoire (b) et par simulation numérique (c).
c
> Scannez ce QR code pour découvrir le projet Uhaina.

Les statistiques de l’extrĂȘme

Les catastrophes naturelles semblent survenir au hasard. Sont-elles pour autant imprĂ©visibles ? Non, grĂące Ă  la thĂ©orie des valeurs extrĂȘmes !

Auteurs

> StĂ©phane Girard Directeur de recherche, responsable de l’équipe-projet Statify au centre Inria de l’universitĂ© Grenoble-Alpes.

> Thomas Opitz Chercheur statisticien Ă  Inrae.

> Antoine Usseglio-Carleve Maßtre de conférences à Avignon université.

Canicules, sĂ©cheresses, feux de forĂȘts, tempĂȘtes et inondations ont durement marquĂ© la France en 2022. Et ces catastrophes naturelles aux consĂ©quences humaines et matĂ©rielles importantes sont loin de se limiter Ă  un seul pays. Ainsi, la mĂȘme annĂ©e, au Pakistan, des inondations ont fait au moins 1 700 morts, affectĂ© 33 millions d’habitants, dĂ©truit 250 000 habitations


La plupart de ces Ă©vĂ©nements sont favorisĂ©s, voire directement dĂ©clenchĂ©s par des conditions climatiques et mĂ©tĂ©orologiques particuliĂšres et leurs interactions avec notre façon d’occuper et d’utiliser la surface de la Terre. Ces cataclysmes sont-ils pour autant prĂ©visibles ?

OÙ ? QUAND ? COMMENT ?

Premier Ă©lĂ©ment de rĂ©ponse, selon les climatologues, le rĂ©chauffement global aura pour consĂ©quence l’augmentation de la frĂ©quence et de l’intensitĂ© de ces Ă©pisodes catastrophiques. Mais il reste de grandes incertitudes sur le « comment », le « quand » et le « oĂč ». De fait, il est difficile de prĂ©voir de façon dĂ©terministe les conditions mĂ©tĂ©orologiques au-delĂ  de plusieurs jours, en raison de la nature chaotique de la dynamique atmosphĂ©rique. En revanche, les reprĂ©sentations probabilistes et les mĂ©thodes statistiques pour Ă©tudier les Ă©vĂ©nements extrĂȘmes Ă 

partir des observations du passĂ© nous aident Ă  mieux anticiper les risques du futur en prĂ©voyant la nature, la frĂ©quence et l’ampleur de tels Ă©vĂ©nements qui se produiraient dans un territoire et dans un horizon temporel bien dĂ©finis.

Nous Ă©tudions comment ces probabilitĂ©s varient dans l’espace et dans le temps, ainsi que la conjonction de plusieurs types de phĂ©nomĂšnes, par exemple des prĂ©cipitations et des vents extrĂȘmes lors de tempĂȘtes particuliĂšrement dĂ©vastatrices. Un objectif majeur est de mieux anticiper les effets nĂ©fastes cumulĂ©s dus aux interactions entre plusieurs risques, qui peuvent largement dĂ©passer la somme des effets « risque par risque ». Pour cela, nous utilisons une branche particuliĂšre de la statistique, la thĂ©orie des valeurs extrĂȘmes. En quoi consiste-t-elle ?

De nombreuses analyses statistiques « classiques » se focalisent sur la partie centrale de la distribution des donnĂ©es et traduisent leur comportement en termes de moyennes, au dĂ©triment des « queues » de la distribution, oĂč se trouvent les valeurs extrĂȘmes. Ainsi, si nous ajustions un modĂšle de statistique classique Ă  partir de toutes les donnĂ©es disponibles, celui-ci manquerait de prĂ©cision pour estimer les Ă©vĂ©nements extrĂȘmes. C’est pourquoi nous analysons la distribution du maximum (ou bien du minimum, ou encore des valeurs qui dĂ©passent un certain seuil) plutĂŽt que les donnĂ©es dans leur ensemble. C’est le

| Pour la Science / supplĂ©ment au n° 546 ‱ 14 Le numĂ©rique | pour comprendre le systĂšme Terre
© INRIA / Projet IDOPT
> Renaud Barbero Climatologue et chercheur Ă  Inrae.

point de dĂ©part de la thĂ©orie des valeurs extrĂȘmes. Dans le cas de l’évolution du niveau d’une riviĂšre par exemple, les seules valeurs vraiment intĂ©ressantes (sur le plan des impacts) sont les valeurs Ă©levĂ©es ou basses. Trop Ă©levĂ©es, des inondations risquent d’apparaĂźtre, trop basses, la riviĂšre va vers l’assĂšchement.

UN INDICE NÉ DANS LES FILATURES

Le comportement du maximum (ou du minimum) peut ĂȘtre dĂ©duit mathĂ©matiquement du comportement thĂ©orique du phĂ©nomĂšne Ă©tudiĂ©, mais c’est impossible en pratique dĂšs lors que l’ensemble des probabilitĂ©s thĂ©oriques pour les Ă©vĂ©nements d’intĂ©rĂȘt, appelĂ© la « loi de probabilitĂ© », est inconnu. On prĂ©fĂšre alors s’appuyer sur le thĂ©orĂšme des valeurs extrĂȘmes, qui fournit une approximation du comportement du maximum quand la taille de l’échantillon est grande. Ce thĂ©orĂšme a notamment pour origine les travaux du mathĂ©maticien britannique Leonard Tippett, qui a thĂ©oriquement caractĂ©risĂ©

en 1928 les lois de maxima possibles. Il Ă©tait motivĂ© par des questions trĂšs concrĂštes liĂ©es Ă  l’industrie des filatures de coton au Royaume-Uni : un tissu se dĂ©chire quand le fil de rĂ©sistance minimale se casse


La forme de loi des valeurs extrĂȘmes dĂ©pend d’un paramĂštre clĂ©, nommĂ© « indice des valeurs extrĂȘmes », souvent notĂ© « gamma », qui dĂ©termine qualitativement et quantitativement le comportement des valeurs extrĂȘmes (voir la figure page suivante) . Si ce paramĂštre est nĂ©gatif, les valeurs extrĂȘmes sont bornĂ©es supĂ©rieurement et ne peuvent pas dĂ©passer une certaine limite. Si gamma est nul, les queues de la distribution sont dites « lĂ©gĂšres » : la probabilitĂ© d’observer une valeur extrĂȘme dĂ©croĂźt exponentiellement en fonction de son amplitude. Enfin, quand l’indice est positif, les queues de la distribution sont « lourdes » : la probabilitĂ© d’une valeur extrĂȘme reste importante, mĂȘme pour des valeurs trĂšs Ă©levĂ©es, et dĂ©croĂźt seulement comme une puissance de son amplitude inverse.

| Pour la Science / supplĂ©ment au n° 546 ‱ 15
Les analyses statistiques « classiques » traduisent le comportement des données en termes de moyennes.
Ce faisant, elles nĂ©gligent les valeurs extrĂȘmes
À lire L. de Haan et A. Ferreira, Extreme Value Theory: An Introduction, Springer, 2010. Profondeur (en mùtres) 8,36 7,80 7,25 6,69 6,12 5,60 5,04 4,46 3,90 3,34 2,79 2,23 1,67 1,11 0,56 0,00
Simulation d’inondation de la Loire vers La BonnĂ©e, prĂšs d’OrlĂ©ans.

PRÉVOIR LES FEUX DE FORÊTS ?

Les conditions mĂ©tĂ©orologiques favorables aux feux de forĂȘts dĂ©pendent des interactions complexes entre tempĂ©rature, prĂ©cipitations, humiditĂ© de l’air et vitesse du vent, qui varient sur des Ă©chelles spatiales et temporelles diffĂ©rentes. Dans des conditions particuliĂšres de ces paramĂštres, la vĂ©gĂ©tation se dessĂšche, ce qui facilite l’éclosion du feu ainsi que sa propagation. L’effet de ces variables sur le risque incendie est synthĂ©tisĂ© Ă  l’aide d’indices « feu-mĂ©tĂ©o », lesquels reflĂštent le niveau d’intensitĂ© attendu si un feu se dĂ©clenche un jour donnĂ©. Ces indices sont largement utilisĂ©s Ă  travers le monde par les services opĂ©rationnels, comme MĂ©tĂ©o-France, afin d’anticiper le niveau de risque sur les jours Ă  venir en fonction des prĂ©visions mĂ©tĂ©orologiques. Ils sont Ă©galement utilisĂ©s par les scientifiques afin de simuler l’activitĂ© potentielle des feux sur les dĂ©cennies Ă  venir Ă  partir des scĂ©narios d’évolution du climat du Giec.

C’est ce dernier cas qui nous intĂ©resse, car il caractĂ©rise typiquement les amplitudes d’évĂ©nements ayant un trĂšs fort impact, comme les feux de forĂȘts susceptibles de brĂ»ler de grandes surfaces (voir l’encadrĂ© ci-dessus) . Dans cette situation, l’étude « classique » des moyennes et des variances de l’échantillon risque au contraire d’induire en erreur, ces grandeurs ne pouvant ĂȘtre dĂ©finies mathĂ©mati-

quement lorsque gamma est grand ! Une composante importante de notre recherche se focalise donc sur la redĂ©finition des mĂ©thodes d’analyse de donnĂ©es classiques (classification, analyse des dĂ©pendances, rĂ©duction de dimension
) dans ce cadre extrĂȘme.

UNE QUESTION DE RETOUR

La valeur de gamma, qui est inconnue a priori, est estimĂ©e Ă  partir des observations du passĂ©. De lĂ , nous pouvons construire deux quantitĂ©s Ă©troitement liĂ©es, utiles pour les prĂ©dictions. D’abord, le niveau de retour qui, pour une longueur d’intervalle de temps fixĂ©e, correspond au seuil dĂ©passĂ© une fois en moyenne pendant cette pĂ©riode. Ensuite, le temps (ou la pĂ©riode) de retour, qui, pour un seuil fixĂ©, indique le temps nĂ©cessaire pour observer un dĂ©passement en moyenne. Ainsi, la crue de la Seine de 1910 est souvent qualifiĂ©e de crue centennale, car on estime que la hauteur d’eau mesurĂ©e de 8,62 mĂštres au pont d’Austerlitz, Ă  Paris, a une pĂ©riode de retour de cent ans. Inversement, la hauteur de 8,62 mĂštres correspond donc au niveau de retour Ă  cent ans.

Dans le cas d’une loi Ă  queue lourde, donc Ă  indice des valeurs extrĂȘmes positif, un doublement de ce gamma se traduit par l’élĂ©vation au carrĂ© du niveau de retour, Ă  pĂ©riode fixĂ©e. RĂ©ciproquement, ce doublement conduit Ă  une diminution Ă  la racine carrĂ©e du temps de retour, Ă  niveau de retour fixĂ©. Par ordre croissant, des valeurs typiques de gamma (voir la figure ci-contre) estimĂ©es sont de l’ordre de 0,1 pour des prĂ©cipitations dans la rĂ©gion de Montpellier, 0,25 pour des hauteurs de vagues lors d’un tsunami, 0,7 pour des surfaces brĂ»lĂ©es par des feux de forĂȘt en rĂ©gion mĂ©diterranĂ©enne française, et 0,8 pour les dommages financiers causĂ©s par les tornades aux États-Unis. En d’autres termes, des niveaux de retour dont l’observation semble impossible Ă  l’échelle d’un siĂšcle lorsque la valeur de gamma est petite auront une pĂ©riode de retour de plus en plus courte Ă  mesure que l’indice des valeurs extrĂȘmes augmente.

La valeur de l’ « indice des valeurs extrĂȘmes » (gamma) influe sur le lien entre les niveaux de retour et les pĂ©riodes de retour. Plus gamma est grand, plus la probabilitĂ© de voir advenir un Ă©vĂ©nement extrĂȘme (Ă  haut niveau) dans un temps raccourci (pĂ©riode de retour) augmente.

De nombreux projets en cours, Ă  l’intersection de la thĂ©orie des valeurs extrĂȘmes, de la statistique spatiale et de l’intelligence artificielle, ambitionnent de mieux caractĂ©riser et prĂ©dire l’ampleur des risques extrĂȘmes en fonction du territoire, de la saison, des conditions mĂ©tĂ©orologiques et du changement climatique. Ils offrent Ă  la fois des dĂ©fis scientifiques passionnants et des perspectives pour mieux prĂ©venir les consĂ©quences du changement climatique.

| Pour la Science / supplĂ©ment au n° 546 ‱ 16
© Shutterstock/yelantsevv Période de retour Niveau de retour 0 0 50 25 75 100 10 30 20 40 Gamma 0,1 0,25 0,7 0,8 Le
numérique | pour comprendre le systÚme Terre

Le numérique au service de la transition énergétique

Pour Ă©chapper autant que faire se peut aux foudres du rĂ©chauffement climatique, dĂ©cideurs et politiques en appellent Ă  une indispensable transition Ă©nergĂ©tique. En quoi consiste-t-elle ? Quelles Ă©nergies renouvelables faut-il privilĂ©gier (marines, gĂ©othermie
) et quel est leur potentiel ? Que faire du CO2 Ă©mis ? Les chercheurs d’Inria sont Ă  pied d’Ɠuvre pour montrer que le numĂ©rique est des plus pertinents pour rĂ©pondre Ă  toutes ces questions. À la clĂ©, l’avĂšnement d’une sociĂ©tĂ© plus vertueuse !

| Pour la Science / supplĂ©ment au n° 546 ‱ 17 Partie 2 |

La France a tout pour devenir une « greentech nation » !

Le numĂ©rique peut-il contribuer Ă  dĂ©velopper un monde plus vertueux, c’est-Ă -dire plus respectueux de l’environnement ?

De quelle maniÚre exactement les technologies numériques favorisent-elles la transition

énergétique ?

Pour rĂ©ussir la transition Ă©nergĂ©tique, qui est indispensable pour justement protĂ©ger l’environnement et attĂ©nuer les effets du rĂ©chauffement climatique, plusieurs facteurs entrent en jeu. Le premier consiste Ă©videmment Ă  optimiser les moyens de production des Ă©nergies, comme les Ă©oliennes, les parcs photovoltaĂŻques, les centrales nuclĂ©aires ou la production d’hydrogĂšne
 Mais, juste aprĂšs, le second facteur le plus efficace est probablement le numĂ©rique. C’est dire le potentiel de ces technologies ! Avec Ă  la clĂ© des bĂ©nĂ©fices multiples sur la consommation d’énergie, et plus largement sur le changement climatique.

Il existe d’abord un lien direct entre transition Ă©nergĂ©tique et numĂ©rique. Cela concerne ce que l’on appelle les smart grids, c’est-Ă -dire les rĂ©seaux Ă©lectriques intelligents dans lesquels on pilote l’énergie en temps rĂ©el pour adapter la demande Ă  l’offre. Prenons l’exemple de ce moment oĂč tous les gens rentrent du travail le soir. Ils prennent une douche, cuisinent, mettent leur voiture Ă©lectrique Ă  recharger
 On observe alors une pointe de consommation d’électricitĂ©. Or si l’on mettait en place un ensemble de technologies afin de piloter, et notamment de diffĂ©rer cette demande, on « Ă©craserait » cette pointe de consommation et rĂ©duirait considĂ©rablement l’empreinte carbone de la production d’électricitĂ©. L’alimentation d’un ballon d’eau chaude, la charge d’un vĂ©hicule, la mise en route d’une machine Ă  laver ou de certains Ă©quipements industriels peuvent en effet ĂȘtre facilement diffĂ©rĂ©es. Le plus souvent sans aucune gĂȘne pour les utilisateurs et avec un impact trĂšs important sur le rĂ©seau Ă©lectrique.

Ceci repose notamment sur des technologies dites de machine learning, une intelligence artificielle par laquelle les machines apprennent automatiquement. Mais pour que ça marche, il faudrait adopter une approche systĂ©mique, Ă  l’échelle de la nation, d’une part en normalisant les technologies, et d’autre part en les promouvant et en modifiant sensiblement les habitudes des consommateurs.

OĂč en est le dĂ©veloppement de ces smart grids ?

Le phĂ©nomĂšne est encore trĂšs nouveau et notre pays n’est pas Ă  l’avant-garde dans ce domaine. C’est dommage. Ailleurs dans le monde, comme en Chine par exemple, quelques smart cities (« villes intelligentes ») existent dĂ©jĂ . Mais il s’agit davantage d’opĂ©rations de communication que de

| Pour la Science / supplĂ©ment au n° 546 ‱ 18 Grand angle ©
Christian de Brosses

rĂ©alité  En revanche, certains industriels, comme Schneider Electric, Siemens ABB ou encore Huawei, s’intĂ©ressent de trĂšs prĂšs Ă  ces sujets.

Existe-t-il d’autres domaines d’application des technologies numĂ©riques qui contribuent Ă©galement Ă  la dĂ©carbonation ?

Les exemples ne manquent pas ! L’agriculture, par exemple, Ă©met une quantitĂ© considĂ©rable de gaz Ă  effet de serre. Or les agriculteurs doivent gĂ©rer des centaines de paramĂštres simultanĂ©s pour ĂȘtre productifs : types de semences, climat, matĂ©riel
 Le machine learning est Ă  mĂȘme de prendre en compte cet aspect multifactoriel afin d’optimiser ces paramĂštres et ainsi de rĂ©duire les Ă©missions de carbone et de mĂ©thane des exploitations.

Autre illustration, cette fois dans l’industrie : les chaĂźnes d’approvisionnement, qui reprĂ©sentent jusqu’à 80 % des Ă©missions de CO2. Ces chaĂźnes sont d’une grande complexitĂ© et visent Ă  synchroniser des flux en provenance de multiples points du globe pour finalement fabriquer des produits trĂšs Ă©laborĂ©s.

Or afin d’éviter les ruptures de stocks, les moyens de transport carbonĂ©s (avion, camion
) sont souvent privilĂ©giĂ©s de façon sous-optimale.

De nombreux travaux dĂ©montrent que les outils numĂ©riques prĂ©dictifs sont d’une grande utilitĂ© pour optimiser ces flux, avec pour consĂ©quence la diminution sensible de l’empreinte carbone de ce secteur. Il existe d’autres exemples dans le logement, les transports de personnes, les systĂšmes de soins, etc.

En revanche, on sait aussi que le numĂ©rique est lui-mĂȘme fortement Ă©metteur de CO2
 Quelles sont les solutions ?

Comme on l’a vu prĂ©cĂ©demment, il y a effectivement un volet dit green IT dans le numĂ©rique, grĂące auquel diffĂ©rents secteurs sont en mesure de diminuer leur consommation Ă©nergĂ©tique, leur empreinte carbone ou leurs Ă©missions de gaz Ă  effet de serre. Mais il y a Ă©galement un volet que l’on pour-

lire

rait appeler grey IT
 NĂ©anmoins, je reste optimiste pour l’avenir. La France a les moyens et les atouts pour bientĂŽt passer de start-up nation Ă  greentech nation, car plusieurs facteurs contribuent Ă  amĂ©liorer la performance des technologies numĂ©riques.

Lesquels ?

D’abord, il existe une volontĂ© forte des fabricants d’équipements de rĂ©duire leur empreinte carbone. Les plus grands, comme Samsung et Apple, ont rĂ©cemment annoncĂ© viser l’objectif zĂ©ro Ă©missions nettes (dit « zĂ©ro net ») pour, respectivement, 2035 et 2050. En France, les opĂ©rateurs Orange, SFR et Bouygues Telecom veulent l’atteindre au plus tard en 2040, tandis que Free a pris cet engagement pour 2030. Un objectif particuliĂšrement ambitieux, car Ă  la diffĂ©rence de la notion de neutralitĂ© carbone, le rĂ©fĂ©rentiel zĂ©ro net correspond Ă  une rĂ©duction Ă  zĂ©ro des Ă©missions propres Ă  l’activitĂ©, induisant en particulier le scope 3, c’est-Ă -dire le pĂ©rimĂštre le plus large de calcul des Ă©missions de gaz Ă  effet de serre incluant le transport, le traitement des dĂ©chets, l’exploitation des ressources


De nombreux constructeurs ont Ă©galement fait des annonces similaires, plus gĂ©nĂ©ralement calĂ©es sur 2040. Y parviendront-ils ? C’est difficile Ă  dire
 Mais ce serait un pas considĂ©rable. Car, d’aprĂšs mes calculs, le B2C (business to consumer) reprĂ©sente probablement 50 à 55 % des Ă©missions de CO2 du secteur numĂ©rique. De plus, les systĂšmes informatiques actuels, trĂšs largement sous-performants devraient ĂȘtre considĂ©rablement amĂ©liorĂ©s. En effet, l’intelligence artificielle fait des progrĂšs substantiels sur le plan de l’efficacitĂ©. Il est donc lĂ©gitime d’espĂ©rer qu’un usage massif du numĂ©rique ne soit pas nĂ©cessairement aussi Ă©metteur de CO 2 que l’on pourrait le craindre. Enfin, la loi de Moore, qui double la puissance de calcul Ă  consommation Ă©gale tous les deux ans, limite elle aussi notablement les Ă©missions du secteur numĂ©rique. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 19
« Pour rĂ©ussir la transition Ă©nergĂ©tique, plusieurs facteurs entrent en jeu. Le premier consiste Ă©videmment Ă  optimiser les moyens de production d’énergie. Mais le second facteur le plus efficace est probablement le numĂ©rique »
À
I L’important, c’est le CO2 Ouvrage collectif sous la direction de MichaĂ«l Trabbia, avec la participation de Gilles Babinet, DĂ©bats publics, 2022.

Pour un déploiement réussi des énergies renouvelables

Comment planifier et mettre en Ɠuvre la transition Ă©nergĂ©tique dans un monde aux ressources limitĂ©es ? En couplant des modĂšles numĂ©riques Ă  des approches participatives et aux sciences humaines et sociales !

Si l’on en croit le discours institutionnel, la transition vers les Ă©nergies renouvelables est enclenchĂ©e. Selon le dernier rapport de l’Agence internationale de l’énergie (AIE), la crise Ă©nergĂ©tique que nous connaissons actuellement accĂ©lĂšre mĂȘme leur dĂ©ploiement. Si bien que, sur la pĂ©riode 2022-2027, l’éolien devrait doubler ses capacitĂ©s installĂ©es par rapport aux cinq derniĂšres annĂ©es, et le photovoltaĂŻque les tripler ! Une bonne nouvelle en soi ?

Dans le monde scientifique, des voix dissonantes commencent Ă  se faire entendre. Selon certaines, cette notion de transition n’a jamais Ă©tĂ© observĂ©e historiquement – les Ă©nergies se sont toujours accumulĂ©es et non substituĂ©es – et reste donc incertaine pour le futur. De plus, des travaux de modĂ©lisation remettent en cause la possibilitĂ© d’opĂ©rer une transition tout en maintenant la croissance Ă©conomique. En effet, les ressources Ă  dĂ©ployer (humaines, financiĂšres, matĂ©rielles
) sont limitĂ©es, et ce qui est mobilisĂ© pour la transition ne pourra l’ĂȘtre pour les autres secteurs.

| Pour la Science / supplĂ©ment au n° 546 ‱ 20 Le numĂ©rique | au service de la transition Ă©nergĂ©tique
© Alterre Bourgogne-Franche-Comtéwww.alterrebourgognefranchecomte.org
L’idĂ©e de mĂ©tabolisme territorial rend compte de la circulation des flux de matiĂšres et d’énergies.
Auteur
> Jean-Yves Courtonne Chercheur dans l’équipe-projet Steep au centre Inria de l’universitĂ© Grenoble-Alpes

L’équipe-projet Steep d’Inria travaille sur ce sujet avec l’équipe MinĂ©ralogie de l’Institut des sciences de la terre (ISTerre), qui a dĂ©veloppĂ© DyMEMDS, un modĂšle dynamique reliant le produit intĂ©rieur brut (PIB) Ă  la consommation d’énergies et de matĂ©riaux tels que les mĂ©taux ou le bĂ©ton. À titre d’exemple, nous estimons que le dĂ©ploiement de l’éolien et du solaire, nĂ©cessaire au scĂ©nario Sky, imaginĂ© par Shell (qui prĂ©voit une multiplication par trois de la consommation d’électricitĂ© dans le monde entre 2015 et 2050), mobiliserait en 2050 l’équivalent de 75 % du cuivre consommĂ© pour tous les usages en 2015 !

Notre objectif est donc de contribuer Ă  enrichir les dĂ©bats sur les autres perspectives possibles pour nos sociĂ©tĂ©s, tant au niveau local que global. À quoi ressemblerait une Ă©conomie qui ne dĂ©passerait pas les limites planĂ©taires ?

Quels arbitrages devront ĂȘtre faits entre les critĂšres socioĂ©conomiques et environnementaux ? Notre approche consiste Ă  imaginer et Ă©valuer des futurs radicalement diffĂ©rents.

LE MÉTABOLISME DES TERRITOIRES

Comment s’y prend-on ? Nous analysons d’abord l’économie d’un point de vue biophysique, c’estĂ -dire en tenant compte des stocks et des flux de matiĂšres et d’énergies sur lesquels les sociĂ©tĂ©s reposent. Par analogie avec les sciences de la vie, le terme de « mĂ©tabolisme territorial » est justement apparu pour dĂ©signer les flux (aliments, matĂ©riaux
) qui permettent Ă  un territoire de se dĂ©velopper et d’évoluer en rĂ©pondant aux besoins de base de la population (se nourrir, se loger
).

Il importe aussi de penser les problĂšmes de façon globale, en valeur absolue, plutĂŽt que par unitĂ© de bien ou de service. On sait en effet qu’augmenter l’efficacitĂ© Ă©nergĂ©tique d’une technologie ne garantit pas la baisse de la consommation globale. C’est mĂȘme le contraire qui est observĂ© empiriquement : on parle d’« effet rebond » en gĂ©nĂ©ral, et ici de « paradoxe de Jevons ». Enfin, la prise en compte des effets indirects est indispensable : certaines actions ne font que dĂ©placer les problĂšmes vers d’autres endroits du monde, d’autres secteurs ou d’autres enjeux.

Prenons l’exemple de l’économie des services, qui est souvent prĂ©sentĂ©e comme dĂ©matĂ©rialisĂ©e. Celle-ci repose en rĂ©alitĂ© sur le transport et le numĂ©rique, deux secteurs Ă©minemment matĂ©riels.

LE SUIVI DES FILIÈRES DE LA BIOÉCONOMIE

Pour modĂ©liser les flux de matiĂšre et d’énergie, nous utilisons des outils numĂ©riques, comme l’optimisation et la propagation d’incertitudes (le modĂšle doit restituer ce qui relĂšve de connaissances robustes et ce qui demeure des zones d’ombre Ă  prĂ©ciser ultĂ©rieurement). Ces outils sont aujourd’hui matures et valorisĂ©s par TerriFlux, une coopĂ©rative issue de l’équipe-projet Steep spĂ©cialisĂ©e dans l’analyse du fonctionnement multiĂ©chelle des filiĂšres de production. Les modĂšles les plus prĂ©cis concernent les filiĂšres agroalimentaires et forĂȘt-bois, qui sont au cƓur du dĂ©veloppement de la bioĂ©conomie (Ă©conomie basĂ©e sur la biomasse plutĂŽt que sur le carbone fossile). Ils aident en particulier Ă  mieux apprĂ©hender les potentielles concurrences d’usage, notamment entre l’alimentation, humaine ou animale, les matĂ©riaux biosourcĂ©s et l’énergie.

Notre travail consiste Ă©galement Ă  effectuer une analyse qualitative des dimensions immatĂ©rielles et institutionnelles. Qui sont les acteurs derriĂšre les flux Ă©tudiĂ©s ? Comment sont-ils organisĂ©s et quelles sont leurs relations de pouvoir ? Ces questions, qui relĂšvent des sciences humaines et sociales, sont indispensables pour identifier les blocages et imaginer des mĂ©canismes pour les dĂ©passer. Enfin, pour ancrer les modĂšles Ă©voquĂ©s ci-dessus dans les territoires et se confronter au monde rĂ©el, le recours Ă  des processus participatifs s’impose. L’objectif est de faciliter l’engagement de tous les acteurs (citoyens, associations, Ă©lus
) dans une dynamique transformative.

> Scannez ce QR code pour dĂ©couvrir comment Inria accompagne l’émergence d’énergies plus propres.

Des dĂ©marches de ce type dĂ©butent au PĂŽle d’équilibre territorial et rural (PETR) du Grand Briançonnais et dans le cadre du Projet alimentaire inter-territorial (PAiT) de la grande rĂ©gion grenobloise. Le but est d’évaluer si les modĂšles dĂ©veloppĂ©s en laboratoire les aident Ă  mieux cerner les vulnĂ©rabilitĂ©s de leur territoire et Ă  imaginer des stratĂ©gies de transformation.

| Pour la Science / supplĂ©ment au n° 546 ‱ 21
Dans un scénario de croissance et de transition, la construction des infrastructures éoliennes et photovoltaïques nécessiterait en 2050
l’équivalent de 75 % de tout le cuivre consommĂ© en 2015

La recherche en action chez Inria

Sur le front de la lutte contre le rĂ©chauffement climatique et la protection de la biodiversitĂ©, les Ă©quipes-projets d’Inria sont mobilisĂ©es pour faire avancer la science.

| Pour la Science / supplĂ©ment au n° 546 ‱ 22
1 Le numérique | au service de la transition énergétique

1 ‱ ModĂšle de circulation ocĂ©anique Ă  trĂšs haute rĂ©solution (1 km). On distingue un jet central de l’Ouest vers l’Est, trĂšs instable, qui mĂ©andre beaucoup, ce qui crĂ©e des tourbillons. © Inria / MOISE - CNRS / LEGI / Photo N. Hairon. 2 ‱ Avec l’application mobile Ambiciti, les tĂ©lĂ©phones captent le niveau du bruit ambiant et donnent accĂšs aux mesures prises pendant le trajet. © Inria - MIMOVE / Photo C. Morel. 3 ‱ Mesure de la pollution pour Ă©tablir des prĂ©dictions et des estimations sur la qualitĂ© de l’air. © Inria - AGORA / Photo C. Morel.

| Pour la Science / supplĂ©ment au n° 546 ‱ 23
3
2
1 2 Le numérique | au service de la transition énergétique

1 ‱ Approximation macroscopique d’une ville pour prĂ©venir les inondations. À l’écran, on distingue l’axe principal et les rues latĂ©rales. © Inria - LEMON / Photo H. Raguet. 2 ‱ ModĂ©lisation d’un objet flottant sur l’eau. © Inria - ANGE / Photo C. Morel. 3 ‱ ModĂ©lisation et contrĂŽle de phytopathogĂšnes de plantes pĂ©rennes, notamment les cafĂ©iers au Cameroun (sur le tableau, des drupes de cafĂ©ier). © Inria - BIOCORE / Photo L. Jacq. 4 ‱ ModĂ©lisation des mĂ©ristĂšmes (les zones de croissance des plantes) et, Ă  droite, la vascularisation d’une tomate. © Inria - VIRTUAL PLANTS / Photo H. Raguet.

| Pour la Science / supplĂ©ment au n° 546 ‱ 25
3 4

Le numérique | au service de la transition énergétique

La mer qu’on voit danser, un potentiel sous-exploitĂ©

houlomotrice produite par le mouvement des vagues, l’éolien offshore , l’énergie de la biomasse marine, en particulier des microalgues (voir l’encadrĂ© page ci-contre) et bien d’autres encore


Dans Quatrevingt-Treize , paru en 1874, Victor Hugo est catĂ©gorique : « RĂ©flĂ©chissez au mouvement des vagues, au flux et reflux, au va-et-vient des marĂ©es. Qu’est-ce que l’ocĂ©an ? Une Ă©norme force perdue. Comme la terre est bĂȘte ! Ne pas employer l’ocĂ©an ! » Certains ne l’avaient pas attendu, par exemple en construisant dĂšs le xiie siĂšcle des moulins Ă  marĂ©es. Mais dans un contexte de rĂ©chauffement climatique toujours plus aigu, l’impĂ©rieuse nĂ©cessitĂ© d’une transition Ă©nergĂ©tique a considĂ©rablement augmentĂ© l’intĂ©rĂȘt pour les Ă©nergies renouvelables d’origine marine (EMR). Et elles sont nombreuses ! Outre l’énergie marĂ©motrice, citons les Ă©nergies hydroliennes exploitant les courants marins, l’énergie

Le potentiel de ces EMR est gigantesque. En thĂ©orie, selon le World Energy Council, il serait de
 2 millions de terawattheures par an (TWh/an). Aujourd’hui, un peu plus de 100 000 TWh/an seraient techniquement ou Ă©conomiquement exploitables, largement de quoi couvrir les besoins de l’humanitĂ© estimĂ©s Ă  20 000 TWh/an. Cependant, il y a loin de la coupe aux lĂšvres, car actuellement les EMR reprĂ©senteraient Ă  peine 0,05 % de la production mondiale d’énergie renouvelable. Comment augmenter cette part ? Un prĂ©alable Ă  cet essor attendu passe par savoir oĂč l’on va, et pour ce faire la modĂ©lisation s’impose, Ă  toutes les Ă©tapes.

Y’A DE LA HOULE !

C’est un des champs d’investigation de l’équipeprojet Cardamom d’Inria Bordeaux-Sud-Ouest, Ă  Talence. « Nous simulons des dispositifs qui rĂ©cupĂšrent l’énergie de la houle », explique Mario Ricchiuto, responsable de l’équipe-projet Cardamom. L’idĂ©e est ancienne, le premier brevet connu

| Pour la Science / supplĂ©ment au n° 546 ‱ 26
© Inria / Photo M. Magnin, Photo L. Jacq
Vagues, marĂ©es, courants
 La mer regorge de sources d’énergies renouvelables presque inĂ©puisables et pourtant largement sousexploitĂ©es. La modĂ©lisation des ressources et des moyens de les exploiter aiderait Ă  inverser la tendance.
Au sein de l’équipe-projet Cardamom, le mouvement des vagues est simulĂ© (ici, lors d’un tsunami) aussi bien pour prĂ©voir les risques de submersion que pour Ă©valuer le potentiel Ă©nergĂ©tique.

Dans un petit photobiorĂ©acteur expĂ©rimental conçu par l’équipe-projet Biocore, la culture de microalgues est gĂ©rĂ©e par ordinateur.

visant Ă  l’utilisation de l’énergie des vagues ayant Ă©tĂ© dĂ©posĂ© Ă  Paris
 en 1799 ! De quoi s’agit-il prĂ©cisĂ©ment ? D’objets, plus ou moins complexes, mis en mouvement par les vagues et dotĂ©s de mĂ©canismes consacrĂ©s Ă  la rĂ©cupĂ©ration de l’énergie associĂ©e.

La modĂ©lisation intervient en divers endroits, prĂ©cise Mario Ricchiuto : « D’abord, il s’agit de modĂ©liser le littoral et l’environnement cĂŽtier, car il est indispensable de connaĂźtre la mĂ©tĂ©o des vagues ou celle des courants pour caractĂ©riser un site d’un point de vue de ses propriĂ©tĂ©s physiques et estimer son potentiel Ă©nergĂ©tique. »

La deuxiĂšme Ă©tape porte sur la modĂ©lisation de la prĂ©sence d’un objet flottant Ă  la surface de l’eau et y oscillant. Cette phase est beaucoup plus complexe qu’il n’y paraĂźt au premier abord et met en jeu toute une panoplie d’approches diffĂ©rentes auxquelles s’intĂ©resse particuliĂšrement Martin Parisot, qui a rĂ©cemment rejoint l’équipe-projet. L’objectif est de dĂ©crire mathĂ©matiquement le systĂšme, avec des Ă©quations appropriĂ©es, Ă  des niveaux variables de finesse (un paramĂštre important qui influe sur le temps de calcul) et de comprendre les structures qui se cachent derriĂšre.

Que ce soit pour les vagues seules ou en prĂ©sence d’un objet, des modĂšles particuliĂšrement efficaces ont Ă©tĂ© obtenus grĂące Ă  une « astuce » : plutĂŽt que de s’attaquer Ă  l’écoulement tridimensionnel de l’eau, la dimension verticale et la surface libre sont rĂ©unies en une seule et mĂȘme inconnue de façon Ă  obtenir un modĂšle Ă  deux dimensions. Une fois les Ă©quations ad hoc réécrites, ce passage de la 3D Ă  la 2D, s’il s’accompagne certes d’une perte d’informations, autorise un calcul beaucoup plus rapide. Dans certaines applications, le gain de temps est d’un facteur 100, voire 1 000 !

COMPRESSIBLE OU NON ?

D’autres travaux ont Ă©galement rĂ©vĂ©lĂ© un phĂ©nomĂšne intĂ©ressant. Les Ă©quations utilisĂ©es pour modĂ©liser la surface libre relĂšvent de la physique des fluides compressibles, par exemple celle de l’air dans un ballon qu’on peut comprimer. DĂšs lors qu’on pose un dispositif houlomoteur sur l’eau, les Ă©quations se rapprochent de celles de fluides incompressibles, ce qui se comprend, car l’objet contraint l’eau.

Ajoutons que cette dĂ©marche de modĂ©lisation d’un objet posĂ© sur une surface libre ne s’applique pas seulement Ă  la situation d’un dispositif houlomoteur flottant sur la mer. Elle peut se gĂ©nĂ©raliser, Martin Parisot

LA VOIE DES ALGUES

Il y a trente ans, les chercheurs s’intĂ©ressaient aux algues avec des yeux d’ocĂ©anographes. Depuis une vingtaine d’annĂ©es, ils ont aussi ceux d’énergĂ©ticiens. En effet, certaines microalgues stockent des lipides dont il est possible de faire des carburants, et c’est l’un des sujets d’étude de l’équipe-projet Biocore d’Inria (avec Inrae et le laboratoire d’OcĂ©anographie de Villefranche-sur-Mer), dont Olivier Bernard est le responsable. Plus largement, prĂ©cise-t-il, « il s’agit d’étudier des Ă©cosystĂšmes artificiels dans diverses conditions ». Pourquoi les microalgues ? Parce que, rĂ©sume le chercheur, « ces organismes se dĂ©veloppent rapidement, ont une productivitĂ© dix fois supĂ©rieure Ă  celle des plantes terrestres et, en culture, n’entrent pas en compĂ©tition avec les plantations vivriĂšres. » Deux voies principales se distinguent pour extraire de l’énergie, celle des lipides citĂ©e plus haut, et celle qui consiste Ă  mĂ©thaniser la matiĂšre organique obtenue aprĂšs culture sur, par exemple, des effluents urbains. Dans ce dernier cas, le bilan environnemental est bien meilleur. Quelle que soit la voie choisie, la modĂ©lisation s’impose pour comprendre le fonctionnement de l’écosystĂšme complexe riche en mĂ©canismes parfois contradictoires. Par exemple, plus la biomasse algale est importante, plus la lumiĂšre pĂ©nĂštre difficilement le milieu. Il s’agit dĂšs lors d’identifier les conditions idĂ©ales d’exploitation. Olivier Bernard travaille, avec Julien Salomon, de l’équipe-projet Ange, sur la question du brassage, afin que chaque individu ait accĂšs Ă  suffisamment de lumiĂšre. Ici, les efforts de modĂ©lisation portent sur le couplage fort entre hydrodynamique et biologie, indispensable Ă  maĂźtriser. Ces rĂ©flexions ont menĂ© Biocore Ă  imaginer un systĂšme oĂč les algues ne sont pas agitĂ©es, mais collĂ©es Ă  un support rotatif, ce qui rĂ©duit l’énergie consommĂ©e. La rĂ©colte, par simple raclage, en est aussi simplifiĂ©e. Le systĂšme est exploitĂ© par la sociĂ©tĂ© Inalve. En amont de ce brevet, on trouve les travaux menĂ©s dans le cadre du projet Algae in silico, financĂ© par Inria. AchevĂ© en 2020, il trouve des prolongements notamment dans un programme soutenu par l’ANR et copilotĂ© par l’IRD, Inria, Total Énergies
 L’idĂ©e ? Produire de l’énergie Ă  partir d’algues en utilisant des rĂ©sidus pĂ©troliers. Double avantage donc, puisque la dĂ©pollution est favorisĂ©e.

y travaille, Ă  l’écoulement d’une riviĂšre souterraine en contact avec le substrat rocheux ou bien au dĂ©placement d’objets lourds, comme des voitures emportĂ©es lors d’une submersion.

> Scannez ce QR code pour dĂ©couvrir comment les chercheurs d’Inria passent du modĂšle physique au modĂšle numĂ©rique.

L’étape de modĂ©lisation suivante porte sur le dispositif, houlomoteur ou autre, lui-mĂȘme, sur son ancrage et son fonctionnement parfois complexe comme celui que dĂ©veloppe la start-up bordelaise Seaturns, dont Inria est partenaire. Ce type de modĂ©lisation est aussi au cƓur des travaux de l’équipeprojet Ange, dont Julien Salomon est le responsable.

| Pour la Science / supplĂ©ment au n° 546 ‱ 27

Le potentiel exploitable des EMR

L’humanitĂ© consomme

20 000 TWh/an

 300 Ă  800 TWh/an pour les hydroliennes et l’énergie des marĂ©es

 8 000 Ă  80 000 TWh/an pour l’énergie des vagues et de la houle

 18 500 TWh/an pour l’éolien offshore

 10 000 TWh/an pour l’énergie thermique des mers

Il raconte : « Pour exploiter les EMR, ingĂ©nieurs et chercheurs en mĂ©canique conçoivent des dispositifs. Notre tĂąche consiste Ă  introduire un coup d’Ɠil mathĂ©matique en apportant des mĂ©thodes certifiĂ©es, c’est-Ă -dire basĂ©es sur des thĂ©orĂšmes. Plus prĂ©cisĂ©ment, Ă  partir d’équations qu’ils nous fournissent et que l’on ne sait pas rĂ©soudre, nous dĂ©veloppons des mĂ©thodes numĂ©riques pour approcher le plus rapidement possible leurs solutions avec une estimation de l’erreur commise. »

Aujourd’hui, quiconque rĂ©flĂ©chit au design d’une pale d’hydrolienne ou d’éolienne utilise un procĂ©dĂ©

imaginĂ© dans les annĂ©es 1920 par le Britannique Hermann Glauert. Approximative, sans Ă©quations – ni diffĂ©rentielles ni aux dĂ©rivĂ©es partielles –, elle consiste en un systĂšme de trois Ă©quations non linĂ©aires Ă  rĂ©soudre par des techniques jusqu’alors non certifiĂ©es. Julien Salomon a proposĂ© de nouvelles façons de faire, plus rapides et dĂ©sormais certifiĂ©es. « La mĂ©thode Glauert est toujours utilisĂ©e, prĂ©cise-t-il, mais en premiĂšre instance pour un design initial, celui-ci Ă©tant ensuite affinĂ© par des modĂ©lisations plus complexes
 et plus gourmandes en temps de calcul afin de converger vers un rĂ©sultat optimal, par exemple sur le plan du rendement. » Ces innovations nĂ©es chez Inria ont Ă©tĂ© utilisĂ©es notamment pour une hydrolienne flottante installĂ©e sur la Garonne par la sociĂ©tĂ© bordelaise Hydrotube Énergie.

Au-delĂ  du dispositif seul, Mario Ricchiuto rappelle que l’on doit imaginer une Ă©tape de modĂ©lisation supplĂ©mentaire, celle de la mise en place d’un parc d’engins dĂ©ployĂ©s sur un site Ă  fort potentiel. Quelle disposition choisir ? Quelles interactions prĂ©voir ? Autant de questions auxquelles seule la modĂ©lisation pourra rĂ©pondre.

À L’ASSAUT DU RAZ

À plus court terme, l’étape suivante pour Julien Salomon consistera Ă  complexifier le modĂšle qu’il a conçu afin de le rendre plus prĂ©cis encore, par exemple en prenant en compte la traĂźnĂ©e Ă  l’arriĂšre de l’engin. Également dans les cartons d’Ange, un projet sur le raz Blanchard, un courant trĂšs puissant (Ă©quivalent Ă  une ou deux centrales nuclĂ©aires) entre le cap de la Hague et l’üle anglo-normande d’Aurigny, que l’on aimerait exploiter. Il convient donc d’en estimer le potentiel (voir la figure ci-contre)

Cette simulation des courants de marĂ©e au niveau du raz Blanchard rĂ©vĂšle les vitesses moyennĂ©es de l’eau (en mĂštres par seconde, croissantes, du blanc au rouge). Ici, l’instant montrĂ© correspond au jusant pour une marĂ©e de vives-eaux (coefficient 108).

Les prĂ©visions de mĂ©tĂ©o locale, notamment des vents trĂšs localisĂ©s et en temps rĂ©el, sont utiles pour les Ă©oliennes, mais aussi pour les rĂ©gates en mer. Aussi Mireille Bossy, spĂ©cialiste du sujet et responsable de l’équipe-projet Calisto, au centre Inria d’universitĂ© CĂŽte d’Azur, est-elle mobilisĂ©e pour les Jeux olympiques 2024, dont les Ă©preuves de voile se dĂ©rouleront Ă  Marseille.

Quant Ă  l’équipe-projet Cardamom, elle travaille actuellement avec l’équipe-projet Memphis Ă  une expĂ©rience de « mĂ©lange de modĂšles » ! Il s’agit de combiner des modĂšles trĂšs aboutis, trĂšs fins dans leurs rĂ©sultats, avec d’autres plus « approximatifs » mais plus rapides, de façon Ă  obtenir un modĂšle hybride, Ă©quivalent Ă  un modĂšle trĂšs onĂ©reux, mais ici avec un coĂ»t plus rĂ©duit. Cette approche dite « multifidĂ©litĂ© » est en cours d’application sur le flotteur de la sociĂ©tĂ© Seaturns Ă©voquĂ© prĂ©cĂ©demment.

Pris parmi de nombreux projets de recherche et d’applications pour exploiter les EMR, ces quelques exemples laissent espĂ©rer une augmentation prochaine et notable de leur part dans le mix Ă©nergĂ©tique. Il sera alors loin le temps oĂč l’énergie des vagues ne servait qu’à actionner des cloches juchĂ©es sur des bouĂ©es en guise de signalisation maritime, ce que Victor Hugo Ă©voquait dans L’Homme qui rit comme une « sorte de clocher de la mer
 »

| Pour la Science / supplĂ©ment au n° 546 ‱ 28
© Lusac (Unicaen). Le numérique | au service de la transition énergétique
Latitude ( ° ) Longitude
- 2°3’ 49 6’ 49 65’ 49°75’ 49°7’ 49°8’ 49 85’ - 2°2’ - 2° Cap de la Hague Aurigny - 2°1’ - 1°9’ - 1°8’ 5 4 3 2 1 0
(°)

Mélodie numérique en sous-sol

Quel est le rĂŽle du stockage du CO2 dans la lutte contre le changement climatique ?

L’enjeu, c’est la dĂ©carbonation, en particulier des industries au niveau europĂ©en, mais aussi de la production mondiale d’énergie, afin de diminuer la quantitĂ© de CO2 Ă©mis dans l’atmosphĂšre. À ce titre, le captage et le stockage du CO 2 constituent des solutions. Le principe consiste Ă  piĂ©ger le CO2 prĂ©sent dans les fumĂ©es rejetĂ©es par les installations industrielles, ou Ă  le capter directement dans l’air, puis soit Ă  le rĂ©utiliser, soit, pour la plus grande part, Ă  le transporter et le stocker dans un rĂ©servoir gĂ©ologique.

Dans les scĂ©narios de l’Agence internationale de l’énergie (AIE), cela reprĂ©sente 15 à 20 % de l’effort global de dĂ©carbonation Ă  l’horizon 2050. J’insiste donc sur le fait qu’il s’agit d’une solution parmi d’autres, auxquelles il faut Ă©galement recourir : le dĂ©veloppement des Ă©nergies renouvelables, l’efficacitĂ© Ă©nergĂ©tique, la sobriĂ©tĂ© et la transformation des procĂ©dĂ©s, lorsque cela est possible, pour qu’ils Ă©mettent moins de CO2

En quoi le numérique est-il un outil nécessaire au stockage géologique du CO2 ?

Le numĂ©rique est prĂ©sent Ă  tous les Ă©tages de la chaĂźne, du captage au stockage. Pour ce dernier, il est nĂ©cessaire de connaĂźtre le sous-sol. On peut certes faire des forages, mais la connaissance que nous obtenons reste trĂšs locale. Le numĂ©rique aide Ă  construire des modĂšles de l’intĂ©rieur de la Terre. Il s’agit de le cartographier par exemple Ă  partir des donnĂ©es des ondes sismiques qui se rĂ©flĂ©chissent sur les discontinuitĂ©s des roches. De la sorte, les chercheurs traquent des rĂ©servoirs formĂ©s de roches poreuses, relativement profondes (Ă  plus de 800 mĂštres) et surmontĂ©s par une couche impermĂ©able, de l’argile par exemple.

Coordinatrice CO2 Ă  IFP Énergies nouvelles (IFPEN) et prĂ©sidente du Club CO2

AprĂšs cette premiĂšre phase de caractĂ©risation, l’étape suivante consiste Ă  Ă©tudier comment le soussol se comportera aprĂšs injection du gaz (rĂ©actions chimiques avec les roches, phĂ©nomĂšnes d’écoulement...). Pour cela, et pour la surveillance Ă  court, moyen, et long terme, sont nĂ©cessaires non seulement un Ă©quipement de mesure, mais aussi une modĂ©lisation fine, multiphysique et multiĂ©chelle. Pour ce faire, de nombreux outils existent et sont perfectionnĂ©s en permanence, notamment dans l’équipe-projet Makutu (pour « magicien », en maori), menĂ© par Inria et l’Institut polytechnique de Bordeaux, l’universitĂ© de Pau et des Pays de l’Adour


De mĂȘme, le logiciel CooresFlow, de l’IFPEN offre une solution intĂ©grĂ©e de simulation de toutes les Ă©tapes du cycle de vie d’une installation de stockage de CO2

OĂč en sont concrĂštement les projets de stockage ?

En France, dans les annĂ©es 2010, le dĂ©monstrateur de Lacq-Rousse a exposĂ© la capacitĂ© de capter, transporter, stocker plusieurs dizaines de milliers de tonnes de CO2. Dans le monde, en 2022, 43 millions de tonnes de CO2 ont Ă©tĂ© captĂ©es et stockĂ©es. Cependant, selon le scĂ©nario le plus ambitieux de l’AIE, en 2035, ce stockage devra ĂȘtre 100 fois supĂ©rieur. À en croire les estimations, il y a les capacitĂ©s suffisantes dans les aquifĂšres salins profonds et dans les rĂ©servoirs d’hydrocarbures dĂ©plĂ©tĂ©s, c’est-Ă -dire « vidĂ©s ».

La France dispose Ă©galement de capacitĂ©s, qu’il conviendrait de caractĂ©riser plus finement. Sachant qu’entre six Ă  dix ans sont nĂ©cessaires pour passer d’un site potentiel Ă  un site de stockage industriel, il y a un enjeu majeur de dĂ©veloppement Ă  grande Ă©chelle tout en tenant compte de la perception sociale de ce type d’infrastructure. Le sous-sol est en effet considĂ©rĂ© aujourd’hui comme un bien commun dont l’usage doit ĂȘtre discutĂ© et partagĂ©. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 29 © IFP-School
Florence Delprat-Jannaud
« Le numĂ©rique est prĂ©sent Ă  tous les Ă©tages de la chaĂźne du stockage du CO2, du captage jusqu’à la surveillance du rĂ©servoir »

La géothermie, entre simulation et réalité

L’estimation du potentiel gĂ©othermique d’une rĂ©gion requiert la modĂ©lisation fine de son sous-sol.

La gĂ©othermie est souvent associĂ©e Ă  l’Islande. Pourtant, si l’üle est en effet une grande terre de gĂ©othermie, cette Ă©nergie renouvelable est thĂ©oriquement exploitable en de nombreux endroits. Le principe est simple : envoyer de l’eau, ou un autre fluide, dans les profondeurs de la Terre, oĂč elle se rĂ©chauffe, et la rĂ©cupĂ©rer ensuite en surface.

La thĂ©orie se heurte toutefois Ă  la pratique, car forer n’est pas possible partout, en raison de la nature des sols. Aussi, tout projet de gĂ©othermie doit-il s’appuyer sur une Ă©tude prĂ©alable du sous-sol. Pour ce faire, deux outils sont indispensables : les ondes sismiques et la modĂ©lisation.

Il y a ondes et ondes

Les ondes, qu’elles soient de surface (elles s’enfoncent peu) ou Ă  l’inverse de volume, se propagent diffĂ©remment selon la nature du milieu et rebondissent sur les interfaces entre deux types de matĂ©riaux. Aussi, en envoyant des ondes sismiques dans le sol et en les dĂ©tectant on obtient des informations sur la nature du sous-sol.

Deux cas de figure se prĂ©sentent : soit la structure du sous-sol est connue et on cherche Ă  savoir comment les ondes s’y propagent (on parle de problĂšme direct) ; soit on dispose d’enregistrements sismiques expĂ©rimentaux Ă  partir desquels on tente de reconstituer l’organisation du sous-sol (problĂšme inverse). Dans les deux situations, la modĂ©lisation intervient. Pour rĂ©soudre ce problĂšme inverse, typique de la prospection, les chercheurs effectuent, virtuellement, de nombreux problĂšmes directs sur un modĂšle de sous-sol puis comparent les enregistrements sismiques numĂ©riques Ă  ceux qu’on a obtenus sur le terrain. S’ils sont proches, le modĂšle est bon, sinon, ce dernier est modifiĂ© de façon Ă  converger vers le rĂ©el. Cette Ă©tape est rĂ©alisĂ©e grĂące Ă  une « fonction de coĂ»t », qui aiguille les changements Ă  apporter pour tendre vers le rĂ©el, par exemple en modifiant la densitĂ© en certains points.

Cet objet mathĂ©matique Ă©tait au centre du projet Pixil, un rĂ©seau franco-espagnol d’industriels (RealTimeSeismic, Ingeo, TLS Geothermics
) et de chercheurs (Inria, Barcelona Supercomputing Center
).

À l’aide de modĂšles en 2D, plus faciles Ă  manipuler d’un point de vue informatique, ils ont obtenu une fonction de coĂ»t particuliĂšrement efficace.

Le projet Pixil est dĂ©sormais achevĂ©, mais la recherche continue. Et Julien Diaz, directeur de recherche dans l’équipe-projet Magique 3D chez Inria de prĂ©ciser qu’il est prĂ©vu de tester cette fonction de coĂ»t dans des modĂšles plus rĂ©alistes, toujours en 2D, mais fondĂ©s sur des cas physiques rĂ©els. Sous l’égide du consortium Geothermica, il est aussi prĂ©vu de prendre en compte des milieux plus compliquĂ©s, comme des matĂ©riaux poreux, et de s’intĂ©resser au couplage des ondes sismiques et Ă©lectromagnĂ©tiques. À chaque fois, l’alliance de la modĂ©lisation et du terrain aidera au dĂ©veloppement de cette Ă©nergie renouvelable qu’est la gĂ©othermie.

Le projet Pixil vise Ă  modĂ©liser le sous-sol en comparant des donnĂ©es de terrain (Ă  gauche) Ă  celles des simulations (Ă  droite). L’objectif ? Les faire coĂŻncider.

| Pour la Science / supplĂ©ment au n° 546 ‱ 30 Le numĂ©rique | au service de la transition Ă©nergĂ©tique
Numéro du détecteur 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 50 50 150 150 250 250 350 350 Temps (en secondes) Données réelles Données simulées 100 100 200 200 300 300 400 400 ©
/
;
©
La simulation de la propagation d’ondes sismiques dans un sous-sol renseigne sur la nature de ce dernier.
Inria
Photo Kaksonen
schéma
Pixil > Scannez ce QR code pour découvrir le projet Pixil.

Le numĂ©rique, c’est bon pour la nature ?

La biodiversitĂ© et, plus largement, l’environnement pĂątissent des activitĂ©s humaines, Ă  commencer par l’agriculture. Ce n’est pas inĂ©luctable, et pour inverser la tendance, le numĂ©rique propose de nombreuses solutions. D’abord, pour comprendre cette nature, par exemple en Ă©lucidant le fonctionnement des Ă©cosystĂšmes et en aidant (avec parfois l’aide des citoyens) Ă  l’inventaire des espĂšces. Ensuite, pour favoriser la transition vers des pratiques agricoles plus vertueuses, comme l’agroĂ©cologie, tout en amĂ©liorant la vie des exploitants, oĂč qu’ils vivent.

| Pour la Science / supplĂ©ment au n° 546 ‱ 31
Partie 3 |

Le numérique peut-il contribuer à préserver la biodiversité ?

Quel est le constat actuel sur le plan de la perte de biodiversité ?

Si l’on regarde les prĂ©cĂ©dentes grandes extinctions, on se rend compte que la Terre connaĂźt actuellement le mĂȘme processus et qu’on se dirige vers une extinction. Mais oĂč en est-on sur cette trajectoire ? Et Ă  quelle vitesse se dĂ©placet-on ? Le titre de mon livre À l’aube de la sixiĂšme extinction y rĂ©pond en partie : nous sommes Ă  l’aube de cette extinction. Quand on observe les taux d’extinction constatĂ©s aujourd’hui, ainsi que les projections sur les dĂ©cennies qui viennent, on est loin du sommet de l’une des grandes crises qu’a connues la planĂšte par le passĂ©. C’est la bonne nouvelle : on est au dĂ©but, on a encore un peu de temps pour rĂ©agir. En revanche, la mauvaise nouvelle, c’est que la tendance s’accĂ©lĂšre. On peut donc atteindre le sommet assez rapidement si on continue sur la mĂȘme lancĂ©e.

ConcrĂštement, cela se traduit par une perte de biodiversitĂ©, qui est scientifiquement documentĂ©e au moyen de suivis d’espĂšces en tous genres : oiseaux, amphibiens, plantes
 Selon l’IPBES (Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services), qui est l’équivalent du Giec sur la biodiversitĂ©, entre 500 000 et 1 million d’espĂšces pourraient disparaĂźtre dans les dĂ©cennies qui viennent. Encore une fois, ce n’est pas irrĂ©mĂ©diable. À condition de rĂ©agir


Pourquoi c’est important de s’en prĂ©occuper ?

Parce qu’il ne faut pas oublier que nous sommes, nous aussi, une espĂšce vivante et que nous ne sommes rien sans les autres ! Nous hĂ©bergeons par exemple plus de bactĂ©ries que nous ne possĂ©dons de cellules, et celles-ci nous aident Ă  digĂ©rer ou encore Ă  nous protĂ©ger des agressions extĂ©rieures au niveau de l’épiderme. Bref, on se nourrit du vivant, on respire grĂące au vivant, on se soigne et on s’habille avec lui. Il est donc important de s’en prĂ©occuper, ne serait-ce que pour des raisons totalement Ă©goĂŻstes.

Comment faire pour protéger la biodiversité ? Cela passe essentiellement par des statuts de protection de certaines zones, comme les aires marines protégées par exemple ?

Lors de la COP15 sur la biodiversitĂ©, qui s’est dĂ©roulĂ©e fin 2022 Ă  MontrĂ©al, un texte a Ă©tĂ© adoptĂ© sur ce qu’on appelle le « 30-30 » : 30 % d’aires protĂ©gĂ©es en mer et Ă  terre d’ici Ă  2030. Mais, oĂč protĂ©ger ? Est-ce que protĂ©ger l’ocĂ©an Austral autour de l’Antarctique est une action si utile dans la mesure oĂč il n’y a pas grand monde qui y habite ? Étendre le parc national de la Vanoise ou des Écrins, dans les Alpes, c’est bien. Mais ce sont lĂ  aussi des zones oĂč il y a peu d’interfĂ©rences

| Pour la Science / supplĂ©ment au n° 546 ‱ 32 Grand angle © MNHN
Bruno David PrĂ©sident du MusĂ©um national d’histoire naturelle

humaines. Bien sĂ»r, il faut protĂ©ger certaines zones. Mais ce n’est absolument pas suffisant.

Il faut aussi adopter des « changements transformateurs », comme on les nomme, dans les zones oĂč il y a beaucoup de prĂ©sence humaine : les villes, les grandes plaines agricoles, les littoraux
 C’est lĂ  que sont les marges de progression importantes et les efforts Ă  produire. Il faut notamment faire Ă©voluer certaines pratiques pour que la pression sur la biodiversitĂ© soit moindre. Par exemple, dans l’agriculture intensive, on pourrait trouver d’autres options que les herbicides et les pesticides – en rĂ©duisant effectivement lĂ©gĂšrement la productivitĂ© – pour avoir une pression bien moindre sur le vivant. Certes, il faut bien nourrir 8 milliards d’humains, comme on me rĂ©torque souvent. Mais actuellement 30 % de la production agricole finit Ă  la poubelle. Cela concerne diffĂ©rents niveaux de la chaĂźne : la rĂ©colte, le transport, les magasins, notre frigo et notre assiette. Il y a donc, lĂ  encore, des marges de progression Ă©normes sans pour autant bouleverser complĂštement nos modes de vie.

L’industrie aussi doit s’adapter et faire autrement. Globalement, ce qui est important, c’est de mettre en balance, d’un cĂŽtĂ©, les efforts que cela reprĂ©sente et, de l’autre, le risque qu’on encourt si on continue sur cette trajectoire. Dans n’importe quelle prise de dĂ©cision, qu’elle soit politique ou mĂȘme personnelle, il y a trois paramĂštres : l’économique, le social et l’environnemental, qui est souvent mis de cĂŽtĂ©. D’ici Ă  la fin de la dĂ©cennie, il faudra prendre en compte ce paramĂštre environnemental de grĂ© ou de force. Sinon, il va dĂ©stabiliser en retour le social et l’économique.

Et le numérique, dans tout ça, peut-il jouer un rÎle ?

Le numĂ©rique ne va pas sauver la biodiversitĂ©, c’est certain. Mais trois leviers y contribuent tout de mĂȘme. Le premier est la constitution de bases de donnĂ©es grĂące Ă  la numĂ©risation des spĂ©cimens de collection. On peut aussi faire appel Ă  l’intelli-

gence artificielle pour, par exemple, reconnaĂźtre des espĂšces. Recourir Ă  des jumeaux numĂ©riques de l’ocĂ©an ou de n’importe quel Ă©cosystĂšme est Ă©galement intĂ©ressant. Les chercheurs tentent en effet de les faire Ă©voluer en fonction du changement climatique et de les confronter Ă  la distribution de certaines espĂšces pour observer les consĂ©quences possibles. Globalement, le numĂ©rique fait donc avancer la science et fournit Ă  la connaissance scientifique des outils sur la biodiversitĂ© dont on ne disposait pas, ou peu, jusqu’à prĂ©sent.

Les technologies numériques sont donc plutÎt bonnes pour la nature, non ?

Elles ont malheureusement un coĂ»t Ă©nergĂ©tique non nĂ©gligeable. On parle de 10 % de la production Ă©lectrique française. C’est Ă©norme ! Et ces nouvelles technologies, comme tous les Ă©crans qui nous accaparent, nous Ă©loignent de l’observation du monde qui nous entoure. Elles ne sont donc pas trĂšs bĂ©nĂ©fiques pour la nature, car elles ne nous permettent pas d’ĂȘtre en bonne relation avec elle.

Au Muséum, de quelle maniÚre utilisez-vous ces technologies ?

Nos collections sont un patrimoine universel. C’est un bien commun de l’humanitĂ© dont nous prenons soin et que nous nous devons de mettre Ă  disposition. Nous numĂ©risons donc les collections sous forme de textes, d’images ou d’objets 3D. Comme la numĂ©risation de l’herbier national du MusĂ©um par exemple, qui compte 6 millions de planches numĂ©risĂ©es sur un total de 8 millions. Nous organisons aussi une quarantaine de programmes de sciences participatives dans lesquelles le numĂ©rique est un outil indispensable. Il y a dans cette dĂ©marche une vertu de collecte de donnĂ©es, mais Ă©galement une vertu d’engagement : cela entraĂźne les citoyens dans une dynamique responsable d’observation. Le cƓur du problĂšme est lĂ . Nous avons perdu notre capacitĂ© Ă  observer la nature. Or ce genre de programme forge une Ă©thique intellectuelle et donc des citoyens plus responsables vis-Ă -vis de la planĂšte. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 33
« Le numĂ©rique ne va pas sauver la biodiversitĂ©. Mais trois leviers y contribuent tout de mĂȘme : la constitution de bases de donnĂ©es, l’intelligence artificielle et l’utilisation de jumeaux numĂ©riques »
À lire I Bruno David, À l’aube de la sixiùme extinction – Comment habiter la Terre, Grasset, 2021.

ConnaĂźtre la biodiversitĂ© planctonique, prĂ©voir comment elle sera impactĂ©e par le changement climatique et l’impactera Ă  son tour est essentiel. C’est le but de l’ambitieux projet international multidisciplinaire OcĂ©anIA.

est essentiel pour orienter les politiques publiques destinĂ©es Ă  le prĂ©server. C’est l’objet du DĂ©fi OceanIA.

Pour en savoir +

‱ Le site d’OcĂ©anIA : oceania.inria.cl/

«L’essentiel est invisible pour nos yeux », disait Antoine de Saint-ExupĂ©ry. Pour preuve, un acteur majeur de l’équilibre de la planĂšte est constituĂ© de milliards de microorganismes, comme des virus, des bactĂ©ries et le phytoplancton, c’est-Ă -dire des microalgues. Ce peuple invisible qui dĂ©rive au grĂ© des courants est le premier maillon de la chaĂźne alimentaire marine, le producteur de la moitiĂ© de l’oxygĂšne terrestre, et il stocke Ă  lui seul environ 40 % du CO 2 de l’atmosphĂšre ! Riche d’une grande diversitĂ© gĂ©nĂ©tique, il est aujourd’hui menacĂ© entre autres par le rĂ©chauffement de l’ocĂ©an et son acidification. Comprendre sa dynamique et les mĂ©canismes en jeu

« L’idĂ©e est nĂ©e lors de la COP25 fin 2019 quand nous avons rencontrĂ© l’équipe de la fondation Tara OcĂ©an », raconte Nayat SĂĄnchez-Pi, directrice d’Inria Chili, Ă  Santiago. Les douze expĂ©ditions menĂ©es sur la goĂ©lette Tara depuis 2003 ont rapportĂ© quantitĂ© d’informations sur l’ocĂ©an, sa biodiversitĂ© et les impacts du changement climatique. Mais les corrĂ©lations entre cette biodiversitĂ© notamment planctonique et les services Ă©cosystĂ©miques qu’elle rend restent en grande partie Ă  dĂ©couvrir. Selon elle, « seule l’intelligence artificielle (IA) peut aider Ă  relever ce dĂ©fi en crĂ©ant de nouveaux outils de modĂ©lisation du fonctionnement de l’ocĂ©an ».

HYBRIDER LABORATOIRE ET TERRAIN

LancĂ© fin 2020 pour une durĂ©e de quatre ans, OcĂ©anIA rĂ©unit des informaticiens, des mathĂ©maticiens, des biologistes, des ocĂ©anographes et des politologues d’organisations françaises et chiliennes. Une des approches consiste Ă  intĂ©grer plus de donnĂ©es sur la biodiversitĂ© et son comportement dans

| Pour la Science / supplĂ©ment au n° 546 ‱ 34 Le numĂ©rique | c’est bon pour la nature ?
© NOAA MESA Project Le phytoplancton, un des piliers du systÚme Terre.
Quel avenir pour le peuple invisible de l’ocĂ©an ?

LE PHYTOPLANCTON, QU’EST-CE QUE C’EST ?

Ce terme regroupe des microorganismes capables de photosynthÚse, notamment des microalgues le plus souvent unicellulaires, mais aussi des bactéries (des cyanobactéries)

les gros modĂšles dits « mĂ©canistes » utilisĂ©s par le Giec, qui reproduisent et combinent les grands mĂ©canismes biologiques, comme la fixation du CO 2 par le plancton, et gĂ©ophysiques, par exemple le mouvement des masses d’eau.

« L’idĂ©e est de simplifier ces modĂšles mĂ©canistes relativement imprĂ©cis, puis de les corriger en affinant leurs composantes biologiques, notamment la capacitĂ© de croissance, la mortalitĂ© ou la capacitĂ© du plancton Ă  s’adapter aux changements de tempĂ©rature », prĂ©cise Olivier Bernard, chercheur dans l’équipe-projet Biocore, associant Inrae et le laboratoire ocĂ©anographique de Villefranche-sur-Mer. Celle-ci a par exemple travaillĂ© sur la vingtaine d’espĂšces de phytoplancton du genre Micromonas, dites « sentinelles », car leur diversitĂ© est reprĂ©sentative de celle de l’ensemble de ces microorganismes. Ce genre, largement Ă©tudiĂ© en laboratoire, est prĂ©sent dans presque tous les ocĂ©ans. « On connaĂźt sa capacitĂ© de dĂ©veloppement en laboratoire selon la tempĂ©rature, ajoute-t-il. On essaie de lier ces rĂ©sultats et les donnĂ©es gĂ©nomiques de terrain rĂ©coltĂ©es par

la goĂ©lette Tara pour regrouper ces espĂšces en cinq grands groupes par des approches de classification. Le but est ensuite d’identifier les dĂ©terminants qui expliquent leur prĂ©sence relative ici et lĂ  ainsi que leur rĂ©ponse face Ă  l’évolution de la tempĂ©rature. »

Les chercheurs sont dĂ©jĂ  capables de prĂ©dire la biodiversitĂ© du genre Micromonas, son Ă©volution face au changement climatique (voir la figure ci-dessous) et les variables les plus importantes de cette dynamique, comme la latitude et la profondeur : « L’impact du changement climatique serait encore plus drastique dans les zones tropicales et aux pĂŽles, indique Olivier Bernard. Alors que la biodiversitĂ© augmenterait dans les rĂ©gions de latitude proche de 40°, nord ou sud. »

Pour aller plus loin et alimenter les algorithmes d’apprentissage automatique (ou Machine learning) mobilisĂ©s par OcĂ©anIA, trĂšs gourmands en donnĂ©es, une des stratĂ©gies consiste Ă  analyser des images satellites, car certaines couleurs tĂ©moignent de la prĂ©sence de pigments spĂ©cifiques Ă  certaines espĂšces.

LE DÉFI DE L’EXPLICABILITÉ

Pour produire ces nouvelles connaissances sur la biodiversitĂ©, son rĂŽle et son fonctionnement Ă  l’échelle planĂ©taire, les outils dĂ©veloppĂ©s doivent ĂȘtre explicables pour comprendre les causes de tel ou tel phĂ©nomĂšne, les liens entre les mĂ©canismes impliquĂ©s et pour, Ă  terme, guider des choix politiques comme la prĂ©servation des Ă©cosystĂšmes les plus performants en matiĂšre de sĂ©questration de CO 2 . « Or, explique Nayat SĂĄnchez-Pi, les mĂ©thodes d’apprentissage automatique notamment d’apprentissage profond (deep learning) identifient des liens entre des donnĂ©es (comme des espĂšces) et des prĂ©visions (les groupes dans lesquels on peut les classer) sans raison apparente. Pour pallier cet obstacle et comprendre la dynamique sous-jacente, nous utilisons des mĂ©thodes d’IA explicables comme celle de l’infĂ©rence causale, qui vise Ă  explorer des relations de cause Ă  effet entre phĂ©nomĂšnes et non les simples corrĂ©lations. »

L’évolution de la diversitĂ© phytoplanctonique d’ici Ă  2091-2100, par rapport Ă  la plus rĂ©cente dont on dispose (2001-2010), a Ă©tĂ© calculĂ©e Ă  partir de celle du genre Micromonas. Les diminutions (en violet), au niveau des tropiques, sont plus importantes que les augmentations (en vert), aux plus hautes latitudes.

À terme, ces nouveaux modĂšles seraient Ă©galement pertinents pour des Ă©tudes du Giec. « OcĂ©anIA est ainsi un formidable banc d’essai pour la communauté IA, reconnaĂźt la chercheuse. Nous testons de nombreuses mĂ©thodes qui seront utiles dans d’autres champs conditionnĂ©s par l’explicabilitĂ©, comme des modĂšles hybrides intĂ©grant des connaissances physiques dans les rĂ©seaux de neurones. » Il s’agit lĂ  aussi de rendre visible l’essentiel


| Pour la Science / supplĂ©ment au n° 546 ‱ 35
© David Demory
Latitude Longitude 50° 0° 0° 100° 200° 300° 40 20 0 - 20 - 40 - 50° Indice d’érosion de biodiversitĂ© (Nombre d’espĂšces perdues)
> Scannez ce QR code pour explorer le site d’OceanIA.

Tous botanistes !

Auteurs

Prendre des dĂ©cisions pour lutter contre le dĂ©clin mondial de la biodiversitĂ© suppose de disposer de donnĂ©es fiables et indiscutables. Mais comment collecter ces informations sur la multitude d’organismes vivants, animaux et vĂ©gĂ©taux, Ă  l’échelle de la planĂšte ? En impliquant la sociĂ©tĂ© civile !

L’idĂ©e est nĂ©e il y a une vingtaine d’annĂ©es et se traduit aujourd’hui par des plateformes de sciences participatives d’ampleur mondiale comme eBird, iNaturalist et celle que nous avons dĂ©veloppĂ©e, Pl@ntNet. Elles mobilisent des millions de contributeurs qui recensent et photographient les organismes vivants. Au-delĂ  de cette collecte de donnĂ©es, ces initiatives contribuent Ă  reconnecter les gens avec la nature.

Un des ingrĂ©dients clĂ©s du succĂšs de ces plateformes est la mise Ă  disposition d’applications mobiles dotĂ©es d’intelligence artificielle. Pl@ntNet, en particulier, portĂ©e par un consortium de recherche français (Inria, Cirad, Inrae et IRD), a Ă©tĂ© pionniĂšre pour l’identification des espĂšces vĂ©gĂ©tales, dĂšs 2013. Avec plusieurs centaines de milliers d’utilisateurs journaliers, elle recense aujourd’hui plus de 43 000 espĂšces de plantes Ă  l’échelle mondiale.

PALLIER LE MANQUE D’EXPERTISE


ConcrĂštement, la difficultĂ© ici est le manque d’expertise pour identifier les espĂšces (ou taxons) et leur associer un nom scientifique en latin sur la base de critĂšres morphologiques prĂ©cis et extrĂȘmement variĂ©s comme la forme de la pointe des feuilles, le nombre et la couleur des pĂ©tales, la prĂ©sence d’une pilositĂ© particuliĂšre sur la tige
 Ainsi, pour reconnaĂźtre une plante parmi des centaines de milliers d’espĂšces connues, les botanistes comptent sur leur mĂ©moire, leur sens de l’observation et des « flores », ces ouvrages qui prĂ©cisent les critĂšres d’identification de chaque taxon en termes scientifiques. Cette expertise est difficile Ă  acquĂ©rir, car les diffĂ©rences sont souvent trĂšs subtiles.

Pour apprendre Ă  reconnaĂźtre toutes ces espĂšces selon leur variabilitĂ© morphologique, un algorithme d’intelligence artificielle requiert un apprentissage

| Pour la Science / supplĂ©ment au n° 546 ‱ 36 Le numĂ©rique | c’est bon pour la nature ?
GrĂące aux millions d’images collectĂ©es par des contributeurs du monde entier, l’application d’identification d’espĂšces vĂ©gĂ©tales Pl@ntNet contribue tant Ă  leur inventaire qu’à la recherche scientifique.
Au cas oĂč vous ne connaĂźtriez pas Thunbergia erecta, Pl@ntNet est lĂ  pour vous aider. > Alexis Joly Directeur de recherche Inria dans l’équipe-projet ZĂ©nith et cofondateur de Pl@ntNet. > Pierre Bonnet Biologiste au Cirad et coordinateur de Pl@ntNet.

fondĂ© sur un grand nombre d’images. Or, concernant la botanique, depuis des siĂšcles, la caractĂ©risation de nouvelles espĂšces repose sur des planches d’herbiers et des dessins. La photographie n’est devenue une pratique courante que trĂšs rĂ©cemment. Peu d’images numĂ©riques sont donc disponibles, voire aucune pour plus de la moitiĂ© des espĂšces vĂ©gĂ©tales ! La collecte de donnĂ©es d’apprentissage devient alors un enjeu tout aussi important que la conception des algorithmes.


 ET LE MANQUE DE DONNÉES

La diversitĂ© et le nombre de contributeurs des plateformes de sciences participatives ont palliĂ© ce manque de donnĂ©es et permis le niveau actuel de performance et de couverture taxonomique des diffĂ©rentes applications. Ainsi, le modĂšle d’apprentissage utilisĂ© dans Pl@ntNet est directement entraĂźnĂ© sur une partie des observations faites par les utilisateurs, mais seulement celles dont le degrĂ© de confiance est Ă©levĂ©, car validĂ©es par un nombre suffisant de personnes ou par des personnes suffisamment expertes.

Les observations et propositions de noms d’espĂšces d’un dĂ©butant avec Pl@ntNet ont donc peu de chances d’alimenter directement l’IA. Il doit d’abord gagner en crĂ©dibilitĂ© en contribuant avec des observations

> Scannez ce QR code pour tĂ©lĂ©charger l’application Pl@ntNet

c’est le nombre d’espĂšces de plantes recensĂ©es Ă  l’échelle

mondiale par Pl@ntNet

reconnues de bonne qualitĂ© par le plus grand nombre d’utilisateurs et en repĂ©rant des espĂšces que vous n’avez pas encore dans votre collection. Actuellement, prĂšs de 80 000 personnes alimentent directement l’IA de Pl@ntNet sans validation d’un autre utilisateur. Ce qui n’empĂȘche pas les plus experts de corriger parfois quelques imprĂ©cisions. On qualifie d’ « apprentissage automatique coopĂ©ratif » ce nouveau type de paradigme basĂ© sur la mutualisation des connaissances de la communautĂ© dans un seul outil partagĂ© par tous.

Les observations des novices ne sont pas pour autant perdues, car l’IA peut en identifier une grande partie de façon autonome. Et si l’utilisateur a acceptĂ© que ses observations soient gĂ©olocalisĂ©es, elles rejoignent l’inventaire national du patrimoine naturel français (INPN) ou le systĂšme mondial d’information sur la biodiversitĂ© (GBIF). GrĂące Ă  ces donnĂ©es, les chercheurs de nombreuses disciplines dĂ©veloppent des modĂšles, des cartes ou des indicateurs Ă  destination des acteurs de la conservation. En retour, les contributeurs de Pl@ntNet ont accĂšs aux publications scientifiques basĂ©es sur leurs donnĂ©es grĂące au systĂšme de suivi du GBIF.

Dans quelques annĂ©es, ces travaux permettront le dĂ©veloppement d’outils grand public pour le suivi de la biodiversitĂ©. Les citoyens, les dĂ©cideurs, les associations et les entreprises pourront par exemple dĂ©terminer trĂšs prĂ©cisĂ©ment les zones les plus riches en biodiversitĂ© ou les plus critiques de leur territoire afin de dĂ©cider collectivement du meilleur chemin Ă  suivre pour la prĂ©server.

Pour en savoir +

‱ Le site de Pl@ntNet : https://plantnet.org/

‱ Le site de l’INPN : https://inpn.mnhn.fr/

‱ Le site du GBIF : https://www.gbif.org/

‱ Les articles fondĂ©s sur Pl@ntNet : https://bit.ly/Gbif-PlantNet

| Pour la Science / supplĂ©ment au n° 546 ‱ 37
© Esri, i-cubed, USDA, USGS, AEX, GeoEye, Getmapping, Aerogrid, IGN, IGP, UPR-EGP, et la communauté des utilisateurs GIS, GBIF. PrÚs de 14 millions de plantes ont été référencées et validées à travers le monde par la plateforme Pl@ntNet, depuis sa création.
43
000

Vers une agriculture numérique plus vertueuse

Le 6 janvier 2023, l’État lançait un PEPR (Programme et Ă©quipements prioritaires de recherche) sur l’agroĂ©cologie et le numĂ©rique dans le cadre de France 2030. PilotĂ© par Inrae et Inria, ce programme doit financer la transition agroĂ©cologique Ă  hauteur de 65 millions d’euros. Les ambitions sont multiples : accompagnement de l’évolution des pratiques, caractĂ©risation des ressources gĂ©nĂ©tiques animales et vĂ©gĂ©tales, dĂ©veloppement de nouveaux agroĂ©quipements ou d’outils d’aide Ă  la dĂ©cision. Plus largement, cette initiative illustre la nĂ©cessitĂ© de bĂątir un numĂ©rique positif, au service de

systÚmes agroalimentaires durables, assurant une alimentation sûre, de qualité et abordable. Mais de quoi parle-t-on plus précisément ?

L’URGENCE DE L’AGROÉCOLOGIE

Le Stockholm Resilience Center dĂ©finit neuf limites planĂ©taires, qui constituent aujourd’hui un cadre partagĂ© pour quantifier l’influence des humains sur la planĂšte. Parmi ces limites, le changement d’utilisation des sols, les perturbations du cycle de l’azote et du phosphore, l’utilisation de l’eau douce ou l’introduction d’entitĂ©s nouvelles dans la biosphĂšre sont directement liĂ©es aux pratiques agricoles.

| Pour la Science / supplĂ©ment au n° 546 ‱ 38 Le numĂ©rique | c’est bon pour la nature ?
IncitĂ©e Ă  changer de modĂšle, l’agriculture cherche Ă  s’orienter vers des pratiques plus vertueuses comme celles de l’agroĂ©cologie.
Avec l’aide du numĂ©rique...
Le 6 janvier 2023, le PEPR sur l’agroĂ©cologie et le numĂ©rique a Ă©tĂ© lancĂ© officiellement par les ministĂšres en charge de la Recherche, de l’Agriculture, de la Transition numĂ©rique et par le secrĂ©tariat gĂ©nĂ©ral pour l’investissement, en charge de France 2030.

CombinĂ©e aux enjeux de sĂ©curitĂ© alimentaire et de maintien d’une activitĂ© rurale vivante et attractive, cette pression environnementale plaide pour une transition majeure des systĂšmes agricoles. Dans ce contexte, l’agroĂ©cologie formule aujourd’hui les rĂ©ponses les plus convaincantes. À la fois ensemble de pratiques, philosophie et mouvement, elle s’appuie sur les fonctionnalitĂ©s offertes par les Ă©cosystĂšmes afin de rĂ©duire la pression sur l’environnement (voir l’encadrĂ© page suivante).

La FAO encadre la notion en dix caractĂ©ristiques principales rĂ©sumĂ©es en « une approche intĂ©grĂ©e qui applique concomitamment des notions et des principes Ă©cologiques et sociaux Ă  la conception et Ă  la gestion des systĂšmes alimentaires et agricoles [...] et vise Ă  optimiser les interactions entre les vĂ©gĂ©taux, les animaux, les humains et l’environnement, sans oublier les aspects sociaux. »

UNE RÉPONSE À LA COMPLEXITÉ ?

Cependant, si elle est nĂ©cessaire, la transition vers une agroĂ©cologie est Ă©galement Ă©pineuse. En effet, elle demande de passer d’un systĂšme simple et efficace – appuyĂ© sur les monocultures, la mĂ©canisation et la chimie – Ă  une reconnaissance de la complexitĂ© des Ă©cosystĂšmes. « L’agroĂ©cologie, c’est refuser volontairement l’uniformitĂ© pour profiter de l’hĂ©tĂ©rogĂ©nĂ©itĂ© et la valoriser, et cela demande Ă©normĂ©ment d’information », rĂ©sume Xavier Reboud, directeur de recherches Ă  Inrae.

C’est dans ce contexte que la capacitĂ© du numĂ©rique Ă  organiser la complexitĂ© peut s’avĂ©rer prĂ©cieuse. « Il est nĂ©cessaire de fournir aux agriculteurs et Ă  tous les acteurs concernĂ©s des outils, des ressources et de nouvelles connaissances pour rĂ©ussir la transition tout en s’adaptant aux alĂ©as climatiques », explique Jacques Sainte-Marie, directeur scientifique adjoint d’Inria.

changer ce que l’on fait. On dĂ©livre la bonne dose au bon moment et au bon endroit, mais on renforce Ă©galement le modĂšle dominant. Dans un modĂšle agroĂ©cologique, en revanche, il importe de trouver en amont comment mettre le systĂšme dans une situation oĂč il est en mesure de se protĂ©ger lui-mĂȘme de façon assez robuste. L’utilisation du numĂ©rique implique un pilotage doux oĂč l’on va orienter de maniĂšre mesurĂ©e les changements que l’on opĂšre », prĂ©cise Xavier Reboud.

Si l’agroĂ©cologie est un sujet trop vaste et mouvant pour rĂ©aliser un panorama exhaustif des convergences avec le numĂ©rique, on peut nĂ©anmoins distinguer trois grandes familles oĂč ce dernier est important : produire de la connaissance ; accompagner, optimiser et faciliter la production ; inscrire les producteurs dans une filiĂšre. DĂ©taillons-les.

DES CONNAISSANCES AVANT TOUT

Comprendre et modĂ©liser les Ă©cosystĂšmes complexes de l’agroĂ©cologie est un enjeu majeur. Pour y parvenir, l’extraction des donnĂ©es agricoles les plus pertinentes est indispensable, et met Ă  contribution toute une gamme de solutions numĂ©riques. « Nous sommes en mesure de collecter des donnĂ©es de gĂ©nomique Ă  grande Ă©chelle. Les donnĂ©es physiologiques se multiplient grĂące aux capteurs portĂ©s par les animaux. Nous disposons de plus en plus de donnĂ©es d’imagerie et de tĂ©lĂ©dĂ©tection », dĂ©taille Claire Rogel-Gaillard, directrice scientifique adjointe Agriculture Ă  Inrae. En parallĂšle, la dĂ©mocratisation des smartphones rend les dispositifs les plus perfectionnĂ©s accessibles au plus grand nombre.

Services

Reste Ă©galement Ă  dĂ©passer une reprĂ©sentation qui associe encore le numĂ©rique au modĂšle agro-industriel dominant. Cette perception est sans doute Ă  mettre sur le compte de l’agriculture de prĂ©cision, qui met Ă  profit le potentiel des nouvelles technologies pour optimiser les pratiques existantes, sans les remettre en cause. « L’agriculture de prĂ©cision aide Ă  faire mieux, sans viser Ă 

Sur la base des connaissances produites, le numĂ©rique joue ensuite un rĂŽle plus opĂ©rationnel. Il dote ainsi les agriculteurs de nouveaux outils d’aide Ă  la dĂ©cision, particuliĂšrement importants dans une phase initiale d’apprentissage de l’agroĂ©cologie. Les mĂąts dotĂ©s de stations mĂ©tĂ©o, comme ceux que dĂ©veloppe la start-up Weenat, couplĂ©s Ă  des logiciels prĂ©dictifs orientent par exemple les choix d’irrigation ou de traitement des cultures. « Nous restons dans une agriculture de prĂ©cision, mais c’est un cas emblĂ©matique. Il prĂ©figure la capacitĂ© du numĂ©rique Ă  jouer un rĂŽle d’interface entre un systĂšme complexe et une dĂ©cision », explique Xavier Reboud.

| Pour la Science / supplĂ©ment au n° 546 ‱ 39
© Inria / Photo H. Raguet
Ă©cosystĂ©miques, capture du carbone, production de donnĂ©es prĂ©cieuses : l’apport de l’agriculture au-delĂ  des denrĂ©es alimentaires reste difficile Ă  Ă©valuer
> Scannez ce QR code pour accĂ©der au podcast d’Inria : À quoi sert la recherche... en agriculture numĂ©rique ?

L’AGROÉCOLOGIE, QU’EST-CE QUE C’EST ?

L’agroĂ©cologie, un terme forgĂ© dans les annĂ©es 1920, est une science, dont le nom Ă©voque l’appropriation par l’agronomie des concepts et mĂ©thodes de l’écologie scientifique. Elle consiste en diverses pratiques favorisant des fonctions Ă©cologiques utiles Ă  l’amĂ©lioration de l’activitĂ© agricole. Dans les faits, il s’agit d’augmenter l’hĂ©tĂ©rogĂ©nĂ©itĂ© des plantes cultivĂ©es dans les parcelles ou d’en ajouter Ă  la pĂ©riphĂ©rie de façon Ă  exploiter les complĂ©mentaritĂ©s. De la sorte, on privilĂ©gie l’énergie solaire par rapport aux Ă©nergies fossiles, et on profite du moindre interstice, qu’il soit spatial ou temporel.

L’archĂ©type est la milpa (ou « trois sƓurs »), qui combine, depuis plus de deux mille ans en AmĂ©rique centrale, le haricot, le maĂŻs et des courges. Dans ce systĂšme, le haricot grimpant sur le maĂŻs lui apporte de l’azote au niveau des racines, tandis qu’au pied, des courges, avec souvent d’autres lĂ©gumes, couvrent le sol, limitant ainsi le dĂ©veloppement des adventices et l’évaporation. Autre exemple, l’association de lĂ©gumineuses et de cĂ©rĂ©ales profite aux deux plantes grĂące Ă  l’enrichissement du sol, la rĂ©duction des adventices, la diminution des maladies, la rĂ©duction du risque d’érosion


La robotique offre Ă©galement de belles promesses. Au-delĂ  de la pĂ©nibilitĂ© qu’elle allĂ©gerait en remplaçant l’humain pour des tĂąches difficiles, elle laisse imaginer une rentabilitĂ© nouvelle pour des pratiques vertueuses, mais aujourd’hui peu viables. La culture de la betterave en agriculture biologique par exemple reste aujourd’hui complexe. Elle demande un dĂ©sherbage mĂ©canique de qualitĂ©, qui reprĂ©sente un coĂ»t de main-d’Ɠuvre souvent rĂ©dhibitoire. Dans ce contexte, l’adoption de robots dĂ©sherbeurs ouvrirait de nouvelles perspectives pour la filiĂšre.

AU SERVICE DES AGRICULTEURS

Le numérique a aussi un rÎle à jouer dans la transformation des interactions des agriculteurs entre eux, avec leurs consommateurs, ou avec le reste de leur filiÚre. Ainsi, le développement de réseaux sociaux spécifiques faciliterait les échanges de bonnes pratiques dans un domaine encore émergent. Vis-à-vis du consommateur, la plateformisation de la distribu-

tion valoriserait les circuits courts tout en donnant une visibilitĂ© nouvelle aux pratiques agroĂ©cologiques. « La question de la traçabilitĂ© est facilitĂ©e par le numĂ©rique, grĂące Ă  la collecte du cycle de vie des produits, source d’informations prĂ©cises pour le consommateur et garantie d’une forme de confiance », explique VĂ©ronique Bellon-Maurel, cheffe adjointe du dĂ©partement MathNum d’Inrae, et directrice de l’Institut Convergences agriculture numĂ©rique #DigitAg.

MalgrĂ© ces promesses encourageantes, le dĂ©veloppement du numĂ©rique au service de l’agroĂ©cologie subit aujourd’hui divers freins. Certains, comme la connectivitĂ© ou le coĂ»t d’accĂšs aux solutions, sont relativement Ă©vidents. Face Ă  une offre en plein essor, les agriculteurs ne sont pas toujours en mesure d’évaluer le retour sur investissement ou l’efficacitĂ© environnementale rĂ©elle des solutions. Sur les territoires, des initiatives comme le laboratoire d’usages Occitanum s’attĂšlent Ă  lever cette barriĂšre en Ă©valuant les diffĂ©rentes technologies en conditions rĂ©elles.

Plus complexes, les freins psychologiques plaident Ă©galement pour un travail sur l’acceptabilitĂ© des solutions. « Il peut y avoir un blocage Ă  l’idĂ©e d’une forme de dĂ©pendance du systĂšme de production par rapport Ă  des donnĂ©es non maĂźtrisĂ©es. La crainte d’un Big Brother agricole qui pourrait spolier l’agriculteur de son savoir-faire doit ĂȘtre prise en compte », explique Claire Rogel-Gaillard.

VERS UNE ÉVOLUTION PROFONDE DES MÉTIERS

De façon plus prospective, une application raisonnĂ©e et efficace du numĂ©rique ouvre de nouvelles voies au mĂ©tier d’agriculteur. Elle mettrait par exemple en valeur certaines contributions du monde agricole aux transitions socioĂ©cologiques, encore invisibles aujourd’hui. Services Ă©cosystĂ©miques, capture du carbone, production de donnĂ©es prĂ©cieuses : l’apport de l’agriculture au-delĂ  des denrĂ©es alimentaires reste difficile Ă  Ă©valuer. « Le lien entre agroĂ©cologie et numĂ©rique peut changer la nature de ce que les agriculteurs vont fournir Ă  la sociĂ©tĂ© et Ă©largir leurs missions », explique Claire Rogel-Gaillard. Reste aujourd’hui Ă  mettre en place de nouvelles comptabilitĂ©s et de nouveaux indicateurs, Ă  mĂȘme de faire passer l’agroĂ©cologie Ă  une nouvelle Ă©chelle. Car, comme l’indique Xavier Reboud, « l’agroĂ©cologie sera considĂ©rĂ©e comme le systĂšme le plus performant quand on aura trouvĂ© un moyen de rendre compte des dimensions qui ne sont pas directement marchandes des productions agricoles. »

| Pour la Science / supplĂ©ment au n° 546 ‱ 40
Le numĂ©rique | c’est bon pour la nature ?
© Philippe Guichard

Le numérique trace son sillon

Le numérique fait une entrée fracassante dans les exploitations agricoles, aussi bien dans les pays développés que dans les émergents : robots, drones, IA... cÎtoient désormais tracteurs et moissonneuses.

Des images issues de satellites aux robots, en passant par les drones, les capteurs connectĂ©s dans les champs, les bases de donnĂ©es et toutes sortes de logiciels d’aide Ă  la dĂ©cision, le numĂ©rique apporte progressivement aux exploitants des outils trĂšs variĂ©s destinĂ©s Ă  faciliter leur travail, optimiser qualitativement et quantitativement leurs productions, et rĂ©duire les tĂąches les plus pĂ©nibles et rĂ©pĂ©titives. Mais un autre objectif est Ă  l’ordre du jour : l’agriculture doit faire sa transition Ă©cologique. Le numĂ©rique peut aider Ă  prendre en compte ces nouvelles contraintes : restreindre la consommation d’énergie, d’eau et d’autres ressources, l’usage de pesticides dangereux pour les Ă©cosystĂšmes, les Ă©missions de gaz Ă  effet de serre
 et bien d’autres.

Inria joue un rĂŽle majeur dans cette dĂ©marche. Signe des temps, elle s’est associĂ©e Ă  l’Institut national de recherche pour l’agriculture, l’alimentation et l’environnement (Inrae) pour publier, en janvier 2022, un livre blanc intitulĂ© « Agriculture et numĂ©rique » (voir l’encadrĂ© page suivante) et sous-titrĂ© « Tirer le meilleur du numĂ©rique pour contribuer Ă  la transition vers des agricultures et des systĂšmes alimentaires durables ». Ce document prĂ©sente notamment l’état de l’art des technologies numĂ©riques destinĂ©es au monde agricole et propose des pistes pour mieux exploiter encore le potentiel qu’elles recĂšlent pour la transition agroĂ©cologique. Il prolonge un partenariat entre les deux organismes dĂ©jĂ  anciens, qui se traduit, outre le PEPR (Programme et Ă©quipements prioritaires de recherche) rĂ©cemment lancĂ© (voir

| Pour la Science / supplĂ©ment au n° 546 ‱ 41
© Touti Terre
Le robot Toutilo, conçu par la start-up Touti Terre en partenariat avec Inria pour planter, dĂ©sherber, rĂ©colter, transporter
 dans les exploitations maraĂźchĂšres.

| c’est bon pour la nature ?

UN LIVRE BLANC POUR

L’AGRICULTURE NUMÉRIQUE

Dans trente ans, l’humanitĂ© comptera un milliard et demi de bouches Ă  nourrir supplĂ©mentaires, alors que le dĂ©rĂšglement climatique et l’appauvrissement de la biodiversitĂ© obligent dĂ©jĂ  Ă  rĂ©viser sĂ©rieusement les pratiques agricoles. La situation impose notamment un usage plus sobre des ressources, Ă  commencer par l’énergie et l’eau, mais aussi des fertilisants, pesticides et autres intrants nuisibles aux Ă©cosystĂšmes. C’est pourquoi l’agroĂ©cologie est dĂ©sormais un enjeu crucial en France et dans un nombre croissant de pays. Le numĂ©rique peut contribuer largement Ă  inventer cette nouvelle agriculture. Mais quel numĂ©rique dĂ©velopper pour accompagner cette agriculture plus vertueuse et bĂ©nĂ©fique, Ă  la fois du point de vue des agriculteurs et des consommateurs, plus gĂ©nĂ©ralement de la sociĂ©tĂ© ? Le document proposĂ© par Inria et Inrae tente d’éclairer ces questions et propose des pistes pour orienter les recherches afin de mieux comprendre, maĂźtriser, prĂ©parer, Ă©quiper et accompagner le dĂ©ploiement du numĂ©rique en agriculture et dans la chaĂźne alimentaire, en prenant en compte la maniĂšre dont il va transformer les filiĂšres et leur Ă©cosystĂšme, l’objectif Ă©tant que ces mesures bĂ©nĂ©ficient Ă  la transition Ă©cologique, Ă  la territorialisation et Ă  des chaĂźnes d’approvisionnement rééquilibrĂ©es. Sont successivement analysĂ©s les enjeux de la transformation de l’agriculture et des systĂšmes alimentaires, l’état de l’art des technologies numĂ©riques existantes, les possibilitĂ©s offertes par le numĂ©rique pour la transition agroĂ©cologique et une meilleure inclusion dans la sociĂ©tĂ©, les risques liĂ©s Ă  un dĂ©veloppement non maĂźtrisĂ© de l’agriculture numĂ©rique, enfin les questions et dĂ©fis techniques identifiĂ©s qui pourraient mobiliser Inria et Inrae mais aussi l’écosystĂšme français de la recherche, pour dĂ©velopper un numĂ©rique responsable pour l’agriculture.

l’article page 38) sur l’agroĂ©cologie et le numĂ©rique, par cinq Ă©quipes-projets communes, deux unitĂ©s mixtes de services et la participation conjointe Ă  de nombreux projets du programme Investissements d’Avenir


Des logiciels variĂ©s ont Ă©tĂ© dĂ©veloppĂ©s pour faciliter la vie des exploitants, Ă  commencer par de simples outils de gestion de l’exploitation. Mais depuis quelque temps dĂ©jĂ , des recherches, menĂ©es notamment par des scientifiques d’Inria, souvent en coopĂ©ration avec des Ă©quipes d’Inrae, visent Ă  offrir au monde de l’agriculture des solutions pour analyser, modĂ©liser, simuler, optimiser, aider Ă  la dĂ©cision. En faisant notamment appel Ă  l’intelligence artificielle (IA), en particulier des algorithmes d’apprentissage artificiel, et Ă  des approches relevant de l’ingĂ©nierie des connaissances.

Un exemple ? Dilepix, une start-up créée en 2018 notamment par AurĂ©lien Yol, ingĂ©nieur dans l’équipe-projet Lagadic (Inria, Irisa) Ă  Rennes. Il s’agit

de dĂ©ployer des camĂ©ras, dans des champs, sur les machines agricoles
 et de les relier Ă  une IA afin de dĂ©tecter en temps rĂ©el les situations qui nĂ©cessitent une intervention, comme l’arrivĂ©e d’insectes ravageurs, d’adventices ou bien l’apparition des graines ou des fleurs (voir la figure page ci-contre). L’économie de temps et de produits rĂ©alisĂ©e rend l’agriculture plus rentable et plus durable.

POUR LES PAYS ÉMERGENTS

Cependant, et ces exemples le montrent, la plupart de ces outils sont utilisĂ©s dans les nations dĂ©veloppĂ©es, et d’abord par les plus grandes exploitations agricoles. Mais certaines Ă©quipes de recherche s’intĂ©ressent Ă  la situation des pays Ă©mergents et imaginent des solutions adaptĂ©es Ă  des rĂ©gions. L’équipe-projet Scool d’Inria est de celles-ci, et son responsable, Philippe Preux, professeur Ă  l’universitĂ© de Lille et chercheur au Centre de recherche en informatique, signal et automatique de Lille (CRIStal, UMR CNRS, universitĂ© de Lille, Centrale Lille, Inria et IMT Nord Europe) raconte : « Dans le cadre de l’action humanitaire internationale Africa Rising, nous concevons des solutions reposant sur l’apprentissage automatique pour le conseil en agriculture. Notre crĂ©neau, c’est l’aide Ă  la prise de dĂ©cision et la recommandation. Nos travaux visent les petits cultivateurs des pays en dĂ©veloppement. Nous voulons aider les paysans Ă  nourrir leurs familles et Ă  gagner de l’argent en vendant leurs rĂ©coltes, tout en respectant l’environnement et en travaillant dans une logique d’agriculture durable. Il s’agit donc de rĂ©duire la pollution, minimiser l’usage des pesticides, Ă©viter de lessiver le sol
 Nous avons Ă©tudiĂ© la situation au Malawi et constatĂ© qu’il n’y avait pas assez de donnĂ©es de terrain pour entraĂźner nos modĂšles. Nous avons validĂ© cette approche en faisant appel Ă  la simulation et obtenu des rĂ©sultats trĂšs encourageants. L’idĂ©e est d’aboutir Ă  une solution audio : l’agriculteur accĂšde grĂące Ă  un simple tĂ©lĂ©phone portable Ă  un serveur vocal interactif. Il rĂ©pond Ă  des questions. Et reçoit des conseils. » Des recommandations relatives aux variĂ©tĂ©s, aux semis, aux amendements, Ă  l’irrigation


« Nous avons Ă©galement entamĂ© en Inde une coopĂ©ration avec une Ă©quipe d’une universitĂ© d’agronomie qui dispose d’une ferme expĂ©rimentale, poursuit Philippe Preux. Dans ce contexte, le problĂšme n’est plus de nourrir sa famille, il est donc possible de tester des hypothĂšses plus risquĂ©es, des scĂ©narios que l’on n’oserait pas envisager avec des agriculteurs dont la survie est en jeu. C’est trĂšs intĂ©ressant, car pour entraĂźner nos modĂšles d’apprentissage automatique, nous avons besoin de donnĂ©es positives mais aussi de nĂ©gatives, c’est-Ă -dire issues de situations oĂč on a fait des choix malheureux, des choses qui n’ont pas marchĂ©. »

| Pour la Science / supplĂ©ment au n° 546 ‱ 42
Le numérique > Scannez ce QR code pour consulter le livre blanc.

Pour remplir leur rĂŽle d’assistance et de conseil, ces logiciels ont besoin de toutes sortes de donnĂ©es. Certaines devront encore longtemps ĂȘtre saisies sur le clavier d’un ordinateur. Un outil inattendu est le smartphone, qui simplifie la saisie de donnĂ©es, in situ, « au champ », et offre mĂȘme d’envoyer une image vers un logiciel susceptible d’évaluer le nombre de fruits dans un arbre ou d’identifier un parasite.

DU SMARTPHONE AU SATELLITE

C’est par exemple le cas de PixFruit, un outil dĂ©veloppĂ© par Julien Sarron, chercheur au Centre de coopĂ©ration internationale en recherche agronomique pour le dĂ©veloppement (Cirad), qui aide Ă  estimer les rendements des manguiers Ă  partir de photos prises avec un tĂ©lĂ©phone sur lesquelles les fruits sont repĂ©rĂ©s grĂące Ă  une IA (voir la figure page suivante) Cette Ă©valuation guide ensuite la prise de dĂ©cision des agriculteurs, alimente des bases de donnĂ©es locales et favorise les Ă©changes entre acteurs de la filiĂšre.

Certaines informations utiles Ă  l’agriculteur sont fournies par des organismes ad hoc , par exemple MĂ©tĂ©o-France, qui propose, en ligne, des cartes et infor-

Dilepix propose un service d’analyse d’images pour automatiser la surveillance des exploitations agricoles et repĂ©rer, par exemple, les adventices.

mations chiffrĂ©es sur les conditions en cours, ainsi que des prĂ©dictions jusqu’à quinze jours. En outre, Ă  partir des images issues des satellites, des algorithmes sont capables d’estimer et de cartographier les besoins en irrigation ou en engrais azotĂ©, d’évaluer la croissance de certaines cultures. DĂ©celer des pathologies s’avĂšre plus difficile, mais on y travaille.

« L’utilisation d’images satellitaires est en train de se dĂ©mocratiser, notamment pour la prĂ©conisation de la fertilisation azotĂ©e », assure Corentin Leroux. Cet agronome et consultant en matiĂšre de numĂ©rique agricole a cofondĂ© l’Annuaire des outils numĂ©riques en agriculture. « Cette tendance est favorisĂ©e par l’existence d’images, de donnĂ©es en libre accĂšs. » L’Agence spatiale europĂ©enne (ESA) diffuse en effet gracieusement des images multispectrales (treize gammes d’ondes dans le visible et le proche infrarouge) issues des satellites Sentinel 2. « De plus en plus de logiciels intĂšgrent l’imagerie satellitaire, prĂ©cise l’expert, tandis que des entreprises dĂ©veloppent des “moulinettes” qui retravaillent les donnĂ©es brutes afin de fournir des images plus parlantes aux agriculteurs. »

| Pour la Science / supplĂ©ment au n° 546 ‱ 43
© Dilepix
Nos travaux visent Ă  aider les paysans Ă  nourrir leurs familles, Ă  gagner de l’argent en vendant leurs rĂ©coltes, tout en respectant l’environnement

D’autres donnĂ©es sont aujourd’hui captĂ©es localement, « Ă  la ferme ». Des sondes connectĂ©es plantĂ©es dans le sol collectent ainsi des informations aussi diverses que l’humiditĂ© du sol, sa tempĂ©rature et sa salinitĂ©, et mĂȘme, pour certaines, sa compaction et sa concentration en oxygĂšne. Citons encore les piĂšges connectĂ©s, capables par exemple d’attirer un insecte ravageur, ou plusieurs, et de reconnaĂźtre et dĂ©compter les individus, grĂące Ă  un algorithme de vision artificielle. CĂŽtĂ© Ă©levage, des colliers connectĂ©s pour les bovins et ovins et des mangeoires mesurant la quantitĂ© de nourriture ingĂ©rĂ©e par chaque animal sont disponibles.

Le drone est un autre moyen d’acquĂ©rir et collecter des donnĂ©es agricoles. Il peut ĂȘtre dotĂ© de camĂ©ras classiques, ou multispectrales, voire dans certains rares cas « hyperspectrales » (une centaine de bandes Ă©troites de frĂ©quence, ou plus), qui les rendraient par exemple capables de dĂ©tecter prĂ©cocement des carences ou des maladies. Ou encore de capteurs chimiques, permettant de dĂ©tecter certaines pathologies. Voire des dispositifs capables de prĂ©lever des Ă©chantillons (branche, feuille
) dans les champs.

« Le modĂšle Ă©conomique autour des drones n’est pas Ă©vident Ă  trouver, et rentre parfois en concurrence forte avec les images satellitaires, remarque Corentin Leroux. On retrouve aujourd’hui plutĂŽt les drones dans des applications assez spĂ©cifiques. »

QUAND LE NUMÉRIQUE PASSE À L’ACTION

Le numĂ©rique peut encore aider l’agriculteur lorsqu’il passe Ă  l’action. Les exemples les plus frappants relĂšvent de la robotique. Des robots agricoles arpentent dĂ©jĂ  certaines exploitations en France. Fin 2021, la start-up française NaĂŻo Technologies est devenue le premier fabricant mondial Ă  proposer des robots dĂ©sherbeurs et viticoles certifiĂ©s pour une utilisation sans aucune supervision humaine.

Interaction et l’Équipex, c’est-Ă -dire Ă©quipement d’excellence, Amiqual4Home) est Ă©quipĂ© d’un systĂšme de guidage par GPS et d’une technologie d’optoguidage qui l’oriente quand il s’agit de planter, dĂ©sherber, rĂ©colter, transporter
 Le numĂ©rique et les nouvelles technologies font ainsi leur entrĂ©e dans les exploitations maraĂźchĂšres, oĂč elles rĂ©duisent la pĂ©nibilitĂ© du travail tout en augmentant la productivitĂ©.

La robotique, c’est le domaine de Philippe Martinet, directeur de recherche chez Inria Sophia-Antipolis, au sein de l’équipe-projet Acentauri. « Nous nous intĂ©ressons notamment Ă  des problĂ©matiques multirobots, indique le chercheur. Ainsi, dans le cadre du projet Ninsar, auquel participent Ă©galement deux autres Ă©quipes-projets d’Inria (Chroma et Rainbow), quatre d’Inrae et dix relevant d’autres organismes (en particulier CNRS et CEA), nous travaillons sur des solutions reposant sur des flottes de robots lĂ©gers, aĂ©roterrestres, capables de coopĂ©rer pour rĂ©soudre des tĂąches variĂ©es, multiples et rĂ©pĂ©titives. Comme le dĂ©sherbage dans divers contextes. »

Remarquons que robots terrestres et drones, s’ils sont dotĂ©s de capteurs, ont un rĂŽle essentiel Ă  jouer dans la collecte de donnĂ©es. « Avec le projet Robforisk, en collaboration avec Inrae, nous cherchons Ă  suivre l’évolution des maladies forestiĂšres, afin de les juguler, indique Philippe Martinet. Entre autres, il s’agit de dĂ©tecter des parasites Ă  l’aide de drones dotĂ©s de camĂ©ras, de capteurs chimiques et Ă  mĂȘme d’effectuer des prĂ©lĂšvements Ă  la cime des arbres, collaborant avec de petits robots terrestres. Par ailleurs, poursuit le chercheur, dans le cadre du PEPR (Programme et Ă©quipements prioritaires de recherche) AgroĂ©cologie et NumĂ©rique (voir l’article page 38), nous rĂ©flĂ©chissons Ă  une « main » pour l’agriculture : Ă©quipĂ©e d’effecteurs et de capteurs, elle manipulerait une branche, une feuille, des objets mous. » Cette main serait utile pour rĂ©colter, mais aussi pour collecter des Ă©chantillons Ă  des fins d’analyse


Citons aussi le robot Toutilo, un vĂ©hicule enjambeur de cultures proposĂ© par la start-up Touti Terre (voir la figure page 41). Multifonction, l’engin conçu en collaboration avec Inria (l’équipe-projet Pervasive

Symbole de l’agriculture industrialisĂ©e, la moissonneuse-batteuse de 15 mĂštres de large ne disparaĂźtra sans doute pas de sitĂŽt. Mais la figure de proue de l’agriculture numĂ©risĂ©e pourrait bien ĂȘtre demain le robot agile, sensible et qui joue collectif.

| Pour la Science / supplĂ©ment au n° 546 ‱ 44 Le numĂ©rique | c’est bon pour la nature ?
L’outil PixFruit, dĂ©veloppĂ© par le Cirad, utilise une IA pour estimer, sur la base de photos, la production de produits tropicaux, ici des mangues.
© Cirad
Plusieurs équipesprojets travaillent sur des solutions reposant sur des flottes de robots légers, aéroterrestres, capables de coopérer pour résoudre des tùches variées, multiples et répétitives

Le numĂ©rique face Ă  lui-mĂȘme

D u simple citoyen avec son smartphone jusqu’aux prestataires de clouds et autres services de streaming aux capacitĂ©s de stockage gigantesques, les activitĂ©s numĂ©riques ont une empreinte environnementale qui croĂźt de façon exponentielle. Il est donc temps pour les acteurs du numĂ©rique de se pencher sur leurs propres activitĂ©s et de se rĂ©inventer. Les pistes sont nombreuses : nouveaux types de data centers, meilleure conception des algorithmes, intelligence artificielle frugale
 Les usagers, et les chercheurs, ont aussi un rĂŽle Ă  jouer, en adoptant des comportements plus Ă©conomes.

| Pour la Science / supplĂ©ment au n° 546 ‱ 45
Partie 4
|

Raisonner notre usage du numérique ?

Quelle est l’empreinte carbone du numĂ©rique ?

Au niveau mondial, le numĂ©rique est responsable de 8 à 10 % de la consommation Ă©lectrique et de 3 à 4 % des Ă©missions de gaz Ă  effet de serre. Et cette consommation est en croissance annuelle de 6 à 8 %, de sorte qu’elle double tous les dix ans environ. En France, oĂč l’électricitĂ© est essentiellement nuclĂ©aire, le numĂ©rique reprĂ©sente 2 à 3 % de l’empreinte carbone nationale, en augmentation de 4 à 5 % par an.

Hugues Ferreboeuf

Directeur du programme de travail sur l’impact environnemental du numĂ©rique dans le Shift Project.

Nos ordinateurs sont de plus en plus efficaces, certes, mais la consommation progresse plus vite que l’efficacitĂ© des infrastructures informatiques. Par ailleurs, la consommation liĂ©e aux terminaux augmente Ă©galement, et pour une raison simple :

on en a de plus en plus. Aux États-Unis, on compte aujourd’hui plus de treize Ă©quipements numĂ©riques par habitant. En Europe, c’est moins de dix.

Une meilleure efficacitĂ© Ă©nergĂ©tique n’induit-elle pas toujours une baisse de la consommation ?

Non, c’est mĂȘme parfois le contraire lorsque surgit « l’effet rebond ». Les Ă©conomistes parlent du « paradoxe de Jevons », formulĂ© en 1865 par l’économiste britannique William Stanley Jevons et reformulĂ© dans les annĂ©es 1980 par deux Ă©conomistes, Daniel Khazzoom, aux États-Unis, et Leonard Brookes, en Grande-Bretagne. Le « postulat de Khazzoom-Brookes » constate qu’un gain d’efficacitĂ© Ă©nergĂ©tique peut entraĂźner, paradoxalement, une augmentation de la consommation d’énergie. Ainsi la 5G, plus efficace que la 4G, offre un dĂ©bit supĂ©rieur Ă  moindre coĂ»t, ce qui favorise de nouveaux usages
 et finalement une augmentation de la consommation Ă©nergĂ©tique.

Cependant, le numĂ©rique permet d’économiser l’énergie dans bien des secteurs


Bien entendu. Mais il faut garder Ă  l’esprit que lorsqu’on introduit du numĂ©rique quelque part, on ajoute tout d’abord une nouvelle consommation Ă©lectrique, et donc on augmente l’empreinte carbone de l’application considĂ©rĂ©e. Prenons un exemple simple : l’éclairage « intelligent ». Le numĂ©rique permet, Ă  l’aide de capteurs, de dĂ©tecter la prĂ©sence de personnes et donc de n’allumer une ampoule que lorsque c’est nĂ©cessaire. Il y a donc un potentiel d’économie parce qu’une ampoule ne sera pas allumĂ©e tout le temps. Mais le module numĂ©rique qui dĂ©tecte les personnes doit fonctionner et donc consommer de l’électricitĂ© en permanence. Si on fait le calcul en n’oubliant rien, on constate que le remplacement d’une LED non intelligente par une intelligente n’est pas toujours justifiĂ©.

Peut-on amĂ©liorer l’efficacitĂ© des logiciels ?

C’est une piste intĂ©ressante. Produire des logiciels plus Ă©conomes, c’est faire le contraire de ce qu’on fait depuis quinze ans. On a dĂ©veloppĂ© dans la derniĂšre pĂ©riode sans s’inquiĂ©ter de la puissance consommĂ©e. C’est l’une des causes du remplacement prĂ©maturĂ© des smartphones, en moyenne tous les vingt-trois mois. Autre exemple : Windows 11 oblige Ă  remplacer tous

| Pour la Science / supplĂ©ment au n° 546 ‱ 46 Grand angle © The
Project
Shift

les ordinateurs qui ont plus de quatre ans. On se souvient de l’époque lointaine oĂč on apprenait Ă  Ă©crire du code Ă©conomique. Aujourd’hui beaucoup de dĂ©veloppements s’appuient sur des briques logicielles gĂ©nĂ©ralement non optimisĂ©es.

Les Gafam installent leurs propres centrales solaires. C’est une bonne chose ?

Les Gafam ont les data centers les plus efficaces du monde. Mais ils en ont de plus en plus ! Chez Google, la consommation Ă©lectrique s’accroĂźt en moyenne de 24 % par an. Alors, certes, les Gafam installent de plus en plus de capacitĂ© de production d’énergie renouvelable, essentiellement du photovoltaĂŻque. C’est bon pour eux, mais pas pour la planĂšte. Lorsqu’ils installent un nouveau data center , ils dĂ©couvrent parfois une production Ă©lectrique locale mĂ©diocre. C’est pourquoi ils fiabilisent leur alimentation avec du solaire ou de l’éolien. Ce qui abaisse leurs propres Ă©missions. Mais il y a une limite Ă  la capacitĂ© de produire de l’électricitĂ© renouvelable. Et ce que les Gafam prennent n’est pas disponible pour les autres.

Certaines initiatives visent à récupérer la chaleur dégagée par les data centers


C’est bien sĂ»r intĂ©ressant en principe, mais cela reste anecdotique. RĂ©cupĂ©rer la chaleur d’un data center pour chauffer une piscine est techniquement facile, mais ces structures ne sont pas toujours Ă  cĂŽtĂ© d’une piscine
 Le plus souvent, ce couplage nĂ©cessite l’existence d’un rĂ©seau de chaleur auquel se raccorder. On le voit, beaucoup de conditions doivent ĂȘtre rĂ©unies. En fin de compte, on pourrait inciter les Gafam Ă  chauffer du rĂ©sidentiel ou de l’industriel avec leurs data centers, mais la mise en Ɠuvre reste complexe.

L’idĂ©e, entre autres, d’installer des serveurs Ă  la place de radiateurs Ă©lectriques, comme le fait la start-up Qarnot est intĂ©ressante (voir l’article p. 60) . Mais comment cela se passe-t-il dans la rĂ©alitĂ©, par exemple en pĂ©riode de chaleur ?

À Londres, cet Ă©tĂ©, la tempĂ©rature est montĂ©e Ă  39 degrĂ©s
 et deux data centers sont tombĂ©s en panne !

Freiner l’usage du numĂ©rique est donc nĂ©cessaire ?

PlutĂŽt que de limiter nos ambitions, ayons-en de nouvelles ! Les techniques numĂ©riques ont Ă©voluĂ© bien plus vite que notre capacitĂ© Ă  les maĂźtriser. On devrait dĂ©penser plus de temps de cerveau Ă  rĂ©flĂ©chir sur la maniĂšre de bien utiliser le numĂ©rique, pour ĂȘtre capable d’évoluer vers une sociĂ©tĂ© plus sobre Ă©nergĂ©tiquement, tout en maintenant un niveau acceptable de bien-ĂȘtre. Nous devons mettre les gains d’efficacitĂ© numĂ©rique au service de la sobriĂ©tĂ© Ă©nergĂ©tique. Et ce n’est pas seulement un problĂšme technique. Il nous faut rĂ©apprendre Ă  maĂźtriser nos usages du numĂ©rique, un peu comme on apprend Ă  boire du vin
 avec modĂ©ration – par exemple en jouant moins Ă  Game of Thrones en 3D et rĂ©alitĂ© virtuelle, au profit de la lecture, des Ă©checs ou de la promenade en forĂȘt.

Qu’en est-il de la rĂ©gulation ?

Une gouvernance plus dĂ©terminĂ©e est indispensable pour plus de rĂ©gulation sur l’offre, les fabricants, les Gafam
 Oui, des textes lĂ©gislatifs sont nĂ©cessaires. Par exemple, l’interdiction de l’ autoplay , c’est-Ă -dire le dĂ©marrage automatique de vidĂ©os sur une page web, serait une bonne idĂ©e. Plus gĂ©nĂ©ralement, des choix par dĂ©faut Ă©conomes doivent ĂȘtre proposĂ©s. On peut laisser les gens libres de consommer des ressources comme ils veulent sans que cela soit automatique, parce que toutes les options « gourmandes » sont prĂ©rĂ©glĂ©es. Cela fait partie des prĂ©conisations du rapport « Digital Reset », publiĂ© par le projet europĂ©en D4S (Digitalization for Sustainability – Science in Dialogue), dont je suis l’un des coauteurs. Et le Shift Project insiste Ă©galement sur la nĂ©cessitĂ© d’une planification du numĂ©rique. Ce secteur Ă©conomique connaĂźt une dynamique insoutenable. Six acteurs, Ă  savoir Google, Apple, Microsoft, Amazon, Netflix et Facebook, sont responsables de 75 % de l’augmentation du trafic internet, qui a Ă©tĂ© multipliĂ© par deux entre 2018 et 2021. Cet emballement ne va pas se stabiliser de luimĂȘme, nous devons intervenir. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 47
« Il nous faut rĂ©apprendre Ă  maĂźtriser nos usages du numĂ©rique, un peu comme on apprend Ă  boire du vin
 avec modĂ©ration »
À lire I Rapport du Shift Project « DĂ©ployer la sobriĂ©tĂ© numĂ©rique » theshiftproject.org/ article/deployer-lasobriete-numeriquerapport-shift/

Le coût énergétique du numérique

DerriĂšre un courriel, une requĂȘte sur un moteur de recherche, le stockage d’une photo sur le « cloud »  se cache une consommation Ă©nergĂ©tique importante, et qui va croissant. Et donc un impact environnemental non nĂ©gligeable.

L’EMPREINTE DU NUMÉRIQUE EN FRANCE

10 % de la consommation électrique annuelle est consacrée au numérique.

À L’ÉCHELLE MONDIALE, LE NUMÉRIQUE CORRESPOND À


Cela reprĂ©sente pour chaque Français l’équivalent de la consommation Ă©lectrique d’un radiateur de 1 000 watts pendant 30 jours. L’impact environnemental est Ă©gal Ă  celui d’un trajet de 2 259 kilomĂštres en voiture.

Énergie primaire Gaz Ă  effet de serre Eau ÉlectricitĂ©

6 % de la consommation

3,8 % des émissions 0,2 % de la consommation 14 % de la consommation

CE QUI ÉQUIVAUT À


Émissions de gaz à effet de serre

 116 millions de tours du monde.

Eau

 1 542 milliards de bouteilles d’eau de 1,5 litre.

2,5 % de l’empreinte carbone de la France est liĂ©e au numĂ©rique

20 millions de tonnes de dĂ©chets par an sont produites sur l’ensemble du cycle de vie des Ă©quipements, soit 299 kilogrammes par Français.

62,5 millions de tonnes de ressources sont exploitées par an pour produire et utiliser les équipements numériques.

LA PART DE L’IMPACT ENVIRONNEMENTAL SELON LE TYPE D’OUTILS

De 65 Ă  90 %

Terminaux utilisateurs (téléviseurs, smartphones, ordinateurs
)

De 4 Ă  22 % Data centers

De 2 à 14 % Réseaux

 1,5 milliard de Français parcourant chaque jour 50 kilomĂštres en voiture pendant un an.

 3,6 milliards de douches.

Si le numérique était un pays, son empreinte serait 2 à 3 fois celle de la France.

L’EMPREINTE CARBONE DU NUMÉRIQUE PAR POSTE (EN 2019)

Production Utilisation

Réseaux 11 %

Terminaux utilisateurs 38 %

Centre de données 14 %

Ordinateurs 10 %

Smartphones 8 %

TV 15 %

Autres 4 %

| Pour la Science / supplĂ©ment au n° 546 ‱ 48
© Cisco 2020/the Shift Project © Ademe © Ademe
Le numĂ©rique | face Ă  lui-mĂȘme
© Green-It

DES DONNÉES TOUJOURS

ÉVOLUTION DU NOMBRE D’ÉQUIPEMENTS CONNECTÉS PAR PERSONNE ENTRE 2018 ET 2023

QUATRE SCÉNARIOS D’ÉVOLUTION POUR LE NUMÉRIQUE

La part du numĂ©rique dans les Ă©missions de gaz Ă  effet de serre d’ici Ă  2025 (Ă  gauche) et dans la consommation d’énergie primaire (Ă  droite) variera selon les scĂ©narios prospectifs dĂ©finis par le Shift Project.

SCÉNARIO « CONSERVATIVE »

Le rythme de gain d’efficacitĂ© Ă©nergĂ©tique (EE) reste identique Ă  celui observĂ© historiquement de 2013 Ă  2019, tandis que le trafic et la production d’équipements croissent modĂ©rĂ©ment.

SCÉNARIO « GROWTH »

Le rythme de gain d’efficacitĂ© Ă©nergĂ©tique reste identique Ă  celui observĂ© historiquement de 2013 Ă  2019, tandis que le trafic et la production d’équipements croissent beaucoup.

SCÉNARIO « NEW SOBRIETY »

SCÉNARIO « GROWTH LESS EE »

Par rapport au prĂ©cĂ©dent, ce scĂ©nario prend en compte un (lĂ©ger) ralentissement des gains d’efficacitĂ© Ă©nergĂ©tique observĂ© Ă  partir de 2020 dans les data centers et au sein des rĂ©seaux, mobiles notamment.

La production des nouveaux types d’équipements et le trafic ralentissent, tandis que le rythme de gain d’efficacitĂ© Ă©nergĂ©tique reste identique Ă  celui observĂ© historiquement de 2013 Ă  2019. Ce scĂ©nario, qui implique une rupture significative dans les modes de consommation numĂ©rique, se traduit par une stabilisation des Ă©missions de gaz Ă  effet de serre.

| Pour la Science / supplĂ©ment au n° 546 ‱ 49 Pixel art © Shuttertock.com
0,O % 4,O % 2,O % 6,O % 9,O % 1,O % 5,O % 8,O % 3,O % 7,O % 10,O % 0,O % 4,O % 2,O % 6,O % 9,O % 1,O % 5,O % 8,O % 3,O % 7,O % 10,O %
AmĂ©rique du Nord Europe centrale et orientale Asie-Pacifique Moyen-Orient et Afrique Global 2,5 2,1 4,0 3,1 Le volume de donnĂ©es stockĂ©es atteindra 175 zettaoctets (un Zo vaut 1021 octets) en 2025, soit 5,3 fois plus qu’en 2018. © Shift Project/ R. Reinsel et al., 2018.
PLUS NOMBREUSES 180 160 140 120 100 80 60 40 20 0 2010 2014 2018 2022 2012 2016 2020 2024 2011 2015 2019 2023 2013 2017 2021 2025 Zettaoctets © Cisco 2020/the Shift Project % de croissance annuelle 9,1 % 8,3 % 5,4 % 8,5 % 8,2 13,4 11 % Europe de l’Ouest 10,9 % 5,6 9,4 1,1 1,5 AmĂ©rique latine 7 % 2,2 3,1 2,4 3,6 2013 2017 2015 2019 2022 2024 2014 2018 2021 2016 2020 2023 2025 2013 2017 2015 2019 2022 2024 2014 2018 2021 2016 2020 2023 2025 Conservative Growth Growth less EE New sobriety Conservative Growth Growth less EE New sobriety 6 % de croissance par an Entre 3 % et 4 % ScĂ©narios EfficacitĂ© Ă©nergĂ©tique Trafic de donnĂ©es Production d’équipements Conservative Rythme historique Rythme modĂ©rĂ© Rythme modĂ©rĂ© Growth Rythme historique Rythme soutenu Rythme soutenu Growth less EE LĂ©ger ralentissement Rythme soutenu Rythme soutenu New sobriety Rythme historique DĂ©cĂ©lĂ©ration DĂ©cĂ©lĂ©ration

Apprendre à limiter les impacts du numérique

«Toujours plus ! », affirmait un succĂšs de librairie au dĂ©but des annĂ©es 1980. C’est assurĂ©ment vrai du numĂ©rique, omniprĂ©sent dans notre quotidien, et qui devrait l’ĂȘtre de plus en plus. Ses impacts environnementaux dĂ©jĂ  parvenus Ă  des niveaux alarmants sont appelĂ©s Ă  augmenter encore. Le sujet est d’autant plus prĂ©occupant que de nouvelles technologies comme l’intelligence artificielle, la blockchain ou les objets connectĂ©s augmenteront la demande en Ă©nergie et en Ă©quipements numĂ©riques.

La tendance est là, mais les impacts environnementaux du numérique restent néanmoins

difficiles Ă  Ă©valuer. Les raisons sont multiples : la complexitĂ© des systĂšmes, l’hĂ©tĂ©rogĂ©nĂ©itĂ© des architectures et des infrastructures, la multitude des technologies, des impacts et des acteurs
 Autre Ă©cueil Ă  cette Ă©valuation, les effets rebonds par lesquels une hausse de la consommation des biens et des services contrebalance les progrĂšs technologiques : de fait, l’augmentation des dĂ©bits des rĂ©seaux a induit des applications consommant plus de donnĂ©es.

Cette évaluation est pourtant essentielle pour tendre vers une utilisation plus responsable et raisonnée du numérique et aider le citoyen à changer ses usages. Seule une approche systémique per -

| Pour la Science / supplĂ©ment au n° 546 ‱ 50 Le numĂ©rique | face Ă  lui-mĂȘme
L’évaluation de l’empreinte environnementale du numĂ©rique reste approximative. Pour y remĂ©dier, les recherches se multiplient, les contenus pĂ©dagogiques s’étoffent et la lĂ©gislation Ă©volue.
>
Benjamin Ninassi
Adjoint au responsable du programme Environnement et NumĂ©rique chez Inria Auteur Le mooc « Impacts environnementaux du numĂ©rique » (ici, une copie d’écran) aide tout un chacun Ă  prendre conscience de l’empreinte environnementale des Ă©quipements numĂ©riques
 et Ă  la diminuer.

mettrait Ă  la fois d’apprĂ©hender et de privilĂ©gier les dĂ©marches low tech, de distinguer les gains d’efficacitĂ© des impĂ©ratifs de sobriĂ©tĂ© et d’anticiper les indĂ©sirables effets rebonds.

SENSIBILISATION ET FORMATION

La prise de conscience est le premier pas. Et c’est le sens par exemple du mooc (cours en ligne massivement ouvert) de sensibilisation aux impacts environnementaux du numĂ©rique, rĂ©alisĂ© par Inria en partenariat avec l’association Class’Code et sous l’impulsion de la direction du NumĂ©rique pour l’éducation (DNE). Disponible gratuitement en français et en anglais sur la plateforme France UniversitĂ© NumĂ©rique, il est accessible au grand public et peut servir de support aux professeurs d’informatique pour introduire ces notions dans leurs enseignements. ParallĂšlement, afin de sensibiliser l’ensemble des acteurs du monde professionnel, Inria Academy l’a dĂ©clinĂ© en une formation adaptĂ©e aux entreprises.

À plus grande Ă©chelle, le gouvernement a nommĂ© le 14 novembre 2022 un haut comitĂ© sur le numĂ©rique Ă©coresponsable, chargĂ© d’établir d’ici au printemps 2023 une feuille de route sur la dĂ©carbonation de la filiĂšre numĂ©rique. GrĂące Ă  son expertise, Inria appuie ces politiques publiques. L’institut participe Ă©galement aux actions portĂ©es par l’Ademe, dont un projet menĂ© en partenariat avec EcoInfo pour renforcer le dĂ©ploiement de la sobriĂ©tĂ© numĂ©rique sur le territoire par des actions de sensibilisation et de formation, des mĂ©thodologies standardisĂ©es et des outils pour les mettre en Ɠuvre.

OUTILS OPÉRATIONNELS ET RECHERCHES

Des solutions opĂ©rationnelles voient le jour et accompagnent cette prise de conscience. Parmi elles, citons le « RĂ©fĂ©rentiel gĂ©nĂ©ral d’écoconception de services numĂ©riques », destinĂ© Ă  aider les concepteurs d’un service numĂ©rique Ă  rĂ©duire la consommation en ressources informatiques et Ă©nergĂ©tiques, ainsi que la contribution Ă  l’obsolescence des Ă©quipements. Autre exemple, le guide « Bonnes pratiques – NumĂ©rique responsable pour les organisations » s’adresse Ă  toute personne en relation avec les systĂšmes d’information.

Ces deux documents ont Ă©tĂ© publiĂ©s, respectivement en juin 2021 et fĂ©vrier 2022, dans le cadre de la mission interministĂ©rielle NumĂ©rique Ă©coresponsable avec l’appui de nombreux contributeurs.

Des projets de recherche sont par ailleurs menĂ©s en partenariat entre les mondes acadĂ©mique et industriel, comme Distiller, entre Inria, OVHcloud et Orange, sur la rĂ©duction des impacts des infrastructures cloud , ou encore le DĂ©fi Pulse, pour la valorisation de la chaleur fatale liĂ©e au calcul haute performance Ă©tudiĂ©e par Inria et Qarnot Computing (voir l’article page 60)

numérique responsable

Les exigences lĂ©gales Ă©voluent de mĂȘme, au niveau français comme europĂ©en. Par exemple, la loi Reen du 15 novembre 2021 vise Ă  rĂ©duire l’empreinte environnementale du numĂ©rique en France. Pour ce faire, deux leviers ont Ă©tĂ© introduits : l’obligation pour les collectivitĂ©s de plus de 50 000 habitants d’élaborer une stratĂ©gie numĂ©rique responsable et pour les formations initiales d’ingĂ©nieur d’inclure un module sur l’écoconception de services numĂ©riques.

L’enjeu est de taille. Il s’agit d’introduire les pratiques d’écoconception by design , c’est-Ă -dire dĂšs la conception, dans la mise en place de tout service numĂ©rique et, surtout, de former les ingĂ©nieurs au technodiscernement afin de proposer un avenir technologiquement raisonnĂ©, rĂ©silient et inclusif.

> Scannez ce QR code pour découvrir le mooc « Impacts environnementaux du numérique ».

L’écoconception est d’autant plus cruciale qu’elle touche directement Ă  la lutte contre l’obsolescence matĂ©rielle et logicielle, contribue Ă  la sobriĂ©tĂ© numĂ©rique et favorise la rĂ©duction de la fracture numĂ©rique. Mais, s’il doit devenir naturel Ă  chacun de privilĂ©gier des solutions low tech , il est avant tout nĂ©cessaire de questionner la pertinence du besoin en amont de la conception. Autrement dit, la rĂ©duction des impacts environnementaux du numĂ©rique est loin de se limiter Ă  cibler des gains d’efficacitĂ© technique. Elle nĂ©cessite que toutes les parties prenantes soient formĂ©es : architectes, dĂ©veloppeurs, designers, chefs de projet, mais aussi utilisateurs et maĂźtres d’ouvrage, en considĂ©rant l’intĂ©rĂȘt d’un service numĂ©rique avant de chercher Ă  en amĂ©liorer l’efficacitĂ©. Une rĂ©flexion que chacun devrait mener


Pour en savoir +

Publications de la mission interministérielle Numérique écoresponsable : https://ecoresponsable.numerique.gouv.fr/publications/

Le « RĂ©fĂ©rentiel gĂ©nĂ©ral d’écoconception de services numĂ©riques : https://ecoresponsable.numerique.gouv.fr/publications/referentiel-general-ecoconception/ Le guide « Bonnes pratiques – NumĂ©rique responsable pour les organisations » : https://ecoresponsable.numerique.gouv.fr/publications/bonnes-pratiques/

| Pour la Science / supplĂ©ment au n° 546 ‱ 51
© Inria
DĂ©sormais, toute collectivitĂ© de plus de 50 000 habitants se doit d’élaborer une stratĂ©gie

> Daniel Romero

IngĂ©nieur de recherche en informatique dans l’équipe-projet Spirals, chez Inria.

Auteurs

Enseignant-chercheur en informatique au Centre de recherche en informatique, signal et automatique de Lille (CRIStAL), universitĂ© de Lille, CNRS, membre de l’équipeprojet Spirals d’Inria.

La fabrique du numérique frugal

Les algorithmes de nos applications et logiciels sont parfois trÚs énergivores. Comment les rendre plus frugaux ?

En estimant en temps réel leur consommation énergétique grùce à des outils innovants, les wattmÚtres virtuels.

Àn’en pas douter, le secteur du numĂ©rique est ce que les Grecs appelaient un pharmakon , c’est-Ă -dire Ă  la fois un remĂšde et un poison. Dans son rapport de 2020, la Convention citoyenne pour le climat pointait cette situation paradoxale. Ses auteurs insistaient sur l’ambivalence du numĂ©rique, outil clĂ© de la transition Ă©cologique, mais aussi moteur de la hausse des Ă©missions de gaz Ă  effet serre (GES). De fait, comme l’indique dans un rapport la Commission de l’amĂ©nagement du territoire et du dĂ©veloppement durable du SĂ©nat, la part des Ă©missions de GES du numĂ©rique en France est de 2,5 %. Et, si rien n’est fait, ce chiffre augmentera jusqu’à atteindre 6,7 % en 2040 ! Soit une valeur supĂ©rieure aux Ă©missions du transport aĂ©rien en France, estimĂ©e Ă  4,7 %.

Fait notable, 81 % de ces Ă©missions liĂ©es au secteur du numĂ©rique sont dues Ă  la fabrication de terminaux Ă©lectroniques : smartphones, ordinateurs, imprimantes, Ă©crans, consoles de jeux
 Viennent ensuite les centres de donnĂ©es (14 %) et les rĂ©seaux (5 %). À cet Ă©gard, les fournisseurs de cloud, comme OVHcloud (voir l’article page 56) ou Qarnot computing (voir l’article page 60), mĂšnent des actions visant Ă  diminuer leur impact environnemental par le recours aux Ă©nergies renouvelables, l’optimisation de leurs composants

Ă©lectroniques, le refroidissement de leurs serveurs
 Tous ces efforts se concentrent essentiellement sur le matĂ©riel Ă©lectronique, Ă©ludant un autre aspect fondamental de la consommation Ă©nergĂ©tique des data centers : les logiciels et algorithmes qui s’y exĂ©cutent. Il y a pourtant lĂ  une rĂ©elle piste d’amĂ©lioration et d’optimisation. Par exemple, pour un mĂȘme logiciel, la consommation Ă©nergĂ©tique peut varier d’un facteur 100 selon le langage de programmation utilisĂ© (voir l’encadrĂ© page 54), comme C, Python


DES WATTMÈTRES « VIRTUELS »

C’est tout l’enjeu de l’informatique dite « frugale » : concevoir des logiciels, des applications, des algorithmes moins Ă©nergivores, ou imaginer des configurations plus durables. Mais encore faut-il ĂȘtre capable de mesurer et donc d’identifier au prĂ©alable d’oĂč vient le problĂšme de consommation d’énergie. Lorsqu’on interroge les dĂ©veloppeurs sur les difficultĂ©s qu’ils rencontrent pour crĂ©er des logiciels Ă©coconçus, l’une de leurs principales rĂ©ponses est l’absence d’outils pour quantifier la consommation Ă©nergĂ©tique des diffĂ©rentes parties de leur code ou de leur logiciel.

Il existe certes des wattmĂštres pour Ă©valuer la consommation Ă©nergĂ©tique d’équipements Ă©lectroniques comme les serveurs des data centers. Mais le

| Pour la Science / supplĂ©ment au n° 546 ‱ 52 Le numĂ©rique | face Ă  lui-mĂȘme

problĂšme avec ce genre d’approche est le coĂ»t de leur dĂ©ploiement Ă  grande Ă©chelle, car il faudrait Ă©quiper chaque serveur d’un wattmĂštre, et ce que l’on appelle « la granularitĂ© de la mesure ». En effet, ces outils mesurent la consommation globale d’un serveur en considĂ©rant l’ensemble de ses composants : processeur, mĂ©moire vive, disque dur, carte graphique, carte rĂ©seau
 et, bien entendu, tous les logiciels qui s’y exĂ©cutent. Cette mesure globale rend complexe, voire impossible, toute estimation de la contribution respective de chaque couche logicielle dans cette consommation Ă©nergĂ©tique.

Une approche innovante consiste Ă  mettre au point des wattmĂštres « virtuels » : des outils numĂ©riques capables de mesurer ou d’estimer finement la consommation Ă©nergĂ©tique d’un logiciel ou d’un processus informatique au sein d’un processeur. Le but est d’identifier les sous-couches logicielles ou les processus les plus Ă©nergivores. C’est

tout l’objet des recherches que nous menons dans notre Ă©quipe-projet Spirals au Centre de recherche en informatique, signal et automatique de Lille (CRIStAL) et au centre Inria de l’universitĂ© de Lille.

POWERAPI HOURS

Depuis 2012, nous avons mis au point un systĂšme baptisĂ© PowerAPI, disponible en open source sur la plateforme GitHub, que nous avons imaginĂ© comme une boĂźte Ă  outils permettant Ă  quiconque d’assembler des wattmĂštres virtuels Ă  la demande, en fonction de ses besoins. Les cas d’usage de PowerAPI ciblent notamment le suivi de la consommation de services logiciels dĂ©ployĂ©s dans des infrastructures virtualisĂ©es du cloud computing

Les wattmĂštres que nous mettons en place avec cette technologie sont constituĂ©s de quatre briques Ă©lĂ©mentaires : une sonde, une source, une formule et une destination. Ces termes un peu techniques dĂ©crivent une architecture finalement assez simple. La sonde est un logiciel dĂ©veloppĂ© dans le langage de programmation C et peut ĂȘtre installĂ©e sur toute machine (du serveur de data center jusqu’à l’ordinateur personnel
) dont on veut mesurer la consommation Ă©nergĂ©tique. Cette sonde est reliĂ©e au processeur et reçoit ainsi des indicateurs de performances matĂ©rielles corrĂ©lĂ©es avec la consommation d’énergie du serveur ciblĂ©. Ces indicateurs sont ensuite stockĂ©s dans une source, en l’occurrence des fichiers textes ou des systĂšmes de gestion de bases de donnĂ©es comme MongoDB, afin d’ĂȘtre ensuite utilisĂ©s dans une « formule ». Cette formule est en fait un

| Pour la Science / supplĂ©ment au n° 546 ‱ 53
© Inria / Photo M. Magnin
Un ordinateur est « trĂšs bĂȘte » : on ne s’en rend pas compte en tant qu’utilisateur, car tout est trĂšs rapide, mais ils exĂ©cutent de nombreuses actions inutiles
PowerAPI aide Ă  mesurer la consommation Ă©nergĂ©tique d’un processus systĂšme afin de faciliter la prise en compte des bonnes pratiques d’écoconception logicielle.

LE LANGAGE DES ALGORITHMES EN 3 QUESTIONS

Y a-t-il des langages informatiques Ă  privilĂ©gier pour faire des Ă©conomies d’énergie ?

Lors d’une confĂ©rence internationale d’informatique (ACM Sigplan), organisĂ©e en 2017 Ă  Vancouver, des chercheurs en informatique avaient publiĂ© un tableau des langages de programmation associĂ©s Ă  leur impact Ă©nergĂ©tique, permettant d’identifier lesquels sont les plus efficients. Globalement, il en ressort que les langages dits « compilĂ©s », comme le C ou le C++, plus proches du fonctionnement des machines (ordinateurs, serveurs
), sont moins consommateurs d’énergie que les langages dits « interprĂ©tĂ©s », comme le Python. Et pour cause ! Cette famille fait appel Ă  un petit programme informatique intermĂ©diaire qui, Ă  la façon d’un interprĂšte Ă  l’ONU, traduit en temps rĂ©el le langage Python en des instructions comprĂ©hensibles pour un ordinateur. Ainsi le C est 75 fois moins Ă©nergivore que le Python.

Est-ce Ă  dire qu’un langage est Ă  privilĂ©gier par rapport Ă  un autre ?

Non, il n’y en a pas de meilleur dans l’absolu ! Il faut adopter le meilleur langage pour un contexte donnĂ©. Par ailleurs, les dĂ©veloppeurs ont souvent des prĂ©fĂ©rences. Les spĂ©cialistes du machine learning vont plutĂŽt utiliser Python, par exemple. Ce langage est bien adaptĂ© Ă  leurs applications, ils sont Ă  l’aise avec, ils le connaissent bien
 Difficile dans ces conditions de les convaincre de changer. MalgrĂ© tout, il existe des solutions moins radicales pour les accompagner dans une dĂ©marche de sobriĂ©tĂ©.

Que peuvent-ils mettre en place pour rendre leurs algorithmes plus frugaux ?

Je vois trois grands leviers pour réduire la consommation des

algorithmes utilisant des langages gourmands en Ă©nergie. Le premier consiste Ă  optimiser ce que l’on appelle l’« environnement d’exĂ©cution » et son paramĂ©trage. L’environnement d’exĂ©cution est un logiciel grĂące auquel un algorithme fonctionne dans ce langage. Il est associĂ© Ă  un « interprĂ©teur », dont le rĂŽle est, comme je le disais, de traduire un langage donnĂ© en instructions comprĂ©hensibles pour un ordinateur. Or il existe plusieurs types d’interprĂ©teurs et le choix de ce dernier a une grande incidence sur le coĂ»t Ă©nergĂ©tique. Pour reprendre l’exemple du Python, selon l’interprĂ©teur, ce coĂ»t peut ĂȘtre divisĂ© par dix. Par ailleurs, souvenons-nous qu’un ordinateur mĂȘme trĂšs puissant est « trĂšs bĂȘte » : on ne s’en rend pas compte en tant qu’utilisateur, car tout est trĂšs rapide, mais nos ordinateurs exĂ©cutent de nombreuses actions inutiles. Le paramĂ©trage de l’environnement d’exĂ©cution aide Ă  les minimiser. Cette optimisation pourrait s’appuyer sur des wattmĂštres virtuels comme PowerAPI.

À terme, il est possible d’imaginer un systĂšme qui transmette une information sur la consommation Ă©nergĂ©tique de chaque ligne de code, associĂ© Ă  un systĂšme de recommandation pour aider les dĂ©veloppeurs Ă  rendre leurs algorithmes plus frugaux. Un de nos thĂ©sards a d’ailleurs travaillĂ© sur l’intĂ©gration de cette dimension Ă©nergĂ©tique dans les environnements d’exĂ©cution du langage Python.

DeuxiĂšme levier : Ă©viter de recalculer ce qui a dĂ©jĂ  Ă©tĂ© calculĂ©, en mettant en jeu des mĂ©moires qui conservent le rĂ©sultat d’un calcul afin de le rĂ©utiliser. TroisiĂšme levier : jouer sur la prĂ©cision des calculs. Pourquoi avoir une prĂ©cision avec dix chiffres aprĂšs la virgule alors qu’un arrondi Ă  l’entier supĂ©rieur a la mĂȘme efficacitĂ© ?

algorithme d’apprentissage statistique qui analyse ces indicateurs bruts pour estimer la consommation du serveur avec prĂ©cision. Nous avons en particulier mis au point un modĂšle numĂ©rique nommĂ© SmartWatts, capable de capturer en temps rĂ©el et de façon intelligente la dynamique du processeur, afin d’estimer la consommation Ă©nergĂ©tique de chaque processus logiciel. Enfin, ces estimations sont stockĂ©es dans une base de donnĂ©es, la destination. Toutes ces informations peuvent alors faire l’objet d’une analyse fine afin d’identifier sur quel Ă©lĂ©ment faire levier pour rĂ©duire la consommation Ă©nergĂ©tique d’une application ou d’un logiciel.

DES PROJETS PHARES

En 2022, nous avons proposĂ© une dĂ©monstration de cet outil Ă  EuraTechnologies, un incubateur et accĂ©lĂ©rateur de start-up, Ă  Lille. Il s’agissait d’estimer en temps rĂ©el la consommation sur un ordinateur portable et un serveur. Sur l’ordinateur, deux navigateurs (Firefox et Chromium) ont Ă©tĂ© utilisĂ©s pour accĂ©der aux mĂȘmes applications internet : une application d’e-commerce et un rĂ©seau social de type Facebook, lesquelles s’exĂ©cutaient sur un serveur hĂ©bergĂ© par Inria. Nous avons ainsi pu comparer la consommation de ces deux navigateurs (Chromium est le moins Ă©nergivore) pour une mĂȘme application cible, de mĂȘme que la consommation individuelle des diffĂ©rents services logiciels qui composent ces applications internet potentiellement complexes.

Étant donnĂ© le contexte actuel liĂ© aux enjeux de sobriĂ©tĂ© Ă©nergĂ©tique, diffĂ©rents partenaires de l’industrie ont montrĂ© leur intĂ©rĂȘt pour PowerAPI. GrĂące au soutien d’Inria et en cohĂ©rence avec son programme NumĂ©rique et environnement, lancĂ© fin 2022, un consortium a Ă©tĂ© créé avec trois autres

| Pour la Science / supplĂ©ment au n° 546 ‱ 54
Le numĂ©rique | face Ă  lui-mĂȘme
En 2022, l’outil SmartWatts, capable de capturer en temps rĂ©el et de façon intelligente la dynamique d’un processeur, a Ă©tĂ© prĂ©sentĂ© Ă  EuraTechnologies, Ă  Lille.

DISTILLER LA BONNE PAROLE

DĂ©but 2022, l’Agence nationale de recherche (ANR) a dĂ©cidĂ© de financer, pour quarante-deux mois, le programme de recherche Distiller (recommender service for sustainable cloud native software), menĂ© par Inria (l’équipe-projet Spirals), en association avec le cabinet Davidson consulting et les prestataires de services cloud OVHcloud et Orange. Il s’agit d’abord d’analyser l’écosystĂšme des logiciels cloud afin de proposer des modĂšles de configuration optimisĂ©s Ă  l’aide de diffĂ©rents algorithmes d’intelligence artificielle. Autre objectif poursuivi, l’étude de l’ensemble des couches d’une application cloud native, depuis l’infrastructure physique au code informatique, avec l’ambition de rĂ©duire drastiquement l’empreinte environnementale en proposant une nouvelle gĂ©nĂ©ration de logiciels.

membres fondateurs : OVHcloud, Davidson consulting, et Orange. Celui-ci a pour objectif de financer le dĂ©veloppement et la maintenance de PowerAPI comme un ensemble d’outils sous licence libre.

Nous pouvons Ă©galement citer deux projets phares articulĂ©s autour de PowerAPI : le DĂ©fi Pulse, avec la sociĂ©tĂ© Qarnot computing, qui cherche Ă  valoriser les Ă©missions du calcul intensif, et le projet Distiller (voir l’encadrĂ© ci-dessus) , financĂ© par l’Agence nationale de la recherche (ANR) et dont l’objectif est de rĂ©duire la consommation Ă©nergĂ©tique des applications dans le cloud . L’idĂ©e est de dĂ©terminer quels langages de programmation, bibliothĂšques, configurations, infrastructures seraient optimaux pour dĂ©velopper un cloud avec la plus grande efficacitĂ© Ă©nergĂ©tique. En utilisant notre wattmĂštre virtuel, nous espĂ©rons ainsi construire empiriquement un indicateur de durabilitĂ© Ă  destination des ingĂ©nieurs. Ils disposeront alors de toutes les informations nĂ©cessaires pour concevoir les systĂšmes le plus durables et frugaux possible dĂšs leur conception.

L’IA, ENNEMI DE LA FRUGALITÉ ?

Traduction automatique, reconnaissance de la parole et des images
 Les algorithmes d’apprentissage profond, ou deep learning , sont dĂ©sormais omniprĂ©sents dans nos usages numĂ©riques (voir l’article page 62) . Mais Ă  quel coĂ»t ? Pour ĂȘtre efficaces en pratique, ces algorithmes sont entraĂźnĂ©s au prĂ©alable sur des milliers, voire des millions de donnĂ©es. Dans cette phase d’apprentissage, les algorithmes optimisent les paramĂštres d’un modĂšle cible : essai aprĂšs essai, ils utilisent des donnĂ©es d’entraĂźnement en trĂšs grande quantitĂ© pour affiner ce modĂšle afin qu’il minimise les erreurs de prĂ©diction. La seconde phase est celle de l’exploitation du modĂšle appris dans des applications telles que la traduction automatique. Des travaux ont mis en Ă©vidence que la premiĂšre phase d’entraĂźnement est extrĂȘmement Ă©nergivore par rapport Ă  la seconde. Dans une Ă©tude interne de l’équipe-projet Spirals, nous avons montrĂ© que ce genre d’algorithme devait ĂȘtre sollicitĂ© 4 millions de fois avant d’atteindre le coĂ»t Ă©nergĂ©tique de sa phase d’entraĂźnement ! Autre rĂ©sultat, l’impact carbone d’un tel apprentissage peut reprĂ©senter cinq fois la durĂ©e de vie d’une voiture !

> Scannez ce QR code pour découvrir comment réduire notre empreinte numérique.

Un levier parmi d’autres pour encourager l’utilisation d’algorithmes d’apprentissage plus frugaux serait d’éviter de pousser la phase d’apprentissage Ă  son maximum, les derniĂšres Ă©tapes Ă©tant les plus gourmandes en Ă©nergie. Pour gagner un dixiĂšme de prĂ©cision, on double facilement l’énergie consommĂ©e depuis le dĂ©but de l’apprentissage. L’intĂ©rĂȘt de cet investissement est Ă©vident dans le cadre d’une application mĂ©dicale, comme la dĂ©tection de tumeurs, mais cela est questionnable lorsqu’il s’agit d’amĂ©liorer le ciblage des utilisateurs dans le contexte de la publicitĂ© en ligne. Le partage de modĂšles appris est aussi une piste Ă  encourager de façon plus systĂ©matique, avec l’idĂ©e de « rentabiliser » le coĂ»t d’un apprentissage en rĂ©utilisant le modĂšle aussi souvent que possible. Heureusement, la communautĂ© du machine learning a pris conscience de cette problĂ©matique environnementale et il y a fort Ă  parier que cela se traduira par de nombreuses innovations.

| Pour la Science / supplĂ©ment au n° 546 ‱ 55
© Inria/Sébastien Jarry

Des nuages Ă  la diĂšte

L’essor du cloud, ou « informatique dans les nuages », fait exploser les besoins en data centers. RĂ©sultat ?

Leur consommation Ă©nergĂ©tique devient stratosphĂ©rique, malgrĂ© d’indĂ©niables progrĂšs dans le refroidissement des serveurs. Des solutions existent pour les mettre au rĂ©gime.

Propre, Ă©conome en Ă©nergie comme en carbone, la rĂ©volution numĂ©rique avait Ă©tĂ© vendue comme ayant beaucoup d’attraits. La rĂ©alitĂ© est plus nuancĂ©e. Selon une Ă©tude publiĂ©e en 2020 par le Shift Project, nos appareils numĂ©riques consommaient en 2017 prĂšs de 14 % de l’électricitĂ© mondiale, augmentant chaque annĂ©e leur consommation globale d’environ 10 %. Quant Ă  leurs Ă©missions de gaz Ă  effet de serre, elles dĂ©passeraient celles du transport aĂ©rien.

Parmi les infrastructures les plus gourmandes, les data centers se taillent la part du lion. Ces vastes entrepĂŽts de milliers de serveurs font partie des Ă©quipements qui ont vu leur consommation Ă©lectrique augmenter le plus. Pourtant les grands du secteur, comme Google, Amazon, Microsoft ou, en Europe, OVHcloud, avec qui Inria a signĂ© un partenariat stratĂ©gique (voir l’encadrĂ© page 59), affirment faire de gros efforts. Pour des raisons Ă©conomiques – l’électricitĂ© coĂ»te cher – mais aussi pour revendiquer un moindre impact environnemental. Avec quels rĂ©sultats ?

« C’est difficile d’accĂ©der aux donnĂ©es de consommation des data centers, car elles font souvent partie du secret des affaires. Du coup les experts ne sont pas d’accord entre eux. Certains estiment que leur consommation Ă©lectrique s’est stabilisĂ©e. D’autres qu’elle a au contraire augmentĂ©. Mais si on prend la consommation Ă©lectrique officielle de Google,

elle a plus que doublĂ© entre 2016 et 2020 », observe Anne-CĂ©cile Orgerie, chercheuse CNRS au laboratoire Irisa (Institut de recherche en informatique et systĂšmes alĂ©atoires), membre de l’équipe-projet Myriads d’Inria. Et celle de Facebook a plus que triplĂ© sur cette mĂȘme pĂ©riode.

Les experts sont au moins d’accord sur un point : les data centers ont beaucoup progressĂ© dans l’efficacitĂ© Ă©nergĂ©tique de leurs bĂątiments. Des progrĂšs mesurĂ©s par le PUE (power usage effectiveness), qui indique combien de watts sont consommĂ©s par l’installation pour fournir un watt en bout de chaĂźne Ă  chaque serveur. « Aujourd’hui, on est Ă  un PUE de 1,30, lĂ  oĂč on Ă©tait Ă  plus de 2 Ă  la fin des annĂ©es 2000 », souligne Romain Rouvoy, professeur au dĂ©partement d’informatique de l’universitĂ© de Lille et membre de l’équipeprojet Spirals d’Inria. Un gain d’efficacitĂ© spectaculaire dĂ» Ă  des mĂ©thodes plus performantes de refroidissement des serveurs, l’un des postes les plus Ă©nergivores.

UN REFROIDISSEMENT DE PLUS EN PLUS COOL

La plus simple consiste Ă  installer ces data centers dans des rĂ©gions fraĂźches pour bĂ©nĂ©ficier d’un air naturellement froid. C’est ce qu’ont fait les Gafam en plaçant des centres de calcul en Finlande ou en Islande. Mais la simplicitĂ© a des limites : comme leurs utilisateurs se trouvent pour la plupart beaucoup plus

| Pour la Science / supplĂ©ment au n° 546 ‱ 56 Le numĂ©rique | face Ă  lui-mĂȘme

au sud, il faut dĂ©rouler des milliers de kilomĂštres de cĂąbles et augmenter d’autant les temps de latence.

Dans les rĂ©gions plus chaudes, la climatisation s’impose. Les premiers data centers utilisaient des procĂ©dĂ©s classiques, qui soufflent de l’air froid dans le bĂątiment par un faux plancher et aspirent l’air chaud pour le refroidir par compression d’un fluide rĂ©frigĂ©rant. Comme les climatisations de maison.

Des premiers progrĂšs sont venus avec le watercooling, qui fait circuler de l’eau froide Ă  l’intĂ©rieur de chaque serveur. Des tuyaux l’amĂšnent Ă  proximitĂ© des processeurs, qui sont les parties les plus chaudes. « Il faut une grosse infrastructure. Les centres de calcul de Google, en Caroline du Sud, utilisent 900 000 litres d’eau ! Mais c’est beaucoup plus efficace qu’un refroidissement par air. Google est parvenu Ă  atteindre un PUE de 1,10 fin 2021 », note Anne-CĂ©cile Orgerie.

Une autre technique permet de faire encore mieux : le liquid-cooling, qui immerge cette fois les serveurs dans des bains d’huile. « L’huile circule pour Ă©vacuer

la chaleur, mais comme les Ă©changes thermiques sont bien meilleurs qu’avec l’eau, elle n’a pas besoin de circuler beaucoup. Et donc ça nĂ©cessite bien moins d’électricitĂ©, tout en fournissant une tempĂ©rature plus homogĂšne », explique l’informaticienne.

Des combinaisons mixtes associent une climatisation centrale classique et des circuits d’eau secondaires pour refroidir l’air chaud. Mais avec un PUE de l’ordre de 1,10, il va ĂȘtre difficile de descendre plus bas. « Il faut s’attaquer Ă  la partie difficile, la consommation des serveurs eux-mĂȘmes », prĂ©vient donc Anne-CĂ©cile Orgerie. Faire en sorte que chaque watt qui arrive dans la machine soit Ă  son tour utilisĂ© plus efficacement.

D’abord en n’allumant que les serveurs nĂ©cessaires. Car un serveur allumĂ©, mĂȘme lorsqu’il ne fait rien, dĂ©pense dĂ©jĂ  jusqu’à prĂšs de la moitiĂ© de sa consommation Ă  pleine puissance. Pourquoi ne pas l’éteindre ? Le problĂšme est qu’il mettra jusqu’à trois minutes pour se remettre en route. « Or on a perdu

| Pour la Science / supplĂ©ment au n° 546 ‱ 57
© Inria / Photo C. Morel
Un serveur allumĂ©, mĂȘme lorsqu’il ne fait rien, dĂ©pense dĂ©jĂ  jusqu’à prĂšs de la moitiĂ© de sa consommation Ă  pleine puissance
Comment réduire la consommation énergétique des serveurs ?

LE POINT DE VUE DE PIERRE RUST

Expert en empreinte environnementale chez Orange

Vous Ă©tudiez l’impact environnemental global des data centers. Leur consommation Ă©lectrique est-elle le paramĂštre le plus pertinent ?

La rĂ©ponse est trĂšs variable selon la gĂ©nĂ©ration de matĂ©riel et le type d’électricitĂ© utilisĂ©e. Sur les derniers data centers d’Orange, nous avons amĂ©liorĂ© le refroidissement en les installant en Normandie, oĂč nous utilisons au maximum l’air frais extĂ©rieur. L’efficacitĂ© Ă©nergĂ©tique, le PUE, y est dĂ©sormais de 1,30 (1,30 watt consommĂ© pour fournir 1 watt aux serveurs) lĂ  oĂč nous pouvions ĂȘtre Ă  2 il y a vingt ans. C’est donc la fabrication des Ă©quipements qui est devenue le plus impactante, et qui reprĂ©sente aujourd’hui 70 Ă  80 % de l’empreinte environnementale, parce que vous ĂȘtes dans un data center trĂšs rĂ©cent qui utilise une Ă©lectricitĂ© dĂ©carbonĂ©e. Mais sur un vieux data center en Allemagne, vous pouvez facilement inverser le ratio avec 80 % sur l’énergie et 20 % sur la fabrication.

Vous vous occupez plutît de la partie logicielle. Qu’a fait Orange dans ce domaine ?

Nous avons d’abord cherchĂ© Ă  savoir combien consommait un logiciel ou tel composant d’un logiciel. C’est trĂšs compliquĂ© car il faut rĂ©ussir Ă  subdiviser la consommation et l’attribuer Ă  un morceau de code ou Ă  un autre. C’est ce que fait l’application PowerAPI, dĂ©veloppĂ©e avec Inria et l’universitĂ© de Lille. La suite logique de ces travaux, c’est que ces Ă©lĂ©ments logiciels consomment moins. On y travaille dans le cadre du projet collaboratif Distiller, auquel participe le groupe OVH, Inria, et Davidson Consulting. Il faut que les logiciels tirent profit de la mutualisation des ressources, qu’ils permettent de dĂ©placer des charges de travail dans le temps et dans l’espace en fonction des critĂšres Ă©nergĂ©tiques

et environnementaux. Et jouent sur la sobriété, en faisant à la fois moins et de maniÚre plus efficace.

Et développer des programmes sur mesure ?

C’est une question sur laquelle nous travaillons : Ă  quel moment vaut-il mieux dĂ©velopper soi-mĂȘme quelque chose qui soit plus efficace et rĂ©ponde strictement Ă  son besoin – mais cela a un coĂ»t financier et environnemental –, ou prendre quelque chose d’existant, qui ira au-delĂ  des besoins, mais sur lequel la phase de dĂ©veloppement a Ă©tĂ© mutualisĂ©e ? Notre intuition est que pour un programme trĂšs utilisĂ©, il doit ĂȘtre intĂ©ressant de faire du sur-mesure, mais quand le niveau d’utilisation est plus intermĂ©diaire, utiliser des briques plus gĂ©nĂ©riques, des frameworks, reste trĂšs utile.

Comment trouver l’équilibre entre performance et Ă©cologie ? Quand on travaille sur l’efficacitĂ©, les deux ne sont pas contradictoires. Utiliser un mix Ă©nergĂ©tique bas carbone, amĂ©liorer le refroidissement, mutualiser les infrastructures permet de rĂ©pondre aux besoins avec un moindre impact environnemental. Notre responsabilitĂ© est d’ĂȘtre le plus efficace possible, mais ce n’est qu’une moitiĂ© de l’équation. L’autre moitiĂ©, c’est la sobriĂ©tĂ© : il faut que le client, quelque part, nous en demande moins. La prise de conscience est nĂ©anmoins en train de se gĂ©nĂ©raliser. C’est une tendance de fond parce que tout le monde se rend compte qu’on n’a pas le choix, que ce soit sur la partie Ă©nergĂ©tique, en particulier ces derniers mois durant lesquels nous avons tous vu des changements dans nos factures, que sur la partie environnementale. Nous avons de plus en plus de demandes de nos clients sur ces aspects. C’est un cercle vertueux qui incite tout le monde Ă  faire face Ă  cette question.

l’habitude d’attendre un service internet. Tout doit ĂȘtre disponible tout de suite, Ă  la seconde prĂšs. Les serveurs restent donc tout le temps allumĂ©s. Si on veut les Ă©teindre, il faut arriver Ă  prĂ©dire le trafic. Ce qui n’est pas si compliquĂ© parce qu’il est trĂšs pĂ©riodique. Avec des algorithmes simples, on peut allumer et Ă©teindre les serveurs au bon moment », souligne la chercheuse. Reste Ă  convaincre les administrateurs systĂšmes qu’éteindre frĂ©quemment leurs serveurs ne causera pas plus de pannes. « Nous avons dĂ©montrĂ© sur nos propres infrastructures de calculs que leurs craintes ne sont pas fondĂ©es », insiste-t-elle.

VERS DES MACHINES VIRTUELLES

Mais on peut aller plus loin, en mutualisant les ressources. « Un serveur aplatit sa consommation quand on le sollicite beaucoup. Cinq machines utilisĂ©es Ă  20 % consomment donc beaucoup plus qu’une seule machine utilisĂ©e Ă  100 % », calcule Romain Rouvoy. D’oĂč l’intĂ©rĂȘt de partager un mĂȘme serveur entre clients.

La virtualisation permet aujourd’hui de faire tourner plusieurs systĂšmes d’exploitation de façon indĂ©pendante et cloisonnĂ©e, sur un mĂȘme ordinateur divisĂ© en autant de « machines virtuelles ». Alors qu’il fallait auparavant un serveur physique diffĂ©rent pour chaque tĂąche, il est possible depuis les annĂ©es 2010 de simuler plusieurs serveurs totalement indĂ©pendants sur une mĂȘme machine.

« Mais pour mutualiser efficacement, il faut reproduire au niveau du logiciel l’optimisation Ă©nergĂ©tique qu’on a rĂ©ussi Ă  faire sur les infrastructures, note Romain Rouvoy. Si le service a besoin d’un watt, il faut que l’ordinateur qui le propose ne consomme lui-mĂȘme idĂ©alement qu’un watt. » Et donc qu’il ne s’éparpille pas Ă  faire des tĂąches inutiles. Comment ?

D’abord en « Ă©teignant » les machines virtuelles inutilisĂ©es. Car les clients en commandent pour leurs besoins en cloud, mais souvent ne les utilisent pas. Or chaque machine virtuelle consomme des ressources. « L’enjeu est de regrouper un maximum de services sur un minimum de machines, et d’éteindre les autres », prĂ©cise le chercheur. La plupart des applications sont en effet en mesure de migrer d’une machine virtuelle Ă  une autre, d’un serveur Ă  un autre, tout en continuant de s’exĂ©cuter. Certaines peuvent aussi ĂȘtre diffĂ©rĂ©es pour s’exĂ©cuter en fond quand les besoins sont faibles, en particulier la nuit.

| Pour la Science / supplĂ©ment au n° 546 ‱ 58
Le numĂ©rique | face Ă  lui-mĂȘme
On imaginait au dĂ©but des annĂ©es 2010 que mutualiser les serveurs allait rĂ©duire leur nombre. Or ce n’est pas du tout ce qu’on a observé 

Abaisser la frĂ©quence du microprocesseur quand les besoins en calcul sont modestes diminue sa consommation. Les composants de calcul inutilisĂ©s peuvent ĂȘtre Ă©teints. Et le microprocesseur lui-mĂȘme divisĂ© en processeurs virtuels, Ă©ventuellement proposĂ©s en « surbooking » : comme pour les avions, on vend un peu plus de puissance que celle qui est rĂ©ellement disponible, en misant sur le fait que certains clients n’utiliseront pas celle qu’ils ont rĂ©servĂ©e.

La mĂ©moire, elle, se partage plus difficilement. Pour des raisons de sĂ©curitĂ© des donnĂ©es, mais aussi parce qu’il est difficile d’estimer la quantitĂ© utile pour un service. Le rĂ©flexe est donc de rĂ©server plus, voire beaucoup plus, que nĂ©cessaire. Or la mĂ©moire est en gĂ©nĂ©ral la ressource la plus utilisĂ©e d’un data center. D’oĂč l’importance de concevoir des logiciels moins gourmands. Et de dĂ©graisser sans pitiĂ© les « obĂ©siciels ».

Comme l’industrie du logiciel doit produire beaucoup et rapidement, elle utilise en effet souvent des briques standardisĂ©es appelĂ©es frameworks , qui raccourcissent les temps de dĂ©veloppement. « Ces frameworks sont prĂ©vus pour couvrir un maximum de situations et embarquent une Ă©norme boĂźte Ă  outils, alors que le programme n’en utilise en fait qu’une partie », explique Romain Rouvoy. RĂ©sultat ?

LE DÉFI INRIA-OVHcloud

Depuis 2020, Inria, Ă  travers de nombreuses Ă©quipes-projets (Avalon, Inocs, Myriads, Spirals, Stack) a lancĂ© un partenariat – on parle de « DĂ©fis » – avec l’un des leaders europĂ©ens du cloud, OVHcloud, installĂ© dans le nord de la France, Ă  Roubaix. L’objectif est de concevoir un cloud aux impacts environnementaux le plus faibles possible Ă  toutes les Ă©tapes de son fonctionnement. Comment cela se concrĂ©tise-t-il ? D’abord, les serveurs sont refroidis Ă  l’eau, et dispensent les installations de climatiseurs. Ensuite, la chaleur dĂ©gagĂ©e sert Ă  chauffer les bĂątiments, ainsi que la crĂšche. D’autres idĂ©es pour diminuer l’empreinte carbone sont Ă  l’étude. De son cĂŽtĂ©, Inria bĂ©nĂ©ficie des installations d’OVHcloud pour tester et valider des stratĂ©gies dĂ©veloppĂ©es par ses Ă©quipes-projets.

Des logiciels de plus en plus gros, qui nĂ©cessitent pour tourner des machines de plus en plus puissantes. « Alors que le service n’a peut-ĂȘtre besoin que de trĂšs peu de ressources en rĂ©alitĂ©, soupire l’expert en logiciels frugaux. Le dĂ©fi va donc ĂȘtre de mettre ces programmes Ă  la diĂšte. Cela nĂ©cessite d’accepter de dĂ©velopper moins vite, pour concevoir des algorithmes plus efficients et qui consomment moins de mĂ©moire. À ceci prĂšs que le client paie pour avoir plus de fonctionnalitĂ©s, plus de performances, pas pour consommer moins. » Tous ces efforts pourraient donc se rĂ©vĂ©ler vains si rien n’était fait pour inciter Ă  restreindre les usages.

RÉDUIRE LES USAGES

« On imaginait au dĂ©but des annĂ©es 2010 que mutualiser les serveurs allait rĂ©duire leur nombre. Or ce n’est pas du tout ce qu’on a observĂ© : les ventes de serveurs ont continuĂ© Ă  augmenter. Car l’usage a augmentĂ© encore plus fort », observe Anne-CĂ©cile Orgerie. Plus un service devient efficace et bon marchĂ©, plus on en profite pour en demander plus


« Nos efforts se heurtent au fait que les fournisseurs d’accĂšs veulent s’assurer une marge pour pallier une panne de machine ou une augmentation imprĂ©vue de requĂȘtes des clients, ils prĂ©voient donc plus de machines que nĂ©cessaire, qui vont tourner Ă  vide une grande partie du temps », insiste Romain Rouvoy. Pour un client d’e-commerce, quelques secondes d’attente sur un site pour qu’un nouveau serveur se mette en route signifie pour le marchand des commandes perdues. Il prĂ©fĂšre donc rĂ©server des ressources supplĂ©mentaires, quitte Ă  ce qu’elles se rĂ©vĂšlent le plus souvent inutiles.

« La piste importante dont on parle peu, c’est donc de sensibiliser les utilisateurs Ă  rĂ©duire leur usage, confirme Anne-CĂ©cile Orgerie. Les infrastructures de streaming sont dimensionnĂ©es pour les pics du dimanche soir, alors que les nuits du lundi au mardi sont beaucoup plus calmes. Mais tous ces serveurs continuent d’ĂȘtre allumĂ©s. On pourrait demander aux utilisateurs de choisir leur vidĂ©o Ă  l’avance, le dimanche matin, plutĂŽt que de la regarder tous en direct le soir. » GĂ©nĂ©raliser, en somme, le vieux systĂšme d’heure creuse et d’heure pleine des abonnements Ă©lectriques. Mais les clients suivront-ils ? Car ce sont eux qui, en fin de compte, imposent leurs exigences. « Le grand public est de plus en plus sensible Ă  ces questions », veut croire l’informaticienne. Acceptera-t-il pour autant moins de performance, de rĂ©activitĂ© ou de puissance ? « C’est ce qu’on appelle la “sobriĂ©tĂ©â€, et ce n’est pas simple, reconnaĂźt la chercheuse. Cela ne veut pas dire qu’on va vivre moins bien, mais qu’il va falloir renoncer Ă  avoir toujours plus. »

| Pour la Science / supplĂ©ment au n° 546 ‱ 59
© Inria / Photo B. Fourrier
Les serveurs de la plateforme de recherche Grid’5000 à l’ENS de Lyon.

Des « data centers » façon puzzle

Comment lutter contre le gùchis énergétique des centres de données ?

En les rĂ©partissant lĂ  oĂč la chaleur qu’ils produisent peut ĂȘtre valorisĂ©e.

Le numĂ©rique infuse dans toutes les activitĂ©s humaines, et mĂȘme dans les plus personnelles, au point que certains annoncent l’avĂšnement d’ Homo numericus . Un argument souvent entendu en faveur de cette tendance est celui de l’immatĂ©rialitĂ© du numĂ©rique, de sa virtualitĂ©. Cette idĂ©e a fait long feu, car le matĂ©riel sur lequel s’appuie ce dernier, s’il est invisible dans notre plus proche environnement, existe bel et bien ailleurs.

Cet ailleurs, ce sont les réseaux, les fibres, les cùbles intercontinentaux, les terminaux, et les data centers

Auteurs

Ces « grandes usines du numĂ©rique » maillent nos villes et nos campagnes, et, au-delĂ  de leur impact spatial, sont des infrastructures complexes qui doivent rĂ©pondre Ă  trois injonctions : garantir une sĂ©curitĂ© absolue, fonctionner sans interruption et ĂȘtre maintenues Ă  une tempĂ©rature stable et modĂ©rĂ©e. Dans ce modĂšle traditionnel, on constate un double gĂąchis Ă©nergĂ©tique. La chaleur fatale informatique, c’est-Ă -dire la chaleur dĂ©gagĂ©e par tous les Ă©quipements, est le plus souvent perdue, et, pire, de l’énergie est utilisĂ©e pour s’en dĂ©barrasser ! Mais ce n’est pas une
 fatalitĂ©.

DES SERVEURS ÉPARPILLÉS

La sociĂ©tĂ© Qarnot, actrice du cloud français, s’est engagĂ©e en 2010 dans un changement de paradigme, pour limiter la consommation de ressources des data centers et valoriser la chaleur fatale informatique pour chauffer utilement des villes. Par quels moyens ? PlutĂŽt que de concentrer les serveurs en un seul lieu, le data center au sens classique, l’entreprise les distribue et les rĂ©partit dans des sites demandeurs en chaleur : les serveurs deviennent chaudiĂšre ! De la sorte, localement, jusqu’à 96 % de la chaleur Ă©mise

| Pour la Science / supplĂ©ment au n° 546 ‱ 60 Le numĂ©rique | face Ă  lui-mĂȘme
Il fallait oser penser le « data center » sans ses murs pour parvenir à un modÚle aux consommations de ressources optimisées
> Quentin Laurens Directeur des relations extérieures chez Qarnot. > Rémi Bouzel Directeur scientifique chez Qarnot.

Dans cette salle, de l’air froid propulsĂ© Ă  l’intĂ©rieur du couloir hermĂ©tiquement clos traverse les serveurs pour diminuer leur tempĂ©rature.

PUE ET ERE

par les serveurs en fonctionnement est rĂ©utilisĂ©e. La solution proposĂ©e est le QBx, un cluster de calcul qui embarque douze serveurs haute performance refroidis par de l’eau circulante. En exĂ©cutant des calculs intensifs pour des clients divers (recherche mĂ©dicale, prĂ©vision mĂ©tĂ©orologique, simulations complexes, IA
) ces serveurs dĂ©gagent de la chaleur emmagasinĂ©e par l’eau de refroidissement, qui est ensuite distribuĂ©e pour ĂȘtre utilisĂ©e. Cette eau portĂ©e Ă  plus de 65 °C chauffe aujourd’hui logements et bureaux, piscines, et demain rĂ©seaux de chaleur et industries grandes consommatrices de calories.

Pour relier au mieux les grands consommateurs de chaleur et les clients de calcul informatique, Qarnot a dĂ©veloppĂ© un orchestrateur, le Qware, qui collecte les tĂąches de calcul avant de les distribuer sur l’infrastructure dĂ©centralisĂ©e. Ce logiciel, accessible par une API (une interface), est une porte d’entrĂ©e pour de nombreux services, par exemple pour des rendus 3D (on parle ici de Software as a Service, ou SaaS).

Ainsi, Qarnot s’appuie sur deux atouts principaux : le premier est la faible empreinte carbone de son service, d’une part, et de ses infrastructures, d’autre part. En effet, outre la valorisation presque intĂ©grale de la chaleur fatale, plus besoin de construire des bĂątiments consacrĂ©s Ă  l’activitĂ© informatique. La clĂ© est la mutualisation d’une seule source d’énergie pour deux usages : le calcul et la chaleur.

ImPULSEr de bonnes pratiques

PrĂ©vu pour quatre ans, le DĂ©fi Pulse (pour Pushing low-carbon services towards the edge), mis en place par Inria et Qarnot avec le soutien de l’Ademe, ambitionne de mesurer, comprendre et optimiser les consommations d’énergie des infrastructures de calcul distribuĂ©es (on parle d’edge computing) comme celles que proposent Qarnot. Ce projet est pensĂ© comme une structure d’exploration permettant de dĂ©velopper une recherche Ă  risques. « Notre idĂ©e, c’est d’analyser quelles sont les solutions les plus pertinentes, et quels sont les leviers sur lesquels il faut se pencher, pour rĂ©duire l’impact des infrastructures tout en maximisant l’utilitĂ© de leurs Ă©missions », indique Romain Rouvoy, professeur Ă  l’universitĂ© de Lille, membre de l’équipe-projet Spirals d’Inria, et coordinateur du DĂ©fi Pulse avec RĂ©mi Bouzel. Le programme s’articule autour de deux axes. D’abord, Ă©valuer les atouts d’une infrastructure distribuĂ©e et de mesurer prĂ©cisĂ©ment les Ă©conomies de consommation par rapport aux modĂšles centralisĂ©s comme les data centers. Ensuite, imaginer diffĂ©rentes stratĂ©gies de rĂ©duction de l’empreinte carbone des calculs, en optimisant la distribution des tĂąches Ă  tous les niveaux. Un dĂ©fi des plus vertueux donc.

La performance environnementale d’un data center doit ĂȘtre jugĂ©e Ă  l’aune de plusieurs critĂšres : efficacitĂ© Ă©nergĂ©tique, empreinte carbone, consommation d’eau, rĂ©utilisation d’énergie
 La performance Ă©nergĂ©tique d’un data center est caractĂ©risĂ©e par l’efficacitĂ© de son utilisation de l’énergie, notĂ©e PUE. Il s’agit du rapport de sa consommation d’énergie sur le total de celle qu’utilisent les Ă©quipements informatiques. En moyenne, en 2020, les data centers français avaient un PUE de 1,57 (contre plus de 2,5 en 2007). L’idĂ©al Ă©tant de tendre vers 1. L’efficacitĂ© du recyclage de l’énergie, notĂ©e ERE, rend compte, quant Ă  elle, de la rĂ©utilisation d’une partie de l’énergie produite par le data center, comme la chaleur). Sans rĂ©cupĂ©ration d’énergie, l’ERE est Ă©gale au PUE, sinon, elle est infĂ©rieure, l’idĂ©al Ă©tant lĂ  de tendre vers 0.

Le data center A est efficace, mais ne rĂ©cupĂšre pas l’énergie. Le B est moins efficace, mais recycle 50 % de la chaleur produite.

Pour aller plus loin dans l’évaluation de la performance, la mesure des consommations et leur rĂ©duction, Qarnot s’est engagĂ©e avec Inria et l’Ademe dans le DĂ©fi Pulse (voir l’encadrĂ© ci-contre)

ET LA SOUVERAINETÉ ?

Le deuxiĂšme atout est la souverainetĂ© numĂ©rique, de plus en plus prĂ©gnante dans la sphĂšre du cloud Ă  mesure notamment de l’essor de ce dernier et du contexte d’iniquitĂ© qu’instaurent les lois d’extraterritorialitĂ© amĂ©ricaines. LĂ -dessus, Qarnot a trois avantages Ă  faire valoir : l’actionnariat est essentiellement français ; tout ce qui relĂšve du matĂ©riel (hardware) est installĂ©, pilotĂ© et maintenu en interne ; enfin, concernant la partie logicielle, tout aussi importante au regard de la souverainetĂ©, l’entreprise s’en empare en dĂ©veloppant ses propres outils, en particulier son orchestrateur.

Il fallait oser penser le data center sans ses murs pour parvenir Ă  un modĂšle aux consommations de ressources optimisĂ©es et transformer un serveur en radiateur. Avec Qarnot, le data center est distribuĂ© et, de fait, n’est plus seulement consommateur d’énergie. Il devient aussi fournisseur.

| Pour la Science / supplĂ©ment au n° 546 ‱ 61
© Inria / Photo C. Morel
Data Center A PUE 1,20 PUE 1,50 ERE 1,20 ERE 1,00 Data Center B
> Scannez ce QR code pour découvrir le Défi Inria-Qarnot Pulse.

Pour une IA plus responsable

L’intelligence artificielle peut aider Ă  rĂ©duire l’impact environnemental de certaines activitĂ©s, mais elle est elle-mĂȘme gourmande en Ă©quipements et Ă©nergie. Comment sortir de ce paradoxe ?

L’engouement gĂ©nĂ©ral pour l’agent conversationnel ChatGPT, dĂ©veloppĂ© par la sociĂ©tĂ© OpenAI, en est une nouvelle preuve, l’intelligence artificielle (IA) fait dĂ©sormais partie de nos vies. Elle est particuliĂšrement active dans nos activitĂ©s numĂ©riques quotidiennes, comme la navigation sur internet et les rĂ©seaux sociaux : les publicitĂ©s que nous y subissons, les produits qui nous sont proposĂ©s, les articles que nous lisons, les vidĂ©os et films que nous regardons
 sont tous sĂ©lectionnĂ©s par des algorithmes d’IA. Par ailleurs, elle impressionne par ses performances dans les tĂąches de traduction de textes, de reconnaissance d’objets dans les images, notamment mĂ©dicales
 Et, on le sait moins, elle est aussi prĂ©sente dans de nombreuses activitĂ©s scientifiques et Ă©conomiques, fortement gĂ©nĂ©ratrices de donnĂ©es numĂ©riques.

Cet essor sans prĂ©cĂ©dent rĂ©sulte de l’utilisation le plus souvent d’algorithmes d’apprentissage automatique, capables, par exemple, d’apprendre Ă  traduire un texte Ă  partir de millions de phrases produites par des humains. AlimentĂ© par un nombre considĂ©rable de donnĂ©es, l’algorithme Ă©labore un grand modĂšle dont les paramĂštres sont « ajustĂ©s » afin de modĂ©liser au mieux les donnĂ©es observĂ©es. Pour le traitement de la parole, du texte et la vision artificielle, les

rĂ©seaux de neurones profonds constituent l’état de l’art actuel en matiĂšre d’algorithmes d’apprentissage automatique. Ils comportent souvent des milliards de paramĂštres. Qu’en est-il de leur empreinte environnementale ?

RÉDUIRE L’EMPREINTE CARBONE

Disons-le d’emblĂ©e, l’IA ne constitue pas une solution miracle pour la rĂ©duction de l’impact environnemental d’autres activitĂ©s. Elle constitue un outil des sciences de l’ingĂ©nieur, parmi de nombreux, pour optimiser l’utilisation de diffĂ©rentes ressources, avec cependant quelques spĂ©cificitĂ©s.

Par exemple, elle aide Ă  minimiser le coĂ»t de mise en Ɠuvre des modĂšles de climat. En effet, dans ce domaine, une modĂ©lisation fine des Ă©changes atmosphĂ©riques et ocĂ©aniques est requise, ce qui, par les mĂ©thodes traditionnelles, est coĂ»teux (en temps, en argent, en Ă©lectricité ). GrĂące Ă  l’IA, des modĂšles simplifiĂ©s dĂ©veloppĂ©s Ă  partir de donnĂ©es, offrent ainsi des solutions approchĂ©es plus Ă©conomes, parfois suffisantes en pratique.

L’IA a aussi sa place dans l’optimisation de systĂšmes complexes, comme la gestion thermique d’un bĂątiment. GrĂące Ă  l’installation de capteurs et un pilotage utilisant notamment l’IA, il est possible d’économiser

| Pour la Science / supplĂ©ment au n° 546 ‱ 62 Le numĂ©rique | face Ă  lui-mĂȘme
Directeur de recherche Inria, responsable de l’équipeprojet Sierra d’Inria Paris, et membre du dĂ©partement d’informatique de l’École normale supĂ©rieure.
Auteur

sur la facture Ă©nergĂ©tique. Cependant, comme pour toute nouvelle solution technologique, une analyse fine de son impact environnemental est indispensable. Et on doit ĂȘtre particuliĂšrement attentif aux classiques « effets rebonds » : si une technologie est plus performante, elle risque d’ĂȘtre utilisĂ©e plus massivement, avec en fin de compte un impact net nĂ©gatif.

Le revers de la mĂ©daille est que l’IA s’inscrit dans le cadre plus gĂ©nĂ©ral des activitĂ©s numĂ©riques, dont l’empreinte carbone actuelle est de l’ordre de 3,8 % des Ă©missions mondiales, selon le Shift Project et l’Ademe. Mesurer l’impact prĂ©cis de l’IA est difficile, mais au vu de son utilisation systĂ©matique, il est assurĂ©ment vouĂ© Ă  s’accroĂźtre. À l’instar de toute activitĂ© numĂ©rique, cet impact rĂ©sulte Ă  la fois de la fabrication des machines et de la consommation Ă©lectrique nĂ©cessaire Ă  leur fonctionnement, cela dans des proportions variables selon les usages, mais en gĂ©nĂ©ral comparables.

Dans le cas de l’IA par apprentissage automatique, on distingue deux phases. Dans la premiĂšre, l’apprentissage du modĂšle est de plus en plus gourmand, mais cette opĂ©ration n’est rĂ©alisĂ©e essentiellement qu’une seule fois par modĂšle, en utilisant de nombreuses machines. Par exemple, l’impact carbone du dĂ©veloppement d’un modĂšle moderne est comparable Ă  celui d’un citoyen europĂ©en durant un siĂšcle.

Dans la deuxiĂšme phase, le modĂšle est dĂ©ployĂ© sur un grand nombre de machines, oĂč son utilisation est beaucoup moins coĂ»teuse Ă  chaque fois qu’il est utilisĂ©, mais il le sera potentiellement Ă  de nombreuses reprises par des millions de personnes.

VERS UNE IA PLUS FRUGALE ?

Un des fondements de l’informatique, sur lequel la discipline s’est construite, est l’optimisation des ressources, en grande partie celles du temps de calcul et de la mĂ©moire nĂ©cessaires, qui sont le plus souvent corrĂ©lĂ©s au coĂ»t Ă©conomique des solutions proposĂ©es. Afin d’aller plus loin, minimiser l’impact Ă©nergĂ©tique constitue un nouvel axe de dĂ©veloppement : par exemple, on peut dans certains cas opter dĂ©libĂ©rĂ©ment pour un allongement du temps de calcul en contrepartie d’une rĂ©duction de l’énergie totale consommĂ©e.

Un autre axe de progrĂšs est le dĂ©veloppement de mĂ©thodes dites « frugales » : c’est particuliĂšrement important pour l’apprentissage profond, oĂč la taille des modĂšles n’a cessĂ© de croĂźtre, car ces grands modĂšles fonctionnent mieux en pratique. Mais cette explosion de la taille des modĂšles est-elle rĂ©ellement nĂ©cessaire ?

La rĂ©ponse constitue un enjeu majeur de l’apprentissage automatique dans les prochaines annĂ©es. PeutĂȘtre peut-on poser la question Ă  ChatGPT


| Pour la Science / supplĂ©ment au n° 546 ‱ 63
© Inria / Photo S. ErÎmeSignatures
L’empreinte carbone du dĂ©veloppement d’un modĂšle d’IA moderne est comparable Ă  celle d’un citoyen europĂ©en durant un siĂšcle
L’équipe-projet Tyrex d’Inria travaille Ă  la prochaine gĂ©nĂ©ration de systĂšmes d’analyse de donnĂ©es, au cƓur des applications d’intelligence artificielle. > Scannez ce QR code pour dĂ©couvrir comment rendre une IA plus Ă©conome.

Vers une recherche plus vertueuse

L’initiative Labos 1point5, est nĂ©e en 2018 au sein de la communautĂ© scientifique, de la base. Elle est aujourd’hui soutenue par le CNRS, l’Inrae, l’Ademe et Inria. Quel est son but ?

Le nom du collectif fait rĂ©fĂ©rence Ă  l’objectif de l’accord de Paris de limiter Ă  1,5 °C le rĂ©chauffement climatique. Le but est donc de se donner les moyens de transformer la recherche face aux enjeux environnementaux en partant du terrain. Au-delĂ  du rĂŽle de cohĂ©rence portĂ© par notre action, rappelons que l’empreinte carbone de la recherche n’est pas nĂ©gligeable. Nos derniĂšres estimations Ă  l’échelle nationale l’évaluent en moyenne Ă  un peu plus de 1 000 tonnes d’équivalent CO2 (t CO2e) par an et par laboratoire, soit 5,5 t CO 2e par an et par personne pour son activitĂ© professionnelle. MĂȘme si ce dernier chiffre ne peut pas s’ajouter directement aux 9 t CO2e par an de l’empreinte moyenne d’un français (car il y aurait des doubles comptages), il montre que la recherche doit aussi participer Ă  l’effort de rĂ©duction des Ă©missions de gaz Ă  effet de serre (GES).

Que permet l’application GES 1point5, spĂ©cialement dĂ©veloppĂ©e par le collectif ?

L’application en ligne GES 1point5, dont l’ensemble du code source est sous licence libre, permet Ă  la fois aux laboratoires de disposer d’un outil fait par et pour la communautĂ©, mais aussi la construction d’une base de donnĂ©es nationale des empreintes carbone des laboratoires, avec une mĂ©thodologie commune et transparente.

Analyser et publier nos rĂ©sultats alimente un champ de recherche Ă©mergent et permet d’ancrer les transformations dans la recherche ellemĂȘme. Aujourd’hui, le pĂ©rimĂštre de GES 1point5 comprend les bĂątiments (Ă©lectricitĂ©, chauffage
), les achats, le matĂ©riel informatique, les dĂ©placements professionnels et les trajets entre le domicile et le travail.

Quels sont les premiers enseignements de cette base de données ?

Les moyennes que j’évoquais prĂ©cĂ©demment sont Ă  interprĂ©ter avec prĂ©caution parce qu’elles masquent une grande hĂ©tĂ©rogĂ©nĂ©itĂ© entre les laboratoires. Certains ont une empreinte dominĂ©e par le chauffage (s’il y a une animalerie par exemple), d’autres par les dĂ©placements professionnels (typiquement en sciences sociales) ou par les dĂ©placements entre le domicile et le travail pour certains laboratoires Ă©loignĂ©s des centresvilles. Nous trouvons qu’en moyenne, les postes les plus Ă©metteurs sont les achats et le chauffage, puis les voyages en avion. Le numĂ©rique, au sens du matĂ©riel informatique, a une empreinte comparativement assez faible.

Cependant les grandes infrastructures de recherche, dont les supercalculateurs, sont encore en cours d’intĂ©gration sous l’impulsion de MarieAlice Foujols, de l’institut Pierre-Simon Laplace (IPSL). À titre indicatif, cet institut, qui rĂ©alise notamment des simulations climatiques, a estimĂ© l’empreinte carbone de ses projets de calcul Ă  1 180 t CO 2 e pour l’annĂ©e 2018. Mais, passĂ© cette Ă©tape quantitative, l’objectif de Labos 1point5 est de permettre le dĂ©bat, de mettre les laboratoires en rĂ©seau, de les accompagner, d’identifier les freins. Car transformer la recherche afin de rĂ©duire les Ă©missions ne signifie pas arrĂȘter de produire des connaissances, mais questionner ce qui nous pousse Ă  le faire au prix d’une utilisation trop importante des ressources. .

| Pour la Science / supplĂ©ment au n° 546 ‱ 64 © Copyright
Le numĂ©rique | face Ă  lui-mĂȘme Pour en savoir + J. Mariette et al., An open-source tool to assess the carbon footprint of research, Environ. Res. : Infrastruct. Sustain., 2022. https://labos1point5.org
Des chercheurs s’unissent pour d’abord comprendre et ensuite rĂ©duire l’impact des activitĂ©s de recherche sur l’environnement, notamment sur le climat.
Tamara Ben-Ari Agronome à Inrae, cofondatrice du collectif Labos 1point5

Équipesprojets

Acentauri

Intelligence artificielle et algorithmes efficaces pour la robotique autonome. Inria, CNRS, universitĂ© CĂŽtĂ© d’Azur https://www.inria.fr/fr/acentauri

Agora

AlGorithmes et Optimisation pour Réseaux Autonomes. Inria, Institut national des sciences appliquées de Lyon https://www.inria.fr/fr/agora

Airsea

Mathématiques et calcul scientifique appliqués aux écoulements océaniques et atmosphériques.

Inria, université de Grenoble-Alpes, CNRS https://www.inria.fr/fr/airsea

Ange

Analyse numérique, géophysique et environnement.

Inria, CNRS, Sorbonne Université https://www.inria.fr/fr/ange

Biocore

Biological control of artificial ecosystems. Inria, CNRS, INRAE, Sorbonne Université https://www.inria.fr/fr/biocore

Calisto

Approches stochastiques pour les Ă©coulements complexes et l’environnement Inria, CNRS https://www.inria.fr/fr/calisto

Cardamom

Certified Adaptive discRete moDels for robust simulAtions of CoMplex flOws with Moving fronts.

Inria, Institut Polytechnique de Bordeaux https://www.inria.fr/fr/cardamom

Direction scientifique :

Jean-Frédéric Gerbeau

Conseil scientifique :

Jacques Sainte-Marie

Directeur de la communication :

Laurent Stencel

Responsable éditoriale :

Ariane Beauvillard

Responsable iconographique :

Camille Picard

Direction artistique :

Sophie Barbier

Crédit photo de couverture : ©heroal

Chroma

Robots coopératifs et adaptés à la présence humaine en environnements.

Inria, Institut national des sciences appliquées de Lyon https://www.inria.fr/fr/chroma

Lemon

Littoral, environnement, modÚles et outils numériques.

Inria, université de Montpellier, CNRS https://www.inria.fr/fr/lemon

Makutu

Modélisation et simulation de la propagation des ondes fondées sur des mesures expérimentales pour caractériser des milieux géophysiques et héliophysiques et concevoir des objets complexes. Inria, Institut polytechnique de Bordeaux, université de Pau, CNRS, TotalEnergies https://www.inria.fr/fr/makutu

Memphis

ModÚles et méthodes pour les problÚmes multiphysiques et interactions. Inria, université de Bordeaux https://www.inria.fr/fr/memphis

Myriads

Conception et mise en Ɠuvre de systĂšmes distribuĂ©s autonomes.

Inria, Institut national des sciences appliquĂ©es de Rennes, universitĂ© Rennes 1, CNRS, École normale supĂ©rieure de Rennes. https://www.inria.fr/fr/myriads

Odyssey

Océan dynamique observations analyse. Inria, université Rennes 1, université de Bretagne occidentale, Mines-Télécom Atlantique, Ifremer, CNRS https://www.inria.fr/fr/odyssey

Pervasive

Pervasive interaction with smart objects and environments

Inria, CNRS, université Grenoble-Alpes, Grenoble INP https://team.inria.fr/pervasive/

170 bis bd du Montparnasse

75014 Paris

Directrice de la rédaction : Cécile Lestienne

Directeur de la publication et gérant : Nicolas Bréon

Publicité : Stéphanie Jullien et Mathilde Salomon

Développement numérique : Philippe Ribeau-Gésippe

Responsable Marketing : Fréderic-Alexandre Talec

Community manager et partenariats : Aëla Keryhuel

Fabrication :

Marianne Sigogne et Stéphanie Ho

Rédacteur-en-chef adjoint responsable de ce supplément :

LoĂŻc Mangin

Ont également participé à ce supplément :

Isabelle Bellin

Laure Blancard

Gautier Cariou

Guillaume Ladvie

Emmanuel Monnier

Gaël Oert

Réviseuse : Anne-Rozenn Jouble

Conception graphique et maquette : Charlotte Calament

Cheffes de projet :

Stéphanie Jullien et Mathilde Salomon

Rainbow Robotique interactive et référencée capteurs. Inria, CNRS, université Rennes 1, INSA Rennes

https://www.inria.fr/fr/rainbow

Scool

Prise de dĂ©cision sĂ©quentielle dans l’incertain. Inria, CNRS, universitĂ© de Lille https://www.inria.fr/fr/scool

Sierra Apprentissage statistique et parcimonie. Inria, ENS Paris, CNRS https://www.inria.fr/fr/sierra

Spirals

Self-adaptation for distributed services and large software systems. Inria, université de Lille https://www.inria.fr/fr/spirals

Statify

ModĂšles statistiques bayĂ©siens et des valeurs extrĂȘmes pour donnĂ©es structurĂ©es et de grande dimension. Inria, CNRS, universitĂ© de Grenoble-Alpes https://www.inria.fr/fr/statify

Steep Soutenabilité, territoires, environnement, économie et politique. Inria, CNRS, université de Grenoble-Alpes https://www.inria.fr/fr/steep

Tyrex

Types and reasoning for the web. Inria, CNRS, Université de Grenoble Alpes. https://www.inria.fr/fr/tyrex

Zenith

Gestion de données scientifiques. Inria, CNRS, université de Montpellier https://www.inria.fr/fr/zenith

Supplément gratuit au numéro 546 (avril 2023) du mensuel

Pour La Science

ISSN 0 153-4092

N° Commission paritaire : 0927K82079 Dépot légal : avril 2023.

ImprimĂ© en FranceMaury imprimeur S.A. MalesherbesN d’imprimeur : 268236

La pĂąte Ă  papier utilisĂ©e pour la fabrication du papier de cet ouvrage provient de forĂȘts certifiĂ©es et gĂ©rĂ©es durablement.

| Pour la Science / supplĂ©ment au n° 546 ‱ 65

> Scannez ce QR code pour dĂ©couvrir le dossier Inria « Environnement et numĂ©rique » : Comment les sciences du numĂ©rique aident (aussi) Ă  prĂ©server l’environnement ?

Pour en savoir plus sur Inria : inria.fr Découvrez notre revue de vulgarisation scientifique en sciences du numérique interstices.info

| Pour la Science / supplĂ©ment au n° 546 ‱ 66

Turn static files into dynamic content formats.

Create a flipbook

Articles inside

Vers une recherche plus vertueuse

2min
page 66

Pour une IA plus responsable

3min
pages 64-65

Des « data centers » façon puzzle

4min
pages 62-64

Des nuages Ă  la diĂšte

10min
pages 58-61

La fabrique du numérique frugal

9min
pages 54-57

Apprendre à limiter les impacts du numérique

3min
pages 52-54

Le coût énergétique du numérique

2min
pages 50-51

Raisonner notre usage du numérique ?

4min
pages 48-49

| c’est bon pour la nature ?

7min
pages 44-46

Le numérique trace son sillon

1min
page 43

Vers une agriculture numérique plus vertueuse

6min
pages 40-42

Tous botanistes !

3min
pages 38-39

Le numérique peut-il contribuer à préserver la biodiversité ?

8min
pages 34-37

La géothermie, entre simulation et réalité

2min
page 32

Mélodie numérique en sous-sol

2min
page 31

Le potentiel exploitable des EMR

2min
page 30

La mer qu’on voit danser, un potentiel sous-exploitĂ©

4min
pages 28-29

La recherche en action chez Inria

1min
pages 24-25, 27-28

Pour un déploiement réussi des énergies renouvelables

3min
pages 22-23

La France a tout pour devenir une « greentech nation » !

4min
pages 20-21

Les statistiques de l’extrĂȘme

5min
pages 16-18

Submersions : comment mieux les anticiper ?

3min
pages 14-15

Le climat de demain, une affaire de modélisation

1min
pages 12-13

UNE BRÈVE HISTOIRE DES MODÈLES

3min
page 11

Un climat de moins en moins incertain

6min
pages 8-10

« Les modĂ©lisateurs sont les premiers Ă  avoir sonnĂ© l’alarme sur le climat »

4min
pages 6-7

Explorez les sciences du numérique

3min
pages 2-4
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
Le numérique est-il un progrÚs durable - supplément en partenariat avec Inria by Pour la Science - Issuu