www.usinenouvelle.com www.industrie-techno.com 1
3510 . cahier numéro 2 . 6 avril 2017 . ne peut être vendu séparément
Auto, Aéro, nAvAl, SpAtiAl...
Simuler le tout électrique
Le CEA au cœur de l’innovation pour le Calcul Intensif et le Big Data Le CEA et Bull co-développent les technologies pour l’exascale
1
La maîtrise de l’exascale pour le calcul et les données permettra à l’horizon 2020 d’ouvrir un champ inexploré dans le domaine de la simulation numérique de phénomènes physiques et d’objets industriels complexes. Pour relever ce défi, le CEA développe en partenariat avec Atos les technologies pour : Réduire la consommation énergétique, Traiter et gérer les flux massifs de données, Accroître la performance, l’efficacité et la modularité des architectures informatiques, Concevoir des architectures informatiques tolérantes aux pannes. 1 - À l’échelle du milliard de milliards d’opérations par seconde (exaFlops) et d’octets de mémoire (exaoctet).
TERA 1000, développée pour les besoins propres du CEA, en partenariat avec ATOS/Bull, et installée en 2016, préfigure les supercalculateurs de l’exascale.
Le CEA, un tremplin pour l’innovation industrielle Localisé dans le Très Grand Centre de calcul du CEA (TGCC) à Bruyères-leChâtel (Essonne), le CCRT dispose d’une puissance de calcul de 1.5 Pflop/s. Véritable soutien de l’innovation industrielle dans le domaine du HPC, le CCRT propose à ses partenaires des services et une expertise basée sur les compétences des équipes du CEA dans le domaine de la simulation numérique. Partenaires actuels du CCRT Airbus Safran Launchers, Areva, Cerfacs, EDF, IFPEN, Ineris, IRSN, L’Oréal, SafranTech, SAFRAN Aero Boosters, SAFRAN Aircraft Engines, SAFRAN Helicopter Engines, SOLEIL,Thales, Thales Alenia Space, Valeo, CEA ainsi que le projet FranceGénomique, soutenu par le PIA.
Simulation numérique de la combustion dans un foyer de turbomoteur d’hélicoptère. - TURBOMECA
Simulation numérique aéro-acoustique sur un système de ventilation habitacle automobile. - VALEO
Simulation des courants de surface sur un radôme de pointe avant d’avion de combat. - THALES
2
Pour en savoir plus www-ccrt.cea.fr Contact christine.menache@cea.fr
SimulAtion
www.usinenouvelle.com www.industrie-techno.com 1
3510 . cahier numéro 2 . 6 avril 2017 . ne peut être vendu séparément
Auto, Aéro, nAvAl, SpAtiAl...
Simuler le tout électrique
Le propulseur PPS 5000 de Safran Aircraft Engines.
NOUVEAUX TERRAINS DE JEU
Sommaire ESSENTIEL
un an de simulation
p. 4
CONCOURS
q
Diota, grand prix des trophées de la simulation numérique p. 6 ENTRETIEN
thierry Breton, pDG d’Atos
p. 8
DoSSier oBJectiF électrique AUTOMOBILE
Gagner la course à l’autonomie
p. 12
AÉRONAUTIQUE
cap sur l’avion électrique
p. 18
SPATIAL
Accélérer la mise sur orbite p. 22 NAVAL
À la recherche de la compacité p. 24 MAINTENANCE
Jumeau numérique, ce frère protecteur
p. 26
RECHERCHE
Au cœur numérique des irt p. 28 ÉNERGIE
les supercalculateurs au régime sec p. 34 SUCCESS STORY
the cosmo company modélise les systèmes complexes p. 36 PORTFOLIO
trompe-l’œil
p. 38
OUTIL
optimiser l’impression 3D p. 42
Président, directeur de la publication : Julien Elmaleh Directrice générale déléguée : Isabelle André Directeur du pôle industrie : Pierre-Dominique Lucas Directrice de la rédaction : Christine Kerdellant Directrice adjointe de la rédaction : Anne Debray Rédacteur en chef édition : Guillaume Dessaix Direction artistique : Eudes Bulard Coordinatrice éditoriale : Aurélie Barbaux Ont participé à ce numéro : Claire Laborde et Rebecca Lecauchois (secrétariat de rédaction) ; Capucine Ragot et Sylvie Louvet (maquette) « L’Usine Nouvelle » n° 3510 – Cahier numéro 2 6 avril 2017 (commission paritaire n° 0712T81903) Ne peut être vendu séparément Une publication du groupe Gisi, Antony Parc II 10 place du Général-de-Gaulle - BP 20156 - 92186 Antony Cedex Impression : Roto France Impression 77185 Lognes Photo de couverture : D.R.
L’USINE NOUVELLE I CAHIER N° 2 I 6 AVRIL 2017
ue l’on ne s’y trompe pas. Modélisation et simulation ne servent pas uniquement à remplacer de coûteux essais physiques. Lors du premier colloque scientifique sur la modélisation, organisé fin 2016 au CNRS, le maître en épistémologie Franck Varenne a recensé vingt fonctions des modèles, classées en cinq familles: observation et expérimentation, présentation intelligible, théorisation, discussion et décision. Une richesse qui rend cette discipline indispensable aux chercheurs et aux industriels pour cerner les enjeux d’une industrie et d’un transport plus AURÉLIE durables et respectueux de l’environnement. BARBAUX RÉDACTRICE EN CHEF Des enjeux variés, analysés tout au long de ce nuDÉLÉGUÉE méro spécial, notamment dans le dossier consacré à l’obsession électrique du monde du transport: tester de nouvelles sources d’énergie, développer de nouveaux types de batteries, améliorer la compacité des piles à combustible, optimiser l’encombrement des systèmes de propulsion thermique, réduire les délais de mise sur orbite des satellites, simuler les écoulements autour des avions hybrides, optimiser les composites pour les énergies marines, traquer les calories des composants électriques 3D… La simulation ne cesse d’élargir ses champs d’action, notamment en production, en optimisant l’impression 3D. Couplée au big data, elle sert aujourd’hui à assurer une maintenance la simulation ne cesse préventive grâce aux jumeaux numériques, d’élargir ses champs à développer le transport multimodal d’action, notamment et à modéliser des systèmes complexes en production. comme les réseaux d’énergie et de transport. Elle sort même des sciences physiques pour aider au développement de méthodes de conception multidisciplinaires. Certes, ces capacités ont un coût énergétique qu’il ne faut pas négliger. La course à la puissance exaflopique ne peut donc que s’accompagner d’une recherche d’une plus grande efficacité énergétique. Un défi pour les constructeurs, mais pas uniquement. «L’augmentation des puissances de calcul n’est pas une question pertinente. Il n’est pas question de limiter la puissance, mais de réfléchir à mieux l’utiliser», prévenait en décembre Alain Fuchs, le président du CNRS, en introduction au premier colloque sur la modélisation. Vaste chantier. ❚❚ 3
simulation
l’ é v é n e M e n t
Quand la modélisation s’ausculte
LAURENt PASCAL ; D.R.
C’était une première. Le 6 décembre 2016, le CNRS et l’Académie des technologies ont organisé un colloque original sur la modélisation. Le colloque visait à s’interroger sur les succès et surtout sur les limites des modèles. « La modélisation n’a jamais fait l’objet d’un colloque critique avec des questions généralistes. Dans le milieu scientifique, elle reste toujours un sujet technique », observe Alain Pavé, enseignant chercheur, expert en modélisation biologique, membre de l’Académie des technologies et co-organisateur du colloque. Pour cette première édition, les questions qui fâchent, comme la validité de tel ou tel modèle, notamment en économie, la transparence des outils de simulation du marché, voire l’éthique, ont été soigneusement mises de côté. Elles seront «la question étudiées au cours n’est pas de du prochain colloque, limiter ou non prévu à la fin de la puissance 2017. Lors de cette de calcul, mais édition, c’est à de réfléchir à trois interrogations mieux l’utiliser.» plus simples que les conférenciers ont cherché à répondre. Faut-il toujours plus de puissance de calcul ? Faut-il complexifier ou simplifier les modèles ? La modélisation peut-elle être un vecteur de dialogue entre acteurs scientifiques, technologiques et économiques ? Des questions qui « portent en grande partie leurs réponses en elles-mêmes », reconnaît Alain Pavé. Des sujets pas si lisses pour autant, comme le faisait remarquer Alain Fuchs, le président du CNRS, en introduction du colloque. « La question n’est pas de limiter ou non la puissance de calcul, mais de réfléchir à mieux l’utiliser », prévenait-il d’emblée, avant d’alerter sur les mirages de la simulation numérique, dans son domaine scientifique d’expertise notamment : « La simulation moléculaire a été un peu survendue à l’industrie pharmaceutique. » Un autre sujet pour le prochain colloque ? ❚❚ aurélie BarBaux
4
Pangea comporte près de 120 km de fibre optique reliant les lames de calcul.
Algorithmes
6,7 petaflops pour total
Total a triplé en 2016 la capacité de son supercalculateur Pangea, de 2,3 à 6,7 petaflops. Cette machine se plaçait en novembre 2016 à la 16e place dans le Top 500, qui classe l’ensemble des supercalculateurs mondiaux en fonction de leur puissance de calcul. «Cette puissance va nous permettre d’améliorer notre performance et de réduire nos coûts», estime Arnaud Breuillac, le directeur général exploration-production de Total. Pangea est un outil d’aide à la décision pour l’exploitation et la gestion des champs pétrolifères. Sa précédente version, construite à partir du supercalculateur Ice X de SGI, était composée de 110592 cœurs
Intel Xeon E5-2670 V1 et disposait 9,2 petaoctets de mémoire. La nouvelle utilise la technologie M-Cell et 4 608 nœuds supplémentaires basés sur le processeur Intel Xeon E52600 V3, soit 110592 cœurs de calcul et 589 téraoctets de mémoire de plus, passant à une capacité de stockage à 18,4 petaoctets. Cette augmentation de puissance va permettre d’utiliser des algorithmes mis au point par la R&D de Total pour imager des zones de plus en plus complexes et réaliser des simulations numériques des gisements en intégrant les données sismiques 3D relatives à une zone sur une échelle de temps. ❚❚ Jean-François Prevéraud
Calcul
le supercalculateur le plus puissant est 100 % chinois Le supercalculateur le plus puissant du monde est chinois. Le Sunway Taihulight agrège au total 40960 processeurs. Particularité: ce ne sont pas des processeurs Intel, mais des processeurs ShenWei, 100% chinois, développés par le centre national chinois de recherche sur l’ingénierie des systèmes à haute performance (NRCPC). Chacun présente une puissance de 3 téraflops et comprend 260 cœurs. La machine, hébergée au sein du centre national de calcul haute performance implanté à Wuxi, près de Shanghai, affiche une performance théorique de 125,4 petaflops (millions de milliards d’opérations en virgule flottante par seconde). Le supercalculateur Sunway Taihulight est trois fois plus puissant que le système
le sunway taihulight affiche une performance théorique de 125,4 petaflops.
chinois Tianhe-2, qui occupait jusqu’à présent la première place du classement. Il est également cinq fois plus puissant que le plus rapide système américain, le Titan, actuellement au troisième rang mondial. Les Japonais ont annoncé pour 2018 leur ambition de développer avec Fujitsu un supercalculateur de 130 petaflops. ❚❚ Juliette raynal
simUlation
Industrie
ccrT
DCNS, Centrale Nantes et l’université de Nantes ont créé le laboratoire de recherche technologique JLMT (Joint laboratory of marine technology). Son objectif? Innover dans le domaine de la construction navale militaire. Le laboratoire disposera d’un budget de 4,5 millions d’euros sur trois ans. Il s’appuiera sur les équipes de Centrale Nantes et de l’université de Nantes, soutenues par le CNRS, et sur les départements de recherche et technologie de DCNS Research. Une trentaine de chercheurs travailleront sur trois thèmes scientifiques: les simulateurs pour l’hydrodynamique navale,
Le consortium de calcul intensif CCRT s’est doté d’un supercalculateur Bull, Cobalt, de 1,479 petaflops de puissance crête. C’est plus de trois fois celle de la machine actuelle, Arain, installée en 2012 (420 téraflops). Le CCRT est un partenariat entre le Commissariat à l’énergie atomique et aux énergies alternatives (CEA) et 13 industriels français, gros consommateurs de moyens de calcul intensif, dont Airbus Defence and Space, Areva, EDF, Herakles, L’Oréal, Safran, Thales, Snecma, Turbomeca et Valeo.
cobalt triple la pUissance d’arain
Un laboratoire poUr le naval militaire
DCNS, Centrale Nantes et l’université de Nantes ont officialisé la création du JLMT le 14 octobre 2016.
la simulation numérique multiphysique des structures et des matériaux innovants et la fabrication additive des éléments de grande dimension. ❚❚ A. B.
Logiciel
Une chaire sUr la métallUrgie nUmériqUe à mines paristech Les industriels savent depuis trente ans simuler les matériaux au niveau macro. Mais on sait aujourd’hui que les propriétés des pièces métalliques (résistance à la fatigue, corrosion…) dépendent de leur microstructure, qui peut être modifiée par un grand nombre de mécanismes (traitements thermiques, déformations…). C’est pour étudier et simuler ces évolutions dans un logiciel que Mines ParisTech vient de
créer la chaire Digimu. Dotée d’un budget de 1,23 million d’euros sur quatre ans et dirigée par Marc Bernacki, enseignant au Centre de mise en forme des matériaux (Cemef) de l’école, elle regroupe huit partenaires, dont six industriels (ArcelorMittal, Areva, Ascometal, Aubert & Duval, le CEA et Safran), ainsi que Transvalor, la filiale valorisation de Mines ParisTech, qui édite le logiciel. ❚❚ A. B.
Un simulateur pour mieux contrer les vibrations
FRAuNHOFER ; D.R.
Les moteurs démarrent et tout le cargo se met à vibrer. Connecteurs électriques, groupe motopropulseur, tuyauteries, planchers, plafonds, et jusqu’à la coque du navire, tous les éléments risquent d’être endommagés. Pour limiter les dégâts, notamment à l’aide de dispositifs actifs qui contrent les vibrations, des laboratoires allemands (Fraunhofer Adaptronics Alliance) ont mis au point un logiciel de simulation. Ce système intégré permet de simuler les vibrations, mais aussi les effets de systèmes « adaptroniques » qui peuvent les réduire. Ces derniers utilisent des capteurs pour mesurer les vibrations locales, puis calculent et engendrent des contre-vibrations. Le simulateur permet d’économiser des prototypes et son usage n’est pas limité à la construction navale. ❚❚ ThIerry Lucas L’uSiNe NouveLLe I CAHIER N° 2 I 6 AVRIL 2017
entreprise
silicon graphics racheté par hpe
Hewlett Packard Enterprise (HPE) s’offre l’ancien grand nom du calcul haute performance, Silicon Graphics, pour 275 millions de dollars. L’acteur américain, star du calcul dans les années 1980 et 1990, avait déjà été racheté par Rackable en 2009, après un dépôt de bilan. Pour HPE, le rachat de l’entreprise et de ses 1 100 salariés dans le monde représente un moyen d’asseoir sa position, notamment sur les marchés de la recherche publique et des sciences de la vie. start-up
simforhealth simUle la santé
Interaction Healthcare est une start-up bordelaise à suivre. Spécialisée dans la simulation numérique de cas cliniques, elle a levé 5 millions d’euros en 2016 auprès du fonds d’investissement Audacia, de Bpifrance et de la région Nouvelle Aquitaine. Objectif : développer Simforhealth, son activité de jeux sérieux pour la formation des professionnels de santé. 5
simuLation
diota a été récompensé pour son logiciel de réalité augmentée dédié à l’industrie.
de votre localisation et de votre état de santé, tel est l’objet du service en ligne NOA (news on your atmosphere) proposé par Numtech sur les plates-formes de Fitbit et Runtastic. «Nous calculons la qualité de l’air avec une résolution de 5 à 10 mètres, assure Pierre Beal, le président de Numtech. Vous disposez des données de votre rue et non de celle d’à côté.» Les données météo et de dispersion des polluants s’appuient sur une plate-forme de calcul intensif modeste (20 téraflops). Les prévisions de la qualité de l’air sont ensuite affinées à l’aide d’une plate-forme big data.
trophée de la pme nexio
Concours
Diota, granD prix Des trophées De La simuLation numérique
L
es Trophées de la simulation numériques 2017, organisés par «L’Usine Digitale » en partenariat avec Teratec, ont été dévoilés le 28 juin 2016 à l’École polytechnique. Jean Gonnord, l’ex-responsable du programme simulation numérique du Commissariat à l’énergie atomique et aux énergies alternatives (CEA), a reçu le Trophée de la personnalité. Les cinq autres lauréats sont…
D.R.
Grand prix diota
Créé en 2009, Diota s’est fait connaître avec son logiciel de réalité augmentée pensé pour l’industrie et fonctionnant sans « marqueurs ». Il identifie immédiatement tout objet dont le modèle 3D figure dans sa bibliothèque, quand les autres logiciels doivent se repérer dans l’espace avant de le reconnaître. Une technologie développée en partenariat avec le CEA. Son autre atout réside dans la possibilité de créer une application de réalité augmentée en quelques clics. Avec des clients comme Total, Diota espère devenir le leader européen de la réalité augmentée pour l’industrie d’ici à deux ans. C’est en bonne voie. Catia Composer, le logiciel de conception de Dassault Systèmes, propose déjà 6
un bouton « Diota » pour exporter un modèle CAO vers une application de réalité augmentée. D’autres annonces sont attendues avec de grands éditeurs de logiciels.
trophée de la start-up realiz3d
Imaginez que vous puissiez visiter l’appartement ou la maison de votre choix avant sa construction. C’est le service offert par la start-up parisienne Realiz3D, et ce, sans installer aucun logiciel client. Sur une simple tablette, vous explorez les lieux en 3D, choisissez les options, visualisez le rendu et connaissez les prix. Realiz3D a développé ses serveurs de calcul dans le cloud et son algorithme de traitement graphique, très gourmand, avec l’Inria. Sa plate-forme dispose d’une puissance de calcul de 35,4 téraflops. De quoi supporter 200 à 250 utilisateurs simultanément. Disponible depuis 2013, Realiz3D est déjà utilisé par une trentaine de clients du bâtiment, dont Bouygues et Vinci.
trophée de l’innovation numtech
Fournir un indice sanitaire en fonction de la qualité de l’air, des risques météo,
Pour se faire un nom dans la simulation électromagnétique, la PME toulousaine Nexio Technologies s’est spécialisée dans la réduction des temps de calcul. Elle fut l’une des premières à proposer une technique de réduction des modèles numériques fondée sur la méthode ACA (adaptive cross approximation). La taille des modèles et donc les temps de calcul, sont réduits d’un facteur 10. Avec l’aide de la Direction générale de l’armement et du programme HPC-PME, l’entreprise a intégré des techniques de calcul parallèle pour distribuer les opérations sur plusieurs processeurs. La prouesse intéresse un grand groupe japonais qui souhaite simuler les champs électromagnétiques sur un avion complet.
trophée de la collaboration onera et andheo
Des temps de calcul réduits d’un facteur 300, avec des pertes de précision infimes. Un nouveau palier a été franchi dans le monde de la simulation multiphysique grâce à un partenariat entre l’Office national d’études et de recherches aérospatiales (Onera) et la PME Andheo. À l’origine du projet, une technique innovante de «couplage aérothermique» mise au point par les chercheurs de l’Onera. Le groupe Safran a vite manifesté son intérêt. C’est la société Andheo qui a appliqué les méthodes développées par les chercheurs. Deux heures suffisent désormais pour simuler un vol: décollage, croisière, changement d’altitude et atterrissage. La vue globale des contraintes appliquées aux moteurs permet à Safran d’affiner ses analyses. ❚❚ la rédaction
VERIFIEZ ET OPTIMISEZ VOS DESIGNS avec COMSOL Multiphysics Les outils de simulation numérique viennent de franchir une étape majeure.
®
Dépassez les défis de la conception avec COMSOL Multiphysics®. Avec ses puissants outils de modélisation et de résolution, obtenez des résultats de simulation précis et complets. Développez des applications personnalisées à l’aide de l’Application Builder, et déployezles au sein de votre organisation et auprès de vos clients partout dans le monde, avec une installation locale de COMSOL Server™. N’attendez plus. Bénéficiez de la puissance des simulations multiphysiques. comsol.fr/products
7 © Copyright 2017 COMSOL. COMSOL, the COMSOL logo, COMSOL Multiphysics, Capture the Concept, COMSOL Desktop, COMSOL Server, and LiveLink are either registered trademarks or trademarks of COMSOL AB. All other trademarks are the property of their respective owners, and COMSOL AB and its subsidiaries and products are not affiliated with, endorsed by, sponsored by, or supported by those trademark owners. For a list of such trademark owners, see www.comsol.com/trademarks.
simulation
enTreTien
«nous construirons des ordinateurs quantiques»
ProPos recueillis Par aurélie BarBaux eT Pascal GaTeaud
on a évoqué un « airbus du calcul haute performance », porté par la France, l’italie, l’espagne et le luxembourg, autour d’atos. où en est-on ? Au niveau européen, il y a une volonté de mettre l’accent sur le déploiement de supercalculateurs (HPC). L’idée était soutenue par les pays pionniers que vous avez cités. Nous avons tout fait pour y associer l’Allemagne. La Commission européenne ambitionne de créer une grande industrie européenne du HPC en développant un écosystème comprenant les semi-conducteurs. Elle souhaite aussi sensibiliser au fait que le HPC est un vecteur majeur de productivité et d’innovation et pousser son utilisation dans les instituts de recherche et les universités pour définir de nouveaux usages, de nouveaux algorithmes et de nouvelles applications, notamment dans le domaine de l’intelligence artificielle. En tant que numéro trois mondial et premier constructeur de supercalculateurs en Europe, Atos est naturellement un acteur prépondérant de ce projet. atos investit beaucoup en r & d. Quels sont vos grands sujets ? Atos possède 16 centres de R & D à travers le monde et investit 300 millions d’euros par an en recherche et développement. C’est avec nos clients que nous définissons nos axes de recherche et les besoins à l’horizon 2025, 2030. Qu’il s’agisse d’entreprises ou de gouvernements, nos partenaires
« il faut former des équipes qui travailleront comme si les ordinateurs quantiques étaient déjà là. nous lançons cette année nos premières quantum learning machines pour former nos propres ingénieurs. » 8
comment se prépare-t-on à l’informatique quantique ? Il faut former des équipes qui travailleront comme si les ordinateurs quantiques étaient déjà là. Nous sommes d’ores et déjà parmi les premiers à savoir simuler des ordinateurs quantiques sur nos systèmes de haute performance. Nous lançons cette année nos premières quantum learning machines pour former nos propres ingénieurs. Ces machines simulent jusqu’à 40 qubits (quantum bits), qui, en informatique quantique, peuvent prendre, selon le principe de superposition, les valeurs 0 et 1 en même temps, ce qui multiplie de manière exponentielle leur capacité de traitement. La difficulté réside dans la constitution de ces ensembles de qubits qui, dans la préservation des lois quantiques que sont la superposition et l’intrication, rencontrent des problèmes de décohérence. Dès qu’un système entre en interférence avec d’autres systèmes extérieurs, il perd ses capacités quantiques. Sur ces sujets, l’équipe de Daniel Estève au CEA, qui est l’un des conseils scientifiques d’Atos Quantum, travaille sur la constitution de circuits quantiques hybrides couplant des qubits supraconducteurs et des qubits construits à partir d’impuretés dans des diamants. Ses équipes visent de nouvelles générations de circuits permettant d’opérer le plus longtemps possible sans décohérence. L’université Pierre et Marie Curie, à Paris, avec qui nous entretenons des liens, travaille sur une autre technologie, des ordinateurs phototoniques à température ambiante. Quelle est la prochaine étape ? Notre objectif est de former les nouvelles générations d’ingénieurs pour l’arrivée de ces machines entre 2025 et 2035. Ces dernières auront une extraordinaire puissance de calcul, mais seront sans doute couplées ou connectées à un HPC. Et Atos en construira. C’est notre métier. C’est aussi une question de souveraineté pour l’Europe. Mais pour l’instant, il n’existe ni langage de programmation, ni interface. Il faut donc former les jeunes scientifiques à penser avec une puissance de calcul quasiment infinie et à appréhender autrement la modélisa-
PAscAl Guittet
Pour Thierry Breton, le PDG d’Atos, la formation des nouvelles générations au calcul quantique et à l’intelligence artificielle est plus qu’un besoin, c’est un devoir.
savent anticiper le volume de données qu’ils auront à traiter. Or nous allons prochainement atteindre une puissance exaflopique (un milliard de milliards d’opérations par seconde) et être confrontés rapidement pour nos circuits électroniques aux limites de la loi de Moore. Les cœurs des machines seront tellement denses que l’on arrivera à la limite de la matière. La chaleur dégagée sera telle qu’il deviendra impossible de refroidir les machines. C’est donc dès maintenant qu’il faut commencer à travailler sur la génération suivante, celle de l’ordinateur quantique.
tion, la simulation, la programmation. Bien entendu, nous travaillons aussi sur la cryptologie. Car lorsque le premier ordinateur quantique entrera en fonctionnement, il sera tellement puissant qu’il pourra casser tous les algorithmes de chiffrement de type RSA, à la base d’une grande partie des systèmes de sécurité actuels. Une équipe d’Atos étudie des algorithmes capables de résister à une attaque d’ordinateur quantique, ce qui intéresse évidemment l’Agence nationale de la sécurité des systèmes d’information (Anssi), avec qui nous coopérons. Il faut se préparer à protéger les communications de la 5G, qui arrivera en 2019 ou 2020. Ces algorithmes dits quantum safe devront donc être prêts avant l’arrivée des ordinateurs quantiques. Qui finance ces recherches sur l’informatique quantique ? Nos concurrents américains sont financés par l’Agence de sécurité nationale (NSA) et le ministère de la Défense. Les Chinois par leur gouvernement. Pour ce qui nous concerne, nous menons ces recherches avec peu de financements extérieurs. Nous suivons avec intérêt les initiatives de la Commission européenne, non seulement pour les développements du HPC classique, mais aussi en matière d’informatique quantique, avec un programme de plus de 1,3 milliard d’euros pour les ordinateurs et les capteurs quantiques. La Commission a pleinement conscience que le quantique fera partie des vraies révolutions technologiques et scientifiques du XXIe siècle. l’usine nouvelle i cAHieR N° 2 i 6 AVRil 2017
l’intelligence artificielle est l’une de ces révolutions annoncées au XXIe siècle. Y voyez-vous un problème éthique ? L’intelligence artificielle pose sans nul doute des questions dans la mesure où elle fournira de plus en plus de capacités d’assistance pour la prise de décision. Il faut les intégrer. Il y a des aspects politiques importants, bien sûr, notamment concernant la protection de la vie privée et des individus. En matière d’applications médicales, la bioéthique devient un sujet essentiel. S’agissant de l’intelligence artificielle telle que développée par Atos, c’est-à-dire principalement à vocation industrielle, nous n’en sommes pas à ce stade. Lorsque l’on atteindra les puissances de calcul prévues à l’horizon 20252030, nous aurons changé d’environnement en termes de capacité d’anticipation et il nous faudra des spécialistes et utilisateurs pleinement formés à ce nouvel environnement. D’un point de vue éthique, tant que cette connaissance et cette maîtrise de ses usages seront entre les mains de quelques-uns, il y aura évidemment un risque. Mais je suis ces questions depuis longtemps et je reste fondamentalement optimiste. Gardons en tête que nous sommes sur des cycles longs. Les mutations technologiques ne se font jamais en dessous de vingt-cinq ans, c’est-à-dire d’une génération. Prenons nos responsabilités : il nous appartient de former et de sensibiliser ceux qui nous succéderont. Ce devoir de transmission, c’est, en résumé, l’histoire de l’évolution des sciences et des techniques, l’histoire de l’humanité. ❚❚ 9
D.R.
10
simulatiOn
TransporT
Objectif électrique Auto, aéro, naval, spatial… La propulsion électrique s’impose partout, tirée par les contraintes environnementales. Reste à simuler les systèmes pour l’optimiser. par Guillaume lecOmpte-bOinet
l Le HY4 est un avion de tourisme à propulsion électrique mis au point par le DLR, le centre allemand de recherche aérospatiale. L’usine nouveLLe i CAHiER N° 2 i 6 AVRiL 2017
e transport mise sur l’électrique. De plus en plus. Et pas seulement dans l’automobile. Industriels, laboratoires, instituts de recherche technologique et universités, tous s’activent pour trouver des solutions fiables afin d’électrifier les chaînes de traction ou de propulsion des automobiles, navires, satellites et autres aéronefs. Et les défis ne manquent pas. Il faut passer aux batteries de nouvelle génération, adapter les piles à combustible, intégrer ces nouveaux systèmes dans les carlingues et les coques de navire. Et cela en toute sécurité. Chaque mode de transport a ses propres obstacles à lever. Dans l’automobile, c’est l’augmentation de l’autonomie des batteries et leur coût qu’il faudrait améliorer de façon drastique. Dans le spatial, c’est la réduction des délais de mise à poste d’un satellite à propulsion électrique. Dans le naval, l’une des contraintes réside dans le dimensionnement des équipements électriques. Pour cela, constructeurs et laboratoires disposent d’outils de simulation numérique et ne se privent pas d’en user car ils permettent de se passer, en partie, de coûteux essais physiques. Pour certaines tâches, comme la modélisation d’une architecture, les outils du marché comme Catia et Dymola font l’affaire. Mais pour la plupart des travaux de simulation, les industriels et les centres de recherche doivent développer des codes en propre, avec des outils génériques de type Matlab ou Comsol. Que ce soit pour la simulation des écoulements d’air dans l’aéronautique ou pour celle de l’électrochimie des batteries dans l’automobile, les problématiques sont trop spécifiques pour les logiciels du commerce. D’où la multiplication de partenariats entre l’industrie et les laboratoires, qui entraînent même parfois la création de chaires de recherche. ❚❚ 11
simulation
GaGner la course à l’autonomie La modélisation des batteries et des piles à combustible va jouer un rôle essentiel dans les progrès des constructeurs dans les cinq prochaines années. Il y a urgence ! par Guillaume lecompte-Boinet
12
s
il en était besoin, les pics de pollution qu’ont connus les grandes agglomérations françaises cet hiver doivent conforter les constructeurs qui ont fait le choix de la voiture électrique. Un marché appelé à une forte croissance, selon Volkswagen, qui a annoncé qu’il allait lancer une trentaine de modèles de voitures électriques d’ici à 2025. Renault, lui, y croit depuis longtemps. Le constructeur français, qui a investi 4 milliards d’euros dans la voiture électrique depuis 2010, vient de sortir la Zoé 3. Il prévoit d’en vendre plus de 100000 d’ici à 2020, sachant qu’il a écoulé 24 000 Zoé 2 en 2016 et un total de 50 000 Zoé depuis son lancement. Outre-Atlantique, Tesla et Panasonic ont investi 5 milliards de dollars dans une méga-usine de batteries aux États-Unis et Daimler veut damer le pion à Tesla en sortant une dizaine de modèles électriques d’ici à 2020-2025. Les constructeurs chinois avancent aussi au pas de charge. Quant à Toyota, l’un des précurseurs avec ses véhicules hybrides, il n’hésite pas à se lancer dans la technologie très avancée des piles à combustible avec sa Mirai. «Nous en avons vendu 3000 en 2016 et nous tablons sur 30000 exemplaires en 2020»,
Pagecran
Automobile
simulation
les secrets de la Zoé 3 Renault, qui a rivalisé d’inventivité pour accroître l’autonomie de la Zoé 3, annonce 400 kilomètres de circulation sans recharger la batterie.
explique Gerald Killmann, le vice-président chargé de la R&D de Toyota Motor Europe. Signe des temps, le gouvernement français vient de décider de supprimer les bonus écologiques des hybrides (sauf le rechargeable) pour concentrer cette incitation fiscale sur les voitures 100% électriques.
modéliser pour limiter les risques
Mais ces annonces ne doivent pas faire oublier que l’avenir de ce marché très nouveau passe par quelques défis à relever. « L’équation de la voiture électrique est simple : il faut que nous soyons capables d’augmenter l’autonomie des batteries, de réduire les temps de recharge sans dégrader leur durée de vie et, naturellement, de diminuer les prix, donc les coûts», résume Marc Soulas, l’ingénieur en chef véhicule électrique de Renault. En général, l’acheteur regarde le prix du véhicule avant de s’intéresser à son niveau de pollution. Et le voyageur veut savoir s’il peut recharger sa batterie sans passer une nuit à l’hôtel. En matière d’autonomie, un cap symbolique a été passé par Renault, qui a quasiment multiplié par deux le kilométrage de la Zoé en le passant à près de 300 km en condition de roulage normal (400 km selon le l’usine nouvelle I caHIer n° 2 I 6 aVrIL 2017
alors que la Zoé 2, la voiture électrique star de renault, n’a qu’une autonomie d’environ 200 km homologuée neDc (new european driving cycle), c’est-à-dire sans utiliser les consommateurs internes (climatisation, radio…), la Zoé 3 promet 400 km d’autonomie neDc (270 à 300 km en conditions normales). Pour parvenir à ce résultat, la marque au losange a travaillé sur tous les grands composants de la voiture. La batterie lithium-ion a vu sa capacité passer de 22 à 41 kWh, avec un surcroît de poids limité à 21 kg sur un total de 300 kg. « nous avons également augmenté le rendement du moteur », explique Marc Soulas, l’ingénieur en chef véhicule électrique de renault. Ses équipes ont travaillé sur sa compacité en optimisant l’électronique de puissance, en utilisant un rotor bobiné et des roulements à bas frottements. L’un des petits secrets de la nouvelle Zoé réside
dans le concept « caméléon ». Il s’agit d’un convertisseur intégré dans le véhicule, qui permet de recharger la batterie en courant alternatif. Un onduleur situé entre la batterie et le moteur retransforme l’énergie continue de la batterie en alternatif. « ce système revient trois à quatre fois moins cher et caméléon nous a permis de gagner 30 km d’autonomie », se réjouit Marc Soulas. autre innovation, l’introduction d’une pompe à chaleur réversible pour gérer la climatisation, offrant 15 km d’autonomie supplémentaires. renault a aussi grignoté une vingtaine de kilomètres en développant un nouveau système de freinage régénératif plus performant, permettant de récupérer de l’énergie, que caméléon transforme en continu pour la stocker dans la batterie. ❚❚
cycle européen NEDC). « Nous sommes intervenus sur tous les éléments importants de la chaîne de traction : batterie, moteur, système de recharge », fait remarquer Marc Soulas [lire l’encadré ci-dessus]. Pour augmenter l’autonomie de ces batteries lithium-ion sans risque pour la sécurité et les rendre plus compactes, impossible de se passer de simulation numérique tant ce qui se produit à l’intérieur de ce type d’équipement est complexe. Rappelons que dans les batteries lithium-ion, une réaction électrochimique entre deux électrodes (l’anode, positive, et la cathode, négative) a lieu grâce à des matériaux actifs qui permettent aux ions lithium de migrer d’une les enjeux électrode à l’autre. Le matériau de l’anode est un comde la simulation posé céramique de nickel-manganèse-cobalt. Pour ◗ Augmenter l’autonomie la cathode, on utilise en général du graphite. Point des batteries lithium-ion important, la réversibilité de cette migration doit être ◗ Tester de nouveaux parfaite et rapide si l’on veut que la batterie ait une types de batterie et leurs autonomie suffisante. «Les propriétés d’une batterie, nouveaux composants densité de puissance et densité d’énergie, réversibilité, ◗ Améliorer la compacité sont dépendantes des matériaux actifs », explique des piles à combustible et en réduire les coûts Cédric Chazel, chercheur au CNRS et responsable 13
simulation
« nous étudions aussi la technologie du lithium-soufre »
Quel rôle joue la simulation numérique dans vos travaux sur les batteries ? Nous devons comprendre les propriétés de diffusion et de transport des ions dans l’électrode et au sein de l’électrolyte en fonction du système électrochimique. La simulation nous aide à comprendre plus vite comment se comportent les matériaux actifs de la batterie. Quel type de simulation effectuez-vous ? Nous faisons des calculs dans l’infiniment petit, avec un espacetemps de 0,1 nanomètre et 100 picosecondes. Cela nous permet de mettre au jour des matériaux actifs
prometteurs pour telle ou telle application, et donc d’augmenter l’autonomie. Plus un matériau actif a un potentiel de fonctionnement élevé, plus la batterie sera performante. Mais certains phénomènes nécessitent des modélisations sur une plus grande échelle espace-temps (10 nanomètres et 100 nanosecondes). Nous travaillons aussi sur un espace-temps plus large, de 1 micromètre et 0,1 seconde, par exemple pour mieux caractériser des phénomènes aux interfaces des différents matériaux. Quels résultats concrets en attendez-vous ? Nous effectuons un travail théorique de base afin de trouver les meilleurs matériaux actifs pour améliorer le rendement des batteries. Les industriels ont encore un gros
valorisation du réseau RS2E. Le chercheur travaille au Laboratoire de réactivité et chimie des solides d’Amiens (LRCS), notamment sur la modélisation des batteries lithium-ion, en codant sur des outils comme Matlab ou Comsol. « L’un des points clés dans nos travaux de modélisation est d’étudier les mécanismes de diffusion des matériaux actifs», explique Julien Marie, le chef d’équipe développement batteries de Renault. Les matériaux migrent via des couches, ou feuillets, composés d’aluminium et de cuivre, qui forment un milieu très complexe. C’est pourquoi les simulations effectuées par Renault sont le résultat de codes développés en interne, faute d’outils sur le marché. La marque au losange a utilisé des travaux issus de thèses, financées par le constructeur. L’un des objectifs est de parvenir à réduire l’encombrement en hauteur de la batterie pour la rendre la plus plate possible et qu’elle s’intègre mieux dans le châssis. Les chercheurs tentent aussi d’optimiser la quantité de matériaux actifs en fonction de l’autonomie et de la puissance voulue. Pour faire simple, plus il y a de matériaux actifs dans les cellules et plus la batterie pèse lourd, mais meilleure est son autonomie. C’est pour cela que les batteries des véhicules hybrides rechargeables ont des cellules très fines, un temps de recharge faible, mais moins d’autonomie. «Nous devons en permanence faire un ”trade-off” entre tous ces éléments», témoigne Julien Marie. Des expériences ont lieu pour faire varier la composition des matériaux actifs. Par exemple en augmentant la quantité de nickel, ce qui permet de stocker 14
travail à faire sur les dimensionnements. On passe alors au stade de l’ingénierie. Pour cela, nous nous voyons tous les six mois avec la quinzaine d’industriels, dont Renault et Airbus, du réseau RS2E. Car il y a encore beaucoup d’expérimentations réelles à faire ! Quelles sont les alternatives au lithium-ion ? Au sein du Laboratoire de réactivité et chimie des solides d’Amiens (LRCS), nous explorons plusieurs pistes. Le lithium-air naturellement, qui va encore demander beaucoup de travaux, mais aussi le lithiumsoufre. Ces technologies sont très prometteuses, pas seulement pour l’automobile, mais aussi pour l’aéronautique. Nous étudions également un concept de batterie qui s’auto-charge à la lumière. ❚❚
davantage de lithium. Mais il faut alors contrôler le cocktail car il est très réactif et pourrait mettre en danger les passagers. Autre piste étudiée : enrichir le graphite en silicium pour là encore stocker plus de lithium. Mais là aussi, des problèmes de stabilité du matériau se posent.
De nouvelles pistes de recherche à explorer
La sécurité est au cœur de tous ces défis. Chacun a en tête les cas d’explosion ou de départ de feu des batteries lithiumion, du Boeing 787 au smartphone. C’est pourquoi la simulation intervient également pour réguler les questions thermiques. « Lors des trajets autoroutiers, le conducteur aura besoin de recharger rapidement sa batterie, ce qui suppose de disposer d’un système de refroidissement efficace et adapté», souligne Julien Marie. Renault dispose d’équipes dédiées à ces questions pour simuler des cycles d’échauffementrefroidissement, en utilisant notamment des outils de conception numérique de type Catia. Le constructeur a aussi développé ses propres outils, que les ingénieurs codent sur Matlab. « On définit les lois physiques et le système calcule automatiquement», expose Julien Marie. Des calculs qui devraient pousser Renault à choisir un système de refroidissement liquide (eau ou fluide) en lieu et place d’un refroidissement par air sur la Zoé. D’autres équipes travaillent sur la mesure de l’état de charge et de santé de la batterie grâce à l’entropimétrie. C’est le cas du chercheur Rachid Yazami, détaché du CNRS à la
D.r.
cédric chaZel, chercheur au CNRS et responsable valorisation du réseau RS2E (17 universités, trois centres de transfert de technologie et une quinzaine d’industriels)
simulation
la pile à combustible, une alternative crédible pour une autonomie d’environ 500 km. L’un des points critiques dans les piles à combustible est le réservoir, car il faut stocker en toute sécurité, à 700 bars, 5 kg d’hydrogène. « nous l’avons conçu nous-mêmes », rapporte gerald Killmann. La voiture n’en comporte plus que deux, contre quatre dans les premiers prototypes, histoire de lutter contre les kilos. Des travaux ont été réalisés sur la membrane électrolyte pour en réduire l’épaisseur des deux tiers afin que l’hydrogène circule plus facilement. Toyota a réduit de 48 % la masse de la pile et augmenté de 26 % sa puissance. Il reste de nombreux défis à relever, et en premier lieu celui du coût. Il faut actuellement débourser près de 80 000 euros pour une Mirai. ❚❚
Nanyang Technological University de Singapour. « L’analyse d’un diagramme d’entropie et d’enthalpie permet de déterminer avec grande précision non seulement l’état de santé d’une batterie, mais aussi, dans une certaine mesure, son historique, c’est-à-dire les conditions dans lesquelles elle a vieilli. La simulation des diagrammes thermodynamiques permet de prévoir la durée de vie », explique-t-il. Tous ces travaux permettront à terme d’améliorer les temps de recharge des batteries en toute sécurité. Mais pas seulement. Une voiture électrique moderne, c’est aussi de l’électronique de puissance, qui permet de réduire les pertes thermiques tout en faisant passer plus de puissance électrique dans un même volume. En somme, l’électronique de puissance est l’un des éléments qui conditionnent la capacité de recharge. Aujourd’hui, l’industrie utilise couramment des puces au silicium. Mais de nouveaux composants vont arriver à partir de 2020-2022, à base de gallium. Ils permettront de franchir un nouveau pas et de gagner entre 10 et 20 % de rendement. Pour ce faire, Renault travaille avec le CEA et des laboratoires, avec des équipementiers
de nouveaux composants vont arriver […]. ils permettront de franchir un nouveau pas et de gagner entre 10 et 20 % de rendement. 16
Afin de réduire la masse du moteur, toyota a équipé la mirai de seulement deux batteries à hydrogène.
comme STMicroelectronics et Infineon, sur de nouvelles architectures de composants (redresseurs, transistors, onduleurs…). « Nous sommes dans la phase où ces composants de nouvelle génération sortent tout juste des labos », tempère Marc Soulas. L’une des questions qui taraudent constructeurs et chercheurs est de savoir s’il y a une alternative crédible à la technologie lithium-ion, qui offre une densité d’énergie de 150 à 200 Wh/kg. Plusieurs pistes se profilent, dont le lithium-air, la plus prometteuse. Cette technologie apporterait une densité énergétique près de dix fois supérieure au lithium-ion, tout en étant deux à trois fois plus légère. L’autonomie des voitures électriques qui en seraient équipées s’envolerait au-delà de 600 km. « Le lithium-air est un intermédiaire entre le lithium-ion et la pile à combustible », résume Cédric Chazel, dont le laboratoire travaille aussi sur cette technologie. Il utilise la modélisation pour étudier les propriétés de diffusion de l’oxygène au sein de l’électrode de carbone, qui est poreuse, la migration vers l’autre électrode et la gestion des problèmes d’humidité liés à l’introduction de l’oxygène. « Il est encore très difficile de dire si cette technologie prendra la suite du lithium-ion, car les travaux sur l’optimisation des cellules restent pour l’instant sans succès », tranche Rachid Yazami. Bref, les piles lithium-air ne seront probablement pas industrialisables avant une petite décennie. ❚❚
ToyoTa ; DaVID DeWHUrST PHoTograPHy
c’est le pari un peu fou de Toyota : commercialiser une voiture électrique fonctionnant avec une pile à hydrogène. rappelons que cette technologie ne rejette que de l’eau. après plusieurs années de développement, le constructeur japonais a conçu les premiers prototypes en 2008 sur de gros SUV. « Le point clé, c’est la compacité quand on veut l’implanter dans une berline plus petite », explique gerald Killmann, le vice-président r & D de Toyota Motor europe. Le constructeur a dû poursuivre ses travaux à coups de modélisation sur des sujets comme la dynamique des fluides (cFD), l’électrochimie, la mécanique, en utilisant en général du code maison sur Matlab et catia. c’est ainsi qu’est née la Mirai, commercialisée depuis 2015. Quelques minutes suffisent à faire le plein d’hydrogène
■ Maîtrise technologique ■ Recherche industrielle ■ Diffusion dans l’industrie
■ Support aux PME ■ Enseignement et formation ■ Coopérations internationales
SIMULATION
INDUSTRIELS UTILISATEURS
ENTREPRISES TECHNOLOGIQUES
HPC
BIG DATA RECHERCHE & INNOVATION 17
Contacts & Informations
jean-pascal.jegu@teratec.fr • Tél. +33 (0)9 70 65 02 10 2 rue de la Piquetterie - 91680 Bruyères-le-Châtel - France
www.teratec.eu
simulation
Si l’avion à propulsion distribuée de l’onera (en haut) n’est encore qu’un projet, l’extra 330Le de Siemens et l’e-Fan d’Airbus en sont déjà aux vols d’essai.
AéronAutique
Cap sur l’avion éleCtrique Chercheurs et constructeurs s’activent pour réduire drastiquement la pollution des avions. L’hybridation semble être la solution la plus prometteuse… et atteignable. par Guillaume lecompte-Boinet
18
l
’industrie aéronautique a longtemps mis en avant le chiffre de 3 %. C’est la part approximative des émissions de gaz à effet de serre du transport aérien. Il peut paraître faible, mais face aux changements climatiques, les constructeurs et les équipementiers n’ont d’autre choix que de poursuivre leurs efforts pour réduire la consommation des avions. Rappelons que dans ce domaine d’importants progrès ont été réalisés, puisqu’un appareil moderne de type Airbus A350 consomme 60% de moins que son homologue des années 1970. Mais, compte tenu du doublement de la flotte mondiale d’ici à vingt ans, ces efforts seront vite balayés. À moins que l’industrie et les chercheurs ne trouvent la martingale. La piste de recherche la plus naturelle pour ne plus émettre de polluants consiste à passer au tout-électrique. Le principe est simple… en apparence: un moteur électrique alimenté par une batterie ou une pile à combustible entraîne une hélice. Airbus et Boeing ont travaillé sur ce genre de concept en développant des prototypes d’avions légers. Le plus connu est l’E-Fan d’Airbus (550 kilos), qui a traversé la Manche en 2015. De son côté, Siemens a fait voler en juillet 2016 un
simulation
La référence des professionnels de l’industrie pour comprendre et agir avant les autres
« on ne modélise que ce que l’on connaît déjà »
Jean Hermetz, adjoint au directeur du département conception et évaluation des performances des systèmes de l’onera que peut la simulation pour l’avion à propulsion électrique? La simulation joue un rôle central. C’est pourquoi l’Onera s’en est fait une spécialité. Nous travaillons sur la dynamique des fluides (CFD) avec notre outil développé en propre, Elsa. Son code est utilisé par Airbus et Safran pour modéliser les écoulements d’air. Nous simulons aussi la mécanique du vol, c’est-à-dire l’association des différentes forces et leur impact sur l’avion. Enfin, nous avons créé des outils dédiés à la dynamique du vol, aux lois de pilotage.
quels sont les principaux défis ? D’une façon générale, la CFD est bien maîtrisée. Nous avons fait des progrès énormes, notamment grâce à nos souffleries, qui nous permettent de vérifier les résultats de la simulation. Nous améliorons les codes en permanence. Mais nous butons encore sur la modélisation de certains écoulements d’air, ce qui nous oblige à passer par l’expérimentation en réel. C’est un aller-retour permanent entre simulation et expérimentation ? C’est indispensable. On ne modélise que ce que l’on connaît déjà ! Si l’on est dans l’inconnu, il faut passer par l’expérimentation. Pour le projet Ampère sur la propulsion distribuée, nous avons effectué des essais en soufflerie pour confirmer les calculs numériques, que nous avons terminés en février dernier. ❚❚
24 h 24
Le web abonnés
La veille par email « L’Usine en régions » + L’intégralité des articles web + Les archives depuis 1994
L’hebdomadaire
Le magazine et la version digitale (iPad, Mac et PC) + Les numéros spéciaux, dont le Guide de l’ingénieur
Industrie Explorer
La base de données la plus complète sur l’industrie (en mode consultation)
Une vision unique de l’industrie en France et dans le monde
Un décryptage exclusif de la digitalisation de l’industrie et des services
Une couverture inégalée de l’actualité des usines en région
La base web de référence des 20 000 premières entreprises et sites industriels en France
ABONNEZ-VOUS ! PAYEZ EN LIGNE ET ACCÉDEZ IMMÉDIATEMENT À L’ENSEMBLE DE NOS CONTENUS SUR USINENOUVELLE.COM
BULLETIN D’ABONNEMENT À RENVOYER ACCOMPAGNÉ DE VOTRE RÈGLEMENT À : L’Usine Nouvelle - Service Abonnements - Antony Parc II 10, place du Général de Gaulle - BP 20156- 92186 Antony Cedex - Fax : +33(1) 77 92 98 15 - Email : abo@infopro-digital.com
OUI je m’abonne à la formule 12 mois de L’Usine Nouvelle pour 315 E TTC* (USI1A03)
USI1707
L’hebdomadaire et sa version digitale (iPad, Mac et PC) + Le Guide de l’ingénieur + L’accès illimité à l’ensemble des contenus du site + La base de données Industrie Explorer en mode consultation
Je préfère m’abonner à la formule 100% numérique de L’Usine Nouvelle pour 299E TTC*(WUN1A02) USI1707 JE RÈGLE PAR :
Chèque bancaire à l’ordre de L’Usine Nouvelle Carte bancaire N° Expire fin Date et signature Notez les 3 derniers chiffres figurant au verso de votre carte
À réception de facture
Je recevrai une facture acquittée
avion de voltige Extra330LE (1 tonne) équipé d’un prototype de moteur électrique développant 260 kilowatts. Airbus et Siemens se sont associés en 2016 pour mener en commun des travaux sur l’avion électrique et hybride, avec pour objectif d’atteindre des puissances supérieures à 10 mégawatts. «D’ici à 2030, nous espérons faire voler un avion hybride électrique pouvant transporter jusqu’à 100 passagers sur une distance de 1000 kilomètres», a annoncé Frank Anton, responsable de l’eAircraft au centre de recherche de Siemens. Il faudra toutefois être capable d’arracher du sol un avion près de 50 fois plus lourd que l’Extra330. L’un des problèmes de l’avion tout électrique est la trop faible densité d’énergie des batteries lithium-ion, dont l’E-Fan est équipé, par rapport au kérosène. «Pour obtenir la densité L’uSine nouveLLe i CAHiER N° 2 i 6 AVRiL 2017
Mme
M. Nom :
Prénom : Fonction : Société : Adresse : Code postal :
Ville :
Tél. : Activité : Siret : Code NAF: Email :
@
INDISPENSABLE pour ouvrir vos accès web (MAJUSCULES OBLIGATOIRES) *TVA : 2,10% - Offre France métropolitaine avec Industrie Explorer en mode consultation et hors Indices & Cotations, réservée aux nouveaux abonnés - Offre valable jusqu’au 31/08/2017- Votre abonnement comprend durant cette période la réception de 46 n° dont 3 n° doubles. Conformément aux lois Informatique et Libertés du 06/01/1978 et LCEN du 22/06/2004, vous pouvez accéder aux informations, les rectifier et vous opposer à leur transmission éventuelle en écrivant au Service Abonnements. GISI - SAS au capital de 38 628 352 € - RCS Paris 442 233 417 - N° TVA FR 29442233417 - Toute commande implique l’acceptation des CGV consultables à : http://www.infopro-digital.com/pdf/CGV_abo_Groupe.pdf.
19
simulation
Architecture à moteur thermique et moteur électrique sur le même arbre d’hélice.
Propulsion distribuée par une série de moteurs
De son côté, l’Onera teste, dans le cadre de son projet Ampère, un concept de propulsion distribuée. Une trentaine de petits moteurs électriques alimentés sont disposés sur la voilure. L’avantage est que ces moteurs peuvent être utilisés pour contrôler l’avion (ce qui dispense d’équiper les ailes de volets mobiles). Ils peuvent aussi améliorer la portance de l’aéronef à basse vitesse. Le centre de recherche mène de nombreuses simulations numériques [lire l’entretien page précédente]. Il s’en est même fait une spécialité. les enJeux L’un de ses principaux domaines de recherche concerne De la simulation la dynamique des fluides, avec l’étude des écoulements ◗ simuler les écoulements des avions hybrides d’air le long du fuselage. Ces travaux, réalisés avec l’outil maison Elsa, visent ◗ étudier l’impact des à extraire des grandeurs caractéristiques sur les ondes électromagnétiques variations de pression, de vitesse… L’interprétation ◗ Développer des batteries des variations permettra d’évaluer des données sur la lithium-air portance et la traînée de l’avion. Avec Ampère, l’Onera veut montrer que l’on peut obtenir de très bons résultats sur l’absorption de la couche limite, c’est-à-dire la fine couche d’air (quelques centimètres à peine) qui se trouve entre l’air collé au fuselage, circulant à la même vitesse que l’avion, et l’air extérieur, à vitesse nulle. «Si l’on peut absorber cette couche limite via les moteurs, on récupère de l’énergie inutilisée et on augmente le rendement global de la propulsion », explique Jean Hermetz. Les piles à combustible, et notamment les échanges d’électrons avec la membrane électrolyte, font partie des études en cours. Le groupe Safran, comme Airbus, l’Onera et le Commissariat à l’énergie atomique, réalise des travaux de simulation pour embarquer cette technologie à bord des avions. L’un des chantiers consiste à modéliser via Catia un système complet intégrant une pile à combustible avec la méthode de maillage
« D’ici à 2030, nous espérons faire voler un avion hybride électrique pouvant transporter jusqu’à 100 passagers sur une distance de 1 000 kilomètres. » Frank anton, responsable de l’eAircraft de Siemens
20
les architectures de l’avion hybride L’avion à propulsion électrique passera par une phase hybride, à l’image de ce qui s’est passé dans l’automobile. Plusieurs architectures sont à l’étude. La première consiste à faire tourner une hélice soit par un moteur de type turbine à gaz, soit par un moteur électrique, disposés en parallèle. Dans les phases de décollage et d’atterrissage, l’avion sera propulsé en électrique, le thermique prenant le relais pour la phase de vol en croisière. La seconde architecture consiste à mettre un moteur thermique et un moteur électrique sur le même arbre d’hélice, en continu, avec un partage des tâches similaire à l’architecture parallèle. Ces deux concepts supposent la présence de batteries pour accumuler l’énergie électrique et pour la rendre
disponible au bon moment. Enfin, les chercheurs et les constructeurs travaillent sur une troisième option – dite architecture série – consistant à entraîner une hélice par un moteur électrique qui sera lui-même alimenté soit par une pile à combustible (scénario très possible), soit par une turbine à gaz classique. il n’y a donc pas besoin de batterie, mais plutôt d’un dispositif d’électronique de puissance pour gérer le système propulsif de façon optimale. Contrairement aux deux cas précédents, le moteur thermique est déconnecté de l’hélice. Si l’on fait le choix de la pile à combustible, cette troisième option sera à l’évidence la plus avantageuse en termes environnementaux puisque l’avion sera vraiment zéro émission. ❚❚
par éléments finis. Ce système repose sur un découpage en petits éléments de ce que l’on doit modéliser, le réduisant à un nuage de points. Les réservoirs d’hydrogène font aussi l’objet d’une attention particulière en raison de l’inflammabilité de ce gaz. Un autre chantier, moins connu mais pourtant très stratégique, concerne la compatibilité électromagnétique. En intégrant de plus en plus de puissance électrique, les avionneurs vont être obligés de revoir l’architecture des aéronefs du futur pour protéger les équipements (avioniques en particulier). L’Onera et Safran travaillent activement sur ce sujet. Le centre de recherche a développé une chaîne de calcul pour établir les niveaux de rayonnement des systèmes électriques et pour étudier leurs répercussions sur l’avion. C’est plus que crucial : l’avionneur sera peut-être obligé de blinder tel ou tel équipement critique ou de le déplacer. Les chantiers de simulation sont loin d’être terminés. ❚❚
D.R. ; JAN GREuNE / SiEmENS
d’énergie d’un kilo de kérosène, il faut 60 kilos de batterie», souligne Jean Hermetz, l’adjoint au directeur du Département conception et évaluation des performances des systèmes de l’Office national d’études et de recherches aérospatiales (Onera). Difficile pour l’électrique de détrôner le carburant star de l’aviation. Sauf si l’on améliore les batteries. Airbus travaille au sein du réseau RS2E avec le Laboratoire de réactivité et chimie des solides d’Amiens (LRCS) sur des batteries lithium-air qui auraient une densité d’énergie dix fois plus élevée que la technologie lithium-ion et, surtout, une masse trois fois plus faible [lire page 16]. Un point clé pour l’aviation. Il reste encore de nombreux défis à relever pour que cette technologie arrive à maturité. En attendant, l’hybridation semble être la voie intermédiaire qui permettra d’atteindre une densité d’énergie suffisante.
Platinum Sponsors :
Gold Sponsors :
21 Silver Sponsors :
Partenaire CafĂŠ EuropĂŠen de la Recherche :
simulation
SpatiaL
Accélérer lA mise sur orbite baisse des durées de transfert en orbite, conception des moteurs… La modélisation est au cœur des défis technologiques des satellites électriques. par Guillaume lecompte-Boinet
l
es satellites à propulsion 100% électrique vont-ils remplacer un jour les plates-formes à propulsion chimique? Probablement pas totalement. Mais ces nouvelles machines grignotent chaque année des places dans l’espace, à tel point qu’elles pourraient dans un proche avenir dépasser la barre des 50% de parts de marché. Le dernier-né de cette famille est l’Eutelsat 172B, construit par Airbus Defence and Space (ADS) sur la base de la plate-forme Eurostar E3000 EOR. Ce satellite de 3,5 tonnes, qui doit être mis en orbite géostationnaire en avril, disposera d’une puissance embarquée de 13 kilowatts et sera entièrement propulsé grâce à des moteurs électriques fonctionnant au xénon, tant pour le transfert en orbite que pour le maintien à poste pendant toute sa durée de vie. « C’est le premier satellite européen tout électrique », proclame ADS. Les avantages de la propulsion électrique sont maintenant connus : un gain de masse compris entre 40 et 50 % par rapport au système chimique (ergols) et un encombrement moindre, laissant plus de place pour la charge utile. Pour embarquer la même charge utile, l’Eutelsat 172B version chimique aurait dû jauger 5,5 à 6 tonnes ! Avec seulement 3,5 tonnes, la plate-forme peut voyager avec un autre satellite dans la coiffe d’Ariane 5 et réduire ainsi les coûts de lancement. Seulement voilà, il reste un écueil de taille: le délai de mise à poste d’un satellite électrique est compris entre six mois avec les moteurs de type plasmique (ou à effet Hall) et neuf mois avec les moteurs ioniques. Même s’ils sont très économes, les moteurs électriques « poussent » infiniment moins que les moteurs à ergols : environ 100 à 150 millinewtons contre 400 newtons pour un moteur chimique, soit un rapport de 1 à 4 000. Tout l’enjeu pour l’industrie spatiale est de réduire ces délais, notamment grâce à la 22
Deux satellites à propulsion électrique : l’Eutelsat 172B (en haut) et le Smart-1. La lueur bleue sous le Smart-1 est émise par des atomes de xénon.
simulation numérique, les tests physiques étant compliqués dans l’espace. « Pour diminuer la durée de transfert d’orbite, on peut augmenter la puissance des moteurs ou mettre plus de moteurs, sachant que la puissance électrique disponible sur les satellites est directement liée à la capacité des panneaux solaires », explique Nicolas de Chanaud, le responsable adjoint du programme propulsion électrique
« avec les travaux de simulation, nous pouvons gagner quinze jours, voire un mois, sur le délai de transfert orbital. » didier leboulch, responsable de la r&d et de la politique produits de Thales Alenia space
de Safran Aircraft Engines. Le fabricant de satellites Thales Alenia Space (TAS), qui a développé la plate-forme tout électrique Spacebus Neo, a également conçu un système de générateur solaire déroulant, un peu comme des stores. « L’efficacité des générateurs sera un peu plus faible, mais comme la surface est plus grande, on gagnera en puissance», explique Didier Leboulch, le responsable de la R & D et de la politique produits de TAS.
Airbus defence And spAce ; esA ; d.r.
Réduire le délai de mise à poste
Il faut modéliser ces ruptures technologiques pour les optimiser. Des travaux sont en cours, notamment chez Safran Aircraft Engines, au niveau des moteurs [lire ci-contre]. Pour les satellitiers, l’optimisation de la trajectoire du satellite entre son éjection du lanceur et son orbite finale, à 36000 kilomètres de la Terre, est cruciale. «Avec les travaux de simulation, nous pouvons gagner quinze jours, voire un mois, sur le délai de transfert orbital», souligne Didier Leboulch. Ces calculs complexes –effectués par TAS grâce à du codage développé en interne – consistent à modéliser tous les phénomènes qui affectent le satellite pendant les enjeux son vol: gradiants de gravité, propulsion, attraction de la simulation terrestre, pression solaire… En raison de sa lenteur, le ◗ réduire de quelques satellite électrique est soumis à plus d’aléas que ses jours, voire de quelques semaines, le délai cousins chimiques. Les industriels et le Centre national de mise à poste d’études spatiales (Cnes) ont mis au point des codes des satellites électriques de calcul pour simuler la trajectographie d’un satellite. ◗ Améliorer le rendement «Il s’agit de contrôler la trajectoire avec les équations des moteurs de la mécanique céleste et en intégrant les contraintes liées à la mise à poste avec une poussée faible: limiter le temps passé dans les ceintures de radiations, rester en visibilité de certaines stations au sol…», explique Thomas Liénart, le chef du service propulsion du Cnes. D’autres chantiers concernent les effets du jet de particules émises par les moteurs. « Il faut maîtriser ces phénomènes, notamment les dégradations éventuelles causées par ces particules sur les panneaux solaires », précise Thomas Liénart. La trajectographie optimisée est capitale pour une autre raison: l’engin ne monte pas à son orbite de façon linéaire. Il effectue des spirales, passant à plusieurs reprises de l’apogée au périgée, avec une efficacité de la poussée des moteurs qui est bonne à l’apogée et quasiment nulle au périgée. Il faut donc modéliser ces poussées pour économiser le xénon et trouver la meilleure stratégie de montée pour une architecture donnée. D’autres travaux de simulation effectués par le Cnes portent sur l’augmentation de la durée de vie des satellites et les corrections d’orbite, qui sont plus longues à effectuer qu’en chimique. À terme, industriels et laboratoires espèrent réduire de moitié le délai de mise à poste. ❚❚ L’uSinE nouvELLE i cAHier n° 2 i 6 AVriL 2017
Le propulseur ppS 5000, actuellement testé au banc par SaE, affiche une puissance de 5 kilowatts.
safran aircraft engines lance une chaire de modélisation Le sujet est si central pour le fabricant de propulseurs spatiaux que cela valait bien la création d’une chaire dédiée aux propulseurs plasmiques et à leur simulation numérique. c’est chose faite depuis le 27 janvier. safran Aircraft engines (sAe), le Laboratoire de physique des plasmas (Lpp) de l’École polytechnique et le cerfacs, un centre de recherche spécialisé dans la modélisation numérique, ont fondé cette chaire afin de poursuivre des travaux menés par sAe et de les valoriser dans le logiciel de modélisation Avip. conçu par safran Aircraft engines, Avip est dédié à l’optimisation des performances du propulseur électrique et à la simulation de son cycle de vie. « nous avons aussi développé des modèles dans le cadre d’un groupement d’intérêt scientifique (Gis) avec nos partenaires historiques : le centre national d’études spatiales (cnes), le cnrs (dont le Lpp) et l’Office national d’études et de recherches aérospatiales (Onera). cette chaire vient compléter ces travaux », indique nicolas de chanaud, le responsable adjoint du programme propulsion électrique de sAe.
Au programme : élaborer de nouvelles méthodologies de conception pour mieux équilibrer le rapport entre la simulation et les essais réels (très coûteux). « Aujourd’hui, nous testons au banc notre moteur pps 5 000 sur une durée de plus de 15 000 heures, avec des performances en fin de vie évaluées par simulation et par essai », explique nicolas de chanaud. par ailleurs, sAe a pris le leadership du programme européen cheops (consortium for hall effect in orbit propulsion system). L’un des objectifs du consortium est de développer des outils de simulation pour les moteurs du futur, par exemple pour des propulseurs pps d’une puissance de 20 kilowatts et de 500 watts (le pps 5 000 affiche 5 kilowatts). cheops s’est aussi fixé pour objectif d’avancer dans la conception d’un moteur plasmique « dual », qu’il pourrait pousser 10 % de plus par rapport aux machines actuelles pendant la montée en orbite, qui consommerait 10 % d’énergie en moins une fois en orbite et dont le besoin de poussée serait moindre. Histoire d’optimiser la consommation de xénon. ❚❚
23
simuLAtioN
Naval
À la recherche de la cOmpaciTé La propulsion électrique existe depuis longtemps dans les navires. L’encombrement des équipements et les nouvelles sources d’énergie sont au cœur de la R & D. PAR GuiLLAume LecomPte-BoiNet
Moins de bruit… et moins d’espace
Les avantages de l’électrique pour le naval sont multiples. Tout d’abord, cette technologie offre un relatif silence acoustique, tant aux croisiéristes pour dormir à poings fermés qu’aux militaires pour éviter d’être repérés. Un moteur diesel deux temps provoque des ondes que l’on peut détecter à des dizaines de kilomètres alors qu’une propulsion électrique, même couplée avec un moteur diesel ou une turbine à gaz, est beaucoup plus silencieuse. L’ampleur des vibrations est 24
S’assurer par la simulation du bon fonctionne ment de ses navires évite à DCNS de coûteux essais en conditions réelles.
réduite et il est plus facile de dimensionner des systèmes d’amortissement du bruit. Autre aspect non négligeable pour le naval, la propulsion électrique est plus économe en maintenance car les moteurs ne nécessitent pratiquement pas d’entretien. Par ailleurs, les moteurs thermiques d’appoint, tournant Les eNjeux de LA simuLAtioN à vitesse constante, sans à-coups, s’usent moins. «Pour un même type de mission, nous avons besoin ◗ Optimiser de moins de puissance installée par rapport à un l’encombrement des systèmes électriques navire tout thermique », souligne Jacques Jourden. thermiques Mais les systèmes couplant thermique et électrique ◗ Tester divers cas sont par nature très encombrants. Il faut prévoir de défaillance les diesels alternateurs, de multiples armoires élec◗ Tester de nouvelles triques, les convertisseurs, les moteurs électriques… sources d’énergie C’est la raison pour laquelle le groupe n’envisage pas pour l’instant d’équiper ses navires de moins de 5000 tonnes d’une propulsion 100% électrique comme les BPC, faute de place suffisante. La simulation numérique peut faciliter la tâche des constructeurs, surtout pour les navires militaires, où la gestion de l’espace est un sujet central. DCNS utilise des
D.R.
L
’électricité et les navires se connaissent de longue date. Dès le XIXe siècle et tout au long du XXe, des sous-marins et navires de surface de tous types sont équipés d’une architecture de propulsion incluant l’électricité. Du paquebot « Normandie » dans les années 1930 jusqu’au dernier-né du chantier STX, l’immense «Harmony of the Seas », en passant par les sous-marins et les frégates de DCNS, tous ont en commun d’embarquer des moteurs électriques. «Cela fait longtemps que nous équipons ainsi nos sous-marins et nos navires de surface », explique Jacques Jourden, le directeur de l’ingénierie du site DCNS de Nantes-Indret (Loire-Atlantique). À commencer par les sous-marins à propulsion nucléaire, et pour cause. Depuis les années 2000, DCNS a développé des concepts hybrides utilisés notamment pour les frégates Fremm. Quand le bâtiment file à moins de 15 nœuds, c’est grâce aux moteurs électriques, et dès qu’il dépasse cette allure, les turbines à gaz prennent le relais. Dans les bâtiments de projection et de commandement (BPC) de type Mistral, des pods (moteurs électriques à hélice placés dans des nacelles) situés à l’extérieur de la coque assurent une propulsion 100% électrique. Il faut toutefois un moteur diesel et un alternateur pour les alimenter. Ce système offre une grande manœuvrabilité et s’est généralisé dans les navires commerciaux, d’exploration et d’offshore.
simuLAtioN
Pas d’Archinaute sans modélisation L’« Archinaute », ce drôle de navire qui utilise la force du vent pour la convertir en électricité, n’existe encore que sur le papier. Mais son concepteur, Charles-Henri Viel, espère bien construire un prototype à l’échelle 1 cette année. Deux niveaux de modélisation ont déjà été accomplis. Le concepteur de l’« Archinaute » a développé les équations algébriques pour simuler la résistance au vent du bateau. Puis il a utilisé le logiciel Heliciel pour valider le dimensionnement de l’éolienne et de l’hélice pour une puissance donnée. « Pour le prototype, il faudra passer par des calculs plus complexes », ajoute-t-il. Ce qui suppose de développer ex nihilo un outil de simulation, en l’occurrence avec l’Ensta de Brest. ❚❚
outils comme Dymola (Dassault Systèmes) et Simulink (sur l’outil générique Matlab) pour optimiser le dimensionnement des équipements liés à la propulsion et pour caler les lois de commande et de régulation de ces équipements. « L’idée est d’utiliser la simulation pour s’assurer de la performance globale du système propulsif», précise Jacques Jourden. Ces travaux évitent de nombreux et coûteux essais en mer. Ils permettent aussi de faire des essais en mode dégradé, en simulant, par exemple, une panne sur un équipement ou une forte houle. Le constructeur peut ainsi vérifier que les lois de commande et de régulation sont bien calées. Pour le futur, DCNS mène en parallèle des travaux de recherche sur
« L’idée est d’utiliser la simulation pour s’assurer de la performance globale du système propulsif. » jacques jourden, directeur de l’ingénierie du site DCNS de Nantes-Indret l’uSiNe Nouvelle I CAHIER N° 2 I 6 AVRIL 2017
deux thèmes: le remplacement des batteries au plomb par le lithium-ion et les piles à combustible. L’idée est d’augmenter l’autonomie des sous-marins conventionnels de type Scorpène en passant de quatre jours à trois semaines sans refaire surface. Là encore, la simulation va servir à maîtriser les performances du système propulsif et le dimensionnement des équipements électriques.
Modéliser les systèmes de refroidissement
Le constructeur travaille également sur la supraconductivité, qui aurait en théorie l’avantage de diminuer le volume et la masse des machines classiques d’un facteur 1,5 à 2, hors système de refroidissement. La question de la thermique reste cependant l’un des principaux obstacles à vaincre pour pouvoir être un jour en mesure d’intégrer un moteur supraconducteur dans un navire. Il faut maintenir une température très basse en utilisant un refroidissement à l’hélium. Ce type de moteur pourrait par exemple fonctionner avec une pile à combustible. « Tout cela implique des études et des modélisations poussées sur la fiabilité et la disponibilité du système de refroidissement », conclut Jacques Jourden. ❚❚ 25
simuLation
Maintenance
Jumeau numÉrique, Ce frère proteCteur les industriels sont capables de simuler l’état réel de leurs équipements grâce au big data. un moyen d’optimiser la maintenance. par marine protais
« Jusqu’à présent, la simulation était focalisée sur la conception. L’internet industriel permet de l’utiliser en opération. Ce virage est très récent. » Éric Bantegnie, vice-président de l’unité commerciale systèmes d’Ansys
26
Grâce à son jumeau virtuel, le moteur Leap de Safran n’est envoyé en maintenance que lorsqu’une anomalie est détectée.
a volé dans des conditions optimales, nous vérifions sur le jumeau numérique qu’il n’a pas été endommagé et nous pouvons décaler l’opération de maintenance planifiée », explique Céline Briquet, responsable Leap Analytics chez Safran. Au contraire, si les équipes du motoriste détectent une anomalie sur le jumeau numérique, elles peuvent déclencher une intervention de maintenance et éviter une panne. Cette gestion plus efficace de la maintenance permet de réduire les coûts.
nouveau business model
Contrairement à d’autres outils d’analyse de données, le jumeau numérique permet de visualiser l’équipement. Et même de plonger à l’intérieur ! Il est possible d’identifier précisément la pièce qui présente une anomalie plutôt que de démonter l’ensemble. «En cas de reprise de moteurs pour la mise en œuvre d’améliorations techniques, nous pouvons identifier plus rapidement la famille de moteurs ciblée. Cela nous permet de segmenter la flotte en fonction des usages spécifiques de nos moteurs », souligne Céline Briquet. Avec ces jumeaux numériques, la simulation se trouve un nouveau terrain de jeu. Elle peut leur faire subir tout ce qu’on ne peut pas infliger aux équipements physiques. «On peut rejouer une panne sur le jumeau numérique pour en comprendre la cause racine, explique Éric Bantegnie, le
PAscAl Guittet
C
hangement d’ère pour la maintenance industrielle. Chez Safran, c’est derrière un écran que les ingénieurs auscultent les 29 moteurs Leap en vol, même à des milliers de kilomètres. Chaque moteur possède en effet son jumeau numérique. Ce terme, inventé par la Nasa, désigne une maquette numérique 3D rendue dynamique grâce aux données récoltées par les capteurs d’un équipement et aux données contextuelles. Une simulation vivante nourrie, dans le cas d’un moteur, par ses données de température, de vitesse de rotation, de consommation d’huile, mais aussi par les informations en temps réel de météo, de pollution atmosphérique, du déroulé du vol… Au total, ce sont 400 mégaoctets de données par jour et par moteur que Safran stocke dans son « data lake », sorte de réservoir d’informations qui alimente les avatars numériques de ses moteurs. Du big data au service d’une meilleure gestion de la maintenance. Fini les opérations de maintenance préventive déclenchées à partir de moyennes d’utilisation. Grâce au jumeau numérique, qui réplique l’état réel de l’équipement et l’analyse de sa montagne de données, place à la maintenance prévisionnelle. Une technologie rendue possible par l’apparition récente de l’internet industriel: la multiplication des capteurs et des plates-formes pour stocker les données. «Si un moteur
La centrale du Bugey (ain) dispose déjà d’un simulateur de conduite de réacteur.
Le parc nucléaire français voit double eDF compte créer d’ici à 2020 une première série de jumeaux numériques des réacteurs nucléaires qu’il exploite en France. l’idée est de faciliter leur maintenance et notamment la réalisation du grand carénage, le programme de travaux destiné à prolonger la durée de vie du parc nucléaire au-delà de quarante ans. les jumeaux permettront de suivre l’état réel des centrales et de le partager avec les sous-traitants de l’énergéticien. le coût, 1 million d’euros par jumeau numérique,
vice-président de l’unité commerciale systèmes de l’éditeur américain Ansys. Et jouer des scénarios de résolution des pannes avant de modifier les choses réellement et explorer les solutions possibles. » Les plates-formes d’internet industriel, comme ThingWorx de PTC et MindSphere de Siemens, regroupent les informations issues des différents logiciels du système d’information et celles récoltées sur le terrain. Elles permettent de faire de la simulation en opération. « Jusqu’à présent, la simulation était focalisée sur la conception. Ce virage est très récent », assure L’enJeu Éric Bantegnie. ◗ Passer d’une Le déploiement des jumeaux numériques devrait maintenance se généraliser d’ici à trois ans, estime le spécialiste prévisionnelle, dans laquelle les interventions d’Ansys. « Ils représentent un intérêt pour tous les sont déterminées selon industriels ayant des actifs en opération. En particulier des utilisations types ceux dont la durée de vie est longue et dont l’évolution des équipements, varie selon leur utilisation : machine de production, à une maintenance prédictive et plus ciblée, avion, train, exploitation pétrolière.» Pour un fabricant adaptée à chaque de pompes, le jumeau numérique est très pertinent. équipement et Les pompes peuvent être enfouies sous terre dans le à son usage spécifique. désert ou sous la glace. Elles ne vieillissent pas de la même manière selon l’installation. Le fabricant américain Flowserve est d’ailleurs l’un des premiers industriels à avoir signé un contrat fin 2016 avec Ansys et General Electric pour créer des jumeaux numériques de ses pompes. L’uSine nouveLLe i cAHieR N° 2 i 6 AVRil 2017
sera compris dans celui du grand carénage, évalué à 51 milliards d’euros sur la période 20122025, estime Pierre Béroux, le directeur de la transition numérique industrielle du groupe. les plus anciens réacteurs seront les premiers concernés. ils seront numérisés grâce à des scanners laser et à des photographies 3D. eDF n’a pas encore décidé s’il allait réaliser un jumeau numérique pour chacun des 58 réacteurs ou si un jumeau référent par famille de centrale était suffisant. ❚❚
Les jumeaux numériques ne se contentent pas d’optimiser les opérations de maintenance, ils en changent aussi le business model. Un industriel, en étant capable de prédire les pannes de son équipement, d’en trouver la cause et d’identifier la meilleure résolution possible, offre un nouveau service après-vente à son client. « Cela s’inscrit dans une tendance plus générale : les industriels vendent des heures de service plus que des produits », expliquent Laurent Germain, expert IoT chez l’éditeur américain PTC. Un modèle intéressant, mais qui soulève une question : à qui appartiennent les données qui constituent la nourriture du jumeau numérique et comment les échanger ? « Les utilisateurs d’un équipement sont propriétaires des données, tranche Hadrien Szigeti, analyste stratégique chez Dassault Systèmes. Mais il y a un vide juridique concernant leur transaction. Il n’y a pas de guide pratique pour savoir comment les échanger. » Pour le moment, les compagnies aériennes acceptent contractuellement de communiquer des données à Safran. « Ils y voient un intérêt car cela signifie une optimisation de leurs opérations de maintenance », estime Céline Briquet. Donc davantage de temps de vol. Mais les utilisateurs comme les compagnies aériennes pourraient à terme trouver un moyen de commercialiser ces données. La valeur d’un jumeau numérique est tout sauf virtuelle. ❚❚ 27
simulation
RecheRche
au cœur numérique des irt
Par aurélie BarBaux et thierry lucas
28
SystemX a conçu pour la SNcF un modèle d’optimisation des trajets combinant train et bus.
IRT SySTemX TRaceR leS RouTeS d’uNe mobIlITé mulTImodale ◗ création 31 octobre 2012 ◗ Projets en cours 21, dont 4 européens Terminés 4 ◗ Plates-formes et équipements 8 ◗ brevets 37 Publications 208 Transferts technologiques 30 ◗ collaborateurs 130, dont 34 doctorants ◗ Partenaires industriels 75 académiques 14 ◗ Financement PIa 130 millions d’euros
Le projet de recherche sur le transport multimodal MIC (Modélisation, interaction, communication), mené à l’IRT SystemX depuis cinq ans, a été clos en décembre. En se fondant sur des scénarios proposés par Alstom, Renault et la SNCF, l’IRT a développé des modèles numériques pour optimiser les correspondances train-bus, l’information voyageurs en cas d’incident et la mise en place d’un système d’autopartage. Des modèles qui serviront à d’autres projets d’optimisation, notamment pour les gares du Grand Paris et pour la ville du futur, pas si simple à créer. Car les modèles initiaux sont rares. « Les industriels ont surtout simulé l’infrastructure et les véhicules. Mais ces systèmes évoluent en fonction des passagers », rappelle Lionel Scrémin, le chef
GIl lEFAuCoNNIER ; D.R.
Avec huit instituts de recherche technologique (IRT), la France a enfin l’équivalent des instituts Fraunhofer allemands… en mieux. Créés entre 2012 et 2013 grâce au Programme des investissements d’avenir (PIA) et dotés de 940 millions d’euros sur dix ans, les IRT organisent une recherche mutualisée public-privé autour de huit thématiques : technologie numérique (IRT B<>Com), microbiologie et maladies infectieuses (IRT Bioaster), usine du futur (IRT Jules Verne), matériaux, métallurgie et procédés (IRT M2P), nanoélectronique (IRT Nanoelec), systèmes ferroviaires (IRT Railenium), aéronautique, espace et systèmes embarqués (IRT Saint-Exupéry) et ingénierie numérique des systèmes (IRT SystemX). Entreprises et laboratoires publics mutualisent des moyens humains et matériels pour mener à bien des projets de recherche collaboratifs dont ils partagent la propriété intellectuelle. Et cela fonctionne. En quatre ans, les IRT – qui fédèrent 459 partenaires industriels et 116 académiques, soit près de 1 000 personnes – ont déjà réalisé 104 transferts de technologie, déposé 206 brevets, initié 871 publications scientifiques, créé 61 platesformes technologiques et participé à 29 projets de recherche européens. Au cœur de ces projets, la simulation et le calcul tiennent une grande place : modélisation de nouveaux matériaux composites, du traitement des matériaux et des transports multimodaux, simulation thermique des composants électroniques, plates-formes numériques de validation des composants ferroviaires et de test de la sécurité de la 5G, méthodologie pour un bon usage des couplages multiphysiques en conception aéronautique, mutualisation des ressources de calcul haute performance… Plongée dans le cœur numérique des IRT.
simulation
l’IRT Jules Verne modélise la résistance des pales d’hydrolienne, notamment le vieillissement des composites dans l’eau de mer.
IRT JuleS VeRNe oPTImISeR leS comPoSITeS PouR leS éNeRgIeS maRINeS ◗ création 5 mars 2012 ◗ Projets en cours 53 Terminés 16 (dont 3 européens) ◗ Plates-formes et équipements 8 ◗ brevets 28 Publications 120 Transferts technologiques 15 ◗ collaborateurs 104 (dont 20 doctorants) ◗ Partenaires industriels 51 académiques 14 ◗ Financement PIa 115 millions d’euros
de projet transport multimodal mis à disposition de l’IRT par Alstom. Autre défi pour les chercheurs, le passage à l’échelle des modèles et l’obtention des données. Le scénario sur la planification et celui sur la communication aux usagers ont nécessité de mener deux phases d’enquête pour permettre à la SNCF d’ajouter le comportement des passagers à ses modèles de déplacement de train et créer un outil de visualisation pour les décideurs. C’est du côté de la mécanique des fluides et dans la supervision des aéroports que les chercheurs sont allés chercher des modèles pour optimiser les correspondances train-bus. Ils ont ensuite établi des principes de supervision multimodale et un tutoriel de planification. Enfin, pour le dimensionnement d’un service d’autopartage sur le campus technologique de Paris-Saclay, ils ont «récupéré des données de Nissan qui avait mis en place un système d’autopartage à Yokohama (Japon) entre 2013 et 2015 avec des Twizy. Nous avons pu prouver, après coup, avec les données réelles, que les approches d’optimisation peuvent apporter des gains», explique Lionel Scrémin. Le projet MIC, qui a rassemblé une quarantaine de personnes, a donné lieu à 26 publications par les chercheurs des autres laboratoires et organismes publics impliqués (Ifsttar, Inria, ENS Paris-Saclay, UTBM, Télécom SudParis, CEA…). Les résultats ont été capitalisés sur la plate-forme Most (Modelization&optimization smart territories). l’uSINe NouVelle I CAHIER N° 2 I 6 AVRIl 2017
Les composites sont des matériaux au comportement complexe, notamment quand on les met en présence d’eau de mer. C’est pour s’attaquer à ce problème, qui touche les éoliennes offshore et les hydroliennes, que l’IRT Jules Verne, axé sur la fabrication de structures (aéronautique, automobile, construction navale et énergies marines renouvelables), développe des modèles de simulation spécifiques. Comment garantir la tenue mécanique d’une pale soumise au milieu marin (éolienne) ou immergée (hydrolienne)? Quelle quantité d’eau de mer sera absorbée par le composite, avec quelles conséquences? Le matériau gonfle, sa masse augmente, ce qui n’est pas sans incidence pour des éoliennes de 160 mètres de diamètre… Les propriétés mécaniques sont affectées et des gonflements locaux peuvent même endommager les pales. «Nous développons ou adaptons des modèles de simulation du vieillissement du composite en présence d’eau de mer afin de prévoir l’endommagement par fatigue et les risques de rupture brusque de la pale», indique Tanguy Moro, le responsable de l’équipe simulation de l’IRT. Un premier projet, avec le laboratoire GeM de Nantes (Loire-Atlantique), le Centre technique des industries mécaniques (Cetim) et des industriels (DCNS, General Electric, STX), a permis de valider, en corrélation avec des essais, un modèle de simulation de la diffusion de l’eau à l’échelle de la microstructure du matériau. Un nouveau projet, poursuivi avec GE, le bureau d’études SC Méca et Bureau Veritas, vise à étendre la modélisation à une structure entière et à intégrer les nouveaux modèles dans un code de calcul commercial, Abaqus, utilisé par les industriels. Ces derniers pourront alors mieux prévoir la durée de vie des structures en mer, anticiper la maintenance et améliorer la conception des pales. L’IRT veut ensuite monter un projet collaboratif avec des éditeurs de logiciels pour transformer les codes développés en véritables produits commercialisables –cette démarche 29
simulation
est déjà lancée pour des modèles de simulation destinés à l’automobile. Par ailleurs, toujours dans les énergies marines, l’équipe simulation est intervenue pour simuler un procédé de fabrication de pale d’hydrolienne en une seule étape, par injection de résine dans une préforme contenant une structure complexe de fibres et de renforts. « Le but est de définir, au moyen du logiciel de simulation de Moldex3D, la meilleure stratégie d’injection (points d’injection, pression, température de la résine…)», précise Tanguy Moro. L’enjeu? Se limiter à un minimum d’essais de fabrication, quand chaque structure coûte entre 15 000 et 50 000 euros…
IRT NaNoelec la TRaque deS caloRIeS daNS leS comPoSaNTS élecTRoNIqueS 3d ◗ création 11 avril 2012 ◗ Projets en cours 29, dont 10 européens ◗ Plates-formes et équipements 5 ◗ brevets 98 logiciels 8 Publications 171
Transferts technologiques 18 Start-up 2
Nanoelec développe des outils permettant de visualiser la dissipation de chaleur d’un empilement de composants électroniques.
◗ collaborateurs 185 équivalents temps plein, dont 16 doctorants ◗ Financement PIa 160 millions d’euros
Gagner de la place, réduire la consommation d’énergie, accroître les performances… L’intégration 3D des composants électroniques a de nombreux avantages. Et au moins un inconvénient : ça chauffe ! Quand on empile des puces électroniques les unes sur les autres, la dissipation thermique peut devenir un point bloquant. Des logiciels de simulation thermique pour l’électronique existent sur le marché, mais avec l’intégration 3D, de nouveaux problèmes surgissent. C’est pourquoi le programme Intégration 3D de l’IRT Nanoelec développe des outils de simulation avec Mentor Graphics, l’éditeur de logiciels de conception électronique. «Nous travaillons en parallèle sur les technologies nécessaires pour faire de l’intégration 3D, des briques de circuits, et les outils de conception. Le but est d’avoir une solution prête quand un industriel veut franchir le pas », indique Pascal Vivet, spécialiste de la conception de circuits au CEA Leti, partenaire du programme auquel participent aussi le fabricant de semi-conducteurs STMicroelectronics et deux équipementiers, SET et EVG. Empiler des puces et les interconnecter verticalement se fait déjà pour certains composants de mémoire. Mais l’intégration 3D a des ambitions plus larges, puisqu’il s’agit de superposer des processeurs, des mémoires, des capteurs, des microsystèmes électromécaniques (Mems)…, dans le but de réduire leur consommation et d’améliorer leurs performances. Pour simuler la dissipation thermique de l’empilement, il faut prendre en compte ce qui se passe dans les circuits, mais aussi les effets créés par les interconnexions verticales, les « through silicon vias» (TSV) et le polymère de remplissage entre les puces. « L’intégration 3D demande une simulation multi-échelles, du nanomètre jusqu’au centimètre, l’échelle de la carte sur laquelle seront placés les composants », souligne Séverine Chéramy, la directrice du 30
programme au CEA Leti. Une nouvelle boîte à outils de simulation a été développée avec Mentor Graphics. Elle est utilisée pour explorer les technologies : ajouter des TSV, changer de matériau de remplissage, modifier l’emplacement des cœurs de processeurs, qui sont des points chauds… Corrélée avec des mesures sur des systèmes réalisés, la simulation permet de faire des choix, puis de qualifier la conception qui a été retenue. L’objectif final étant de fournir les conditions pour que le système fonctionne, avec un refroidissement adapté.
IRT RaIleNIum VeRS uN PRoToTyPage VIRTuel du FeRRoVIaIRe ◗ création 26 octobre 2012 ◗ Projets en cours 34, dont 6 européens Terminé 1 ◗ Plates-formes et équipements 3 ◗ brevets 5 Publications 107 Transferts technologiques 7 ◗ collaborateurs 40, dont 8 doctorants ◗ Partenaires industriels 20 académiques 9 ◗ Financement PIa 80 millions d’euros
Le train veut rattraper l’avion et l’automobile. En matière de conception et de validation numériques, l’industrie ferroviaire n’est pas au même niveau que les autres moyens de transport. C’est pour combler ce retard qu’est né le projet Cervifer (Certification virtuelle en ferroviaire), piloté par l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). Il vise à créer une plate-forme de simulation permettant de réduire de moitié le nombre de tests physiques et la durée de certification des composants ferroviaires. L’IRT Railenium, partenaire de Cervifer qui mobilise 14 partenaires, avec des industriels (SNCF, RATP, Vossloh, Alstom, ESI, Hutchinson, Vibratec) et plusieurs établissements de recherche (université de technologie de Compiègne…), s’est intéressé à l’interface entre le matériel roulant et l’infrastructure ferroviaire. «Il
D.R. ; RAIlENIuM
◗ Partenaires industriels 122 académiques 6
simulation
IRT SaINT-eXuPéRy uNe méThodologIe de coNcePTIoN mulTIdIScIPlINaIRe à gRaNde échelle ◗ création 21 mars 2013 ◗ Projets en cours 24 ◗ Plates-formes 11 équipements 40 (dont 15 moyens d’essais) ◗ brevets 6 Publications 63 Transferts technologiques 4 ◗ collaborateurs 110, dont 39 doctorants ◗ Partenaires industriels 81, dont 43 PME académiques 38 ◗ Financement PIa 145 millions d’euros
le projet de plate-forme de simulation de Railenium vise à réduire le nombre de tests et la durée de certification des composants ferroviaires.
existe des briques de simulation pour la conception des rails et des matériels, mais il manquait une vision ”système” », explique Adnane Boukamel, directeur du programme scientifique et de la formation pour Railenium. L’IRT s’est focalisé, via trois thèses de doctorants, sur la modélisation de phénomènes à l’interface entre le bogie et le rail. Avec l’Institut français des sciences et technologies des transports, de l’aménagement et des réseaux (Ifsttar), les chercheurs ont modélisé les efforts exercés au point de contact entre le véhicule et la voie pour déterminer la vitesse critique du véhicule (quand les oscillations de celui-ci risquent de provoquer le déraillement). À l’heure actuelle, les concepteurs sont conduits, par sécurité, à surestimer ce risque. Une autre thèse s’intéresse à l’usure et à la fatigue des matériaux au contact roue-rail, avec un modèle numérique capable de faire le lien entre l’évolution de la microstructure du matériau et son comportement macroscopique. Enfin, une troisième thèse a pour objectif de modéliser le bruit et les vibrations afin de réduire les nuisances du roulement. Ces outils, avec d’autres développés dans Cervifer, sont destinés à s’intégrer dans une plate-forme de simulation et de certification qui sera utilisée par les industriels du consortium. Railenium travaille sur d’autres projets, comme l’optimisation de la fabrication par forgeage des griffes de caténaire (la pièce de liaison entre deux câbles) et la réduction des coûts de maintenance en simulant la dégradation des pièces de suspension dans les bogies. L’IRT étudie aussi l’aérodynamique des trains de marchandises. Il veut remédier à un problème spécifique du fret, le risque d’envol des bâches de semi-remorques en transport multimodal, notamment grâce à un système de déflecteur pour maîtriser les efforts de pression subis par les bâches et réduire la consommation d’énergie de traction du convoi. Ce projet corrèle la simulation numérique, des essais en soufflerie et des essais à échelle 1 sur des trains commerciaux. l’uSINe NouVelle I CAHIER N° 2 I 6 AVRIl 2017
Comment concevoir plus vite un avion ? C’est à cette question que cherche à répondre le projet MDA-MDO (Multidisciplinary analysis-Multidisciplinary design optimization) de l’IRT Saint-Exupéry, qui est dédié à l’aéronautique, à l’espace et aux systèmes embarqués. Pour une fois, la réponse recherchée n’est pas technologique, mais méthodologique. « Le projet a pour objectif de développer une approche collaborative entre les partenaires du projet dans le champ de l’optimisation des processus de conception d’un avion en termes de méthodologie et d’interaction humaine. Nous voulons développer une capacité d’optimisation multidisciplinaire », rapporte Anne Gazaix, la responsable du projet, détachée d’Airbus. Elle s’explique : « Il s’agit de faire évoluer les processus traditionnellement construits comme un enchaînement de séquences monodisciplinaires vers des processus intégrés capables de gérer de manière simultanée différentes disciplines, comme l’aérodynamique, le calcul des charges, le dimensionnement structural, et de prendre en compte leurs interactions au sein même des boucles d’optimisation. Ceci afin de mieux anticiper les compromis entre ces disciplines. Pour tenir compte de ces interactions, nous avons besoin de méthodologies innovantes. » C’est le but de ce projet, qui a débuté en janvier 2015 et finira en novembre 2018. Il rassemble Airbus, le Cerfacs, Sogeti High Tech, Altran, l’Onera et l’Isae, avec une équipe d’une dizaine d’équivalents temps plein impliquant une vingtaine de personnes. Le scénario choisi concerne l’implantation sous la voilure des futurs moteurs à taux de dilution élevée. Pour concevoir ces méthodologies innovantes, le projet repose sur des méthodes agiles de type Scrum, sur la simulation haute fidélité de couplages multiphysiques et sur du calcul haute performance. « Nous nous appuyons sur la machine HPC du Cerfacs pour réaliser les modèles les plus coûteux », explique Anne Gazaix. Principal verrou à lever : le passage à l’échelle. « Ces méthodologies multidisciplinaires existent déjà, mais uniquement appliquées à des cas académiques ou à des problèmes avec un nombre restreint de variables et de contraintes. Dans notre cas, les problèmes à traiter sont de grande dimension et doivent intégrer les contraintes industrielles. » Le projet vise à définir des lignes directrices pour la création de processus de conception multidisciplinaire dans un contexte de grande dimension et à les intégrer dans une plate-forme logicielle associée. 31
simulation
IRT bIoaSTeR du calcul eT de la SImulaTIoN daNS TouS leS PRoJeTS
mais aussi GSK et Sanofi. Realism vise à lutter contre le sepsis, une infection dans laquelle la réponse inflammatoire de l’organisme entraîne des défaillances d’organes, mettant en jeu le pronostic vital. Près de 27 millions de personnes sont touchées chaque année.
◗ création 2012 ◗ Projets en cours 29 (dont 1 européen) Terminés 11 ◗ Plates-formes et équipements 7
IRT b<>com aSSuReR la SécuRITé deS RéSeauX 5g
◗ brevets 4 Publications 38 ◗ collaborateurs 117, dont 2 doctorants
◗ création Novembre 2012
◗ Partenaires industriels 20 académiques 10
◗ Projets en cours 15, dont 4 européens Terminés 6
◗ Financement PIa 180 millions d’euros
◗ Plates-formes et équipements 8
C’est peu dire que la recherche en santé produit des données numériques à foison, qu’il faut analyser pour construire des modèles, trouver des corrélations afin de découvrir de nouveaux biomarqueurs, prédire l’efficacité de vaccins, identifier des mécanismes d’action de nouveaux composés antimicrobiens… Pour traiter les données produites par ses sept platesformes technologiques, l’IRT Bioaster a dû déployer des stratégies mêlant calcul intensif et simulation numérique, en tenant compte de fortes contraintes de confidentialité. Confidentialité des projets, exigée par les membres. Mais surtout confidentialité et anonymisation des données personnelles de santé utilisées dans de nombreux projets. Plutôt que de se doter de ses propres moyens de calcul, Bioaster « a choisi d’établir un partenariat avec le centre de calcul du CNRS à Lyon-Villeurbanne, qui met à la disposition de ses programmes de recherche une architecture évolutive, flexible et unique en termes de puissance de calcul, de capacités de stockage de masse et de réseaux à haut débit », explique Alain Troesch, le directeur des technologies de l’IRT. Pour parfaire le stockage et l’analyse de ses données, Bioaster s’appuie sur le centre de calcul de l’Institut national de physique nucléaire et de physique des particules (CC-IN2P3, CNRS). Il a accès à un cloud Openstack pour le calcul et l’hébergement d’applications, à une ferme de calcul Univa pour le calcul intensif, à du stockage massif, à un système de gestion de bases de données de type Oracle et PostGreSQL et au transfert via un réseau dédié haut débit entre les institutions. Sans cela, difficile de faire aboutir un projet emblématique comme Realism (Reanimation low immune status markers). Ce projet de 8 millions d’euros rassemble, jusqu’à la fin 2018, 50 chercheurs issus des laboratoires de Bioaster, BioMérieux, l’ESPCI, les Hospices civils de Lyon,
◗ brevets 26 Publications 118 Transferts technologiques 40 ◗ collaborateurs 95, dont 27 doctorants ◗ Partenaires industriels 25 académiques 13
Pour traiter la profusion de données en santé, bioaster s’appuie sur le centre de calcul de l’IN2P3.
32
Nouvelle frontière des télécoms, la 5G fait tourner à plein régime les laboratoires de recherche. C’est le cas de l’IRT B<>Com. L’enjeu? Permettre dès 2018 de standardiser les infrastructures de la 5G, et dès 2020 les services et fonctions qu’elle permettra. Pas si simple car, outre la promesse d’une multiplication par 1000 du débit, «la 5G doit supporter des systèmes critiques, donc très sécurisés, mais aussi l’internet des objets massifs sur une infrastructure partagée, explique Michel Corriou, le directeur réseau et sécurité de B<>Com. Or ces enjeux sont contradictoires, notamment en termes de sécurité ». Ils posent de nouveaux problèmes, comme l’authentification de milliards d’objets connectés, qui ne peut plus se faire par une carte SIM, comme avec la 4G. Pour trouver des solutions, l’Europe finance un projet de recherche collaboratif de deux ans, 5G Ensure, piloté par le centre de recherche finlandais VTT, dont B<>Com est l’un des principaux partenaires, aux côtés de Nokia, de Thales et d’Orange. « L’objectif de 5G Ensure est d’identifier les enjeux de sécurité, les architectures possibles, les solutions (enablers) de sécurité, et surtout de les expérimenter», détaille Michel Corriou. Pour y parvenir, l’IRT a mis en place une plate-forme d’expérimentation (ou «test bed»). Elle simule une infrastructure cloud classique, avec tous ses équipements de calcul et de stockage virtualisé (Openstack), mais aussi d’interconnexion réseau (Wi-Fi, LTE, Sigfox, LoRa, NB IoT…) avec des fonctions réseau virtualisées reproduisant les spécificités physiques de la 5G (sa faible latence, notamment). Elle permet de faire des tests d’intégration de bout en bout, y compris avec les nouveaux formats radio pour la 5G ou NSA NR («non-standalone new radio»). Le cœur de la plate-forme est ouvert depuis août. Une dizaine de partenaires y testent leurs enablers de sécurité sur le réseau. Mais pas uniquement. «On l’utilise aussi pour expérimenter de nouvelles approches de développement en continu qui viennent de l’IT, comme le DevOps. Car l’un des enjeux de la 5G est de permettre de créer plus rapidement de nouveaux services, en quelques jours, voire quelques heures, au lieu de semaines ou de mois », souligne Michel Corriou. Une capacité qui intéresse énormément les équipementiers. D’un coût global de 7,5 millions d’euros, 5G Ensure sera clos fin 2017. Mais B<>Com participe déjà à deux autres programmes européens sur la 5G.
ADElINE MEllIEz / CC-IN2P3 / CNRS
◗ Financement PIa 80 millions d’euros
simulation
IRT m2P modélISeR le TRaITemeNT deS méTauX PouR PRéVoIR leuRS PRoPRIéTéS ◗ création 16 juin 2013 ◗ Projets en cours 15, dont 1 européen ◗ Plates-formes et équipements 11 ◗ brevets 2 Publications 46 Transferts technologiques 8 ◗ collaborateurs 54, dont 17 doctorants ◗ Partenaires industriels 65 académiques 12 ◗ Financement PIa 50 millions d’euros
Dans un monde métallurgique idéal, il suffirait à l’ingénieur de saisir sur un ordinateur les propriétés physiques de la pièce qu’il veut fabriquer pour obtenir la série de traitements que l’alliage utilisé doit subir. C’est dans ce sens que travaille le projet Traitements thermochimiques avancés (TTA) mené dans le cadre de l’IRT M2P (matériaux, métallurgie, procédés). Une suite de modèles de simulation a été développée. La modélisation de l’enrichissement en carbone ou en azote, par décomposition d’un gaz dans un four, qui permet d’améliorer la résistance mécanique, est la première étape. D’autres modèles permettent d’en déduire les nouvelles phases métallurgiques qui résultent du traitement, de calculer les contraintes rési-
duelles dans le matériau et la durée de vie en fatigue des pièces. «On sait faire le chemin inverse –partir des propriétés visées pour remonter aux traitements nécessaires–, mais seulement sur des éprouvettes de laboratoire», reconnaît Pascal Lamesle, responsable scientifique et technique à l’IRT M2P. Toutefois, les industriels du projet TTA, venus de l’automobile (PSA), de l’aéronautique (Safran, Ratier-Figeac, Airbus Helicopters) et de la métallurgie (Ascometal, ArcelorMittal), associés à des fabricants de fours et des fournisseurs de gaz industriels, vont déjà pouvoir tirer parti des simulations. Réduire le nombre d’essais sur des pièces fabriquées est un premier objectif. Mais la simulation est aussi un outil pour mieux comprendre les difficultés rencontrées avec certains aciers et pour définir de nouveaux traitements. Avant que les logiciels mis au point par M2P ne deviennent courants chez les industriels, il faudra assurer la communication entre les différents modèles. Et intégrer le tout dans des logiciels commerciaux, en collaboration avec des éditeurs. Mais ce n’est pas le seul obstacle à franchir. «Pour passer du laboratoire à des pièces industrielles, l’enjeu principal est de collecter les données qui doivent alimenter les modèles de simulation. Cela nécessitera des campagnes d’essais et de mesures », indique Pascal Lamesle. Sur des pièces complexes et de grande taille, l’optimisation des temps de calcul devra aussi être intégrée. ❚❚
Concevoir des produits intelligents n’a jamais été aussi facile Que vous conceviez des voitures ou des robots, ou tout autre système mécatronique, les temps de développement sont courts, les produits complexes et vous avez de multiples applications à considérer. Eliminez la complexité grâce aux solutions logicielles rapides, précises et flexibles d’Altair. HyperWorks vous propose des outils de simulation et d’optimisation multidomaines favorisant un travail d’équipe pluridisciplinaire pour comprendre plus rapidement et concevoir des produits et processus plus efficaces et plus intelligents prêts pour la prochaine révolution industrielle. En savoir plus sur altair.com/iot
l’uSINe NouVelle I CAHIER N° 2 I 6 AVRIl 2017
33
simulation
Construire une centrale nucléaire derrière chaque supercalculateur ? Impensable… Et pourtant ! Sur la ◗ 2 % seulement base des performances énergétiques de l’électricité consommée actuelles, il n’en faudrait pas moins par un supercalculateur pour alimenter un supercalculateur servent au calcul. atteignant la capacité de calcul miri◗ 3 gflop/W C’est fique d’un exaflops par seconde… Un l’efficacité (puissance de calcul rapportée à l’énergie milliard de milliards d’opérations, le dépensée) moyenne graal du calcul intensif! Une puissance des équipements actuels. qui ouvrirait de nouveaux horizons ◗ 30 % du coût global dans des domaines de simulation (achat et utilisation) ultra-complexes comme les échanges d’un supercalculateur sont consacrés à l’énergie. neuronaux dans le cerveau, la combustion, la recherche de molécules ◗ 22 millions d’euros pharmacologiques. À titre de compapar an, c’est la facture énergétique du chinois raison, l’ordinateur le plus puissant à Taihulight. l’heure actuelle, le chinois Taihulight, tourne à 93 petaflops par seconde. Il n’en consomme pas moins la bagatelle de 15 mégawatts (MW)… pour une facture énergétique de l’ordre de 22 millions d’euros par an! «Pour être réaliste un supercalculateur exaflopique ne devrait pas consommer plus de 20 MW. Par rapport aux performances moyennes des équipements actuels, son efficacité énergétique doit être multipliée par au moins 25 d’ici à 2022!», précise Michel Daydé, le délégué scientifique chargé des supercalculateurs au CNRS. Pour relever le défi, les constructeurs ne peuvent plus se contenter d’empiler les processeurs, qui représentent 70 % de la consommation de ces superordinateurs. «Ils ne peuvent plus s’appuyer sur la loi de Moore, qui a permis l’augmentation régulière et rapide de la fréquence des processeurs, car la consommation énergétique augmente proportionnellement au carré de la fréquence», explique Michel Daydé. Résultat: les constructeurs ont plafonné, depuis une dizaine d’années, la fréquence des processeurs entre 2 et 3 gigahertz, au profit d’une logique de multiplication des « cœurs» implantés sur chaque puce, de manière à effectuer davantage de tâches en parallèle sans grever la consommation. À présent, ces processeurs « multicœurs », dont Intel possède une part de marché ultra-dominante, se retrouvent en concurrence gouffre énergétique
Le supercalculateur Bull Sequana, dévoilé par Atos, entend conquérir l’exaflops grâce à une architecture tournée vers l’efficience énergétique. Son système de refroidissement à l’eau « chaude » repose sur des échangeurs ultrafins placés dans chaque serveur qui évacuent directement la chaleur du processeur, de la mémoire… L’eau, qui circule en boucle fermée, est ensuite refroidie « gratuitement »
avec les processeurs graphiques (GPU) de la société Nvidia. Tout droit venus de nos ordinateurs personnels, les GPU exécutent certaines opérations comme le calcul vectoriel de façon dix fois plus efficace que les processeurs de calcul (CPU). «La mode a même été d’annoncer que l’on allait vers des supercalculateurs entièrement équipés de GPU. Mais ceux-ci sont limités à des fréquences deux à trois fois moins importantes, ce qui pose des problèmes de latence pour l’accès aux données en mémoire. Le plus probable est que l’on reste sur des architectures hybrides où le CPU gère les
ÉNergIe
les supercalculateurs au régime sec Pour atteindre des performances exaflopiques, il faudra décupler l’efficacité énergétique à l’horizon 2022. Et aucun composant ne sera épargné. par Hugo leroux
34
par de grands échangeurs placés en extérieur, au contact de l’air ambiant. Ce type de refroidissement affiche une efficacité 30 % supérieure au refroidissement à air. La sobriété de Sequana passe également par l’intégration de processeurs multicœurs, par des accélérateurs graphiques (Nvidia ou Intel Xeon Phi) et des cartes mémoire ainsi que par des interconnexions optimisées.
simulation
communications avec le système et le GPU intervient comme accélérateur de façon plus ou moins massive, selon que l’application s’y prête ou non», tempère Jean-Pierre Panziera, directeur technique chez Atos. Pour les constructeurs, le défi consiste aussi à intégrer plus finement les composants entre eux de manière à réduire les temps morts dans les échanges de données. À travers le consortium OpenPower, IBM a ouvert depuis 2013 la propriété intellectuelle de ses serveurs Power pour permettre aux différents fabricants – dont Nvidia – et utilisateurs de collaborer sur les technologies. Les temps de transfert entre CPU et GPU devraient être divisés par trois sur sa nouvelle génération de serveurs Power 9, qui équipera notamment le supercalculateur pré-exaflopique (200 petaflops par seconde) livré au département de l’énergie américain (DOE) cette année. La technologie ARM pourrait également changer la donne grâce à son exceptionnelle sobriété. Hégémonique dans nos smartphones, où l’autonomie est clé, ce type d’architecture imbrique étroitement le CPU avec des unités vectorielles. Dans le cadre du projet européen Mont-Blanc, Atos doit présenter cette année un démonstrateur industriel de son supercalculateur Sequana équipé des processeurs ARM ThunderX2 de la société Cavium. Le géant Fujitsu mise également sur ARM pour livrer son supercalculateur exaflopique Post-K en 2020 à l’institut de recherche japonais Riken.
Atos ; D.R.
Le refroidissement, plus gourmand que le calcul
Au-delà des composants, la partie logicielle aura un grand rôle à jouer. «On peut gagner beaucoup au niveau de l’intelligence pour orchestrer les calculs, éviter que certains composants ne tournent à vide en attente d’informations et optimiser l’utilisation du hardware en fonction du type d’application », estime Laurent Vanel, spécialiste des infrastructures du calcul intensif chez IBM. Reste un dernier challenge : refroidir efficacement ces monstres d’électronique ! Le système Sequana d’Atos, dévoilé en 2016 par sa marque technologique Bull, mise sur un refroidissement à eau «chaude» très performant [lire l’encadré]. « Pour 1 watt de puissance de calcul, on consomme 1,03 watt électrique, souligne Jean-Pierre Panziera. C’est bien plus efficace que le refroidissement à l’air climatisé, où cette consommation peut monter à 1,5 watt!» Des stratégies annexes comme la localisation des équipements dans des environnements septentrionaux (Grand Nord) pour profiter de l’air froid gratuit ou la réutilisation de la chaleur pour chauffer des bâtiments adjacents peuvent aussi alléger le bilan énergétique. Signe d’un infléchissement, le classement Green 500, qui répertorie les 500 supercalculateurs les plus « vertueux » en matière énergétique, a enregistré pour la première fois en novembre 2016 une stagnation des consommations moyennes, alors que les performances continuent d’augmenter. Le numéro un Taihulight affiche une consommation inférieure à celle de son prédécesseur également chinois, Tianhe-2 (18 MW), tout en étant trois fois plus puissant ! Atos revendique pour sa part un Sequana dix fois plus frugal que ses prédécesseurs. Rendez-vous en 2022 pour voir si les feuilles de route industrielles auront bien pris le relais de la loi de Moore. ❚❚ L’uSINe NouveLLe I CAHIER N° 2 I 6 AVRIL 2017
Le datacenter d’Intel géré par Shesha Krishnapura est refroidi par l’air chaud des serveurs, mélangé à de l’air froid puis réutilisé.
un datacenter à l’efficacité énergétique parfaite Au siège d’Intel, à santa Clara (États-Unis), se trouve un datacenter un peu particulier. Utilisé, notamment, par Intel pour la conception de ses processeurs, il héberge un superordinateur classé 95e au monde en 2015. Mais c’est par son efficacité énergétique qu’il se démarque. shesha Krishnapura, le chief digital officer du département It d’Intel, n’est pas peu fier de le dire : son power usage effectiveness (PUE) est de 1,06. Cet indicateur est le ratio entre l’énergie totale consommée par le centre (climatisation incluse) et l’énergie absorbée par les systèmes informatiques eux-mêmes. Il est la pierre angulaire de la « green It », cette informatique qui se veut éco-responsable. Il est surtout un indicateur économique. Un PUE de 2 signifie une facture énergétique deux fois plus importante qu’un PUE idéal de 1. Pour des datacenters de taille importante, il est donc crucial de minimiser ces frais de refroidissement. Et cela commence dès la conception du centre. Intel a fait le choix de n’utiliser que des produits du commerce dans ses datacenters, qu’il s’agisse des racks, des serveurs ou de leurs composants.
Les racks étroits (de moins de 22 pouces) sont privilégiés pour atteindre la plus haute concentration possible de matériel. Le datacenter est divisé en allées froides (par lesquelles arrive l’air frais) et allées chaudes (où est expulsé l’air chaud des serveurs). Les températures y varient de 15 à 32 °C. L’air est acheminé depuis l’extérieur par des ventilateurs géants dont les pales font 2 mètres de longueur. Plutôt que d’être simplement extrait, l’air chaud est mélangé à de l’air froid et réutilisé. Autre source d’économie, l’eau utilisée pour refroidir cet air est tirée des eaux usées des bureaux situés près du datacenter. Ces mesures limitent fortement le recours à un refroidisseur. En 2014, il n’a tourné que 39 heures sur l’année entière. Jusqu’où l’efficacité énergétique peut-elle être poussée ? « Nous atteindrons un PUE de 1 d’ici à dix ans, affirme shesha Krishnapura. Nous menons des expériences en ce sens. » Il ajoute que le ratio pourrait même descendre en dessous de 1. Comment ? « En utilisant la chaleur générée par les serveurs pour chauffer les bureaux. » ❚❚ JuLIeN BergouNhouX
35
simulation
SucceSS Story
the Cosmo ComPany modélise les systèmes ComPlexes
Par Juliette raynal
t
he Cosmo Company ne compte qu’une dizaine de clients, mais pas n’importe lesquels. Veolia, SNCF, EDF, Total, Alstom, RTE et ERDF lui font déjà confiance. Fondée en 2010 par Michel Morvan, Éric Boix et Hugues de Bantel, la pépite lyonnaise a su prospérer grâce à son aptitude à modéliser et simuler des systèmes complexes. La start-up est née des recherches menées par Michel Morvan, ancien professeur à l’ENS et fondateur de l’institut rhônalpin des systèmes complexes. «Au sein de l’institut, Michel Morvan a mis au point un langage spécifique pour comprendre la propagation des pandémies. Il a constaté que ce langage de représentation pouvait être appliqué à de nombreux autres sujets, car la complexité est partout, notamment dans le développement urbain et les grands réseaux», raconte Hugues de Bantel.
un outil d’aide à la décision
L’expertise scientifique de The Cosmo Company permet de décrire mathématiquement les couplages dynamiques entre les différents sous-éléments d’un système et de les simuler dans le temps, jusqu’à vingt-cinq ou trente ans. «Nos logiciels visent à apporter de la clarté aux problématiques les plus complexes qui touchent l’industrie », fait valoir Hugues de Bantel. La promesse de la start-up ? Aider les dirigeants d’entreprise à prendre les bonnes décisions en s’appuyant sur la simulation. La PME a par exemple développé pour RTE, la filiale d’EDF chargée du réseau de transport d’électricité, le logiciel AIO (Asset investment optimization), avec pour objectif d’optimiser les investissements et les opérations de maintenance des infrastructures. Une activité qui représente un budget annuel de 850 millions d’euros chez le gestionnaire du réseau. Grâce à AIO, RTE peut prendre en compte différents actifs et les 36
Le logiciel AIo (Asset investment optimization) est dédié à la modélisation des différents actifs du réseau de transport d’électricité (rte) : pylônes, lignes à haute tension, transformateurs, mais aussi politique de ressources humaines. cette approche globale permet
d’optimiser les actions de maintenance en cassant les silos. une vraie plus-value pour les nombreux industriels qui arrivent à l’échéance où de nombreux composants de leurs infrastructures doivent être changés et où des arbitrages deviennent indispensables.
simuler pour détecter de possibles effets en cascade. «Notre approche systémique permet d’augmenter l’intuition des experts et de casser les silos au sein d’un groupe pour une prise de décisions optimales », assure Hugues de Bantel. Le point fort de l’entreprise est sa capacité à décliner son logiciel pour tous les opérateurs gérant des systèmes complexes (réseaux ferroviaires, gestion de l’eau, du gaz…).
Des ambitions mondiales
En 2017, la start-up espère doubler son chiffre d’affaires et avoisiner 7 millions d’euros de revenus, en mettant notamment l’accent sur l’international. Elle est entrée en discussion avec des acteurs comme National Grid, au Royaume-Uni, et Exelon et American Pacific, aux États-Unis. Pour accélérer son déploiement en dehors des frontières, la pépite mise sur un réseau d’intégrateurs, parmi lesquels IBM, EY et CGI Consulting. Son deuxième axe de développement repose sur la commercialisation sous licence d’autres logiciels, comme Fluid, qui permet de rendre résilient un réseau de production et de distribution d’eau et aide les compagnies d’eau à être plus réactives en cas de crise. Pour Alstom, la start-up a également mis au point une solution d’optimisation de la performance du système énergétique de trains urbains. «Près de 250 acteurs dans le monde peuvent être intéressés par cette solution», affirme Hugues de Bantel. À plus long terme, la start-up entend répondre aux besoins du monde de la finance. « L’idée serait d’avoir une sorte d’index de risque sur un certain nombre de modèles financiers existants», précise le spécialiste. D’ici là, The Cosmo Company nourrit l’ambition de devenir le leader mondial du management de la décision pour les systèmes complexes. Pour atteindre cet objectif, il pourrait finaliser une deuxième levée de fonds dans les prochains mois. ❚❚
D.R.
La start-up a développé un langage qui permet d’appréhender les systèmes complexes comme les réseaux ferroviaires et les réseaux électriques.
Le Campus Teratec
Le Très Grand Centre de calcul du CEA Infrastructure pour le calcul très haute performance, ouverte aux industriels avec le CCRT Centre de calcul Recherche et technologie. 1,4 Pflop/s de puissance de calcul sécurisée, au service de grands industriels mutualisant avec le CEA, coûts, compétences et prospective dans le domaine du HPC.
© CEA, EDF, Ineris, L’Oréal, Techspace Aero
Industriels. De grands groupes, PME et Start-up y développent des activités couvrant toute la chaîne de l’informatique de grande puissance depuis les composants et les systèmes jusqu’aux logiciels et aux applications. Laboratoires. Des laboratoires industriels de recherche
travaillent au développement et à la maîtrise des technologies nouvelles du calcul intensif et du BigData et sur leur mise en œuvre.
www-hpc.cea.fr
www.teratec.eu
HPCBIGDATA HPC BIGDATA BIGDATASIMULATION ASIMULATION ASIMULATION Le Pôle Européen
Contacts & Informations TERATEC • jean-pascal.jegu@teratec.fr • Tél. +33 (0)9 70 65 02 10
Campus Teratec • 2 rue de la Piquetterie - 91680 Bruyères-le-Châtel - France
37 CEA - TGCC - CCRT • christine.menache@cea.fr • Tél. +33 (0)1 69 26 62 56 TGCC • 2 rue de la Piquetterie - 91680 Bruyères-le-Châtel - France
Idaho natIonaL Laboratory ; Esa ; InstItut fraunhofEr ; Phay ho, ChrIs KnIght Et LInda young / argonnE natIonaL Laboratory ; gErman aErosPaCE CEntEr
simulation
Portfolio
tromPe-l’œil Les simulations qui donnent à voir l’infiniment petit, l’inaccessible et l’invisible sont parfois trompeuses, mais toujours étonnantes. Par aurélie BarBaux et Bernard Vidal
topographie de la vallée Ares Vallis, sur Mars.
38
simulation
Simulation à l’échelle atomique d’un réacteur nucléaire.
filtre à essence d’une voiture.
Effet d’un rayon X sur un cluster d’atomes d’argon.
flux d’air autour des ailes des très gros aéronefs. l’uSinE nouVEllE I CahIEr n° 2 I 6 aVrIL 2017
39
simulation
Visite virtuelle à l’intérieur d’un réacteur nucléaire.
Courants ascendants primaires d’une tornade.
40
nasa ; Idaho natIonaL Laboratory ; XsEdE ; InrIa / hIEPaCs ; PauL LEEson tayLor / Loughborough unIVErsIty ; JamstEC
Aérodynamisme d’un drone.
simulation
Propagation des ondes sismiques à travers la terre.
Structure de protéine.
Simulateur d’intervention pour l’industrie chimique.
Visualisation des traces d’exécution d’un logiciel de calcul intensif. l’uSinE nouVEllE I CahIEr n° 2 I 6 aVrIL 2017
41
siMulation
Outil
optiMiser l’iMpression 3D Les logiciels pallient l’imprévisibilité de la fabrication additive en anticipant les éventuelles déformations d’une pièce. par Marine protais
Netfabb prévoit les défaillances du support
En 2016, face au recours croissant à l’impression 3D en usine, Autodesk a intégré une fonction simulation à Net fabb. Un algorithme simule les phénomènes physiques qui interviennent durant la fabrication et montre leurs réper cussions sur les propriétés du matériau et sur la forme de la pièce. Le logiciel permet d’anticiper ses éventuelles déforma tions et les irrégularités de sa surface en tenant compte de la machine et du matériau utilisés. L’utilisateur peut ensuite adapter le design de sa pièce. Netfabb est également capable
« la simulation diminue le coût de l’impression 3D en évitant de passer par des dizaines d’itérations. » sylvain legrand, évangéliste manufacturing chez Autodesk France
42
le logiciel Netfabb intègre un algorithme simulant les propriétés physiques de la pièce à imprimer.
de prévoir les défaillances du support sur lequel est placée la pièce durant l’impression. L’avantage de Netfabb est qu’il englobe, en plus de la simu lation, deux autres fonctions nécessaires à la fabrication addi tive: la correction des fichiers de conception assistée par ordi nateur avant impression et l’optimisation topologique. «Ainsi, il n’y a pas de rupture numérique», précise Sylvain Legrand. Signalons toutefois que la fonction simulation n’est accessible que dans la version premium du logiciel, dont l’abonnement coûte près de 5000 euros par an. De plus, elle n’est pas très poussée. «Cette fonction de simulation ne va peutêtre pas aussi loin que dans celle que proposent les outils dédiés déjà sur le marché», estime Quentin Kiener. Comsol Multiphysics est l’un de ces outils. Il peut repré senter une alternative à Netfabb pour les simulateurs avertis. Car, s’il n’est pas spécifiquement conçu pour l’impression 3D, il peut être configuré pour. Il permet notamment de prendre en considération les transferts de chaleur qui s’opèrent durant la fabrication. « Ceuxci peuvent être à l’origine de contraintes résiduelles, qui peuvent fragiliser la pièce », explique JeanMarc Petit, le responsable commercial de Comsol. Les logiciels ont encore une marge de progression pour être à la fois précis et simples d’utilisation. Et ils devront s’adapter aux différents procédés de fabrication additive, qui n’ont pas fini d’évoluer. ❚❚
D.R.
l
impression 3D ne se cantonne plus au prototypage et gagne la production. Des barrières ralentissent cependant son industrialisation. Le coût, la vitesse de fabrication, les écarts entre la géométrie suppo sée d’une pièce et sa forme imprimée. La simulation aide à surmonter ces écueils. L’impression 3D doit s’en emparer. À la clé, avant tout, une réduction du coût et de la durée globale du procédé en évitant « de passer par des dizaines d’itérations », avance Sylvain Legrand, évangéliste manufacturing chez Autodesk, l’éditeur américain du logiciel dédié à l’impression 3D Netfabb. Le calcul est vite fait : il faut compter plusieurs heures pour une impression, contre quelques minutes pour une simulation. « La simu lation est précieuse pour l’impression de pièces en grande série. Elle permet de l’optimiser et de tester sa résistance mécanique avant son impression», explique Quentin Kiener, le dirigeant de 3D Prod, un spécialiste de l’impression de pièces en 3D.
27 juin 2017 Forum TERATEC
andidature c e tr o v z e s o p Dé vril 2017 ! avant le : 21 a
École Polytechnique 3 édition des Trophées e
RÉVÉLER ET RÉCOMPENSER LES CHAMPIONS DE LA SIMULATION NUMÉRIQUE, DU HPC ET DU BIG DATA
Vous avez un projet ou une démarche innovante à présenter ? Transmettez-nous vite votre dossier de candidature et confrontez-vous aux meilleurs de la simulation numérique ! Le palmarès sera dévoilé par L’Usine Digitale et ses partenaires lors d’une soirée au cœur du Forum TERATEC le 27 juin 2017 à L’École Polytechnique
Découvrez les catégories du Trophée : J Trophée Start-up
J Trophée Collaboration
J Trophée PME
J Grand Prix de la simulation
J Trophée Innovation
J Trophée de la personnalité de la Simulation
Devenez partenaire des Trophées, contactez Béatrice Allègre : Tél. : +33 (1) 77 92 93 62 • Email : ballegre@infopro-digital.com Co-organisé par :
43
Pour en savoir plus : http://evenements.infopro-digital.com/usine-digitale/trophees/ Demandez votre dossier de candidature à : trophee_simulation@infopro-digital.com
Data Analytics
Passez à la vitesse supérieure Médecine personnalisée, sécurité du territoire, prévention en temps réel de la fraude : pour relever les défis du 21ème siècle, bénéficiez des solutions d’intelligence artificielle et de la performance en analyse de données fournies par Atos Codex associé à l’exceptionnelle puissance des supercalculateurs Bull Sequana. Bull Sequana est équipé de processeurs Intel® Xeon®. Intel Inside® pour des performances démultipliées.
Intel, le logo Intel, Intel Inside, le logo Intel Inside, Xeon, Xeon Inside sont des marques déposées ou enregistrées d’Intel Corporation aux Etats-Unis et/ou dans d’autres pays.
Contactez un expert Atos sur bull.com/sequana
44
Trusted partner for your Digital Journey