Flash informatique 2009 - no 5

Page 1

éCOLE POLYTECHNIQUE FéDéRALE DE LAUSANNE

p/a EPFL - Domaine IT - CP 121 - CH 1015 Lausanne 15 - tél. +41 21 69 322 11 - Web: http://dit.epfl.ch

Parallélisme extrême sur le Blue Gene/L

Sommaire FI 5/2009

Jonas.Latt@epfl.ch, EPFL – Laboratoire d’ingénierie numérique

Introduction Depuis l’introduction du circuit intégré dans les années 1950, le marché de l’informatique suit une tendance caractérisée par l’augmentation exponentielle de la puissance de calcul au fil des années. Souvent citée sous le nom de loi de Moore d’après une constatation du cofondateur d’Intel Gordon E. Moore sur l’évolution de la microtechnique, cette tendance s’applique à des aspects variés de l’informatique tels que la vitesse d’exécution des processeurs ou encore la quantité de mémoire disponible dans les ordinateurs. La loi de Moore fait le bonheur des chercheurs dans le domaine du calcul numérique, car elle leur permet de fréquemment augmenter la rapidité de leurs simulations et la taille des problèmes simulés, permettant ainsi de nouvelles percées scientifiques. Depuis plusieurs années, ce bel optimisme dans le domaine du calcul numérique se trouve cependant freiné. Alors que la loi de Moore reste valable, elle ne s’exprime plus en termes d’augmentation de la performance brute des processeurs mais plutôt en termes d’augmentation du nombre d’unités de calcul dans des processeurs multi-cœurs. Cette nouvelle tendance entraîne deux changements importants pour le calcul scientifique. En premier lieu, le développement de programmes parallèles est devenu un besoin de base

et non plus un luxe destiné à pousser les performances aux limites du réalisable. Par exemple, la plupart des ordinateurs de bureau modernes possèdent des processeurs à deux ou quatre cœurs. Même pour l’exécution d’une simulation modeste sur un ordinateur personnel, un programme parallélisable est requis, sous peine de renoncer à la moitié voire aux trois quarts de la performance offerte par le processeur. Une deuxième conséquence est l’augmentation massive du nombre de cœurs disponibles dans des ordinateurs parallèles destinés au calcul scientifique. Alors que récemment encore, beaucoup de groupes de recherche effectuaient leurs calculs sur des grappes d’ordinateurs avec une centaine de processeurs environ, des machines consistantes de plusieurs milliers de cœurs sont en train de devenir monnaie courante. Ce phénomène est parfois désigné sous le nom de extreme-scale parallelism, qu’on traduirait par parallélisme extrême en français. Comme d’autres mots-clés à la mode, ce terme ne possède pas de signification précise, mais reflète plutôt un changement qualitatif ressenti dans la communauté, avec un impact sur la culture de programmation pour l’implantation de modèles numériques.

suite en page

3

1 Parallélisme extrême sur le Blue Gene/L Jonas Lätt 2 Des petits trous, des petits trous, toujours des petits trous Appoline Raposo 2 Il y a 20 ans dans le FI 7 Programme des cours 13 Parfaire une barre de planning Visio en 20 minutes chrono Jacqueline Frey 15 Forum IT du 7 mai 2009 Jacqueline Dousson 16 DIT-info

Prochaines parutions No

Délai de rédaction

Parution

6

04.06.09

23.06.09

SP

30.06.09

01.09.09

7

03.09.09

22.09.09

8

08.10.09

27.10.09

9

05.11.09

24.11.09

10

03.12.09

22.12.09

FI 5 – 26 mai 2009 – page 1


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.