Flash informatique 2013 - no 7

Page 1

7 FlashInformatique.epfl.ch

Le FI c'est FINI !

p/a EPFL - Domaine IT - Station 8 - CH 1015 Lausanne - tél. +41 21 69 322 11

pages 3, 37 et 38

Actualités DIT-info

2

Dernier numéro du FI J.-C. Berney

3

Forum IT d'automne

19

Du HP 2116 au BlueGene/P Musée Bolo

22

FlashiPhone F. Roulet

24

Coup d'oeil sur Cyclope F. Roulet

37

Disparition d'un compagnon de route A. Raposo de Barbosa

38

Qui a tué le FI ? J. Dousson

40

Analyse La méthode HERMES V. Rezzonico

9

Sauvegarde sur disque P. Beaud

12

Sauvegarde avec Atempo L. Kling

15

L'EPFL et les superordinateurs V. Keller & A. Raposo de Barbosa

20

Linux, IPv6 et la sécurité M. Ouwehand

23

Comment l’iPad a changé l’informatique L. Kling

26

MUlti-SYstem OPtimisation HES-SO Valais-Wallis

29

Comment faire ? Le courrier du lecteur

17

Installer Linux avec GRUB B. Barras

18

Algorithme de calcul d'une racine carrée B. Barras

32

Logiciel libre KrISS et Leed R Grolimund & I. Milhit

tout public public averti expert

4

3.12.2013


Actualités

DIT-info

Tristesse

Nouveau à la DIT-GE

Quelle tristesse, jeudi 14 novembre 2013, notre collègue Michel Mengis nous a quittés après une longue maladie, il n'avait que quarante ans. Après sa formation en Génie Civil, Michel a travaillé au laboratoire LEMA (Laboratory of Electromagnetics and Acoustics) avant de venir au DIT en 2004 pour prendre en mains le projet Poséidon. Pendant ces années il a fait preuve de créativité en prenant diverses initiatives, bien trop pour toutes les énumérer. Il a mis en place Poséidon, a sélectionné l'équipe et durant de longues années a assumé la gestion du projet. Michel a inventé les Journées Poséidon, devenues incontournables dans la vie académique des étudiants de l'EPFL. Dès le début il a développé divers outils pour faciliter l'installation des portables des étudiants. Le projet Poséidon n’aurait jamais pris une telle dimension sans ses constantes idées d’évolution. Michel a aussi travaillé avec d'autres groupes du DIT, comme le DIT-EX pour créer un client de restauration pour le système de sauvegarde central, ainsi qu'avec des laboratoires de l'EPFL, par exemple pour la création d'un environnement isolé et sécurisé destiné à faire passer des examens de mathématiques aux étudiants. Dans le cadre de l'adaptation à Octave du livre du professeur Quarteroni, il a aussi œuvré pour la promotion des logiciels libres dans l'enseignement à l'EPFL. Il a établi des contacts avec nos partenaires – universités et écoles, constructeurs et vendeurs, Framasoft. Passionné d'informatique, Michel ne comptait pas son temps pour faire profiter les autres de ses compétences. Il s’engageait toujours à fond dans ce qu’il faisait, c’était son caractère. Michel laisse un grand vide au DIT, et en particulier dans l'équipe Poséidon. Il restera en nous. Krassimir Todorov@epfl.ch, Domaine IT

Stéphane Recrosio est entré en fonction le 1er novembre 2013 au CSIN (Coordination des systèmes d’information). Au bénéfice d’un master in Computer Science & Economics et de nombreuses certifications, il a travaillé dans plusieurs grandes entreprises internationales et dans différents secteurs de l’industrie. Il a 14 ans d’expérience dans la gestion des services informatiques selon les bonnes pratiques ITIL. Il a également une solide expérience en gestion de projet. Il va prendre la responsabilité du projet d’implémentation des processus ITIL à l’EPFL. Cette implémentation a déjà commencé en s’appuyant sur des ressources internes et une entreprise de consultants externe. Son engagement va accélérer la mise en place des processus ITIL de base au DIT avant d’étendre son périmètre à d’autres secteurs du système d’information de l’EPFL. Nous lui souhaitons bienvenue et plein succès dans ce projet très stratégique pour l’EPFL.

Impressum Revue consacrée aux technologies de l’information, éditée par le Domaine IT de l’EPFL (DIT). Les articles n’engagent que leurs auteurs, sauf ceux qui concernent de façon évidente des prestations officielles (sous la responsabilité du DIT ou d’autres entités). Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs.

2 flash informatique

Jean-Claude.Berney@epfl.ch, Domaine IT

Communications Unifiées Comme nous vous l’annoncions en juillet dernier dans le FI 4, flashinformatique.epfl.ch/spip.php?article2656, le softphone Jabber est désomais disponible pour tous les membres de L’EPFL, via le formulaire de la page: je veux mon Jabber, uc.epfl.ch/je-veuxmon-jabber.

Rédacteur en chef a.i.: Appoline Raposo de Barbosa, fi@epfl.ch Mise en page & graphisme: Appoline Raposo de Barbosa Comité de rédaction: Jean-Daniel Bonjour, Sébastien Ferrara, Patrice Fumasoli, Florence Hagen, Laurent Kling, Michel Naguib, Julia Paolini, François Roulet, Christophe Salzmann & Predrag Vicei´c

Vito.deMarinis@epfl.ch, Domaine IT

Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse Web: flashinformatique.epfl.ch Adresse: Domaine IT EPFL Station 8, CH-1015 Lausanne Téléphone: +41 21 69 32246 & 32247 Abonnement au fi par e-mail à: fi-subscribe@listes.epfl.ch


Actualités

Dernier numéro du Flash informatique Jean-Claude.Berney@epfl.ch, EPFL - Directeur du Domaine IT

Chers lecteurs, La nouvelle stratégie IT de l’EPFL, à partir de laquelle a été conçu un nouveau projet de communication, a notamment pour mission d’améliorer la coopération entre les différentes cellules informatiques de l’École et de créer une gouvernance IT dont la focale est orientée vers les services fournis aux utilisateurs. Il est donc important de repenser le concept global du Flash informatique pour que les articles concordent avec cette nouvelle vision. Il est également important de tirer parti des différents moyens de communication à disposition aujourd’hui. Ainsi ce 295ème numéro du Flash informatique après 28 années de loyaux services, sera donc le dernier sous cette forme. Tous les articles en relation avec les services informatiques de l’École feront désormais partie d’une rubrique IT dans le Flash de l’École. Le but étant de couvrir l’actualité de l’ensemble des systèmes informatiques de l’École en fournissant des articles suffisamment vulgarisés pour un public relativement étendu. Dans le cadre d’une communication interne efficace, nous souhaiterions également renforcer notre visibilité sur internet par le biais d’un nouveau catalogue de services en ligne. Ce catalogue représentera la vitrine de l’informatique à l’EPFL et permettra un accès très facile et convivial à toutes les informations nécessaires pour les utilisateurs. Cela ira des descriptions de services très basiques jusqu’à des articles plus techniques qui pourront être retrouvés plus facilement et par là même toucheront une plus grande audience. Afin de donner à l’information IT plus de réactivité et de visibilité, un canal d’actualité va être mis en place. Son but sera de rendre aussi transparentes que possible l’évolution des projets IT, les communications relatives aux services IT, la sécurité et les directives officielles. Le canal d’actualité et le catalogue de services constitueront la colonne vertébrale du futur IS Portal, un portail dynamique, en constante évolution et doté d’une dimension communautaire grâce à une FAQ. Référencé dans la barre de navigation du site Web de l’EPFL, le IS Portal deviendra LA référence pour toutes les questions IT à l’EPFL. Rien ne remplace la communication directe au travers d’évènements qui rassemblent physiquement des personnes intéressées par un même sujet. C’est pourquoi, l’actuel Forum IT qui était principalement orienté sur les aspects d’infrastructure informatique du DIT va s’ouvrir à l’ensemble du système d’information (SI). Ce meeting s’adresse à tous les spécialistes IT (labos, instituts, facultés et services centraux) et le but sera d’y présenter les nouveaux projets IS et divers projets en cours. Nous espérons ainsi à travers toutes ces modifications apportées par la nouvelle vice-présidence pour les systèmes d’informations (VPSI), en collaboration avec le DIT et toutes les cellules informatiques, accompagner tous les publics de l’EPFL à travers les différentes étapes de ces changements structurels. Il y a toujours un peu de nostalgie à annoncer la fin d’une époque. Je profite de ce dernier numéro du Flash informatique (sous cette forme) pour remercier chaleureusement les lecteurs pour leur fidélité, les auteurs pour toutes leurs contributions, le comité de rédaction pour son excellent travail et son engagement au cours de toutes ces années et enfin, et plus particulièrement, Jacqueline Dousson et Appoline Raposo de Barbosa sans qui ce journal n’aurait jamais atteint 295 numéros ! Tous les articles du Flash informatique constituent une base historique extrêmement riche qui sera précieusement conservée comme référence. n

3 DÉCEMBRE 2013 - N° 7

3


Logiciel libre

Gérez vos flux librement grâce à KrISS et Leed Raphael.Grolimund@epfl.ch, EPFL, bibliothécaire & Igor.Milhit@hesge.ch, HEG Genève, filière Information documentaire, assistant d’enseignement en informatique documentaire

Google Reader closed, but it doesn’t mean that RSS is dead. This article presents two free online selfhosted solutions to get rid of commercial third-party dependency. Ce n’est pas parce que Google Reader a fermé que le RSS est mort. Cet article présente deux logiciels en ligne libres à héberger pour sortir de la dépendance vis-à-vis d’un prestataire commercial.

Fiche descriptive KrISS & Leed

Domaine ✦ Lecture et gestion de flux RSS

Licence KrISS

langue KrISS

version KrISS

✦ copyleft

✦ français- anglais

✦8

Licence Leed

langue Leed ✦ CC BY-NC-SA (?) ✦ français

version Leed ✦ 1.1

Autres alternatives libres ✦ Tiny Tiny RSS ✦ FreshRSS ✦ Selfoss ✦ miniflux ✦ Aeres

Alternatives non libres ✦ Feedly ✦ The Old Reader ✦ Digg Reader

Sites Web ✦ ✦

Projet et téléchargement pour KrISS: https://github.com/tontof/kriss_feed

Projet et téléchargement pour Leed: projet.idleman.fr/leed/

Plates-formes supportées ✦ Web

Google ferme un service Le 13 mars Google annonçait succinctement sur son blog [1] la fermeture de son agrégateur de flux RSS en ligne Google Reader. Relativement attentionné, le géant du Web rappelait qu’il est assez simple d’exporter une copie de ses données grâce à Google Takeout, afin de continuer à utiliser cette technologie RSS bien pratique pour se tenir informé, mais avec un autre outil. Les réac-

4 flash informatique

tions d’une partie des utilisateurs ont révélé, ou du moins rappelé: z qu’il y a un public, peut-être minoritaire, mais significatif, qui se sert de cette technologie; z que Google Reader répondait efficacement à une demande; z que la dépendance à un service Web proposé par un tiers peut poser problème. Pour comprendre ces trois points, il n’est pas inutile de rappeler le fonctionnement des flux RSS et les différents outils qui permettent de s’en servir.

Qu’est-ce que le RSS ? Le RSS est une technologie qui dispense l’utilisateur de visiter un site Web pour savoir s’il y a des nouveautés. L’information vient à l’utilisateur via la mise à jour du flux RSS. Grâce aux flux RSS, il est donc possible et assez facile de suivre l’actualité de plusieurs dizaines, voire centaines, de sites Web. L’acronyme RSS a tour à tour signifié RDF Site Summary, Rich Site Summary et Really Simple Syndication. Car plusieurs formats se sont succédé et côtoyés depuis l’invention initiale du RSS chez Netscape en 1999. Sans entrer dans les détails, il est intéressant de relever que le format RSS 1.0 est basé sur le langage RDF, alors que RSS 2.0 et ATOM sont des formats XML. Le RSS transmet donc des données structurées (contrairement à l’e-mail, par exemple), ce qui en facilite la réutilisation et le mélange avec des données provenant de sources différentes. Un podcast & est un flux RSS contenant un lien vers un fichier multimédia (son ou vidéo).

Les outils pour lire des flux RSS Il est possible de lire les flux RSS avec un client de messagerie (Outlook, Mail, etc.), un navigateur Web (Firefox, Internet Explorer, etc.) ou un agrégateur en ligne (Google Reader, Feedly, etc.) ou installé sur votre ordinateur (RSS Owl, Vienna, etc.). La lecture des flux dans Chrome nécessite une extension, car il n’embarque pas une feuille de style spécifique pour l’affichage des flux RSS (fonctionnalité présente dans tous les principaux navigateurs). Les agrégateurs se distinguent des autres outils par la richesse de leurs fonctionnalités de gestion (classement, tags, favoris, partage, etc.). La lecture de flux RSS n’est pas un problème. Les outils sont nombreux et variés. De plus, les lecteurs de flux lisent tous les formats de RSS existants. Mais Google Reader était le plus utilisé, car accessible de partout et offrait le plus large panel de fonctionnalités. Google Reader était tellement utilisé que presque toutes les applications de lecture de flux RSS sur smartphone proposaient un accès à ce service. À cela, il faut encore ajouter que Google archivait les flux, ce qui permettait d’avoir accès aux anciennes


Gérez vos flux librement grâce à KrISS et Leed

Archivage des flux

Google Reader

Feeldy

The Old Reader

Digg Reader

KrISS

Leed

(✓)

(✓)

Classement/tags

favoris

(✓) 2

partage

recherche

✘3

Import/export OPML

stabilité

~

pérennité

?

?

?

(✓)

(✓)

1

1

(✓) 1

classement, mais pas de tags pas de favori à proprement parler, mais fonction save for later 3 disponible dans la version pro uniquement 1 2

fig. 1 – tableau comparatif de Google Reader et quelques-uns de ses remplaçants potentiels (basé sur [2] et complété par les auteurs)

actualités d’un site Web. Même à celles disparues du site Web d’origine avant de s’abonner au flux RSS! Alors, quel outil choisir maintenant que Google Reader n’existe plus?

également intéressant, mais la compatibilité n’est pour l’instant garantie qu’avec Firefox et Chrome [5]. Il n’en reste pas moins que Framanews, le nouveau service de gestion de flux RSS hébergé par Framasoft, est basé sur Tiny Tiny RSS.

Les agrégateurs hébergés Google Reader-like: Feedly, Digg Reader...

KrISS

Les articles sur ce sujet ont fleuri, voire pullulé. Beaucoup d’entre eux proposaient des solutions qui n’étaient pas en ligne (pas d’accès de partout), incapables donc de remplacer Google Reader. Si aucune solution ne propose (encore) toutes les fonctionnalités de ce dernier (voir fig. 1), les développeurs de Feedly ont tout fait pour que la transition depuis Google Reader soit simple: il faut un login Google pour créer un compte et l’import des flux n’est possible que depuis Google Reader (via Google Takeout). C’est sans doute pour cela que le nombre d’utilisateurs Feedly serait passé de 4 à 7 millions dans les deux mois qui ont suivi l’annonce de Google [3]. Par contre, si vous n’aviez pas de compte Google, vous deviez en créer un et l’ajout des flux était fastidieux. Mais il y avait pire que les problèmes d’import: Feedly ne proposait pas d’export des flux ! Sous la pression des utilisateurs, Feedly a ajouté les fonctionnalités d’import et d’export des flux (sous la forme d’un fichier OPML, le standard en la matière) au cours de l’été 2013. S’il est certain que Feedly est un bon lecteur Web de flux RSS, qu’il dispose d’applications pour iOS et Android, qu’il permet de classer, taguer et sauver des articles pour une lecture ultérieure, d’autres outils comme Digg Reader ou The Old Reader offrent des fonctionnalités similaires. Il n’en demeure pas moins que tous ces outils ont le même problème de confidentialité et de pérennité que Google Reader. Alors, pourquoi ne pas s’attaquer à ces deux problèmes en hébergeant vous-même votre agrégateur de flux RSS?

Comme le dit son développeur, Christophe Moulin, alias Tontof, «KrISS feed is a simple and smart (or stupid) feed reader» [6]. KrISS est un agrégateur de flux libre sans base de données, développé en PHP et actuellement en version 8. La principale nouveauté de cette version est de proposer une interface en français (et non plus seulement en anglais). Une autre fonctionnalité nouvelle tout à fait intéressante est le fait que KrISS enregistre tous les jours un fichier OPML & d’export de vos flux RSS: vous disposez donc d’une sauvegarde récente de vos flux dans votre répertoire. Enfin, cette version a intégré la gestion de plug-ins, mais cette fonctionnalité n’est pas encore complètement implémentée et il est nécessaire de coder en php pour en ajouter d’autres.

Installation Pour installer KrISS, il faut un serveur PHP et c’est tout. L’installation de KrISS est très simple. Récupérez le fichier index. php depuis la page Github du projet: https://github.com/tontof/ kriss_feed (consulté le 7 novembre 2013) et chargez-la sur un serveur Web. Assurez-vous d’avoir les droits en écriture sur le répertoire dans lequel vous le placez. Ouvrez ensuite dans votre navigateur la page correspondant à ce fichier.

Les agrégateurs auto-hébergeables hébergés: KrISS et Leed

fig. 2 – page d’installation de KrISS

Pour héberger soi-même son agrégateur, il est nécessaire d’avoir accès à un serveur: il est également utile de posséder quelques connaissances informatiques (ou un-e ami-e qui les a). Il existe plusieurs options [4] parmi lesquelles Leed et KrISS que nous allons présenter dans la suite de cet article. Tiny Tiny RSS est

Choisissez un nom d’utilisateur et un mot de passe (fig. 2) et cliquez sur le bouton Installer KrISS feed. Si tout se passe bien, une page vous indique que votre lecteur de flux est bien configuré. Cliquez sur le bouton Continuer et connectez-vous. 3 DÉCEMBRE 2013 - N° 7

5


Gérez vos flux librement grâce à KrISS et Leed

Configuration Vous avez la possibilité d’ajouter des flux en masse en important un fichier OPML. Vous pouvez également ajouter des flux un à un par la suite (voir section Utilisation). La page de configuration est très complète. Dans la rubrique informations principales, vous pouvez notamment changer le titre de la page (affecte la balise <title>), choisir la visibilité de votre lecteur de flux (publique, protégée ou privée) et une url de Shaarli. Dans les préférences, vous pouvez configurer le nombre d’articles maximum par flux, quelques options d’affichage, et choisir le type et la fréquence des mises à jour. Il est en effet possible de choisir une mise à jour de flux au moyen de JavaScript, ce qui facilite grandement l’usage de KrISS dans le contexte d’un serveur sur lequel vous n’avez pas les droits d’administration. Mais la gestion de la mise à jour des flux au moyen d’un cron (tâche planifiée), comme c’est habituellement le cas, est également possible. Les préférences du menu principal et du menu de pagination permettent personnaliser le menu principal, ainsi que la navigation (fig. 3).

également en général indiqué). Le nombre total d’articles non lus est affiché au sommet de la liste. Au centre de la page sont affichés les articles du flux sélectionné avec en gras les articles non lus. Il est possible d’afficher uniquement les flux non lus, ce qui en facilite la lecture. Pour afficher le contenu d’un article, cliquez sur le bouton + tout à droite. KrISS considérera automatiquement cet article comme lu. En plus de pouvoir le lire, vous pouvez le partager (vous devez pour cela avoir configuré le lien de partage), le marquer comme non lu et le conserver. Cette dernière option permet de conserver des articles au-delà de la limite imposée par la limite d’articles conservés pour chaque flux. KrISS s’adapte à l’équipement (fig. 5) sur lequel vous le consultez (c’est ce qu’on appelle le responsive webdesign ou RWD &). Que vous soyez sur un smartphone, une tablette ou un ordinateur, la lecture est agréable grâce à un design adapté. Lors de la consultation d’articles sur un appareil doté d’un clavier physique, il est possible de naviguer entièrement au clavier, ce que permettait également Google Reader et est assez apprécié.

fig. 3 – menu principal et menu de pagination de KrISS

L’apparence de l’interface est gérée par un simple fichier CSS. Il est donc possible de l’adapter à vos goûts soit par vous-même, soit en téléchargeant un fichier user.css disponible sur https://github. com/tontof/kriss_feed/tree/master/style (consulté le 3 novembre 2013) et en le déposant dans le dossier inc créé lors de l’installation. Là encore, il faut que vous ayez les droits d’écriture sur le dossier inc. Un des styles proposés imite l’interface de Google Reader. De quoi avoir un environnement familier malgré le changement d’outil...

Utilisation

fig. 5 – interface de KrISS sur smartphone (à gauche) et tablette (à droite)

Limitations Si KrISS permet de conserver un article dans les favoris, il ne s’agit pas pour autant d’un archivage. Le jour où l’article sur le site Web où il a été publié n’est plus accessible, alors l’accès à cet article va fatalement disparaître. Il faut avoir en tête que pour l’auteur du logiciel, les fonctionnalités de favoris et d’archivages peuvent être remplies par d’autres logiciels, respectivement Shaarli & pour les favoris et, par exemple, Poche & pour l’archivage. Par ailleurs, KrISS est très rigoureux du point de vue de l’acceptation d’un flux lors de l’ajout et de la mise à jour. En effet, les flux qui ne sont pas valides ne sont pas pris en compte par KrISS. C’est certes louable de respecter scrupuleusement les standards Web, mais concrètement cela peut vous empêcher de suivre certaines sources. À l’usage, on est surpris de constater le nombre de sources sur le Web dont le flux n’est pas valide [7].

Leed

fig. 4 – interface de KrISS sur ordinateur

L’utilisation de KrISS est identique à celle de n’importe quel agrégateur de flux. Les flux auxquels vous êtes abonnés sont présentés sur la droite (fig. 4). Ceux-ci peuvent être regroupés dans des dossiers et le même flux peut être affiché dans des dossiers différents. Les flux en gras comportent des articles non lus (leur nombre est

6 flash informatique

Leed est également un agrégateur de flux écrit en PHP. Il est développé par Valentin Carruesco, alias Idleman et plusieurs contributeurs (projet.idleman.fr/leed/?page=Contact%20&%20Credits).

Installation Pour installer Leed, les prérequis sont un serveur Apache, PHP 5.3 et MySQL. Après avoir téléchargé Leed depuis projet.idleman.fr/ leed/?page=T%C3%A9l%C3%A9chargement, et décompressé le


Gérez vos flux librement grâce à KrISS et Leed fichier sur un serveur, il faut vous attribuer les droits en écriture sur le répertoire dans lequel sont les fichiers. Avant l’installation proprement dite de Leed, vous devez créer la base de données qui contiendra le contenu de vos flux.

Lorsque l’installation est terminée, la page présentée dans la figure 7 s’affiche. Elle contient notamment les informations nécessaires à la mise en place de la mise à jour automatisée des flux. Cette étape n’est pas obligatoire et vous pouvez vous en tenir à une mise à jour manuelle. Pour terminer l’installation et accéder à votre application, cliquez sur le lien ici en bas de la page.

Configuration Le panneau de configuration de Leed se trouve dans Gestion > Préférences. Vous y retrouvez une grande partie de la page d’installation vue précédemment. Vous pouvez entre autres personnaliser l’affichage des flux et des articles qu’ils contiennent (notamment l’affichage complet ou partiel de l’article). Sous Gestion > Bookmarklet, vous pouvez également ajouter un lien aux favoris de votre navigateur pour ajouter facilement un flux à Leed. La création des dossiers et l’ajout des flux un par un se fait sous Gestion > Gestion des flux. Si vous souhaitez ajouter des flux en masse, passez par Gestion > Import et choisissez un fichier OPML. Vous pouvez également ajouter des plug-ins à Leed. Vous les trouvez sur le Leed Market: https://github.com/ldleman/Leed-market/. C’est également dans le menu de gestion (Gestion > Shaarli) que vous pouvez indiquer à Leed l’URL de votre Shaarli pour y partager les articles que vous jugez intéressants.

Utilisation

fig. 6 – page d’installation de Leed

Ouvrez ensuite la page d’installation dans votre navigateur (fig. 6). L’url est du type votre.nomdedomaine.ch/repertoire/install.php. Suivez les instructions. Souvenez-vous d’indiquer le nom de la base de données MySQL que vous venez de créer dans le champ Nom de base MySQL. Ne vous souciez pas trop des options que vous choisissez. Vous pourrez les modifier après l’installation. Une fois la page d’installation remplie, cliquez sur le bouton Lancez l’installation. Il se peut que vous rencontriez un problème lors de l’installation, si les droits d’écriture n’ont pas été correctement attribués. Dans ce cas, modifiez les droits et relancez l’installation.

fig. 8 – interface de Leed sur ordinateur

fig. 7 – installation de Leed terminée

Leed (fig. 8) est très simple à utiliser. Si vous avez choisi un affichage complet des articles, il vous suffit de sélectionner un flux pour accéder au contenu des articles. Si vous avez choisi un affichage partiel, vous accédez à l’article complet (sur le site d’origine) en cliquant sur le titre. Pour ajouter un article à vos favoris, cliquez sur la petite étoile à côté à de la date de publication. Vous pourrez ainsi accéder rapidement à cet article par l’onglet Favoris. Notez que Leed aussi a un design responsive. Il s’adapte donc à tous les équipements (fig. 9). Enfin, une navigation au clavier est également possible.

3 DÉCEMBRE 2013 - N° 7

7


Gérez vos flux librement grâce à KrISS et Leed à la disparition d’un outil comme Google Reader. Et si c’est arrivé chez Google, dites-vous bien que cela arrivera ailleurs !

Références

Figure 9: Interface de Leed sur smartphone (à gauche) et tablette (à droite)

Limitations Si vous étiez habitués à taguer des articles dans Google Reader, c’est une fonctionnalité qui vous manquera dans Leed. Le partage des articles n’est possible qu’à l’aide de Shaarli, ce qui peut constituer une vraie limite selon les canaux de diffusion qui sont les vôtres.

Conclusion Mais alors, que choisir ? KrISS ou Leed ? Ces deux logiciels n’offrent pas exactement les mêmes fonctionnalités. Ainsi, si vous avez besoin de fonctions de partage, c’est KrISS qu’il vous faut, notamment parce que vous pouvez configurer d’autres services que Shaarli. Par contre, si vous avez besoin de fonctions de gestion de vos flux (classement, recherche), c’est Leed que vous choisirez. Le choix peut-être également déterminé par le type d’installation. KrISS est à cet égard particulièrement simple, notamment lorsqu’il est question de faire des sauvegardes de son logiciel ou de le mettre à jour. À l’inverse, le fait que Leed utilise une base de données MySQL rend le logiciel un peu plus robuste. Mais n’oubliez pas que KrISS et Leed ne sont pas les seuls agrégateurs de flux libres à héberger soi-même. Nous les avons choisis, car ce sont ceux qui nous paraissent les plus intéressants actuellement. Leur intérêt réside notamment dans le fait que ces logiciels se cantonnent aux fonctionnalités de base d’un agrégateur, en conformité avec la philosophie KISS &. Quel que soit votre choix, nous espérons que cet article vous aura permis de réaliser qu’il n’est pas très compliqué d’héberger soimême son agrégateur de flux. Et que cela élimine les risques liés

GLOSSAIRE

&

KISS (Keep It Simple and Stupid): principe d'ingénierie ayant pour objectif de développer des systèmes simples, robustes et utiles. OPML (Outline Processor Markup Language): un fichier OPML est un fichier XML décrivant une collection de flux RSS par leur titre et leur url. Il peut également décrire la façon dont les flux sont classés. Poche: logiciel libre équivalent à Pocket (Read it later) qui permet d'enregistrer

8 flash informatique

[1] HÖLZLE, Urs. A second spring of cleaning. Google: official blog [en ligne]. 13 mars 2013. [Consulté le 3 novembre 2013]. Disponible à l’adresse: googleblog.blogspot.fr/2013/03/a-second-spring-of-cleaning.html. [2] COURRIER, Serge. Fin de Google Reader ? Quelle alternative pour les professionnels v3.0. [en ligne]. 3 octobre 2013. [Consulté le 6 novembre 2013]. Disponible à l’adresse: www. slideshare.net/serge.courrier/fin-de-google-reader-quellealternative-pour-les-professionnels.

[3] POGUE, David. Google’s Aggregator Gives Way to an Heir. The New York Times [en ligne]. New York, 8 mai 2013. [Consulté le 9 août 2013]. Disponible à l’adresse: www.nytimes. com/2013/05/09/technology/personaltech/three-ways-feedly-outdoes-the-vanishing-google-reader.html.

[4] SAUVAGE, Sébastien. Arrêtez de pleurer Google Reader: Hébergez un lecteur RSS chez vous. Les trucs qui m’énervent [en ligne]. 15 mars 2013. [Consulté le 3 novembre 2013]. sebsauvage.net/rhaa/index. Disponible à l’adresse: php?2013/03/15/17/15/39-arretez-de-pleurer-google-reader-hebergez-un-lecteur-rss-chez-vous.

[5] LANG, Jean-Philippe. Compatible Browsers. Tiny Tiny RSS [en ligne]. 21 juillet 2013. [Consulté le 9 août 2013]. Disponible à l’adresse: tt-rss.org/redmine/projects/tt-rss/wiki/CompatibleBrowsers. [6] MOULIN, Christophe. tontof/kriss_feed. Github [en ligne]. 5 octobre 2013. [Consulté le 3 novembre 2013]. Disponible à l’adresse: https://github.com/tontof/kriss_feed. [7] MOULIN, Christophe. Votre avis nous intéresse - Tontof. Tontof [en ligne]. 27 avril 2013. [Consulté le 7 novembre 2013]. Disponible à l’adresse: tontof.net/?2013/04/27/13/44/27votre-avis-nous-interesse. Article du FI-EPFL 2013 sous licence CC BY-SA 3.0 / R. Grolimund & I. Milhit

un article trouvé sur le Web afin de le lire plus tard, ou hors-connexion. L'intérêt de Poche, c'est qu'il peut être auto-hébergé. Podcast: flux RSS embarquant un lien vers un fichier multimédia (il n'inclut pas le fichier multimédia!). Le fichier multimédia peut être un fichier son (podcast audio), un fichier vidéo (podcast vidéo) ou, plus rarement et beaucoup moins connu, un diaporama avec du son (podcast enrichi, fichier .m4a). RWD (Responsive webdesign): terme inventé par Ethan Marcotte pour décrire

le design d'un site Web qui s'adapte à tous les écrans sur lesquels il est affiché (smartphone, tablette, ordinateur, etc.). concrètement, les éléments de la page se réorganisent en fonction de la taille de l'écran pour toujours offrir une lisibilité maximale. Shaarli: logiciel libre offrant des fonctionnalités proches de Delicious ou Diigo, mais de manière minimale. Il est utilisé pour enregistrer des signets et pour les organiser à l'aide de tags. C'est également un logiciel à héberger soi-même, et qui ne nécessite pas de base de données.


Analyse

La méthode HERMES appliquée à l'achat des clusters de calcul Vittoria.Rezzonico@epfl.ch, EPFL -coordinatrice HPC

Methods and standards are not a necessary evil. When well applied and implemented, they allow an IT organization to - be more efficient - avoid repeating mistakes when executing recurring tasks - have an organization-wide standard, which can go beyond the scope of the single organization. HERMES is the project management method for IT, services, products and organization. HERMES is developed by the Swiss Government and freely available on its website, www.hermes.admin.ch. Les méthodes et les standards ne sont pas un mal nécessaire. Quand bien appliqués, ils permettent aux organisations IT d’ - être plus efficaces - éviter de répéter des erreurs quand les tâches sont récurrentes - avoir un standard interne mais qui peut aussi sortir du périmètre de l’organisation. HERMES est la méthode de gestion de projets pour l’informatique, les prestations, les produits et l’organisation. HERMES est développée par la Confédération et accessible sur son site internet, www.hermes. admin.ch.

Réalisation: le cluster est livré et testé. Déploiement: la machine est mise en service et ensuite ouverte aux utilisateurs. Cette phase se termine avec la clôture du projet et la dissolution de l’équipe de projet.

La vue des partenaires Utilisateur

Producteur

Exploitant

Dans HERMES, on attribue des rôles à un ou plusieurs partenaires du projet: utilisateur, producteur ou exploitant. Utilisateur: le client final du projet, Producteur: le fournisseur, Exploitant: celui qui s’occupe de l’intégration du système dans le paysage IT existant.

La vue hiérarchique Pilotage

Introduction à la méthode HERMES Conduite Selon HERMES, le projet peut être vu sous différents angles: vue temporelle, partenaires et hiérarchique.

Exécution

Vue temporelle ◆ Initialisation ◆ Conception ◆ Réalisation ◆ Déploiement ◆ Le déroulement du projet est séparé en phases, qui structurent le cycle de vie du projet. Les phases dans HERMES sont: Initialisation: cette phase démarre avec le mandat d’initialisation du projet, qui est le OK officiel pour le démarrage d’une étude, et se termine avec le mandat de projet. A ce point, les ressources nécessaires au projet sont établies assez clairement, avec bien sûr une marge d’incertitude. Conception: l’étude menée lors de la phase précédente est détaillée et, dans le cas d’achat d’un cluster de calcul, le dossier d’appel d’offres est rédigé. Cette phase inclut toute la procédure d’appel d’offres et se termine avec la signature du contrat avec le fournisseurs.

Les niveaux hiérarchiques règlent les responsabilités dans le projet. Les trois niveaux hiérarchiques sont: Pilotage: ce niveau est responsable des décisions de libération des phases ainsi que de la mise en service. Le mandant a droit de véto sur le projet. Dans le HPC à l’EPFL, ce niveau est représenté par le CoPil HPC (comité de pilotage HPC) et le mandant est son président. Conduite: comprend le chef de projet qui peut être appuyé par un comité spécialisé, et, pour les plus chanceux, de l’assistance au projet. Dans notre cas, on trouve à ce niveau la coordinatrice HPC en tant que cheffe de projet appuyée par le comité technique HPC Tech. Exécution: les spécialistes se trouvent à ce niveau, que cela soit le représentant des utilisateurs ou le responsable de l’exploitation par exemple. 3 DÉCEMBRE 2013 - N° 7

9


La méthode HERMES appliquée à l'achat des clusters de calcul

Les rôles

Les modules

En tant qu’humains, nous avons besoin de savoir quelles sont nos responsabilités. Hermes couvre cette partie à travers des rôles. A chaque tâche correspond un rôle responsable de la tâche, la production de chaque résultat est assurée par un groupe de rôles. Hermes définit les rôles d’une façon standard, qui sont assignés aux parties prenantes lors de l’initialisation. Les rôles minimaux pour un projet Hermes sont: le mandant: responsable de tout ce qui est pilotage, le chef de projet: responsable de la conduite du projet, le spécialiste: responsable de la mise en oeuvre. D’autres rôles sont utilisés si besoin. Dans le cas d’achat d’un cluster HPC, plusieurs spécialistes sont nommés: le responsable de l’exploitation: ce rôle est rempli par le responsable du groupe DIT-EX, Fabien Figueras, qui peut déléguer à un membre de son équipe, les testeurs: pour exécuter les benchmarks sur la machine, nous choisissons deux testeurs, un du côté de l’exploitant, l’autre du côté utilisateur. Ces testeurs sont chargés de lancer les benchmarks et fournir les résultats pour la rédaction du rapport des tests. Ce rapport est généré automatiquement, le responsable de la qualité: le rapport de tests est validé par le responsable de la qualité qui peut suggérer au mandant de bloquer le projet si les tests n’ont pas donné de résultats satisfaisants.

Les modules contiennent des tâches (par exemple conduire et contrôler les projet) desquelles découlent des résultats (qui sont des documents ou des états comme par exemple produit réalisé). Chaque scénario contient des modules. Le scénario Infrastructure IT comprend les modules suivants: z Pilotage du projet, z Conduite du projet, z Bases du projet, z Exploitation informatique, z Migration informatique, z Test. Comme lors de notre projet nous procédons à un appel d’offres public, il est nécessaire d’ajouter au scénario le module achat. De plus, dans notre cas, nous n’effectuons pas de migration, ce qui nous fait un module de moins. Le module achat n’est utilisé que lorsqu’a lieu une procédure d’appel d’offres public, c’est à dire à partir d’un montant de 230’000 CHF. Une fois choisis les modules nécessaires, la méthode nous propose, lors de chaque phase et dans chacun des modules, des tâches à exécuter. A chaque tâche correspond un rôle de responsable, et un ou plusieurs résultats. ◆ Initialisation ◆ Conception ◆ Réalisation ◆ Déploiement ◆

Scénarios HERMES Une nouveauté par rapport aux versions précédentes de HERMES, est l’existence de scénarios, qui aident le chef de projet dans la conduite en indiquant les modules nécessaires à son projet. Auparavant, le chef de projet voulant utiliser HERMES se trouvait face à une méthode qui couvrait tout type de projet, avec donc des rôles et résultats pas forcément nécessaires. Maintenant, le choix des documents à produire et des rôles à affecter est assisté par le choix de scénarios. Voici les scénarios standard dans HERMES 5: Système IT: développer et intégrer un logiciel, Système IT agile: système IT avec pilotage agile du développement, Système IT standard: acheter et intégrer un logiciel, Système IT existant: exécuter une mise à jour d’un logiciel existant, Infrastructure IT: développer une infrastructure IT sans modification des processus, Prestation/produit: réalisation d’une prestation ou d’un produit (organisation d’un évènement ou achat d’une solution Cloud) Prestation/produit agile: comme avant, mais avec pilotage agile du développement, Organisation: modifier une organisation. Il est possible de créer des scénarios individuels en ajoutant ou supprimant des modules, tâches ou résultats. Il est aussi possible de mettre ces nouveaux scénarios à disposition d’autres utilisateurs en les proposant pour validation. Pour notre cas d’achat de cluster de calcul, nous utilisons le scénario Infrastructure IT.

10 flash informatique

Pilotage du projet Conduite du projet Bases du projet

Achat

Exploitation informatique Test Les petits ◆ réprésentent les jalons de début et fin de phase. D’autres jalons sont par exemple la mise en service lors du déploiement. Il s’agit de décisions clés lors du déroulement du projet.

Acheter un cluster de calcul, avec HERMES Passons en revue les tâches principales, par phase. Lors de la phase d’initialisation, les bases du projet sont posées. Une étude préliminaire (besoins des utilisateurs, étude de marché, analyse de l’existant) est rédigée. Souvent, lors de l’achat de machines de calcul, des benchmarks sont tournés sur plusieurs architectures, afin de choisir une variante. Un budget préliminaire est établi sur la base de l’étude. La liste des acteurs dans le projet est rédigée. L’étude avec une proposition sommaire de configuration, une analyse des risques, le budget ainsi qu’un échéancier prélimi-


La méthode HERMES appliquée à l'achat des clusters de calcul naire sont rassemblés dans le mandat de projet qui est validé par le CoPil HPC. Le mandat de projet validé marque la fin de la phase d’initialisation. A ce point, toutes les parties prenantes savent à quel moment elles vont intervenir dans le projet. La phase de conception contient la procédure d’appel d’offres dans son entier et se termine avec la signature du contrat entre l’EPFL et le fournisseur de la solution HPC. La partie la plus importante est sans doute la rédaction du dossier d’appel d’offres, dans lequel se trouvent les spécifications minimales pour la machine ainsi que les critères d’adjudication. Le tout est extrêmement détaillé pour ne pas laisser place à des ambiguïtés. Dans cette phase, nous voyons aussi le début des modules exploitation et test. Dans le dossier d’appel d’offres, nous imposons aux vendeurs de nous fournir les résultats de plusieurs benchmarks. Leur description ainsi que la procédure de burn-in (mise sous charge de la machine pour éliminer les éventuels composants défectueux) sont élaborées dans le concept de test et intégrées dans le cahier des charges. Après la publication de l’appel d’offres, il faut attendre un délai légal avant de pouvoir recevoir des dossiers. Une fois les dossiers reçus, on procède à l’ouverture des offres et à leur évaluation. Comme les critères d’adjudication sont très précis (c’est un choix du CoPil HPC), ce travail est énormément facilité. Avant de passer au choix du vendeur, il est de bonne pratique de faire un round de négociations. Ensuite, le HPC Tech donne son préavis au CoPil HPC qui décide qui est le vendeur qui remporte l’appel d’offres. Le résultat est publié. Pendant le délai légal de 20 jours entre la publication et le contrat, nous rencontrons le vendeur pour peaufiner les derniers détails. Ensuite, le contrat est signé. Il ne faut pas négliger que pour des projets de certains montants, plusieurs signatures sont nécessaires pour la publication et le contrat. Il faut bien planifier et prendre les rendez-vous avec les ayants-droit. Dès le contrat signé, nous passons dans la phase de réalisation. Il est conseillé à ce point de recontacter les utilisateurs potentiels et les parties prenantes, déjà pour garder un bon contact avec les utilisateurs finaux tout au long du projet, ensuite, pour préparer le déploiement, par exemple en demandant la collaboration des utilisateurs à l’installation de logiciels spécifiques ou pour faire les derniers arrangements concernant les tests. Le matériel arrive, le fournisseur s’occupe de l’installer dans les racks et procède à l’installation de base. Ensuite, nous passons à l’acceptance de la machine: deux testeurs (un côté exploitation, l’autre côté utilisateurs) reproduisent les résultats des bench-

marks promis dans l’offre. Si les résultats ne sont pas satisfaisants, le projet est bloqué tant qu’une solution convenable n’est pas trouvée. Ce cap passé, on met sous stress toute l’infrastructure (acceptation). Si un composant lâche pendant cette phase, il est remplacé et le test repart de zéro. Une fois tous les tests passés, de la formation à la gestion de la machine ainsi que de la documentation nécessaire au manuel d’exploitation fournie aux administrateurs, a lieu la réception de la machine par l’EPFL. Le fournisseur est libéré et les clefs de la machine sont remises à l’EPFL. On passe à la phase de déploiement. Lors de la dernière phase, déploiement, les administrateurs du DIT intègrent la machine dans le paysage IT de l’EPFL (authentification LDAP, backup,...) et ils procèdent à l’installation des logiciels de base. La machine est ouverte à un groupe choisi d’utilisateurs pour identifier d’éventuels problèmes dans l’installation. Pendant cette période, ils peuvent profiter de faire tourner des calculs sur toute la machine. Les tests des utilisateurs terminés, la machine est officiellement en service. Le projet se termine avec sa clôture.

Qu’est-ce qui change? Par rapport au passé avant l’introduction de la méthode, le cadre est mieux fixé dès la phase d’initialisation. Les décisions sont formalisées et une fois les rôles et les tâches fixés, il ne faut que suivre le courant. Côté lourdeur, plus de documents sont produits, bien sûr. Mais ces documents sont ensuite récupérés lorsqu’il faut justifier l’achat à la direction, au CEPF ou au Contrôle des Finances, chose qui arrive, vu les montants en jeu. Ce n’est donc pas du temps perdu, bien au contraire, cela nous permet d’anticiper les demandes de la hiérarchie. En plus, la méthode HERMES nous force à penser à tous les aspects du projet, que ce soit la durabilité, les risques ou l’alignement sur la stratégie de l’Ecole. Et puisque HERMES est la méthode de gestion de projets de la Confédération, nous entrons dans un standard, le même que celui utilisé par d’autres institutions Suisses. n

GLOSSAIRE

&

Méthode agile: en informatique dénomme un groupe de pratiques qui impliquent au maximum le mandant en reposant sur des cycles de développement très courts.

le comité de rédaction vous souhaite de joyeuses fêtes de fin d'année 3 DÉCEMBRE 2013 - N° 7

11


Analyse

Configuration de stockage pour la sauvegarde sur disque Patrice.Beaud@epfl.ch, EPFL - Domaine IT, responsable du service de sauvegarde

In the context of a backup server, the configuration of a disk array storage must take into consideration both the essentially sequential nature of a given stream, as well as the concurrency of read and write streams. Dans le cadre d’utilisation pour un serveur de backup, la configuration d’une baie de disques doit tenir compte à la fois de la nature séquentielle d’un flux donné, mais aussi de la concurrence de flux en lecture et écriture.

Introduction Dans le cadre du renouvellement de l’infrastructure du service de backup du DIT, nous avons demandé des offres à différents constructeurs. Ces offres devaient comprendre un serveur et son stockage attaché. Le cahier des charges était simple: la baie de disques de stockage devait offrir au minimum 30 TB de volume utile et supporter des charges concurrentes d’écriture et de lecture dans un rapport proche de 50 % et pour un débit total d’au moins 600 MB/s, chaque flux étant de type séquentiel. Ce cahier des charges se base sur les spécificités du service de backup, à savoir qu’il fonctionne selon le principe du D2D2T (Disk to Disk to Tape). En d’autres termes, les sauvegardes se font ainsi: les disques des clients sur les disques des serveurs, puis les disques des serveurs sur des bandes magnétiques. Les disques des serveurs servent d’espace tampon à basse latence. La copie sur bande magnétique assure le stockage des données pour l’entièreté de la durée de rétention. Notons qu’en condition normale, les sauvegardes des clients, donc les opérations d’écriture sur les disques des serveurs, ont lieu durant la nuit, et les copies sur bandes magnétiques, donc les opérations de lecture sur ces mêmes disques se tiennent durant la journée. Cependant, il arrive que des sauvegardes débordent sur la journée ou que les copies sur bandes n’ont pas pu être terminées avant le démarrage des premières sauvegardes du soir. Nous nous trouvons alors dans un mode mixte d’écriture/lecture, pendant lequel les stockages disques doivent pouvoir balancer leur capacité entre écriture et lecture. Avec 300 MB/s de lecture, nous pouvons déplacer ~12 TB de données des disques vers les lecteurs en 12 h, pendant lesquelles autant de données pourraient être écrites par des sauvegardes concurrentes. Cela représente ~30% de la capacité de la baie dans la configuration retenue. En sachant que nous visons une rétention sur disque comprise entre cinq et sept jours, ces 12 TB de données représentent au moins une fois et demie le volume moyen d’une journée.

12 flash informatique

Matériel et Spécifications Le PowerVault MD3260 est doté de deux contrôleurs. Chaque contrôleur est doté d’un cache en miroir de 2 GB, protégé des coupures de tension par une batterie, assurant ainsi la sécurité des données et la haute disponibilité du stockage. Quatre ports SAS 6Gbps équipent chacun de ces contrôleurs. Le MD3260 est une baie compacte, où les disques sont disposés à l’horizontale par douzaine dans cinq tiroirs. Dans la configuration acquise, la baie comporte soixante disques SAS 10k de 900 GB brut. Ces soixante disques ne sont pas exploitables directement. Il est nécessaire de créer des conteneurs logiques, qui peuvent être soit des disk groups ou groupe RAID, soit des disk pools. À l’intérieur de ces conteneurs, il faut ensuite définir un ou plusieurs virtual disks. Ce sont ces derniers qui seront présentés aux hôtes, les serveurs, via le LUN masking. Les disk groups offrent une protection RAID classique avec les niveaux 0, 1, 5, 6 et 10. Le nombre maximum de disques pour les RAID 0, 1 et 10 est de 96, et de 30 pour les RAID 5 et 6. Quant au disk pool, il lui faut un minimum de onze disques pour être défini, mais pas de maximum, si ce n’est le nombre que la baie et ses extensions peuvent supporter physiquement. Dans un disk pool, les données et la redondance sont réparties sur l’ensemble des disques, avec un niveau de protection semblable à un RAID 6. Ses principaux avantages sont la simplicité de configuration et de maintenance, ainsi qu’une reconstruction bien plus rapide qu’en RAID 6, en particulier pour les disques SATA de 3 TB. Les données sont lues ou écrites par stripe, ou bande. Une bande est constituée de segments. Le segment est l’unité minimale avec laquelle le disque virtuel travaille et cette opération se fait sur un disque. Les disques virtuels définis dans un disk group peuvent être configurés avec une taille segment variant de 8 kB à 512 kB, alors que ce segment est de taille fixe de128 kB, dans le cas d’un disque virtuel créé dans un disk pool. La taille de la bande, ou stripe width, est le nombre de segments, donc de disques. Dans le cas des disk groups, cette taille correspond au nombre de disques du groupe RAID. En revanche dans le cas du disk pool, elle est fixée à onze. Il s’ensuit que pour n disques de la bande, l’OS doit fournir n fois la taille de la bande.

Outils et conditions de tests Le serveur est configuré avec deux processeurs Intel Xeon E52650 et de 64 MB de RAM. La connexion au stockage est réalisée par deux cartes PCI-E SAS 6 Gbps, sans contrôleur de stockage. Dell ne propose pas d’outil de multipathing propriétaire, mais utilise les outils natifs des OS, en modifiant les paramètres idoines, lors l’installation de leur logiciel sur le serveur.


Configuration de stockage pour la sauvegarde sur disque

Configuration du stockage et premiers tests

écriture

lecture

900 800 700 600 débit [MB/s]

L’OS installé est RHEL 6. Les LUNs présentés par le MD3260 sont assemblés en RAID 0 par le RAID software du noyau Linux. Les résultats présentés plus loin sont issus de données récoltées par la commande iostat -m -x 1, pendant qu’une ou plusieurs commandes dd réalisent des écritures ou des lectures. Le lancement des commandes dd se fait par un script shell. Rien de très sophistiqué, c’est fait au plus simple. De plus, dd a le mérite d’être assez rudimentaire, avec relativement peu d’options, et d’offrir un comportement séquentiel, proche donc de l’application.

500 400 300 200 100 0

0

50

100

150

200

250 Temps [s]

300

350

400

450

fig. 1 – données de débit lecture/écriture d’une séquence de tests dd sur un disque virtuel sur un groupe RAID 5 en 6 + 1, avec un segment de 128 kB

Après quelques tests avec des disk pools, il s’est vite avéré qu’ils ne pouvaient pas répondre au cahier des charges. En effet, dès qu’un flux en écriture survenait, le ou les flux en lecture s’écroulait. Comme ce mode n’offre pas d’options de configuration, nous n’avons donc abandonné ce mode que pour revenir aux traditionnels groupes RAID. Nous avons opté pour des disk groups protégés en RAID 5, qui offrent de meilleures performances en écriture séquentielle que le RAID 6. Nous avons fait des tests avec des groupes de 6+1 et 8+1. Ce choix est basé sur les discussions avec les ingénieurs Dell. Il est entre autres dépendant de compromis entre le nombre de disques virtuels, qui devront être assemblés au niveau OS, et la taille du groupe (plus gros implique un temps de reconstruction plus long). Avec soixante disques, nous avons donc: z 6+1: 7 disques par groupe, ce qui fait 8 disques virtuels et 4 disques de hotspare. z 8+1: 9 disques par groupe, donc 6 disques virtuels et toujours 4 disques de hotspare.

plus de latence – les têtes de lecture de tous les disques impliqués ne vont pas se positionner simultanément sur le bon secteur–.

Résultats La figure 1 montre un exemple de la sortie de la commande iostat pour une série de tests d’écriture et de lecture. La séquence montrée est un flux d’écriture, puis un flux de lecture, enfin un flux de lecture et d’écriture en simultanée. Nous pouvons constater que dans cet exemple, le débit du flux en lecture s’écroule avec la présence d’un flux d’écriture (voire entre 300 et 350 secondes). Le taux des requêtes de cette même séquence est affiché dans la figure 2. Le test d’écriture pure et de lecture pure montre la pénalité d’écriture introduite par la protection RAID (suite au calcul de parité, la vérification des écritures nécessite des opérations de lectures supplémentaires). Le rapport entre les taux pour l’écriture et la lecture est d’environ 1:3.5. Cela est inférieur à la pénalité théorique de 1:4. Cette différence provient sans doute des effets combinés du cache et du circuit dédié au calcul de parité sur les contrôleurs. Le graphique montre aussi que, pendant le test d’écri-

taux de requêtes [–/s]

Nous avons pris garde à obtenir un nombre pair de disques virtuels, afin de répartir de façon uniforme les entrées/sorties sur les deux contrôleurs en assignant ces disques virtuels en même nombre aux deux contrôécriture lecture 7000 leurs. Les tests n’ont pas montré de très grosses 6000 différences entre ces deux configurations. En d’autres termes les contrôleurs arrivent 5000 à gérer ces deux configurations sans souffrir dans l’une plus que dans l’autre. Au 4000 final, nous avons opté pour la configuration en 6+1, qui limite doublement les sou3000 cis inhérents au RAID 5 –la perte d’un se2000 cond disque lorsque le premier n’a pas été reconstruit est fatale pour le RAID 5 –. En 1000 effet, nous limitons le temps de reconstruction, mais aussi la taille du volume, donc 0 0 50 100 150 200 250 300 350 400 l’occurrence d’une erreur non décelable. De Temps [s] plus, un groupe de disques comportant plus fig. 2 – données du taux de requêtes au niveau OS pour la même séquence que dans la figure 1 de membres présenterait théoriquement

3 DÉCEMBRE 2013 - N° 7

450

13


Configuration de stockage pour la sauvegarde sur disque Les données présentées sont calculées à partir des médianes des mesures iostat pour deux flux en lecture et huit flux en écriture. Les tests ont été réalisés sur un 50% assemblage en RAID 0 logiciel (MD RAID de Linux) de deux disques virtuels (une 40% paire pour chaque taille de segment). Nous constatons un effet très sensible 30% de la taille des segments. Plus cette taille est grande, plus le débit de lecture aug20% mente. Cela est aussi le cas dans la répartition des taux de requêtes: dans la 10% figure 4, nous voyons une répartition des taux de requêtes presque identiques pour 0% les lectures et les écritures. 32 64 128 256 512 1024 Nous avons aussi observé que le débit de Taille des segments des disques virtuels [kB] lecture ou le taux de requêtes de lecture fig. 3 – variation de rapport du débit de lecture sur le débit total en fonction de la taille du segment des disques virtuels, lors d’écritures et lectures concurrentes n’est que très peu dépendant du nombre de flux, que ce soit en lecture ou en écriture. En d’autres termes, la multiplication des flux de lecture ne va ture/lecture simultanée, l’écriture consomme l’essentiel des capapas augmenter le débit de lecture, mais le partager entre les flux. cités d’entrée/sortie de la baie: pour une requête d’écriture de l’OS, La taille du segment du disque virtuel influence la répartition des la baie doit faire plus d’opérations de lecture, diminuant d’autant ressources entre les opérations de lecture et d’écriture. les ressources pour les requêtes de lecture. Compte tenu de ce que nous pouvons observer ci-dessus, nous Conclusion pouvons déjà conclure que dans cet état, le service de backup ne pourrait pas être assuré: les écritures des secondes copies sur La configuration d’un stockage disque dépend fortement de l’apbandes magnétiques et les opérations de restauration des clients plication qui va l’utiliser. Dans le cas d’une application de bacseraient pratiquement impossibles en cas de sauvegardes simulkup, nous avons des flux qui, pris un à un, sont généralement tanées (écriture sur les disques), vu le débit de lecture si faible. séquentiels. Dans notre cas de figure, le service de backup du DIT, Notons tout de même que nous avons déjà un total des débits il faut donc garantir un taux de lecture suffisant sur le stockage écriture et lecture proche des 600 MB/s demandé par le cahier disque. En présence d’écritures, il faut limiter les pertes de débits des charges, avec un disque virtuel. Il faut si possible trouver une de lecture, afin de pouvoir poursuivre la copie sur les bandes maconfiguration modifiant la répartition des opérations de lecture gnétiques dans des conditions suffisamment bonnes. Il est crucial et d’écriture. que les données soient rapidement proécriture lecture 4500 tégées sur les bandes magnétiques, pour pouvoir purger ces données des disques 4000 des serveurs et ne pas bloquer les futures 3500 sauvegardes des clients. Nous avons donc cherché les conditions 3000 optimales dans ce sens. Nous avons 2500 constaté que la taille de segment des disques virtuels montre une influence 2000 notoire sur la répartition des taux de 1500 requête d’écriture et de lecture. En aug1000 mentant cette taille, la part réservée aux lectures augmente. Nous avons pu 500 obtenir le rapport souhaité entre écriture 0 et lecture avec des groupes RAID de six 1250 1350 1450 1550 1650 1750 1850 1950 Temps [s] disques de données et une taille de segment de 512 kB. n fig. 4 – taux de requêtes de lecture et d’écriture avec une taille de segment de 512 kB Taille des segments du MD RAID Linux [kB]

384

taux de requêtes [–/s]

% débit de lecture

192 60%

14 flash informatique

768

1536

3072

6144


Analyse

Sauvegarde virtuelle avec Atempo Laurent.Kling@epfl.ch, EPFL -STI, coordinateur informatique à la Faculté des Sciences et Techniques de l’Ingénieur

How to take out assurance about virtual computer. Comment être sûrs des backups quand les machines deviennent virtuelles. L’utilisation des machines virtuelles peut entraîner cette illusion: ces environnements sont immatériels, détacher des contraintes matérielles. En réalité, c’est le contraire, car un serveur de virtualisation est capable de fournir un service très élaboré pour un grand nombre de serveurs interconnectés. La sauvegarde des informations est cruciale, elle dépasse la logique du contenant pour s’intéresser au contenu accompagné par les interrelations entre les composants. La sauvegarde classique suit ce schéma: ordinateur → serveur de backup → bandes Avec les machines virtuelles (VM, Virtual Machine), on possède un container logique, est-il possible d’imaginer une logique différente ? Au premier abord, le backup de la machine virtuelle complète semble être la solution la plus adéquate. On sauvegarde un contenu complet, mais rapidement on se retrouve devant deux écueils: z la taille de la machine, de 8 à 200 Go z comment copier une machine en fonctionnement ?

cessifs offrira la capacité de sauvegarder uniquement les valeurs modifiées. En cas de désastre, la reconstruction de l’image doit passer par chacune de ces étapes successives. Naturellement la première sauvegarde doit être complète pour pouvoir ensuite calculer la différence avec les états suivants. Cette technologie existe également directement intégrée dans le système d’exploitation Microsoft Windows. La seule limitation avec cette méthode est dans le cas d’une machine virtuelle possédant elle même des états successifs (une différence de différence devient difficile à définir). La seule possibilité restante est la sauvegarde de la machine complète incluant elle-même ses propres snapshot issues de la virtualisation. Les volumes nécessaires et leurs vitesses d’accès deviennent cruciaux pour la sauvegarde. Il est probable qu’une sauvegarde sur bande ne puisse répondre aux besoins de débit. Dans un premier temps, on serait tenté d’oublier un système de backup et de simplement sauvegarder ces instantanés sur un espace de fichiers NAS. Cependant un logiciel de backup offre des possibilités supplémentaires avec la capacité de sauvegarder les quatre types de données: les fichiers, les bases de données, le disque et finalement la machine virtuelle dans son intégralité. Une solution élégante est de combiner les deux solutions: prendre un serveur de stockage bon marché possédant une grande capacité de stockage, 14.6 To utiles et ajouter un logiciel de backup.

Une sauvegarde virtuelle avec Atempo App

App

App

App

Gestion du cluster

OS invité

OS invité

OS invité

OS invité

Console de service

Hyperviseur de type 1

Architecture x86

CPU

R ésea u

Mémoire

VM

Snapshot

App

App

OS invité

OS invité

Disque

Sauvegarde

sauvegarde avec snapshot de VM

Ces deux obstacles sont résolus par une seule technologie, le snapshot. Cette technique consiste à prendre un instantané. Si on combine plusieurs instantanés, la différence entre deux états suc-

Je vous propose de lire l’article de Stéphane Ecuyer dans le FI5/08, flashinformatique.epfl.ch/spip.php?article1420 qui décrit dans le détail la configuration et la gestion d’Atempo, mon propos est uniquement l’apport de la sauvegarde d’un environnement virtuel complet. Atempo offre tous les composants nécessaires à cette réalisation: z un logiciel complet de sauvegarde, z des composants complémentaires permettant de s’interfacer avec tous les types nécessaires, z la capacité de créer des lecteurs de bandes virtuelles (VTL, Virtual Tape Library) dans un espace de stockage classique. Cerise sur le gâteau, l’EPFL dispose d’une licence site pour ce logiciel. Au premier abord, il paraît saugrenu de vouloir recréer des bandes dans un espace de fichiers de type NAS. Avec des fichiers, on doit mettre en place un mécanisme qui permette de réaliser la rotation de données, il doit être suffisamment robuste pour s’accommoder de changement de volumétrique. Le lecteur de bandes virtuelles VTL crée un espace apparemment très simple en utilisant 50 % de l’espace disponible divisé en 7500 fichiers de 10 Go. Chacun de ses fichiers est en réalité une métaphore d’une bande magnétique, chaque bande virtuelle peut être allouée, utilisée et recyclée. Ces opérations paraissent très 3 DÉCEMBRE 2013 - N° 7

15


Sauvegarde virtuelle avec Atempo

Atempo, serveur de sauvegarde avec lecteur de bandes virtuel

simples, en réalité la gestion de stock de bandes peut rapidement devenir un cauchemar. Dans un environnement réel, le robot de backup ne peut contenir toutes les bandes, on doit les charger et les décharger régulièrement. En virtuel avec un lecteur VTL, ces contraintes disparaissent uniquement vers un processus logique: 1 définir la qualité de service, la rétention maximum en jours, 2 créer une sélection, 3 définir la sauvegarde et exécuter le processus régulièrement.

Le logiciel de sauvegarde prend tout son intérêt quand la volumétrie, le nombre de machines virtuelles à sauvegarder se modifie. Avec une organisation de type NAS classique, il faudrait s’assurer que notre schéma d’organisation soit capable de suivre la modification du volume. Avec un lecteur de bandes virtuelles VTL, l’incrément est la taille d’une bande, si le volume à sauvegarder diminue, les bandes excédentaires seront recyclées, si le volume augmente, un plus grand nombre de bandes sera utilisé. La volumétrie réellement utilisée sera uniquement les bandes utiles, une bande virtuelle recyclée ou vide n’occupe pas de place sur le disque de stockage. Dans ce contexte, la taille de 10 gigaoctets d’une bande virtuelle paraît grossière, elle correspond à quasiment la taille minimum d’une machine virtuelle. Le logiciel de sauvegarde Atempo est parfaitement capable de sauvegarder les autres types de données comme une base de données, un ensemble de fichiers ou encore une machine de type Windows (avec la technologie de snapshot de Microsoft).

1. Atempo, sélection des données à sauvegarder

2. Atempo, définition d’une limite de stockage Atempo, applications supportées

3. Atempo, déroulement dans le temps

16 flash informatique

La combinaison de ces différentes technologies permet d’imaginer ce scénario hybride: z utiliser un serveur avec Windows 2008, z réaliser une sauvegarde de type snapshot dans Windows avec Atempo SRA, z créer une machine virtuelle équivalente (vide), z rétablir la sauvegarde sur la machine virtuelle. On se retrouve devant un clone parfait, sans avoir dû éteindre la machine initiale, sans même accéder à l’environnement physique du serveur (qui peut être physique ou virtuel).


Sauvegarde virtuelle avec Atempo La seule précaution consiste à activer la variable TINA_SRA_ ENABLE_BCD = yes pour sauver la partition de démarrage présente depuis Windows 7.

Atempo, configuration SRA

Une ceinture de sécurité pour les machines virtuelles En fonction depuis deux ans à la STI, cette solution Atempo sur un NAS bon marché permet de garantir une sécurité de service élevée en limitant au maximum l’investissement matériel: z un serveur de virtualisation, z un NAS utilisé comme serveur de sauvegarde. Une plus grande qualité de services entraînera une augmentation de l'investissement par la redondance des équipements. Le choix d’héberger sur le serveur NAS le logiciel Atempo ne provoque pas de surcharge. Ceci est possible, car les processeurs modernes possèdent plusieurs cœurs accompagnés d’une mémoire suffisante. Dans le cas utilisé, c’est un serveur HP avec Windows 2008 OEM possédant un processeur E5520 et 6 Go de RAM. Naturellement, il n’est pas utilisé en NAS classique avec des clients externes ! Cette condition doit être impérativement respectée (un serveur ne peut pas se sauvegarder lui-même). La capacité du logiciel Atempo à sauvegarder de nombreux types de données permet d’imaginer et de tester de nombreux scénarios de sauvegarde, même ceux plus classiques comme la sauvegarde de fichiers ou celle utilisant les snapshot intégrés dans les OS modernes de Microsoft. J’ai rarement utilisé la fonction de restauration, mais sans cet ange gardien, je me serais retrouvé plusieurs fois dans la situation très périlleuse de sauter dans le vide sans parachute. n

Atempo, récupération SRA

Comment faire ?

Le courrier du lecteur Solution 2 to the maths problem that Manuel Ojanguren proposed in the FI 4/2013. Solution 2 au problème posé par Manuel Ojanguren dans le FI 4/2013. NDR: Monsieur Grégoire Nicollier, mathématicien, professeur à la Haute Ecole d’Ingénierie du Valais à Sion propose une deuxième approche à la solution du problème de l’été parue dans le FI5/2013, flashinformatique.epfl.ch/spip.php?article2667 et flashinformatique.epfl.ch/spip.php?article2668. La voici. Prenons 64 cases (ou une puissance de 2) et alignons-les pour simplifier. Numérotons-les de 0 à 63 et écrivons ces numéros sur 6 bits, de 000000 à 111111, mais en les représentant par des vec-

teurs à 6 composantes, de (0,0,0,0,0,0) à (1,1,1,1,1,1). Chaque case est pile ou face. La valeur du jeu est la somme des vecteurs des cases pile, avec l’addition composante par composante modulo 2 (1+1=0). Le premier prisonnier calcule la valeur V du jeu, disons V=(0,1,1,0,0,0). Le directeur de la prison montre par exemple la case C=(1,0,1,1,0,1), la case numéro 45. Le prisonnier doit transformer la valeur du jeu en C pour que son compagnon trouve C en calculant la valeur de la nouvelle disposition. Quand on tourne la pièce d’une case donnée par le vecteur K, la valeur du jeu passe à V+K, que K soit pile ou face, car + = –­ (où + est l’addition modulo 2 par composante). Mais C = V+(V+C), car V+V=(0,0,0,0,0,0). Le premier prisonnier tourne donc la pièce de la case numéro V + C = (0,1,1,0,0,0)+(1,0,1,1,0,1)=(1,1,0,1,0,1), c’est-à-dire 53. n 3 DÉCEMBRE 2013 - N° 7

17


Comment faire ?

Installer Linux avec GRUB Benjamin.Barras@epfl.ch, EPFL – Domaine-IT, Responsable Linux

How to reinstall Linux from Linux. Comment réinstaller Linux depuis Linux.

Introduction Lorsque vous avez un système qui tourne déjà sous Linux, il arrive que l’on souhaite réinstaller son système d’exploitation avec la même version ou distribution, mais pas obligatoirement. Je vous propose une solution simple et élégante afin de réaliser cela. L’idée est d’utiliser GRUB pour lancer votre nouvel installeur. Il n’est pas nécessaire d’avoir la même version de Linux, il suffit simplement de choisir la distribution que l’on désire installer.

Préparation

Ubuntu Pour Ubuntu, c’est un peu plus compliqué. Vous devez obligatoirement trouvez ces deux fichiers, qui n’ont pas le même nom que cidessus, dans un dossier qui fait référence au réseau (net…). Dans le cas contraire, l’installeur ne trouvera jamais ses petits et vous serez bloqué. Par exemple, pour la version 13.10 (64 bits) [2], on trouvera notre bonheur dans le dossier main/installer-amd64/ current/images/netboot/ubuntu-installer/amd64 et les deux fichiers dont nous aurons besoin seront: 1. linux 2. initrd.gz

Vous pouvez également utiliser l’image ISO qui se nomme mini.iso et qui se trouve dans le dossier main/installer-amd64/current/images/netboot: mount -o loop /tmp/mini.iso /mnt/iso

Evidemment pour faire cela de manière simple, on utilisera juste le strict minimum requis. Afin de démarrer notre système, la première chose à faire est d’aller récupérer deux fichiers dont on aura besoin, à savoir notre noyau linux et une image d’un système minimal qui contient un système de fichiers et toutes les instructions nécessaires à son installation. Pour cela, il va falloir trouver notre noyau et notre image pour notre système Linux préféré, et qui reste la principale difficulté pour certaines distributions.

où nous retrouvons nos deux fichiers cités précédemment.

Fedora

Passons à la pratique

Pour Fedora, on trouvera ces deux éléments dans le dossier isolinux de la distribution. Exemple pour la distribution Fedora 19 (64 bits) [1], en fouillant dans le dossier isolinux on trouvera les deux fichiers qui nous intéresse, à savoir: 1. vmlinuz 2. initrd.img

ls -al /mnt/iso total 25188 dr-xr-xr-x 4 root drwxr-xr-x. 18 root ... -r--r--r-2 root ... -r--r--r-2 root ...

root root

4096 Oct 15 21:43 . 4096 Sep 2 10:04 ..

root 19973188 Oct 15 21:43 initrd.gz root

5601944 Oct

9 20:59 linux

Nous devons malheureusement distinguer deux cas de figures. Soit l’on a GRUB version 1 ou GRUB version 2, mais dans les deux cas le résultat sera le même. Commençons par ce qui est commun, il nous faut poser ces deux fichiers dans un répertoire. Choisissons par exemple le répertoire /boot, et utilisons les commandes suivantes:

Redhat

# Fedora 19 (64 bits)

Idem pour Redhat, on trouvera nos deux mêmes fichiers dans le dossier isolinux. On peut également, comme pour Fedora, utiliser une image ISO. Par exemple:

wget -P /boot http://mirror.switch.ch/ftp/mirror/ fedora/linux/releases/19/Fedora/x86_64/os/ isolinux/vmlinuz

mount -o loop rhel-client-6.4-x86_64-boot.iso /mnt/iso ls -al /mnt/iso/ dr-xr-xr-x 4 root drwxr-xr-x. 18 root dr-xr-xr-x 3 root dr-xr-xr-x 2 root -r--r--r-1 root

root root root root root

2048 4096 2048 2048 438

Jan Sep Jan Jan Jan

30 2013 . 2 10:04 .. 30 2013 images 30 2013 isolinux 30 2013 TRANS.TBL

On pourra se servir dans le dossier isolinux ou dans le dossier images/pxeboot qui contiennent les deux fichiers dont nous aurons besoin.

18 flash informatique

wget -P /boot http://mirror.switch.ch/ftp/mirror/ fedora/linux/releases/19/Fedora/x86_64/os/ isolinux/initrd.img

GRUB version 1 Ensuite nous devons ajouter cette information dans le menu de GRUB, pour faire cela on utilisera la commande suivante: cat << GRUB >> /boot/grub/grub.conf title EPFL_Install root (hd0,0) kernel /boot/vmlinuz initrd /boot/initrd.img GRUB


Installer Linux avec GRUB qui ajouterons 4 lignes dans le fichier /boot/grub/grub.conf. Ici, le /boot se trouve sur le premier disque (hd0) et sur la première partition qui dans la syntaxe de GRUB version 1 s’écrit (hd0,0).

GRUB version 2 Pour la seconde version de GRUB, on peut utiliser ceci: cat << GRUB >> /etc/grub.d/40_custom menuentry 'EPFL_Install' { set root='hd0,msdos3' linux /boot/vmlinuz initrd /boot/initrd.img } GRUB

qui ajoutera cinq lignes dans le fichier /etc/grub.d/40_custom. Par contre ici, le /boot se trouve sur le premier disque (hd0) mais sur la troisième partition, qui dans la syntaxe de GRUB version 2 se décrit hd0,msdos3. Il faut encore exécuter la commande suivante:

utilisée dans l’installation, ou réinstallation, des noeuds dans une ferme de calcul. Si vous êtes méthodique et que vous notez chacune des commandes qui modifient votre système dans un fichier kickstart, vous n’aurez alors plus besoin de faire des sauvegardes de votre système. Il suffira simplement de réinstaller votre machine à l’aide de votre fichier kickstart maintenu à jour, et cela ne vous prendra que quelques minutes. C’est une technique que nous avons largement utilisée pour la (re)mise en route de serveur.

Rédérences [1] Fedora 19: mirror.switch.ch/ftp/mirror/fedora/linux/releases/19/Fedora/x86_64/os

[2] Ubuntu 13.10: mirror.switch.ch/ftp/mirror/ubuntu/dists/saucy

[3] Automatiser votre installation Linux avec Kickstart, FI4/12 [4] Personnaliser vos images ISO Linux, FI8/10 n

# Fedora grub2-mkconfig -o /boot/grub2/grub.cfg # Ubuntu grub-mkconfig -o /boot/grub2/grub.cfg

afin de mettre à jour le fichier de configuration de GRUB.

Kickstart L’idéal dans ce type d’installation est d’utiliser Kickstart [3] [4] afin d’automatiser tout le processus d’installation. Il ne faudra pas oublier de rajouter les quelques lignes ci-dessus dans le menu de GRUB, ce qui pourra se faire de la manière suivante dans la partie post-installation de Kickstart: %post #rc.local cat <<EOF > /etc/rc.d/rc.local #!/usr/bin/sh # # GRUB wget -P /boot http://mirror.switch.ch/ftp/mirror/ fedora/linux/releases/19/Fedora/x86_64/os/ isolinux/vmlinuz wget -P /boot http://mirror.switch.ch/ftp/mirror/ fedora/linux/releases/19/Fedora/x86_64/os/ isolinux/initrd.img chmod 755 /boot/vmlinuz chmod 600 /boot/initrd.img cat << GRUB >> /etc/grub.d/40_custom menuentry 'EPFL_Install' { set root='hd0,msdos3' linux /boot/vmlinuz initrd /boot/initrd.img } GRUB grub2-mkconfig -o /boot/grub2/grub.cfg # On désactive le service puisqu'il vient d'être exécuté /bin/chmod -x /etc/rc.d/rc.local exit 0 EOF # On active le service /bin/chmod +x /etc/rc.d/rc.local %end

Conclusion Il ne reste plus qu’à redémarrer notre machine et de choisir notre menu d’installation. Il faut savoir que c’est une technique très

Ce Forum IT d’automne sera l’occasion d’avoir une vue d’ensemble sur les systèmes d’informations de l’EPFL, de poser vos questions et d’en débattre en présence de Karl Aberer, Vice-Président des systèmes d’informations qui participera à cette rencontre et répondra à vos questions.

Jeudi 5 décembre 2013 au Forum du Rolex Learning Center 14h00- Vision et stratégie des systèmes d’information de 14h30 l’EPFL. K. Aberer, vice-président des systèmes d’informations de l’EPFL. 14h30- Tout ce que vous avez toujours voulu savoir sur les 14h50 services. A. Wegmann, responsable du laboratoire de modélisation systémique. 14h50- Présentation des activités du service Support opéra15h10 tionnel. N. Panchaud, chef de service du support OS. Fonctionnalités du BUS d’entreprise dans ce contexte. Q. Estoppey, ingénieur système Camipro. 15h10- Quoi de neuf au DIT ? J.-C. Berney, directeur du DIT. 15h30 Data Centers, l’union fait la force. A. Boisseau, responsable Data Center au DIT. Ça bouge dans la téléphonie fixe. V. De Marinis, chef de projet Communications Unifiées. 15h30- IS-Academia, l’outil de gestion des études de l’EPFL. L. 15h50 Ramelet, chef de service. 15h50- Au cœur de l’infrastructure IT du Blue Brain Project. 16h10 F. Schürmann, Blue Brain Project’s General Project Manager. Le Forum sera suivi d’un apéritif auquel vous êtes cordialement invités. Merci de vous inscrire directement au moyen du formulaire, inform.epfl.ch/?form=Forum_IT, pour nous permettre d’organiser cet événement. Michel.Naguib@epfl.ch, responsable de la communication du DIT 3 DÉCEMBRE 2013 - N° 7

19


Analyse

L'EPFL et les superordinateurs: trente ans d'histoire Vincent.Keller@epfl.ch, EPFL, expert applicatif, CADMOS & Appoline.Raposo@epfl.ch, EPFL – Domaine IT, rédacteur a.i.

In June 1994, in a paper signed by the honorable Werner Schwarz from Cray Research Switzerland, the Flash informatique described the decision to present two Cray supercomputers in the alleys of the Centre Midi: the Cray XMP/48 and the Cray-2, which have both been decommissioned recently. Twenty years after, IBM offers the BlueGene/P to the Bolo Museum. This is for us the opportunity to come back on the History of scientific computing at EPFL. And, what is prepared for the future. En Juin 1994, sous la plume de l’excellent Werner Schwarz de Cray Research Suisse, le Flash informatique décrivait la décision d’exposer deux superordinateurs dans les couloirs du Centre Midi de l’Ecole 1. Il s’agissait alors du Cray XMP/48 en provenance du CERN et du Cray-2 tout juste mis au rebut. Près de vingt ans après, IBM offre le BlueGene/P au Musée Bolo 2. L’occasion de revenir sur l’histoire des machines qui ont fait le Calcul Scientifique à l’EPFL.

Alors, le premier ordinateur au monde, c'est lequel ? Pour être appelée ordinateur, une machine doit posséder quelques caractéristiques définies dans les années 1950 (1951, selon le Petit Robert): «Un ordinateur est une machine électronique de traitement numérique de l’information exécutant à grande vitesse les instructions d’un programme enregistré». Un superordinateur possède lui quelques caractéristiques supplémentaires selon le même Petit Robert (définition de 1985): «Un supercalculateur est un ordinateur de très grande puissance de calcul, possédant des temps de cycles d’instructions très courts, des ressources importantes et la possibilité d’effectuer des opérations en parallèle». Sans remonter très loin dans le temps, à l’époque des Pascaline et des machines mécaniques ou électromécaniques développées dans l’arrière-boutique berlinoise des parents de Konrad Zuse en 1937 par ce dernier, et sans rentrer dans le débat stérile de savoir quel était le premier ordinateur (et qui l’a inventé), citons la machine qui est considérée par beaucoup – dont le soussigné – comme l’un des premiers ordinateurs: le Manchester Mark 1 en 1948. Développé à l’Université de Manchester par F.C. Williams et Tom Kilburn sur la base des travaux du mathématicien hon-

grois John Von Neumann (resté célèbre pour l’architecture qu’il a théorisé et qui est encore à la base des ordinateurs modernes), le Manchester Mark 1 possède toutes les caractéristiques d’un ordinateur moderne. Sa programmation différait puisqu’elle était effectuée par des liaisons physiques et son électronique ne traitait que des entiers.

Manchester Mark 1

En 1947, les laboratoires Bell Labs aux États-Unis présentent le premier transistor. Il faudra attendre huit années pour voir le premier ordinateur fonctionnel débarrassé de ses tubes à vide et remplacés par des transistors. L’Université de Manchester, encore elle, présente le premier prototype d’un ordinateur moderne: 92 transistors et 550 diodes permettant des instructions à la vitesse prodigieuse – pour l’époque – de 125 Khz. Ce fut le tournant. Notons que la Suisse n’est pas en reste dans le développement précoce des ordinateurs. Entre 1948 et 1955, Ambros Speiser, alors à l’ETH Zürich (il est ensuite parti fonder le centre de recherche d’IBM Rüschlikon) et son équipe développent le tout premier ordinateur 100 % helvétique: ERMETH (Elektronische RechenMaschine der ETH) doté de 2000 tubes à vide, de 6000 diodes et d’une mémoire pesant 1.5 tonne et à la capacité prodigieuse de 27.5 KB. Cette machine importante est aujourd’hui présentée au musée de la communication de Berne.

musée de la communication de Berne – ERMETH

dit-archives.epfl.ch/FI94/6-94-page15.html flashinformatique.epfl.ch/spip.php?article2708

1 2

20 flash informatique


L'EPFL et les superordinateurs: trente ans d'histoire

1965: Seymour Cray, CDC et les superordinateurs Parmi les grands architectes qui sont restés dans l’Histoire du design des ordinateurs, il y a évidemment les Alan Turing, Gene Amdhal ou Richard Grimsdale. Mais celui qui est encore considéré aujourd’hui comme l’inventeur même des superordinateurs c’est un ingénieur brillant travaillant pour Control Data Corporation (CDC): Seymour Cray. Et c’est en 1965 que le monde a pu imaginer pour la première fois, la puissance de ce qui est aujourd’hui considéré comme la troisième voie de la recherche scientifique: la simulation numérique. Seymour Cray était un ingénieur électricien avec de solides bases mathématiques. De par cette formation idéale, il savait décrire parfaitement les ressources nécessaires aux algorithmes des applications. Et par conséquent, comment il fallait construire une machine qui saurait fournir ces ressources au mieux. Le résultat obtenu, considéré comme le premier supercalculateur du monde, fut le CDC 6600. Une machine parallèle (un processeur principal et 10 processeurs périphériques) capable d’atteindre 1 Mflops (entre 2 et 4 fois meilleur que des ordinateurs de taille similaire). Le premier exemplaire de la série fut livré au CERN à Genève le 14 janvier 1965. Malheureusement, dès la fin des années 1960, les finances de CDC n’étant pas au beau fixe, les projets techniques proposés par Seymour Cray, dont le successeur du 6600, ont été mis en standby. Seymour a donc décidé de quitter CDC pour fonder en 1972, quelques kilomètres plus loin que son ancien employeur, une nouvelle compagnie: Cray Research Inc. Accompagné de quelques anciens de chez CDC, il a développé le mythique Cray 1 capable d’atteindre la performance hallucinante de 136 MFlops. Le premier exemplaire est installé à Los Alamos National Laboratory en 1976.

Début des superordinateurs à l'EPFL Le tout premier système installé à l’EPUL, dans le pavillon Roseneck de l’avenue de Cour à Lausanne, est une Stantec Zebra avec son code simple; c’était en 1958. En 1964, le Centre de calcul électronique de l’EPUL installe un ordinateur IBM 7040 avec un système IBSYS, dans un petit bâtiment sis à l’avenue de Cour. En 1972, le Centre de Calcul de l’EPFL s’agrandit et construit le nouveau Centre de Calcul pour y accueillir sa première machine Control Data, la CDC Cyber 7326 et son système SCOPE 3.3. Lui succéderont la CDC Cyber 170/720 et son système NOS/BE en 1980 et, en 1983, dans les nouveaux locaux de la première étape du campus d’Ecublens, deux CDC Cyber 170/855 et leur système NOS qui tourneront jusqu’en 1990. Après l’ère CDC, début 1986, l’EPFL entre dans l’ère Cray Research avec un Cray 1 S/2000. Le GASOV (groupe d’applications scientifiques sur ordinateurs vectoriels) composé de 35 personnes a été mis en place pour apporter un support aux utilisateurs de ce premier PHP (Processeur à Haute Performance). Aujourd’hui, cette machine, partiellement désossée, est visible à l’entrée des locaux du DIT. 3

En 1987, les Chambres Fédérales décident d’un crédit extraordinaire de 40 millions de francs suisses pour garder la Suisse dans la course parmi les leaders mondiaux du calcul scientifique. Ces 40 millions doivent servir à l’achat d’un Cray X-MP/28 à deux processeurs par l’ETH Zürich et d’un exemplaire du tout nouveau Cray 2 à très grande mémoire (2 GB) par l’EPFL, ces deux machines étaient complémentaires; le GASOV et son homologue zurichois conseillaient les utilisateurs de faire tourner leurs programmes sur l’une ou l’autre des machines selon leur nature. Le Cray 2 est installé en 1988 et fonctionnera pendant cinq années. Aujourd’hui, il est visible avec sa fontaine au Musée Bolo. En avril 1994, une machine massivement parallèle avec ses 128 processeurs et sa performance crête de 19.2 GFlops, un Cray T3D, entre à l’EPFL. Le T3D n’étant pas directement adressable, toutes les opérations doivent transiter par sa machine hôte, soit le Cray YMP M94: Pascal. Il sera mis hors tension en avril 1999.

Ère des IBM BlueGene Dès le milieu des années 2000, un projet scientifique d’une ampleur mondiale commence à se faire connaître. Dirigé par un professeur de l’EPFL, Henry Markram, il vise à simuler rien moins que le fonctionnement d’un cerveau humain. Pour cela, l’équipe du professeur Markram doit disposer de la machine la plus puissante du marché. L’EPFL fait donc l’acquisition du supercalculateur IBM BlueGene/L en 2005. Doté de 8’192 cœurs, la machine atteint une performance de 18.2 TFlops sur le benchmark synthétique HPL ce qui en fait la machine la plus rapide jamais installée en Suisse et la neuvième machine la plus rapide du monde. Ce record vient d'être battu au moment où nous mettons sous presse 3. L’idée de la firme IBM est de relier énormément de noeuds de calcul fonctionnant à basse fréquence et donc consommant beaucoup moins d’énergie autour d’un réseau d’interconnexion rapide et évolutif. Le BlueGene/L de l’EPFL est définitivement arrêté en 2009 et offert au centre Edmond and Lily Safra International Institute de Neuroscience à Natal au Brésil . Il est remplacé par le successeur IBM BlueGene/P 4 du consortium CADMOS regroupant les universités de Lausanne et de Genève ainsi que l’EPFL pour une vision lémanique du calcul scientifique. L’IBM BlueGene/P fonctionnera de 2009 à 2013 sur des projets des trois partenaires universitaires. Il était composé de quatre racks regroupant 16’384 cœurs pour une performance crête de 47.7 TFlops. Mise au rebut en 2013, cette machine a été offerte par IBM au Musée Bolo. Elle y est depuis exposée en état de fonctionnement grâce au travail patient de quelques passionnés qui ont su lui redonner vie 5 aux côtés du Cray 2, du T3D et du XT4 offert par le Centre Suisse de Calcul Scientifique (CSCS) en attente de réveil. Dès le début de 2013, c’est la troisième génération des superordinateurs IBM BlueGene qui exécute les simulations les plus demandeuses en temps calcul de l’arc lémanique: un IBM BlueGene/Q capable d’une performance de 189 TFlops. Cela en fait la machine la plus puissante jamais installée à l’EPFL. Nul doute que ce titan rejoindra le Musée Bolo à la fin de sa vie. D’ici là, faites un tour au Musée Bolo et embrassez 30 ans d’histoire du calcul scientifique à l’EPFL d’un seul coup d’oeil. n

www.top500.org/lists/2013/11/ actualites.epfl.ch/index.php?module=procontent&func=display&id=2368&newlang=eng 5 www.ibm.com/news/ch/fr/2013/11/05/j969989t82786t67.html 4

3 DÉCEMBRE 2013 - N° 7

21


Actualités

Du Hewlett-Packard 2116 … au BlueGene/P www.bolo.ch

The Bolo museum adds four giants to its collection. Le Musée Bolo s’enrichit de quatre mastodontes.

Le Musée Bolo Fondé en 2002 et géré par Mémoires Informatiques, une fondation privée, le Musée Bolo possède plusieurs milliers d’ordinateurs et autres objets informatiques. Sa mission est la sauvegarde du patrimoine informatique, notamment celui d’origine suisse. L’association des amis du Musée Bolo, l’aBCM, contribue à la valorisation des collections du musée, à la restauration et à la remise en état des anciennes machines. Les objets les plus rares des collections, tels l’Apple Lisa et l’IMSAI 8080 et les plus emblématiques, comme le PET de Commodore ou le TI 99/4A, sont également exposés. Depuis peu, quatre superordinateurs à haute performance ont pris place dans l’enceinte du Musée Bolo qui est hébergé par l’EPFL dans les locaux de la Faculté Informatique et Communications.

L’IBM BlueGene/P Pour la partie exposée au musée: 1 024 noeuds de calcul Mémoire RAM totale: 4 To Consommation électrique: 25 kW Installé à l’EPFL en octobre 2009, le BlueGene/P a été en service jusqu’en février 2013. Un réseau d’interconnexions en forme de tore à trois dimensions permettait de rajouter des racks sans perte de performances. La machine offerte par IBM au Musée Bolo était constituée de quatre racks dont un seul est visible dans le musée. En service durant 29 mois, le BlueGene/P a eu pour principaux utilisateurs le Blue Brain Project, à l’origine du Human Brain Project, mais aussi le Centre européen de calcul atomique et moléculaire, le CECAM, ainsi que le Laboratoire de chimie et de biochimie computationnelles. Le BlueGene fait partie de la série de superordinateurs installés par IBM à l’EPFL depuis 2005. Le BlueGene/P a succédé au BlueGene/L en 2009 et précède le BlueGene/Q qui est opérationnel depuis le début de l’année 2013. En terme de performances, les quatre racks du modèle P de l’EPFL affichaient une performance de 47.7 téraflops (1 téraflops équivaut à mille milliards d’opérations en virgule flottante par seconde) sur le benchmark HPL (High Performance Linpack), soit la 99e machine la plus puissante de la planète. Par comparaison, le BlueGene/L annonçait 18.2 téraflops en 2005 et était la 9e machine la plus puissante au monde à l’époque, quant à son successeur, le modèle Q, il inscrit une performance de 189 téraflops.

22 flash informatique

Le Cray-2 4 processeurs vectoriels à 250 MHz Mémoire RAM totale: 2 Go Consommation électrique: 195 kW Le Cray-2 a été installé en 1988 à l’EPFL où il est resté en service jusqu’en décembre 1993, après 43 000 heures de disponibilité. Pour absorber la chaleur de 195 kW émise par ses 280 000 puces, les composants électroniques étaient plongés dans un fluide caloporteur inerte, le Fluorinert. Sa mémoire centrale de 2 Go se prêtait aux simulations tridimensionnelles, tels les problèmes du type éléments finis, volumes finis ou différences finies.

Le Cray T3D 256 processeurs DEC Alpha 21064 à 150 MHz Mémoire RAM totale: 16 Go Consommation électrique: 80 kW Le Cray T3D est la première machine massivement parallèle de Cray. Chaque processeur DEC Alpha implémente un set réduit d’instructions et il est relié aux autres par un tore à trois dimensions (d’où le nom T3D). La programmation d’une telle machine est très complexe et requiert l’utilisation d’un paradigme de type MIMD (Multiple Instructions on Multiple Data). Aujourd’hui, quasiment toutes les applications scientifiques à large échelle utilisent ce paradigme. Le Cray T3D a été installé en avril 1994 avec 128 processeurs, puis étendu à 256 processeurs.

Le Cray XT4 448 processeurs Dual Core Mémoire RAM: 896 Go Capacité de calcul: 5 gigaflops Inauguré en septembre 2007 au Centre suisse de calcul scientifique (CSCS) à Manno, au Tessin, le Cray XT4 était destiné à prévoir la météo de façon plus précise qu’auparavant. Une simulation qui durait 60 minutes pour une prévision de 24 heures était réduite à 25 minutes. Le service météo utilisait 30% des ressources du Cray XT4, le restant étant utilisé par les chercheurs des hautes écoles. Cray avait personnalisé le superordinateur aux couleurs helvétiques. En 2013, le CSCS a offert un des cinq racks au Musée Bolo. n


Analyse

Linux, IPv6 et la sécurité Martin.Ouwehand@epfl.ch, EPFL - Domaine IT, responsable de la sécurité informatique

The IPv6 link-local address is an overlooked security weakness. L’adresse IPv6 link-local est un problème de sécurité peu connu.

nistrateurs. De plus, dans les tests que j’ai faits avant d’écrire cet article (je me suis borné il est vrai à la dernière version des distributions les plus répandues: RedHat/Centos, Fedora, Debian et Ubuntu), je n’ai pas trouvé de cas où la configuration par défaut du système y donne accès à travers cette adresse sans le faire aussi par l’adresse normale IPv4. Enfin, les distributions Fedora, RedHat et Centos, dans leur configuration par défaut, en tiennent même compte, puisqu’elles activent d’office les pare-feux en IPv4 aussi bien qu’en IPv6 et que l’utilitaire de gestion du pare-feu standard (paquetage firewall-config, accessible par l’entrée du menu Administration -> Firewall) reporte automatiquement les fermetures de port dans les deux pare-feux (IPv4 et IPv6).

Suite à l’épuisement récent des adresses IPv4, ça y est, c’est sûr, tout le monde doit passer à son successeur IPv6, qui dispose d’assez d’adresses pour, s’il le fallait, connecter entre eux tous les protons de l’Univers ! Mais la transition sera lente: les fournisseurs de contenu continueront longtemps à être accessibles en IPv4 parce que c’est ce qu’utilise encore la majorité des clients, qui, du coup, est peu encline à passer à IPv6. Quoi qu’il en soit, Linux apporte d’ores et déjà sa contribution au mouvement et ça fait donc belle lurette que les principales distributions activent par défaut la connectivité en IPv6. Pourtant, il paraît beaucoup d’articles où les spécialistes avertissent, l’air sombre, que ce passage à IPv6 apportera son lot de problèmes de sécurité... Le but de cet article est de parler de cet aspect dans la mesure où il concerne l’administrateur de systèmes Linux (y compris celui qui gère son laptop ou sa station de travail) et de suggérer des solutions.

C’est la solution la plus simple et la plus radicale: il suffit d’ajouter ipv6.disable=1 comme paramètre du noyau. Ceci se fait sous RedHat en l’ajoutant à la ligne kernel du fichier /etc/grub. conf. Sur Fedora, Debian et Ubuntu, ajoutez le paramètre à la variable GRUB_CMDLINE_LINUX du fichier /etc/default/grub, et lancez la commande update-grub (grub2-mkconfig -o / boot/grub2/grub.cfg sous Fedora). Après un redémarrage, vous vivrez alors dans un monde IPv4 pur et sans surprise...

Le problème

Solution 2: désactiver l'adresse link-local

Alors que sous IPv4 il faut faire quelque chose (demander une adresse fixe à son administrateur réseau ou passer par un serveur DHCP) pour obtenir une adresse et se connecter au réseau, un noyau Linux implémentant IPv6 va créer d’office une adresse fonctionnelle, l’adresse link-local, déduite de l’adresse physique (MAC address) de la carte réseau. Le préfixe prédéfini pour ce type d’adresse est fe80::/64, par exemple ma station de travail a une adresse link-local fe80::219:d1ff:fe7e:12b8, déduite de l’adresse MAC 00:19:D1:7E:12:B8 (le but de cette adresse est de remplacer pour IPv6 le protocole ad hoc ARP d’IPv4). C’est cette adresse qui peut poser problème: si on transpose ses habitudes mentales du monde IPv4, on n’en soupçonnera pas l’existence et on oubliera d’en tenir compte par exemple quand il s’agira de mettre en place un contrôle d’accès réseau (pare-feu, fichiers hosts.allow et hosts.deny, etc.), ceci d’autant plus que l’implémentation des pare-feux IPv4 et IPv6 est séparée dans le noyau: en fermant l’accès à un port avec la commande iptables, l’accès en reste ouvert en IPv6 (il faut encore recourir à iptables6 pour le fermer en IPv6). Avant de vous laisser céder à la panique, j’aimerais toutefois préciser que cette adresse n’est pas routée et que donc seuls les ordinateurs du même sous-réseau peuvent s’y connecter. Ça ne fait que quelques dizaines et souvent vous en connaissez les admi-

Si la solution précédente ne vous convient pas (elle nécessite un redémarrage) vous pouvez désactiver l’adresse link-local simplement en écrivant un 1 dans le bon fichier: echo 1 > /proc/sys/ net/ipv6/conf/all/disable_ipv6. Attention toutefois, ce changement ne survivra pas au prochain redémarrage. Pour l’effectuer automatiquement à chaque redémarrage, il faut ajouter une ligne net.ipv6.conf.all.disable_ipv6=1 dans le fichier /etc/sysctl.conf. Avec cette méthode, il est possible à tout moment de revenir en arrière et de réactiver l’adresse link-local, en écrivant un 0 dans le fichier mentionné.

Solution 1: désactiver IPv6

Solution 3: utiliser un pare-feu qui gère aussi IPv6 Comme mentionné plus haut, avec le programme d’interfaçage au pare-feu installé par défaut sur Fedora et RedHat/Centos, la gestion simultanée des règles IPv4 et IPv6 est automatique. Parmi les pare-feux qui font de même pour Debian et Ubuntu, il faut mentionner l’utilitaire de gestion en ligne de commande ufw, très bien conçu. Si vous insistez pour avoir une interface graphique, la documentation suggère fwbuilder, mais je ne l’ai pas trouvé simple à l’utilisation (la partie IPv6 est documentée à l’URL: www. fwbuilder.org/4.0/docs/users_guide5/ipv6-policy.shtml). n 3 DÉCEMBRE 2013 - N° 7

23


Actualités

FlashiPhone François.Roulet@epfl.ch, EPFL - Domaine IT, responsable de la plate-forme Apple

rez tester votre application que Xcode: i t u n e s. a p p l e . c o m / a p p / dans le iOS Simulator sur votre id497799835 Mac, mais pas dans du matériel réel. A ce moment, entre en jeu la souscription à un des programmes de développement, donnant accès au portail de la génération des certificats servant à constituer des Provisioning Profile, qui autoriseront Xcode à pousser le code de votre application dans vos équipements mobiles iOS et à l’exécuter. Il existe trois programmes de développement, respectivement, individuel, entreprise et université, dont les noms sont suffisamment éloquents. Malheureusement, ce dernier en apparence dédié aux universités, avec l’avantage d’être gratuit, s’est avéré inapplicable pour l’EPFL, c’est pourquoi nous nous sommes orientés vers le programme Entreprise. Le programme Developer Enterprise permet justement de générer des certificats, qui autorisent la distribution d’applications hors du iTunes Store de Apple, mais à l’intérieur de notre entreprise depuis nos propres serveurs (In-House Distribution). Dans ce contexte, nos propres applications ne sont pas soumises au contrôle de conformité par Apple. En revanche, ce programme Enterprise ne permet pas de publier une application sur le iTunes Store, car l’unique voie pour le faire est le programme individuel.

iOS Developer Enterprise Program. Programme de développement pour iOS. L’EPFL a souscrit, par l’entremise du DIT, au contrat iOS Developer Enterprise Program. En quoi consiste ce programme ? Le développement et la diffusion d’applications mobiles iOS (pour iPhone, iPad, iPod Touch) sont extrêmement réglementés, afin de garantir à Apple, donc à ses clients, la sécurité logicielle de tous ses appareils mobiles. En effet, une pandémie virale planétaire aurait un effet dévastateur, c’est pourquoi Apple impose une certification globale, matérielle, système et applications. Cette stratégie porte ses fruits, puisque depuis l’apparition de l’iPhone en été 2007, aucun logiciel malveillant ne s’est propagé. C’est pourquoi la seule voie d’accès au chargement d’applications est exclusivement le iTunes Store (itms://), où elles sont préalablement soumises à un contrôle de conformité par Apple avant leur publication. Apple met gratuitement à disposition un environnement de développement, Xcode, héritier de l’environnement NextStep et son légendaire Interface Builder, aujourd’hui dans sa 5e version. Cet environnement unifié englobe aussi bien le développement d’applications pour iOS que pour OS X (Mac). Pour développer une application, nul besoin de souscrire à un des programmes de développement, puisque vous pouvez télécharger gratuitement Xcode depuis le App Store. La restriction étant que vous ne pour-

Développement d'applications iOS Pour qu’une application iOS puisse s’exécuter, il faut qu’un Provisioning Profile lui soit associé, celui-ci comprenant au minimum

iOS Developer For individuals and organizations creating apps for distribution on the App Store. Learn more

iOS Developer Enterprise For companies and organizations distributing proprietary apps for internal use. Learn more

iOS Developer University For higher education institutions introducing iOS app development into their curriculum. Learn more

iOS SDK

iOS SDK (Pre-release)

N/A

Test apps on iOS devices

Code-level Technical Support

N/A

Ad Hoc Distribution

N/A

App Store Distribution

N/A

N/A

Custom B2B App Distribution

N/A

N/A

iAd Network

N/A

N/A

In-house Distribution

N/A

N/A

Cost

$99 year

$299 year

Free

Requirements

If you’re enrolling as an organiza- A D‑U‑N‑S Number registered to The University Program is only avaition, a D‑U‑N‑S Number registered your legal entity is required. lable to qualified, degree granting, to your legal entity is required. higher education institutions.

Comparatif des prestations des trois différents programmes de développement existants: individuel, entreprise et université. Pour les deux premiers, une entité légale (D-U-N-S), et une finance annuelle sont requises.

24 flash informatique


FlashiPhone l’identificateur de l’application (App ID), et le certificat généré par le portail du programme iOS Developer. Il existe deux types de Provisioning Profile: celui de développement, qui contient en sus l’identificateur de l’appareil iOS cible, restreignant la diffusion de l’application en phase de développement aux appareils iOS enregistrés, et celui de distribution, qui s’appliquent indifféremment à tous les appareils iOS.

Distribution interne (In-House Distribution)

Processus de développement d’applications dans ses différentes phases, et les éléments requis pour chacune d’elles.

Organisation de l'équipe de développement

Une fois le code de l’application testé et validé, puis signé avec un Provisioning Profile de distribution, il est alors possible de le diffuser en interne dans notre entreprise en le publiant sur un serveur Web, que les appareils iOS accéderont directement via Wi-Fi. Il est aussi possible de charger votre application ainsi préparée dans votre appareil mobile iOS par l’entremise de vos applications iTunes, iPhone Configuration Utility, ou simplement Xcode. Étant donné qu’à ce stade, votre application peut s’installer sur n’importe quel appareil iOS, veillez à ne pas la diffuser hors de l’EPFL, afin de respecter les termes du contrat signé avec Apple. Il n’existe pas de limite quantitative pour la distribution In-House.

Le contrat Developer Enterprise est hiérarchisé, avec un seul et unique Team Agent par contrat, responsable envers Apple, puis des Team Admin, ou administrateurs locaux, et enfin, des Team Members, affiliés à leurs Team Admin respectifs. Chaque statut a ses propres prérogatives.  Le Team Agent est responsable de la relation avec Apple, de la gestion des membres, et de la distribution des applications pour toute l’école via le certificat de distribution.  Le Team Admin gère une équipe de développement, et distribue les certificats de développement.  Le Team Member est le développeur. Il s’en réfère à son Team Admin pour obtenir les certificats nécessaires. Conditions de lancement d'une application IOS

L’enregistrement d’appareils iOS est limité à 100 par contrat et par année, et ce quota est nominatif, à savoir qu’un appareil enregistré est irrévocablement décompté pendant toute l’année de validité du contrat !

Test et développement Durant le développement de votre application, afin de se prémunir contre une diffusion incontrôlée, on fait appel à un Provisioning Profile de développement, comprenant au minimum l’identificateur de l’application (App ID), le certificat de développement généré par le portail iOS Developer, mais aussi les identificateurs (Device ID) des appareils iOS autorisés à l’exécuter, en principe ceux que possède l’équipe de développement.

Notre souscription est réservée aux collaborateurs de l’EPFL, qui en feront une demande motivée, auprès du Team Agent pour notre École à l’adresse: ios@epfl.ch. Veuillez trouver ci-après quelques références documentaires concernant le développement et la distribution d’applications iOS.

Références iOS Developer Program: developer.apple.com/support/ios/accountmanagement.html

Distributing Enterprise Apps for iOS Devices: help.apple.com/iosdeployment-apps/ Distribute apps to your users: www.apple.com/business/accelerator/deploy/app-distribution.html

In-House App Development Accelerator Guide: images.apple.com/ Organigramme de la signature d’application en phase développement (Development Provisioning Profile).

iphone/business/docs/in_house-app_accelerator_guide.pdf

App Distribution Guide: developer.apple.com/library/etc/redirect/ DTS/iOSAppDistGuide n

3 DÉCEMBRE 2013 - N° 7

25


Analyse

Comment l’iPad a changé l’informatique Laurent.Kling@epfl.ch, EPFL -STI, coordinateur informatique à la Faculté des Sciences et Techniques de l’Ingénieur

How iPad totally modified the vision of IT. Comment l’iPad a modifié totalement la vision de l’informatique. Rares sont les appareils qui amorcent une révolution. En 2009, chaque fournisseur informatique était persuadé de détenir un modèle économique viable pour les ordinateurs personnels selon trois catégories: les PC desktop, les portables et les ultras portables. À cette date, certaines constantes semblaient immuables: z les sites Web présentaient du contenu; il y avait très peu d’interaction avec les utilisateurs, z Adobe Flash était omniprésent pour afficher des vidéos ou présenter des publicités, z la résolution des écrans était faible, z les clés USB étaient quasi universelles (DropBox existait depuis un an et demi, version 0.6), z les consoles de jeu portable, Nintendo DS ou Sony PSP, tenaient le haut du pavé, z une majorité d’utilisateurs mobiles avait recours aux SMS, les smartphones commençaient à se répandre dans la population, le modèle à cette époque était l’iPhone 3GS, z sur le marché florissant du PC, les Macintosh représentaient 1/10, le Mac Book Air avait fait une arrivée remarquée dans la catégorie des ultras portables. z pour les systèmes d’exploitation, Window 7 sortait en octobre, Ubuntu était en version 8 et Mac OS saluait la naissance de Snow Léopard, 10.6 supportant encore l’émulation du processeur PowerPC. À la fin 2009, aucun fabricant n’aurait imaginé que des entreprises très sérieuses de prévisions économiques comme IDC ou Gartner envisageraient quatre ans plus tard, aujourd’hui, une baisse continuelle du nombre de PC. Les prédictions deviennent caduques quand la technologie atteint l’objectif quasi métaphysique de ne plus exister comme technologie. Ce rêve a pris forme en 2010 avec l’iPad, car sa plus grande force est de ne pas montrer sa technologie. L’article sur l’iPad dans cette revue en juin 2010 avait déjà laissé entrevoir la première raison de son succès, une fenêtre sur Internet, flashinformatique.epfl.ch/spip. php?article2078. La deuxième raison est dramatiquement simple, l’ergonomie. Comment avons-nous pu laisser berner par des sirènes technologies pour oublier ce composant le plus élémentaire. Dans l’image ci-dessous on reconnaît deux objets familiers: une ampoule, un interrupteur. Ce ne sont pas des créations steampunk 1, mais la première ampoule électrique accompagnée par le premier interrupteur conservé au Discovery Museum de Newcastle. futurisme à une époque victorienne, fr.wikipedia.org/wiki/Steampunk

1

26 flash informatique

Source: Discovery Museum, Newcastle, www.sciencemuseum.org.uk/objects/ loans/light_bulb_switch.aspx

Bizarrement, en informatique, la fonction était parfois tellement éloignée de la forme qu’on devait consulter un manuel pour allumer un ordinateur. L’iPad par sa désarmante simplicité laisse songeur sur le plan des contrôles physiques: un bouton, un interrupteur, le réglage du volume et un inverseur (du son ou de la rotation, c’est à choix).

iPad, 4 interrupteurs

Le plus étrange, est qu’avec la 5e génération qui vient d’être dévoilé, le nombre de commandes mécaniques est strictement le même, aucun ajout, aucune suppression. C’est bien cette recherche monacale vers la simplicité qui a guidé les créateurs de cet objet. La frénésie des concurrents à copier l’idée pour ensuite commercialiser les clones démontre le bien-fondé initial. L’arrivée de l’iPad a entraîné un changement radical dans l’approche de l’ordinateur: z simple vs complexe, z monolithique vs composite,


Comment l’iPad a changé l’informatique z connecté vs isolé, z données dématérialisées vs physique, z documents liés avec l’application vs liés à une hiérarchie de dossier. Au départ, ces choix semblaient complètement à l’opposé des principes qui ont construit l’informatique. Une critique qui revenait systématiquement au lancement de l’iPad était l’absence d’interface USB pour connecter une clé mémoire, un sacrilège ! Le plus étrange en regard avec notre monde actuel, la majorité des réactions étaient négatives à son arrivée: z www.huffingtonpost.com/2010/02/01/ipad-a-disappointmenther_n_442155.html, z www.pcpro.co.uk/blogs/2010/01/27/apple-ipad-the-pc-proreaction/, z arstechnica.com/apple/2010/01/ars-ipad-reax/. Seul le célèbre blogueur David Pogue du New York Times mettait en relation les réactions épidermiques des analystes vis-à-vis du succès avéré des produits précédents d’Apple, iPod et iPhone. z pogue.blogs.nytimes.com/2010/01/27/the-apple-ipad-first-

tation électrique sur le plus grand. Au départ, on reste circonspect devant un tel dépouillement, comment puis-je intégrer cette nouvelle station météo dans mon environnement quotidien?

anciens vs modernes, Oregon Scienfic vs Netatmo

impressions/?_r=0

Possédant un iPad depuis juin 2010, ma famille a sur-le-champ adopté cette étrange lucarne. Le premier fut mon fils qui a utilisé cette tablette comme un magnifique espace de jeux portable. Son adhésion fut si grande qu’il thésaurisera sous forme monétique l’ensemble de ses cadeaux pendant une année pour pouvoir disposer d’un tel appareil lors de son prochain anniversaire. Rapidement il est devenu un champion pour retrouver les films disponibles en streaming 2, souvent escorté de tentative de contamination avec des virus pour Windows PC. Un autre apport de l’iPad plus significatif que la forme ou l’objet, c’est le phénomène Bring you own device accompagné par la liaison avec les nuages (Cloud). Sans ceux-ci, ces changements fondamentaux ne se seraient pas produits: penser, imaginer, travailler (combien d’entre nous se promène encore systématiquement avec une clé USB). Trois ans après son apparition, l’iPad est devenu une réalité évidente, il n’est plus nécessaire de démontrer son impact sur chacun d’entre nous. Au deuxième degré, son influence est plus insidieuse, elle permet de déconnecter l’interface utilisateur de l’objet.

La station météo gagne singulièrement en simplicité, la seule interface utilisateur est le sommet du tube métallique qui fait office de bouton accompagné par un voyant sur la face avant. Cette station météo s’insère dans un écosystème combinant iPhone, iPad, Android, site Web connecté avec le nuage.

Netatmo la station météo dans le cloud Dans la conception classique d’un appareil de mesure, par exemple une station météo, on se retrouve devant trois parties clairement identifiées: z la fonction de mesure de la pression atmosphérique avec les températures, humidité intérieure et extérieure, z l’affichage des prévisions météo, z les boutons pour interagir avec l’appareil. Ce dernier élément était souvent le composant le plus négligé, les interactions étaient dignes d’une station spatiale avec d’étranges incantations, suite de boutons à presser dans un ordre précis pour obtenir le réglage adéquat. Une solution élégante serait de séparer les différentes fonctions de l’interface utilisateur. La station météo Netatmo se réduit à sa plus simple expression, deux tubes métalliques avec une alimen-

une autoconfiguration particulièrement simple

visualisation d’un film à travers une connexion Internet

2

3 DÉCEMBRE 2013 - N° 7

27


Comment l’iPad a changé l’informatique La mise en route est simplissime pour l’utilisateur: z télécharger l’application ad hoc sur son smartphone ou sa tablette, z par le voisinage Bluetooth, la station météo propose de récupérer vos paramètres WiFi contenus dans l’iPhone, z munie de cet accès par Internet, elle s’autoconfigure, z la configuration se termine par la création d’un compte utilisateur et l’enregistrement de la garantie de l’appareil. La mise en route est bluffante, il n’est même pas nécessaire de déterminer le nom et le mot de passe de sa configuration WiFi à la maison. C’est la combinaison très subtile de l’application dans le téléphone liée par Bluetooth avec la station qui permet cet exploit. Cette connexion Bluetooth est également utilisée pour communiquer avec la station extérieure. L’utilisation simultanée de l’application sur l’iPhone ou iPad et du site Web offre un confort inégalable. Être toujours connecté aux nuages permet de présenter des vues statistiques détaillées de la météo locale, un rêve inaccessible dans les stations météo classiques. Le découplage entre les trois fonctions devient une évidence, il n’est plus nécessaire de devoir paramétrer l’appareil de manière exotique, l’interface utilisateur est remplacée par une application mobile ou un site Web. L’historique des mesures est naturellement conservé sur le nuage. Les économies réalisées dans l’absence d’affichage sont réinvesties dans les capteurs. Par exemple, mesurer le taux de CO2 permet d’aérer la pièce de manière rationnelle. Plus exotique le capteur de niveau sonore offre la vérification du bon déroulement de la vie familiale en particulier quand vous êtes absent. Ceci peut se révéler être une arme à double tranchant, si votre enfant dispose lui-même de l’application météo, il risque de vous reprocher l’heure effective de votre sommeil, lui qui a été obligé d’aller au lit plus tôt!

z la technologie Flash est abandonnée pour la vidéo, le format mp4 est maintenant un standard, z les nuages accompagnés par la dématérialisation des données sont devenus la norme, DropBox possède plus de 200 millions utilisateurs, techcrunch.com/2013/11/13/dropbox-hits200-million-users-and-announces-new-products-for-businesses/,

z les tablettes et smartphones sont devenus un support majoritaire pour les jeux, z la plupart des utilisateurs mobiles profite des applications gratuites dédiées pour la messagerie instantanée (kik et toutes les autres), z le marché du PC est en régression constante depuis trois ans. Seule, la Chine reste en progression, z sur le plan des systèmes d’exploitation, le modèle payant semble atteindre ses limites avec l’annonce de la gratuité de la nouvelle version de Mac OS X 10.9 le 22 octobre 2013, www. apple.com/osx/.

Conclusion, un monde en constante mutation Le changement du paysage informatique depuis 2010 semble incroyable, une régression constante de la vente des PC, un accroissement rapide des smartphones, et une explosion des tablettes, www.gartner.com/newsroom/id/2610015. Tous les acteurs sont abasourdis par ce changement, le grand public semble avoir basculé dans une logique totalement différente. À la technologie, la facilité d’utilisation a été préférée, la tablette est probablement la solution la plus adaptée aux besoins de la majorité d’entre nous. En 2010, à l’occasion de la conférence All Things Digital, Steve Jobs proposait une vision très futuriste pour l’époque, une décroissance de la vente de tous les PC, y compris ceux estampillés Apple. Le patron de Microsoft, Steve Ballmer, répondit par des arguments qui sonnent étrangement maintenant; la vision de cette vidéo est une illustration parfaite du changement que nous vivons, youtu.be/VWkRgNTJZuM. Il faut mettre en relation ses arguments avec les dernières prévisions d’IDC, www.idc.com/ getdoc.jsp?containerId=prUS24129713.

Remerciements

les prévisions météos sur un iPad avec Netatmo

Quatre ans après la révolution de l’iPad, quelles sont les conséquences sur le paysage informatique: z les sites Web sont interactifs, webkit est devenu le standard de facto à intégrer pour réaliser une page Web, en particulier pour supporter facilement les appareils tactiles, z la haute résolution des écrans est devenue concrète, les pixels ont disparu aux profits de texte d’une lisibilité parfaite,

28 flash informatique

Je profite de ce dernier numéro pour remercier tous les lecteurs du Flash informatique d’avoir lu les articles que j’ai rédigés depuis 1999. Je remercie également le comité de rédaction pour avoir permis d’élaborer l’alchimie nécessaire à la réalisation de ce journal. J’aimerais remercier plus particulièrement les deux catalyseurs exothermiques que sont Appoline Raposo et Jacqueline Dousson ainsi que le DIT pour avoir développé sur le long terme cette aventure. Dans le futur, je suis persuadé qu’il sera possible de trouver un espace de liberté pour exprimer les opinions de chacun dans une nouvelle formule. n


Analyse

MUlti-SYstem OPtimisation Nicole.Glassey@hevs.ch, Anne.LeCalve@hevs.ch, Alexandre.Cotting@hevs.ch, professeurs, Zhan.Liu@hevs.ch, doctorant, Fabian.Cretton@hevs.ch et Benjamin.Nanchen@hevs.ch adjoints scientifiques à l’Institut Informatique de Gestion de la HES-SO Valais-Wallis & Fabrice.Chapuis@he-arc.ch, professeur HEG Arc

How to optimize your choice of data models ? Comment optimiser le choix de vos modèles de données ? Smartphones, Cloud ou encore Big Data ont contribué à démultiplier la quantité de données ainsi que leur complexité. Les approches traditionnelles de gestion de données (stockage et traitement dans des bases de données relationnelles pour diffusion sur une plate-forme logicielle et/ou Web) ne sont pas toujours optimales et requièrent d’autres formes de modélisation et de diffusion de l’information. À présent, l’évolution des données doit être appréhendée de manière globale depuis leur capture jusqu’à leur exploitation en passant par leur stockage. De nouveaux modèles de structuration des données apparaissent avec leurs spécificités propres – leurs points forts et faiblesses, leurs niches d’utilisation – pouvant apporter de gros avantages aux SI. Ces différents modèles n’ayant pour le moment encore peu été utilisés de concert, il nous apparaît de plus en plus évident qu’une utilisation combinée permettrait de couvrir de façon pertinente l’ensemble du processus de la récolte à la diffusion sur tout type de canaux. Afin de réussir ce pari, il est primordial que les choix technologiques soient pilotés par les données, les traitements nécessaires et le type de diffusion attendu. Le cœur de MUSYOP (MUlti-SYstem Optimisation), un projet de l’Institut Informatique de gestion de la HES-SO Valais-Wallis en collaboration avec la HEG Arc, consiste justement à étudier comment mixer plusieurs modèles de structuration des données. Il s’agit de développer une architecture multisystèmes intégrant

différentes technologies de bases de données afin de stocker, traiter et exploiter de façon optimale des données hétérogènes (structurées, non structurées ou faiblement structurées). Pour ce faire, MUSYOP propose d’aborder des réflexions telles que: estce qu’une analyse des besoins et des données est faite avant de considérer les technologies de structuration des données? Le recul nécessaire, tant par rapport à la complexité des données (granularité, besoins variables en capacité hardware pour les traiter ou y accéder pendant leur durée de vie, …) que par rapport aux technologies existantes pouvant répondre à ces besoins, est-il vraiment pris? Les futurs accroissements en quantité de données sont-ils pris en compte dès le début?

D’un modèle unique à une solution multisystème Les systèmes d’information utilisent en général un ou deux types de modèles de données. Cela n’est bien souvent pas suffisant pour trouver des solutions innovantes permettant de répondre aux besoins des entreprises. Les nouveaux modèles de structuration des données comme NoSQL, XML ou sémantique ont chacun leurs caractéristiques utiles aux SI. Par exemple, le NoSQL apparaît comme une alternative au relationnel pour gérer des grands volumes de données dont la performance en lecture et écriture est la priorité, au détriment des propriétés ACID (Atomicity, Consistency, Isolation, Durability) des bases de données relationnelles. Le NoSQL propose plusieurs modèles de stockage permettant de s’adapter finement au type de données à traiter (modèle orienté colonne, document, clé-valeur, graphe). L’utilisation d’un seul de ces modèles de structuration de données ne peut cependant pas répondre à l’ensemble des besoins d’une application métier et couvrir de façon pertinente l’ensemble du processus de la récolte à la diffusion sur tout type de canaux.

Plate-forme de e-commerce

Plate-forme de e-commerce

Articles du panier d’achat Données d’authentification

Commandes passées

Données de session (profil utilisateur…)

Articles du panier d’achat

Proposition d’articles complémentaires Données d’analyse

Données d’authentification

Données de session (profil utilisateur…)

Proposition d’articles complémentaires

Données d’analyse

Triple store

LDAP

RDBMS

Commandes passées

NoSQL Orienté document

NoSQL Orienté colonne

Datawarehouse

NoSQL Orienté graphe RDBMS

fig. 1 – d’un datastore unique à une approche multisystème [1]

3 DÉCEMBRE 2013 - N° 7

29


MUlti-SYstem OPtimisation Il nous apparaît donc de plus en plus évident qu’une utilisation combinée (relationnel, NoSQL, XML ou sémantique) pourrait être une solution. Prenons l’exemple d’une plate-forme de e-commerce et considérons les données utiles à ce métier comme l’authentification, le profil de l’utilisateur ou son panier d’achats, nous remarquons que les besoins en terme de consistance, de performance, de disponibilité, d’analyse et de stratégie de sauvegarde ne sont pas les mêmes [1]. Afin de résoudre cette problématique, nous proposons une approche multisystème où chaque datastore implémente un modèle de stockage spécifique pour traiter un type particulier de données et capable de stocker des données utilisées par plusieurs applications (fig. 1).

Les modèles au service des données

Mettre en place une architecture multisystème au service des données nécessite de choisir les modèles adéquats. Le projet MUSYOP identifie les critères entrant en ligne de compte lors du choix d’une technologie. Les capacités techniques d’un modèle n’en sont qu’une des composantes, le plus important étant de comprendre le contexte du projet. Ceci permet de ressortir les critères les plus déterminants pour la décision finale. Cependant, un choix peut s’orienter vers une technologie a priori moins adaptée pour la représentation des données, mais répondant plus efficacement à d’autres critères comme le volume de données, la sécurité ou encore les possibilités de requêtage. Acquisition Données brutes des capteurs

Statistiques, archivage

Transformation en JSON

Stockage MongoDB

Map-Reduce données à la semaine

Exportation en RDF

Mash-up, analyse de données liées: consommation/ situation géographique/ météo

Données météo en RDF TripleStore

Données de géolocalisation en RDF

fig. 2 – Data Flow de données énergétiques

Le domaine de l’énergie illustre particulièrement bien cette problématique. Des capteurs relèvent fréquemment (heure, minute ou même seconde) des données énergétiques telles que consommation, production et stockage. Ceci implique donc une contrainte de performance en termes d’écriture et capacité de stockage lors de l’acquisition de ces informations. Une approche NoSQL-MongoDB (JSON) peut être recommandée. L’exploitation de ces données brutes est déjà possible, mais leur transformation (par exemple, journalisation ou mensualisation par un algorithme

30 flash informatique

de map-reduce) est également envisageable afin que celles-ci répondent aux besoins d’autres applications. Par exemple, une exportation en RDF dans un triple store permet de les lier avec d’autres informations telles que des données de géolocalisation ou des données météorologiques. Ceci permet de nouvelles possibilités d’analyse et de requêtage.

Une méthodologie simple pour choisir ses modèles Afin d’accompagner les entreprises dans leur démarche pour déterminer les modèles adéquats, nous proposons une méthodologie simple associant plusieurs outils, parmi lesquels un questionnaire élaboré permettant d’appréhender le contexte du projet, une matrice conceptuelle et une matrice chromatique aidant à pondérer les forces et les faiblesses pour chaque modèle en fonction d’un ensemble de critères préalablement déterminés. Le questionnaire ouvert permet d’identifier les points clés pour les choix technologiques. Premièrement, il s’agit de déterminer les connaissances techniques de nos interlocuteurs ainsi que les technologies utilisées au sein de l’entreprise. Puis, les particularités du projet (contraintes, impératifs de sécurité, mise en production) sont étudiées. Dans un troisième temps, toutes les caractéristiques des données sont prises en compte (type, acquisition, mise à jour, traitement, représentation, volume, liaisons, schéma, requêtage, stockage, évolution prévue, accès). Finalement, une discussion ouverte sur les expériences de nos interlocuteurs nous permet de cerner au mieux leurs besoins. Cette étape permet d’obtenir une représentation schématique du besoin client (architecture hautniveau et data-flow des services). Elle sert également à définir une Vision Box et un Product Backlog (thèmes/services). Une matrice conceptuelle des données (fig. 3) s’intéressant plus particulièrement à la nature des informations traitées par l’application a été pensée. Celle-ci fait suite au questionnaire proposé au client et a pour but de regrouper dans différentes catégories l’ensemble des données traitées par l’application. La matrice chromatique réalisée représente les différents critères de choix par rapport aux modèles de données. Elle permet d’indiquer la force de chaque modèle pour chacun des critères (fig. 4). Cinq catégories principales (données, schéma, requête, système et sécurité) permettent de comparer quatre modèles (NoSQL, RDBMs, XML et sémantique). La matrice chromatique prend en compte des critères liés à la performance et à la disponibilité du système, à la volumétrie, aux différents types de requêtes pouvant s’exécuter sur le système. En confrontant celle-ci avec les données récoltées lors des entretiens, il est possible d’effectuer des choix en vue de l’élaboration de l’architecture multisytèmes. En sus de ces trois outils notre méthodologie a permis également d’explorer d’autres pistes de réflexion telles que: z une matrice table de décision (dans laquelle les couples conditions ou critères de choix, actions ou choix du modèle, deviennent les règles de la table de décision), z ainsi qu’un raisonneur OWL DL (intégrant une ontologie basée sur la logique de description pouvant jouer un rôle similaire à un système expert).


MUlti-SYstem OPtimisation

Entreprise/Projet

Traitement des Données

Acquisition des Données

Existant

Transformations

Provenance, format

Connaissances techniques

Changement de format, ETL

S, SS, NS / BLOB

Learning Curve (si changement)

Vérifications

Agréger

Technologies utilisées (DB, logiciels, lang.)

Taille / Write intensive

Données concernées

Sensibilité

Budget

Calcules Inférences

Latency (critique seuls pr super gros syst.) Hybrid system/Data space

Stockage (outil?) ACID / BASE Cluster ou nœuds ? CAP, Réplication (A) Fédération Horizontal scaling, Sharding Sécurité Authentification

Agrégation, Map-Reduce Updates, CRUD

Données (dans un format) Volumétrie (BigData ou autre critère ?)

Fréquence

Inclus du sens – sémantique large

Requêtage

Sensibilité (besoin de sécurité)

Requêtes nécessaires connues à l'avance ?

Versioning *

Read-intensive/temps de réponse

Liens entre les données

Specific features

Entre les données locales

FullText search

Vers d'autres données externes

Semantic search (syn., etc.)

Rôles (droits d'accès)

GeoSpatial*

Encryptage

Parcours de graph

Schéma

Distribution des données (WEB)

Latency (critique seuls pr super gros syst.)

Design

Maturité du système

Réutiliser, complexité

API

Agréger Publication Disponibilité des Données

Utilisateurs

Besoin de DL ?

Quantité (en lecture, en) update

24/7

Droits

Accès Web ?

Evolutivité

Intranet/Extranet/Internet

Prévision future pour chaque point

Web 3.0

• • • •

Utilité de sémantique au sens large Dans les données Au niveau des schémas Dans la couche BL – algos Au requêtage

fig. 3 – matrice conceptuelle des données

Une plate-forme multisystème !

Caractéristiques / Critères Données structurées Nature

Données semi-structurées Données non-structurées Cardinalité (1,*)

Données

Relation

Relations locales (intégrité référentielle) Relations externes vers d'autres sources (URL)

Versionning Volumétrie Schéma

Avec / Sans Performance

Requête

Transactionnel Analyse

Système

Schema-based Schema-less Troughput (requêtes par h/m/s) ACID Non ACID Requêtes analytiques, cube Map-reduce

Disponibilité

Réplication

Cluster

Partitions (sharding)

Authentification Sécurité

< 100G Big Data

Droits d'accès (rôles) Encryption

fig. 4 – matrice chromatique

NoSQL

Web sémantique

XML

RDBMs

Orienté Graphe

Orienté Document

Clé-valeur

mauvais possible bon point clé du modèle

Orienté Colonne

Modèles

Cette première phase d’analyse nous conforte dans l’idée que l’utilisation simultanée de plusieurs modèles est une piste des plus intéressantes. L’objectif principal du projet MUSYOP est de créer un framework qui combine différentes bases de données, tels que bases de données relationnelles, NoSQL, sémantique et XML. La suite du projet va nous permettre de monter et tester une plateforme multisystème intégrant ces modèles. Il s’agira plus particulièrement de surmonter des défis techniques spécifiques à cette architecture comme la cohabitation de SGDB différents, leur communication tout en respectant la structure et le flot des données. Les données pourront alors transiter d’un système à l’autre. Afin d’avoir une vue uniforme des données, le prochain défi reposera donc sur la mise en place d’un module de requêtage multisystème unifié.

Référence [1] SADALAGE Pramod. J. & FOWLER Martin. NoSQL Distilled. 2012, pp. 136-137. n 3 DÉCEMBRE 2013 - N° 7

31


Comment faire ?

Algorithme de calcul d’une racine carrée Benjamin.Barras@epfl.ch, EPFL - Domaine-IT, Responsable Linux

The algorithm presented here is used to calculate a square root simply, efficiently and very accurately. L’algorithme présenté ici, permet de calculer une racine carrée de manière simple, efficace et d’une précision redoutable.

Introduction Après avoir parlé de l’algorithme CORDIC [1] dans le numéro précédent, je vous propose de découvrir en détail l’algorithme de calcul d’une racine carrée utilisé dans les calculatrices HP. On trouvera l’article original, qui décrit cet algorithme, dans le HP Journal [2].

Vocabulaire Avant de décrire cet algorithme, nous avons besoin de définir un peu de vocabulaire: z 0,1,2,3,4,5,6,7,8,9 sont des chiffres (digit); z on forme un nombre avec des chiffres; z exemple: 1267 est un nombre formé avec les chiffres 1, 2, 6, 7; z on travaillera toujours en base 10; z rappel: 1267=1⋅103+2⋅102+6⋅101+7.

Calculs Cherchons la prochaine valeur du chiffre b qui se trouve à la position j: a j=a+b ⋅10 j avec a qui est notre une valeur approchée (nombre). Les restes sont: Ra=x–a2 et Raj=x–aj2 Remarque: Ra ≥ Raj puisque aj est plus proche de x. Définissons Rb comme le solde de la différence lorsque l’on ajoute b⋅10j à a: Rb=Ra–Raj=aj2–a2 Donc, d’après l’équation ci-dessus: Ra–Rb=Raj≥0 donc Ra≥Rb

Premiers développements Calculons Rb: Rb=aj2–a2= (a+b ⋅10 j ) 2–a2=a2+2ab ⋅10j+b2⋅102j–a2=2ab ⋅10 j+b2 ⋅102j Donc b est le plus grand chiffre possible tel que: 2ab⋅10j+b2⋅102j ≤Ra Une fois que l’on a trouvé b, a est recalculé en y ajoutant la valeur b⋅10j, soit aj =a+b⋅10j. On recalcule Ra , soit Raj= Ra–Rb . Enfin, on décrémente j de 1.

Deuxième exemple Deuxième approche, calcul de 54756 a=200, Ra=x–a2=54756–40000=14756, j=1

Présentation de l’algorithme Première approche z On cherche la valeur de , z Prenons a une valeur approchée de , et calculons le reste: R=x-a2, z Si R>0, on augmente a et on recommence, z Encore faut-il choisir une méthode ?

Rb=2ab⋅10 j+b2⋅102j

Ra–Rb

0

0

14756

1

4100

10656

2

8400

6356

3

12900

1856

4

17600

-2844

Donc a=200+3⋅101=230, Ra=1856, j=0 Simple, pas compliqué, mais on peut faire mieux !

Première subtilité

Premier exemple Première approche, calcul de 54756 a

R=54756-a2

200

14756

R > 0 a=200 est une valeur approchée

210

10656

R > 0 on augmente a

Signe

Notes

220

6356

R > 0 on augmente a

230

1856

R > 0 on augmente a

R < 0 stop, nouvelle valeur approchée: a=230 Simple, pas compliqué, mais on peut faire mieux ! 240

b

-2844

32 flash informatique

Il faut savoir qu’on écrit z un nombre pair: p=2n avec n  ∈ N z un nombre impair: p=2n –1 avec n  ∈ N–0

Théorème b2=

b

2n–1 somme des nombres impairs jusqu’à 2b–1.

n=1 Exemple:

b=6 2b–1=11 b2=36=1+3+5+7+9+11


Algorithme de calcul d’une racine carrée

Preuve

n

10a⋅10j +(10n–5)⋅102j

5⋅Rb

5⋅Ra–5⋅Rb

1

20500

20500

53280

2

21500

42000

31780

3

22500

64500

9280

4

23500

88000

-14220

Donc b=3, a=200+3⋅101=230, 5⋅Ra =9280, j=0 Remarque: 23500 sont les premiers chiffres qui apparaissent pour 54756 .

Suite

x = 54756 ,a=230, Ra =x–a2=54756–52900=1856, j=0 5⋅Rb =

Les lignes blanches et noires représentent les nombres impairs. Il suffit de compter le nombre de carré. Reprenons notre calcul, avec: b b b2= ∑ 2n–1 b= ∑ 1 n=1 n=1 Ce qui nous donne: b Rb= 2ab⋅10j+b2⋅102j = ∑ (2a⋅10j +(2n–1)⋅102j) n=1

Deuxième subtilité Reprenons notre inégalité: Ra≥Rb. Multiplions par 5 des deux côtés: 5⋅Ra≥5⋅Rb. Calculons 5⋅Rb: b b 5⋅Rb =5 ∑ (2a ⋅10 j + (2n–1)⋅10 2j ) = ∑ (10a ⋅10 j+(10n–5)⋅10 2j ) n=1 n=1 Rappel: b est le plus grand chiffre possible tel que 5⋅Ra≥5⋅Rb reste vérifiée: Raj =Ra–Rb ≥0, donc 5⋅Raj =5⋅Ra–5⋅Rb ≥0.

Troisième exemple

x = 54756 ,a=200,

b

n=1

(10a⋅10j +(10n–5)⋅102j), 5⋅Ra =9280

n

10a⋅10j +(10n–5)⋅102j

5⋅Rb

5⋅Ra–5⋅Rb

1

2305

2305

6975

2

2315

4620

4660

3

2325

6945

2335

4

2335

9280

0

5

2345

11625

-2345

Donc b=4, a=230+4=234 qui correspond aux chiffres 2345.

Quelques questions Que prenons-nous pour la valeur approchée de a ? – La plus simple et logique possible, soit: a=0 Que prenons-nous pour la valeur de j ? – La plus simple possible soit: j=0 En effet, un nombre s’écrit de la manière suivante: 0.0000000E00. Le premier chiffre ∈0,1,2,3,4,5,6,7,8,9. On commence donc par calculer la partie entière, et après les décimales. On fait comme à l’école, on efface la virgule et on la recolle à la fin du calcul. De toute façon, les registres ne s’encombrent pas de virgules. Mais on y reviendra à la fin.

De la théorie à la pratique

Ra =x–a2=54756–40000=14756, j=1 b 5⋅Rb = ∑ (10a⋅10j +(10n–5)⋅102j), 5⋅Ra =73780 n=1

Exemple pratique 2 Rappel: 10a⋅10j +(10n–5)⋅102j x a 5Ra

: 00000002 : 00000000 : 00000010

8 chiffres (digits) Ra = x - a² = 2

Premier problème: on doit faire un décalage (shift) 5Ra : 10000000 avec shift 5Rb : 05000000 n = 1 ========== 5Ra-5Rb : 05000000 5Rb : 15000000 n = 2 ========== 5Ra-5Rb : 990000000 overflow => b = 1 & a = 10000000 j = j - 1 => a = shift droit, (10n-5) double shift droit 5Ra : 05000000 5Ra = 5Ra-5Rb 5Rb : 01050000 n = 1 ========== 5Ra-5Rb : 03950000 5Rb : 01150000 n = 2 ==========

3 DÉCEMBRE 2013 - N° 7

33


Algorithme de calcul d’une racine carrée 5Ra-5Rb : 02800000 5Rb : 01250000 n = 3 ========== 5Ra-5Rb : 01550000 5Rb : 01350000 n = 4 ========== 5Ra-5Rb : 00200000 5Rb : 01450000 n = 5 ========== 5Ra-5Rb : 998750000 overflow => b = 4 & a = 01400000 & j = j - 1 5Ra : 00200000 5Ra = 5Ra-5Rb 5Rb : 00140500 n = 1 ========== 5Ra-5Rb : 00059500 5Rb : 00141500 n = 2 ========== 5Ra-5Rb : 999918000 overflow => b = 1 & a = 00141000 & j = j - 1 5Ra : 00059500 5Ra = 5Ra-5Rb 5Rb : 00014105 n = 1 ========== 5Ra-5Rb : 00045395 5Rb : 00014115 n = 2 ========== 5Ra-5Rb : 00031280 5Rb : 00014125 n = 3 ========== 5Ra-5Rb : 00017155 5Rb : 00014135 n = 4 ========== 5Ra-5Rb : 00003020 5Rb : 00014145 n = 5 ========== 5Ra-5Rb : 999988875 overflow => b = 4 & a = 00014140 & j = j - 1 5Ra : 00003020 5Ra = 5Ra-5Rb 5Rb : 0000141405 n = 1 ==========

Deuxième problème: on a épuisé notre quota avec seulement 4 chiffres (digits) trouvés. Solution: on fait un shift gauche à chaque étape. On retrouve à ce sujet, une phrase dans l’article original qu’il faut apprendre à décoder: During the process of finding the re-

mainder Ra progressively decreases. To avoid losing accuracy, this remainder is multiplied by 10 j after finding each new digit b. This avoids shifting a at all, once the square root extraction process begins.

On recommence 5Ra : 10000000 5Rb : 05000000 ========== 5Ra-5Rb : 05000000 5Rb : 15000000 ========== 5Ra-5Rb : 990000000 5Ra : 50000000 5Rb : 10500000 ========== 5Ra-5Rb : 39500000 5Rb : 11500000 ========== 5Ra-5Rb : 28000000 5Rb : 12500000 ========== 5Ra-5Rb : 15500000 5Rb : 13500000 ========== 5Ra-5Rb : 02000000 5Rb : 14500000 ========== 5Ra-5Rb : 987500000 5Ra : 20000000 5Rb : 14050000 ========== 5Ra-5Rb : 05950000 5Rb : 14150000 ========== 5Ra-5Rb : 991800000 5Ra : 59500000 5Rb : 14105000 ========== 5Ra-5Rb : 45395000 5Rb : 14115000 ==========

34 flash informatique

n = 1 n = 2 overflow => b = 1 & a = 10000000 & j = j - 1 5Ra = 5Ra-5Rb avec shift n = 1 n = 2 n = 3 n = 4 n = 5 overflow => b = 4 & a = 14000000 & j = j - 1 5Ra = 5Ra-5Rb avec shift n = 1 n = 2 overflow => b = 1 & a = 14100000 & j = j - 1 5Ra = 5Ra-5Rb avec shift n = 1 n = 2


Algorithme de calcul d’une racine carrée 5Ra-5Rb : 31280000 5Rb : 14125000 ========== 5Ra-5Rb : 17155000 5Rb : 14135000 ========== 5Ra-5Rb : 03020000 5Rb : 14145000 ========== 5Ra-5Rb : 988875000 5Ra : 30200000 5Rb : 14140500 ========== 5Ra-5Rb : 16059500 5Rb : 14141500 ========== 5Ra-5Rb : 01918000 5Rb : 14142500 ========== 5Ra-5Rb : 987775500 5Ra : 30200000 5Rb : 14140500 ========== 5Ra-5Rb : 16059500 5Rb : 14141500 ========== 5Ra-5Rb : 01918000 5Rb : 14142500 ========== 5Ra-5Rb : 987775500

n = 3 n = 4 n = 5 overflow => b = 4 & a = 14140000 & j = j - 1 5Ra = 5Ra-5Rb avec shift n = 1 n = 2 n = 3 overflow => b = 2 & a = 14142000 & j = j - 1 5Ra = 5Ra-5Rb avec shift n = 1 n = 2 n = 3 overflow => b = 2 & a = 14142000 & j = j - 1

5Ra : 19180000 5Ra = 5Ra-5Rb 5Rb : 14142050 n = 1 ========== 5Ra-5Rb : 05037950 5Rb : 14142150 n = 2 ========== 5Ra-5Rb : 990895800 overflow => 5Ra : 50379500 5Ra = 5Ra-5Rb 5Rb : 14142105 n = 1 ========== 5Ra-5Rb : 36237395 5Rb : 14142115 n = 2 ========== 5Ra-5Rb : 22095280 5Rb : 14142125 n = 3 ========== 5Ra-5Rb : 07953155 5Rb : 14142135 n = 4 ========== 5Ra-5Rb : 993811020 overflow => 5Ra : 79531550 5Ra = 5Ra-5Rb 5Rb : 141421305 n = 1

Troisième problème: il nous manque un chiffre à droite

avec shift

b = 2 & a = 14142100 & j = j - 1 avec shift

b = 3 & a = 14142130 & j = j - 1 avec shift

Solution: on ajoute un chiffre à droite

5Ra : 795315500 5Ra = 5Ra-5Rb avec shift 5Rb : 141421305 n = 1 ========== 5Ra-5Rb : 653894195 5Rb : 141421315 n = 2 ========== 5Ra-5Rb : 512472880 5Rb : 141421325 n = 3 ========== 5Ra-5Rb : 371051555 5Rb : 141421335 n = 4 ========== 5Ra-5Rb : 229630220 5Rb : 141421345 n = 5 ========== 5Ra-5Rb : 088208875 5Rb : 141421355 n = 6 ========== 5Ra-5Rb : 9946787520 overflow => b = 5 & a = 14142135

Réponse: 2 =1.4142135

Vérification

trouvé: 2 =1.4142135 que l’on peut facilement vérifier à l’aide de la commande bc (bc - An arbitrary precision calculator language) de la fondation GNU (gnu.org):

Il est toujours très important de vérifier ses résultats [3]. On a 3 DÉCEMBRE 2013 - N° 7

35


Algorithme de calcul d’une racine carrée echo 'scale=7; sqrt(2)' | bc 1.4142135

5Ra : 13441930443550000 5Rb : 14142135623730500 ================= 5Ra-5Rb : 999299794819819500

Bug du shift gauche En faisant un shift à gauche pour Ra , on a introduit un bug. Démonstration: n = 1 overflow => b = 0

5Ra : 134419304435500000 5Rb : 14142135623730050 ================= 5Ra-5Rb : 20277168811769950

5Ra = 5Ra-5Rb avec shift n = 1

5Ra-5Rb : 120277168811769950

La vraie soustraction

Quatrième problème: il nous manque un chiffre à gauche 5Ra : 013441930443550000 5Rb : 014142135623730500 =================== 5Ra-5Rb : 999299794819819500 5Ra : 134419304435500000 5Rb : 014142135623730050 =================== 5Ra-5Rb : 120277168811769950

Solution: on ajoute un chiffre à gauche

n = 1 overflow => b = 0 5Ra = 5Ra-5Rb avec shift n = 1

Calcul de l’exposant

Bonus

Reprenons notre nombre:

Je vous propose de tester [6] cet algorithme à l’aide d’un programme que j’ai écrit en javascript que l’on peut exécuter à l’aide d’une simple page HTML ou de télécharger l’archive complète [7] si vous souhaitez voir le code source. Avec ce programme, vous pouvez choisir le nombre de virgules que vous voulez et vous pouvez voir toute la trace du calcul tel que présenté dans le présent article. J’ai poussé la plaisanterie assez loin, puisque je n’utilise pas d’addition ni de soustraction, tous les calculs se font à l’aide de tables. Cela juste pour prouver que l’on peut calculer une racine carrée sans avoir besoin d’unité arithmétique.

0.0000000E00

x ⋅10e = x ⋅ 10e = x ⋅ 10e/2 Si e est pair: no problemo. Si e est impair: x ⋅ 10e/2 = 10 ⋅x ⋅ 10(e–1)/2 . Il faut faire un shift gauche pour x avant de commencer les calculs.

Troisième subtilité Comment fait-on pour diviser par 2 puisque l’on travaille en base 10 et que l’on a ni division, ni multiplication ? Difficile de trouver plus simple: x ÷ 2=(x ⋅ 5) ÷10. Donc, on fait 5 additions et un shift droit. Exemple 123 ÷ 2=(123 ⋅ 5) ÷ 10: 00123 00123 ===== 00246

00246 00246 ===== 00492

00492 00123 ===== 00615

00615 000615 Réponse: 61 reste 0.5 (carry)

C’est également un moyen de savoir si un nombre est pair ou impair (carry).

Quelques commentaires On ne trouve pas dans l’article de William E. Egbert trois choses: 1 le chiffre ajouté à droite; 2 Le chiffre ajouté à gauche; 3 La subtilité de la division par 2. Par contre, on trouve ces astuces dans le listing [4] d’une calculatrice HP35 ainsi que dans la trace d’exécution d’un calcul de racine carrée [5].

36 flash informatique

Références [1] Algorithme CORDIC: FI6/13, flashinformatique.epfl.ch/spip. php?article2692. [2] Personal Calculator Algorithms I: Square Roots. [3] J’ai poussé la vérification de cet algorithme jusqu’à 100’000 décimales pour le calcul de la racine carrée de 2, à l’aide d’un programme écrit en perl et n’utilisant que des tables d’additions et de soustractions (pas d’unité arithmétique) dans le même esprit que le programme en javascript proposé. On peut trouver facilement des valeurs sur le Web qui permettent la comparaison. [4] HP35 square root algorithm: www.jacques-laporte.org/ Square_root.htm. [5] Trace de l’algorithme d’une calculatrice HP: www.jacques-laporte.org/sqrt_1156.txt. [6] Programme en javascript: https://documents.epfl.ch/users/b/ ba/barras/www/Download/squareRoot/sqrt.html. [7] L’archive complète: https://documents.epfl.ch/users/b/ba/barras/www/Download/squareRoot/javascript.tar.gz. n


Actualités

Coup d'œil sur Cyclope François.Roulet@epfl.ch, EPFL - Domaine IT, responsable de la plate-forme Apple

AppleShare no longer used for Apple Software Distribution at EPFL. Arrêt du service AppleShare pour la distribution de logiciels Apple à l’EPFL.

logicielle Windows. Aussi, nous avons posé la première brique  1 de ce déménagement l’été dernier en saisissant l’avènement de la suite Adobe CS6 pour inaugurer la distribution de logiciel Apple par le serveur Olympe. Plusieurs raisons dictent cette migration:  Apple a abandonné sa ligne de serveurs Xserve en novembre 2010! images.apple.com/xserve/pdf/L422277A_Xserve_Guide. pdf

Copie d’écran de notre serveur Cyclope le 11 novembre 1986

Tout comme le Flash informatique, après 28 ans de bons et loyaux services, le serveur de distribution logicielle Apple Macintosh à l’EPFL tirera sa révérence à la fin de l’année. Cyclope doit son nom au fait d’être le premier serveur à stockage entièrement optique de l’EPFL, puisqu’initialement composé de 1986 – un Mac Plus avec un lecteur optique de CD-ROM 650 MB et deux lecteurs magnéto-optiques 650 MB (325 MB par face, donc réellement accessibles), et bien sûr, le logiciel de partage de fichiers AppleShare. Il sera remplacé successivement en: 1990 – par un Mac IIfx, 1996 – par un WorkGroup Server AWS 8550, pilotant 14 lecteurs de CD-ROM, 2002 – par le premier serveur Apple rackable, le Xserve avec stockage externe RAID, 2009 – par le Xserve Xeon avec stockage interne RAID. Malheureusement, des contraintes techniques ont eu raison de son existence, et des mesures de rationalisation nous conduisent inéluctablement à regrouper ce service sur les services centraux du DIT. Dorénavant, toute la distribution logicielle Apple est assurée par le NAS du DIT via le portail Olympe, comme pour la distribution

 Apple cessera le support matériel (pièces de rechange) de nos Xserve (spring 2009), au début 2014.  La sauvegarde des serveurs Mac OS X par NetBackup s’est avérée inutilisable.  Depuis la généralisation de OS X, et par conséquent l’abandon du Mac OS 9, sur le site EPFL, il n’y a plus de nécessité de servir le protocole afp:// car tous les OS X clients supportent nativement le protocole smb:// . Heureusement, ce changement en apparence important demeure entièrement transparent, car selon les directives internes à l’EPFL, l’accès au logiciel doit impérativement s’effectuer via le portail Distrilog; et ce dernier dirige d’ores et déjà les clients sur le serveur Olympe aussi pour l’accès aux logiciels Mac. Nous vous remercions de votre compréhension, et restons à votre disposition pour tout renseignement complémentaire.

Références  dit-archives.epfl.ch/FI99/fi-1-99/1-99-page3.html  labview.epfl.ch/anni/FI_1_96.pdf  Bric-à-Mac – Appleshare, FI 5 du 27 juin 1989, flashinformatique.epfl.ch/IMG/pdf/fi-5-89.pdf

 Bric-à-Mac – Cyclope,

FI 7 du 23 octobre 1990,

flashinformatique.epfl.ch/IMG/pdf/fi-7-90.pdf n

Cyclope, personnage du film Monstres et Cie des studios Pixar

l’adobe est la brique de terre crue, moulée et séchée au soleil

1

3 DÉCEMBRE 2013 - N° 7

37


Actualités

Disparition d'un compagnon de route appoline.raposo@epfl.ch, EPFL - Domaine IT, rédacteur en chef a.i.

Last column or Chronicle of a Death Foretold on page 3. Dernier clavitorial qui pourrait s’appeler ... chronique pour une mort annoncée en page 3.

1986, … 2013, et … ? Les dés sont jetés, nous rédigeons en ce moment la dernière édition du Flash informatique. Pourquoi ? Les départs à la retraite de Jacqueline Dousson en mars dernier et le mien dans quelques mois, auront-ils aidé à l’arrêt de ce média? Peut-être ? Mais tant mieux ou dommage ? Il est encore trop tôt pour en parler objectivement. Que cela me donne l’occasion de revenir un peu sur nos pas et de faire un petit tour d’horizon sur ce parcours qui a été très agréable et dont, sans fausse modestie, tous les acteurs du FI peuvent être fiers.

Qu'était-ce que le Flash informatique? en chiffres 28 années, 1986 - 2013 1 édition spéciale en 1993 à l’occasion d’un accord de partenariat entre la maison Cray et l’EPFL, z 3 numéros spéciaux Calcul à Haute Performance en 2007, 2008 et 2009, qui ont servi de transition entre le EPFL Supercomputing Review et le Zetta, z 4 numéros spéciaux étudiants, en 2010, 2011, 2012 et 2013, distribués aux nouveaux étudiants à la rentrée de septembre. z 22 numéros spéciaux été, axés sur un thème en adéquation avec l’actualité: w en 1990, PAO-PréAO w en 1991, Échanges w en 1992, Ouvrez les fenêtres w en 1993, Le multimédia w en 1994, Informatique et Médecine w en 1995, Réseaux et Applications w en 1996, Terra Informatica w en 1997, Le techno-quotidien w en 1998, Volumes w en 1999, Tique et Puce à l’École w en 2000, Sécurité w en 2001, Logiciels libres z z

38 flash informatique

w en 2002, Informatique mobile w en 2003, Hippocrate, le gène et la puce w en 2004, Technologies de formation: l’âge de la maturité w en 2005, AlterIT w en 2006, SécurIT w en 2007, Images w en 2008, Pérenne-IT w en 2009, Mobil-IT w en 2010, Société 2.0 w en 2011, D, Données, Documents, DRM,… z 295 numéros tirés à 4000 exemplaires, z 6500 pages, z 2300 articles, z 22 pages par numéro en moyenne, z 8 articles par numéro en moyenne, z 11 concours de la meilleure nouvelle, z 3 concours, style jeux de piste, réservés aux étudiants.

en personnes z 4000 lecteurs, dont un millier d’abonnés en Suisse et à l’étranger, les autres étant les étudiants et les collaborateurs des EPF et universités suisses, sans oublier les 860 abonnés à la version électronique. z 600 auteurs, ayant écrit chacun de 1 à 150 articles, z 1 rédacteur en chef a.i., Appoline, z 1 claviste, Appoline, z 4 relecteurs, Julia, Benjamin, François et Jacqueline, z 1 comité de rédaction, aujourd’hui de 10 membres, z 1 dessinateur, Esteban depuis 15 ans.

côté impression z z z z z z

Roland ou Anne-Sylvie pour faire les plaques, Philippe, le conducteur pour l’impression, Enver pour l’impression des enveloppes, Danièle pour la tenue à jour du fichier d’adresses du DIT, Sandra pour la tenue à jour du fichier d’adresses d’Alliance, Un atelier externe pour le piqué dans le pli et l’expédition.

côté Internet Nous sommes très bien placés par les moteurs de recherche Google en français. Le site Web réalisé avec le CMS SPIP depuis 2004 a été enrichi avec les articles qui existaient déjà sur le Web depuis 1994; puis ont été ajoutés les pdf des revues de 1986 à 1994. Le site contient maintenant une archive de l’informatique à l’EPFL de 28 années; il reçoit environ 250 visiteurs par jour. Quelques éditions sont sur issuu.com. Cette année, le numéro spécial étudiants a été imprimé 2851 fois selon le site et les autres revues entre 500 et 1200 fois chacune.


Disparition d'un compagnon de route

Pérennité le site Web Le site Web restera une référence historique de l’informatique à l’EPFL et la base de données SPIP restera accessible, à l’adresse flashinformatique.epfl.ch, le directeur du Domaine IT l'affirme dans son article en page 3.

le musée Bolo Une collection complète des revues papier reliée trouvera sa place dans le musée Bolo, www.bolo.ch, à côté de toute la gamme des Macintosh sur lesquels ont été composés tous les numéros.

l’archive Une archive de tous les numéros en format pdf sera gravée sur une clé USB que nous offrirons à tous nos lecteurs désireux de conserver une trace de ce journal. Cette offre restera valable jusqu’à épuisement du stock. Pour recevoir cette clé, dans le courant du premier trimestre 2014, il vous suffira de remplir le formulaire que vous trouverez à l'adresse: inform.epfl.ch/?form=FI.

la suite … Le Flash informatique, rappelons-le, c’était: z des articles sur l’informatique en français, z des articles, un peu trop techniques pour certains,

des trucs et astuces, un peu trop basiques pour d’autres, des expériences de Jean, Jacques, Pierre, Paul ou Laurent, des comptes-rendus de conférences, des comment-faire pour s’adapter à cette technologie toujours renouvelée, z des recommandations face aux menaces de phishing, spams, piratages, etc. z bref,... les échos de notre planète informatique ? Jean-Claude Berney vous donne dans sa lettre quelques pistes à suivre pour retrouver ces informations. Certes, nous nous dirigeons vers le tout Internet, mais quel Internet voulons-nous ? c’est là un vrai sujet à réflexion. Le défi est lancé, maintenant reste à le relever. z z z z

Remerciements J'aimerais remercier tout d'abord les personnes sans qui le FI n'aurait pas pu réaliser ce magnifique parcours, à savoir ses fondateurs Pierre Pury et Gérald Garcia et ensuite toutes les personnes suscitées pour leur participation sans défaillance. Ma gratitude s'adresse à vous tous auteurs, relecteurs, dessinateurs, etc. Un grand merci à nos lecteurs fidèles ou sporadiques sans lesquels le Flash informatique n’aurait eu aucune raison d’être. Vous l'aurez compris, j'ai énormément apprécié d'avoir travaillé avec vous tous pendant ces presque trois décennies. n

3 DÉCEMBRE 2013 - N° 7

39


Actualités

Qui a tué le Flash informatique? Jacqueline.Dousson@gmail.com,  rédacteur en chef du FI d'avril1994 à mars 2013

No, it was not Colonel Mustard in the cafeteria with an English cane. They are many suspected culprits, but as they were not aware of what they were doing, they will be granted extenuating circumstances. Non, ce n’est pas le Colonel Moutarde dans la cafétéria avec une canne anglaise. Les présumés coupables sont multiples, mais comme ils l’ont fait sans s’en rendre compte, on leur accordera des circonstances atténuantes.

Premier coupable possible: l'âge de la retraite Même si certains illuminés voudraient le repousser jusqu’à septante ans pour les hommes, septante-deux pour les femmes (normal, elles vivent plus longtemps!), tout le monde est d’accord pour admettre qu’il est justifié de changer d’air après toutes ces heures consacrées à une activité salariée, même si celle-ci était gratifiante, intéressante, etc. Donc bien évidemment, ce n’est pas notre départ, le mien suivi de celui d’Appoline, qui a pu provoquer l’arrêt définitif de cette revue; le FI n’existait pas que pour ceux qui en avaient la charge, il avait su faire sa place dans les médias de veille technologique. C’était pour beaucoup de services informatiques un moyen de connaître les orientations de notre prestigieuse École, l’expérience des autres étant toujours très utile. Les lecteurs moins férus d’informatique, mais néanmoins curieux y trouvaient des articles, certes pas toujours écrits de façon professionnelle, mais présentant l’informatique de l’intérieur. Le FI aurait pu, même dû, évoluer avec d’autres acteurs aux commandes.

Deuxième éventualité: les méthodologies Afin d'améliorer l'efficacité de leurs processus, les services informatiques modernes peuvent s'aider de méthodes qui ont déjà fait leurs preuves dans d'autres contextes; c'est le choix pris par le DIT depuis plus d'un an (voir à ce sujet l'article de Michel Naguib dans le FI5/2013). Les bonnes pratiques conseillées ne laissent guère de place à un vecteur d'information comme le FI, on doit juste documenter les prestations, et loin de moi l’idée de dire que c’est facile, je connais les difficultés de cette tâche.

en français sur Google, mettaient en bonne place les articles du FI, qui n’étaient pas noyés dans l’océan des articles techniques en anglais. À l’heure où il est sérieusement envisagé de développer des MOOCS (ou CLOMS: cours en ligne ouverts et massifs) en français, pour un public francophone longtemps négligé, dommage d’abandonner une revue technique en français, qui a su faire ses preuves et acquérir un lectorat.

Enfin quatrième candidat: la modernité Tout le monde sait que le papier c’est ringard, dématérialisons donc et entrons dans le cloud ! Mais les journaux qui passent au numérique ne jettent pas tous le papier, en dehors sans doute des quotidiens. Quel que soit le média (matériel ou non), une revue a besoin d’une équipe, comité de rédaction, auteurs, etc. Supprimer aujourd’hui le FI c’est se passer de toute cette structure qui existe et qui a su perdurer. Le choix de notre confrère de l’UNIL il y a quelques années fut de passer au tout numérique, mais il a gardé des dates de parution, une équipe d’auteurs, un rédacteur, etc. C’est une piste qui n’a pas été suffisamment explorée pour le FI.

Coupable ou non coupable ? En conclusion, bien sûr, pas de coupable à condamner, juste un contexte actuel qui n’est pas favorable à de telles initiatives. Il est sans doute plus facile de supprimer le FI que de le faire évoluer. Ce n’est pas un hasard si le FI a duré 28 ans, ce quart de siècle a vu tant de changements fondamentaux qu’aucun futurologue n’a su les voir venir: l’arrivée du poste de travail individuel, le Web, les dispositifs mobiles, les réseaux sociaux, etc. C’est devenu plus que banal de dire que pendant ces années l’informatique a bouleversé nos vies professionnelles et privées, quels que soient l’âge, la géographie, le niveau d’éducation. Et le FI, avec toute la modestie de ses moyens, a tenté d’accompagner ces mutations et d’en faire sentir l’importance, souvent avant que les journaux standard ne s’en emparent. Il suffit de passer à travers les numéros spéciaux, cités par Appoline en page 38 de ce journal (flashinformatique. epfl.ch//spip.php?article1154), pour se rendre compte à quel point le FI collait aux problématiques du moment. Et comme l’informatique est une chose trop sérieuse pour ne laisser que les informaticiens s’exprimer, nous avons profité de ces numéros spéciaux pour demander à des sociologues, philosophes, médecins d’apporter aussi leurs regards!

Troisième possibilité: la langue anglaise Souvent reproché, le choix du français pour les articles du FI, avec quelques rares exceptions, pourrait s’avérer un plus. Nous l’avons souvent expérimenté en remarquant que des recherches

Voilà, une belle aventure se termine à laquelle j’ai eu la chance de participer. Souhaitons qu’ailleurs, naissent d’autres Flash informatique, issus d’écoles ou d’universités, en version papier ou électronique, qui nous amènent un regard indépendant sur le monde. n

ISSN 1420-7192


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.