Flash Informatique 2011 - no 4

Page 1

4

26.04.2011

FlashInformatique.epfl.ch

Terra incognita

p/a EPFL - Domaine IT - Station 8 - CH 1015 Lausanne - tél. +41 21 69 322 11

Logiciel libre > Tribune

page 7

Des logiciels libres pour les services IP ?

Actualités DIT-info: ❚ Le DIT embauche, ❚ Le DIT vous forme,

Richard.Timsit@epfl.ch, EPFL-Domaine IT – responsable des services réseau

❚ Arrêt des News, ❚ Forum IT

2

Conférence EDUCAUSE 2010 P. Mellier

10

What are network IP services and why free software?

Analyse Le problème le plus populaire de l’hc2 2011 passé au crible 7

Ch. Kauth Aider l’utilisateur et le responsable informatique L. Kling

11

Que sont les services réseau (IP) et pourquoi des logiciels libres ?

Mot-croisé: DONNEES E. Rosales, O. Glassey & J. Paolini

16

Introduction

À votre service Nettoyage de printemps des clusters généralistes J. Menu & V. Rezzonico

3

Droit de réponse À propos de l’article sur e-voting C. Gerbex

15

Logiciel libre

Quand j’ai proposé cette suite d’articles pour la rubrique Logiciel libre du FI, je n’avais pas pensé à la façon dont cette question s’était posée à l’équipe réseau naissante au sein du Service Informatique Central EPFL… Il me faut donc faire un brin d’histoire pour vous faire partager ce qui est devenu, je l’espère, une évidence.

Des logiciels libres pour les services IP ? 1

R. Timsit

Prochaines parutions No Délai de rédaction

Parution

5

05.05.11

24.05.11

6

31.05.11

21.06.11

SP

30.06.11

23.08.11

tout public public averti expert

Des services réseau ? Il fallait déjà avoir un réseau. Au cours de la décennie 1980, les mini-ordinateurs du campus EPFL et ce que l’on devait appeler des stations de travail commençaient à être reliés entre eux… Les VAX grâce à un réseau DECnet (point à point), les machines Apollo grâce au réseau DOMAIN, les Macintosh grâce au réseau AppleTalk, etc. Difficile de faire communiquer les ordinateurs d’un réseau à ceux de la concurrence sans passer par des passerelles… Pourtant, le besoin

de communication se faisait d’autant plus sentir que des réseaux de campus commençaient à s’établir plus seulement aux États-Unis, mais aussi en Europe et que les applications de messagerie électronique prenaient tout leur essor. L’idée d’interconnecter ces réseaux éparpillés pour disposer d’un réseau de réseaux afin de partager informations et ressources dans le monde académique et scientifique faisait son chemin… De nombreux réseaux se sont développés aux États-Unis et en Europe avec chacun un protocole spécifique. Pour les fédérer, il fallait qu’un standard s’impose. En janvier 1983, ARPANET (le premier d’entre eux) récoltait le fruit de ses efforts, TCP/IP devenait officiellement le seul protocole admis. Voir la cartographie du test du réseau TCP/IP de 1982 en page 4. Pendant ce temps-là, le Service Informatique Central de l’école construisait son épine dorsale Ethernet et commençait à constituer l’équipe réseau qui allait devoir jouer un grand rôle dans les années à venir… Ethernet (4Mbs puis 10Mbs) sous forme d’un gros câble coaxial est venu traverser le site pour supporter le protocole DECNet interconnectant des VAX ainsi que XeroxNetworkSystem reliant les serveurs de terminaux de Ungermann-Bass.

.. /.. Suite page 4


Actualités

DIT-info Responsables informatique d’unité, n’oubliez pas votre rendez-vous printanier avec le DIT

Le Domaine IT embauche

le jeudi 19 mai 14h15 salle CE2

Pour son groupe Téléinformatique un/e ingénieur/e EPF ou universitaire à 100% Vous ferez partie du groupe chargé du réseau informatique de l’EPFL et contribuerez à concevoir et développer les outils de communication et de gestion de nos services. Pour toutes les informations: emploi.epfl.ch/page-61128.html

Pour son groupe Exploitation un/e

Voici le programme de ce treizième Forum IT: ❚ IT@EPFL: survol de six derniers mois ❚ Perspectives IPv6 ❚ Active Directory, le point sur la migration en mono domaine ❚ Distrilog2 : nouveaux droits et principes de fonctionnement ❚ myPrint: la situation actuelle et une roadmap pour le futur.

Informaticien/ne à 100 % Vous participerez à l’exploitation des systèmes de calcul à haute performance (clusters Linux, grille de calcul, IBM Blue Gene/P), à la conduite de projets logiciels ou matériels en relation avec le calcul. Pour toutes les informations: emploi.epfl.ch/page-58195.html

Les présentation des précédents Forum IT sont disponibles à l’adresse: dit.epfl.ch/forumIT. Jacqueline.Dousson@epfl.ch, Domaine IT

Le DIT vous forme…

Arrêt des News Switch a décidé d’interrompre son service Usenet News fin juillet 2011. À cette date, l’EPFL ne devrait donc plus recevoir de forums internationaux (fr.*, comp.*, etc.). Ces forums seront néanmoins accessibles depuis le Web, et des discussions sont en cours avec des fournisseurs extérieurs pour tenter de recevoir au moins la hiérarchie francophone (fr.*). Par contre, et jusqu’à nouvel avis, rien ne change pour ce qu’il en est des forums locaux de l’EPFL (epfl.*). Franck.Perrot@epfl.ch, Domaine IT

Impressum Revue consacrée aux technologies de l’information, éditée par le Domaine IT de l’EPFL (DIT). Les articles n’engagent que leurs auteurs, sauf ceux qui concernent de façon évidente des prestations officielles (sous la responsabilité du DIT ou d’autres entités). Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs.

2 flash informatique

Le printemps est synonyme de grands nettoyages aussi profitonsnous de la période de Pâques pour mettre à jour toutes nos salles de cours ! Dès fin avril, nous sommes à même de vous offrir des cours de transition à Office 2010 pour PC et Office 2011 pour Mac. Vous les trouverez tous sur notre site Web dit.epfl.ch/cours mot-clé transition. Semaine après semaine et jusqu’à fin de l’été, vous trouverez toutes les formations proposées par le DIT sur le même site. Pour plus de renseignements n’hésitez pas à contacter l’équipe par courriel cours.dit@epfl.ch ! L’équipe des cours

Rédacteur en chef: Jacqueline Dousson, fi@epfl.ch Mise en page & graphisme: Appoline Raposo de Barbosa Comité de rédaction: Aristide Boisseau, Paulo de Jesus, Patrice Fumasoli, Jean-Damien Humair, Laurent Kling, Julia Paolini, Vittoria Rezzonico, François Roulet, Christophe Salzmann, Predrag Viceic & Jacques Virchaux

Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse Web: FlashInformatique.epfl.ch Adresse: Domaine IT EPFL Station 8, CH-1015 Lausanne Téléphone: +41 21 69 32246 & 32247 Abonnement au FI par e-mail à: fi-subscribe@listes.epfl.ch


À votre service

Nettoyage de printemps des clusters généralistes Jacques.Menu@epfl.ch, EPFL – Domaine IT, gestionnaire des clusters généralistes & Vittoria.Rezzonico@epfl.ch, EPFL – SB-IT, coordinatrice de la commission technique HPC

Changes in the management of the central HPC clusters Callisto, Antares and Jupiter. Changements dans la gestion des clusters HPC centraux Callisto, Antares et Jupiter

Lecture seulement Le premier changement est intervenu lors de l’interruption de production de mi-mars dernier pour des mises à jour logicielles. Désormais, les dossiers racines des utilisateurs de ces machines, hébergés dans le système de fichiers users, sont montés en lecture seulement sur les nœuds de calcul. Cela a été fait en conformité avec les contrats de prestation (SLA) du DIT concernant ces machines. Le but est de pousser les utilisateurs à utiliser le système de fichiers de travail scratch, qui est à disposition des applications pour les fichiers qu’elles créent. Seuls les dossiers racines, occupant 7 TB environ, sont sauvegardés, les 31 TB de scratch ne le sont pas. Cette même politique est d’ailleurs en vigueur sur le BlueGene/P de CADMOS , par exemple.

Quotas Le second changement est en cours de mise en place : il s’agit de quotas sur l’espace disque. Le CoPiL-HPC en a décidé ainsi suite aux problèmes récurrents d’engorgement de ces systèmes de fichiers, pour éviter que des utilisateurs soit empêchés de travailler par d’autres qui occupent un très grand espace disque. Le système de fichiers parallèle GPFS, utilisé sur ces machines, permet d’avoir des quotas par blocs pour les données et par inodes pour les métadonnées, ce dernier type limitant le nombre de fichiers et dossiers qui peuvent être créés.

Combien Les limites peuvent être spécifiées par utilisateur ou par groupe, au sens du rattachement administratif, mais aussi par fileset. Cette notion offre une grande flexibilité: un tel fileset peut être défini pour un projet transversal à plusieurs groupes, par exemple. Le CoPil-HPC a décidé que des quotas seraient appliqués sur tout l’espace disque, soit users et scratch, selon les lignes directrices suivantes: ❚ le quota est par groupe au sens Unix; ❚ la quantité allouée dépend du montant payé par le groupe pour l’utilisation des plates-formes centrales. Concrètement : ❚ les utilisateurs ayant un compte pour des tests auront 1GB d’espace sur users et 2 GB sur scratch;

❚ ❚

les groupes payant le ticket d’entrée minimum auront 10 GB sur users et 50 GB sur scratch; les groupes achetant des parties de la machine auront en plus une quantité proportionnelle aux parties payées, selon les formules: ◗ dossiers racines : 10 + a × p × capacité totale de users ◗ espace de travail : 50 + b × p × capacité totale de scratch avec: ◗ p: quantité d’argent totale relative reçue par le DIT pour les priorités par le groupe en question; ◗ a, b: cœfficients de sur-réservation. On a choisi pour commencer: a = 1.0; b = 1.35.

Quand L’activation des quotas va se faire de manière progressive: ❚ le 4 avril, envoi d’un mail à tous les utilisateurs, les avertissant de l’activation imminente des quotas; ❚ les groupes qui se situent au-dessus de leur quota ont eu une période de grâce de deux semaines pour diminuer leur occupation des disques. Les utilisateurs concernés ont reçu un mail spécifique; ❚ deux semaines après le premier mail, les quotas ont été appliqués. Les quotas en vigueur seront visibles en tout temps sur les pages hpc-dit.epfl.ch.

Comment La mise en œuvre de quotas présente certains risques: ❚ il peut y avoir sous-utilisation de l’espace de stockage, tous les groupes n’utilisant peut-être pas l’entier du quota auquel ils ont droit. C’est là la raison d’être des cœfficients de sur-réservation; ❚ les utilisateurs dont les applications utilisent peu de puissance de calcul comparativement, mais manipulent beaucoup de données, peuvent être pénalisés. Les quotas sont nouveaux sur les machines centrales du DIT, et nous n’avons pas encore d’expérience à ce sujet. Les règles ci-dessus seront adaptées si le besoin s’en fait sentir. Leur application évitera la gêne mutuelle entre groupes, afin de rendre le travail de tou-te-s plus agréable. ■

GLOSSAIRE

CADMOS (Center for Advanced Modeling Science): www.cadmos.org CoPil-HPC: Comité de Pilotage HPC, hpc.epfl.ch/copil

26 avril 2011 - N°4

3


Des logiciels libres pour les services IP ? .. /.. Suite de la première page

La fondation Switch créée en 1987 prendra désormais en charge ces contacts au niveau international et aidera au déploiement rapide d’un réseau universitaire suisse connecté à ce que l’on allait bien vite appeler Internet. Pour déployer TCP/IP, il fallait offrir des services et le premier qui s’imposait techniquement était le serveur de noms. Les trames circulant sur le réseau physique ont une adresse (MAC) traduite en adresse IP. Les applications utilisent les services d’un serveur de noms (protocole DNS) pour disposer d’une adresse IP à partir d’un nom de machine et réciproquement (128.178.15.8 <--> stisun1.epfl.ch). Tous les protocoles de TCP/IP sont le fruit d’un processus de publications de demandes de commentaires (Request For Comments) à partir d’une spécification. (cf RFC 2555 intitulée 30 years of RFCs). Choisir une machine UNIX pour abriter le serveur de noms n’était pas difficile, car il n’y avait aucune distribution de cet OS qui n’offrait pas un stack TCP/IP complet. SunOS n’échappait pas à la règle (on pourrait même dire qu’en matière de réseau, il la définissait – The Network is the computer était le slogan de la jeune firme fondée à Santa Clara en 1982). Pas étonnant que les deux serveurs de noms de l’école aient pour nom stisun1 et stisun2.

Unix et TCP/IP

Cartographie du test du réseau TCP/IP en janvier 1982

C’est sur ce câble Ethernet qu’ont été raccordées les premières stations de travail UNIX (APOLLO, SUN, HP, SGI, DECStation). Un article de cette rubrique viendra traiter prochainement de l’évolution du câblage à partir de 1992 et du rôle des logiciels libres dans sa gestion ;-) En novembre 1986, la demande de deux classes d’adresses B et de quelques classes C était réalisée… et servie gracieusement par le Network Information Center du Stanford Research Institute…

La première implémentation des protocoles TCP/IP ayant été faite sur UNIX (BSD 1), cette plate-forme est restée garante du projet d’interopérabilité. La recherche d’un standard pour permettre la communication entre les dizaines de milliers de machines du monde académique et de la recherche était un enjeu colossal. Les grands constructeurs, captifs de leur logique commerciale continuaient à vouloir enfermer leurs clients dans leur réseau propriétaire. Autant dire que notre méfiance vis-à-vis d’eux était grande… Pourtant, un réseau garantissant l’interopérabilité entre différents matériels était une chance pour eux, et l’histoire allait vite se charger de le prouver. En attendant, nous profitions de toutes les leçons que le développement d’UNIX nous offrait et adoptions une nouvelle culture. Le partage des connaissances et des ressources était souhaité et encouragé. Non seulement nous recevions des machines avec un système d’exploitation comportant les couches réseau, l’ensemble des applications permettant de les mettre en œuvre et de les superviser, mais nous disposions aussi de tous les outils de développement. Compilateurs, éditeurs de textes, langages de scripts, etc. Ceci était une incroyable leçon dans un monde où le mot logiciel libre n’existait pas encore, où le prix d’un compilateur correspondait au prix de la machine… et où disposer du code source des programmes n’avait pas de prix. En effet, disposer du code source des applications représentait pour nous un instrument pédagogique précieux. Au fur et à mesure où les spécifications des RFC étaient codées, elles étaient mises sous licence BSD 2 et à disposition de tous.

Message de réponse à la demande de 1986…

1 2

Berkeley Software Distribution (here’s the source, you can do whatever you want, just give credit to the original author) C’est ainsi que le grand constructeur de Redmond dont nous ne mentionnons même pas le nom dans cet article, tant il est étranger à cette épopée, a pu hériter d’un stack TCP/IP complet…

4 flash informatique


Des logiciels libres pour les services IP ?

DHCP (Dynamic Host Configuration Protocol) – Comment ça marche ? 1- Quelle est mon adresse IP ? f0:de:f1:2f:cb:1f RE: Ton adresse est 128.178.50.30 celle de ton DNS est 128.178.15.8 celle de ton routeur est 128.178.50.1 celle de ton serveur de temps est....

X

Serveur DHCP 128.178.50.1 Routeur

La machine envoie un broadcast (toute destination) sur son réseau avec l’adresse physique de sa carte réseau. Soit le serveur DHCP est sur ce réseau, soit le routeur se charge de lui acheminer la question. La réponse doit permettre à la machine cliente de se configurer proprement.

DNS (Domain Name System) – Comment ça marche ? L'utilisateur entre le nom d'un serveur: www.epfl.ch 1- Quelle est l'adresse IP de ce serveur ? RE:128.178.50.12 128.178.50.1 Routeur

Serveur de noms 128.178.15.8

La machine ayant l’adresse de son serveur de noms, la question lui est posée. Quand la question concerne le domaine pour lequel le serveur est authoritatif c’est tout simple…

… sinon, c’est un peu plus compliqué… L'utilisateur entre le nom du moteur de recherche de google 1- Quelle est l'adresse de www.google.com ? RE : 74.125.77.147

128.178.50.1 Routeur

Serveur de noms 128.178.15.8

Q1 - Quel est le DNS pour .com ? Q2 - Quel est le DNS pour google.com ? Q3 - Quelle est l'adresse de www.google.com ?

Q3

Q1

Q2 A.ROOT-SERVERS.NET L.GTLD-SERVERS.NET

NS1.GOOGLE.COM

26 avril 2011 - N°4

5


Des logiciels libres pour les services IP ? Il était exaltant de pouvoir vérifier, en utilisant les applications réseau, à quel point ce que nous faisions était utile. Pouvoir se connecter sur n’importe quel nœud du réseau par un telnet ou un rlogin, disposer des dernières versions des logiciels par des transferts ftp, lancer des applications par du rsh, s’informer et se former dans les forums Usenet News avec nntp, tous ces développements validaient les choix précédents et induisaient par leur usage même la conception de nouveaux protocoles. C’est ainsi qu’en 1992 au CERN, dans cette ambiance d’utilisation planétaire du réseau, une culture de l’hypertexte conjuguée à une bonne connaissance des langages de balisage (markup language SGML) ont fait naître le WEB ! Mais revenons-en à la fin de nos années 1980 à Ecublens. Sorties des emballages, nos deux stations Sun avec SunOS 3.5 disposaient de tout ce qu’il fallait pour instancier nos deux serveurs de noms. Ces services réclamant peu de ressources, les stations du bas de la gamme Sun suffisaient amplement, car ce qu’il fallait, c’était de la fiabilité… Nous sommes restés fidèles à ce constructeur jusqu’à la fin des années 1990, moment où nous pouvions disposer d’un système d’exploitation GNU-Linux facilement installable sur un PC pour y faire tourner le même service. Ce service étant essentiel pour le fonctionnement du réseau, il devenait primordial d’en assurer la fiabilité. Nous compilions déjà nos applications à partir des sources de l’Internet System Consortium (www.isc.org/software/bind), aussi le changement d’OS nous offrait simplement la possibilité de multiplier à volonté le nombre de serveurs sur du hardware banalisé. Nous disposions de plusieurs machines sur le réseau capables d’assurer la fonction de serveur de nom, il suffisait d’en avoir deux répondant aux adresses de stisun1 et stisun2 pour assurer le service. Nous nous étions construit – toujours avec du logiciel libre - une petite application pour basculer un service d’un serveur à un autre baptisée Caméléon. Forts de cette expérience, il nous est apparu naturel d’utiliser le DHCP (Dynamic Host Configuration Protocol) d’ISC et de nous

GLOSSAIRE

RFC (Request For Comments): documents mis au points par des experts techniques et proposés à la révision de toute la communauté des développeurs. Ils font référence pour développer rapidement et dans les meilleures conditions les protocoles à vocation de devenir des standards. TCP/IP: suite des protocoles Internet, portant le nom du protocole de transport (TCP) et de celui de la couche réseau (IP) selon le modèle OSI que voici:

6 flash informatique

tourner vers Freeradius pour offrir un service d’authentification. Ces deux services allaient devenir essentiels pour permettre l’accès WiFi sur le campus. Le service DHCP permet de donner à une machine tous les paramètres réseau dont elle aura besoin au moment où elle apparait sur le réseau. Un service d’authentification RADIUS (Remote Authentication Dial-In Service) permet de réaliser Authentification, Autorisation et Accounting pour la connexion à des équipements réseau. Unix d’abord, GNU-Linux et les logiciels libres ensuite, la filiation est directe pour garantir l’interopérabilité et fournir à tout moment des services essentiels dont les utilisateurs ont besoin indépendamment de la politique ou des caprices d’un constructeur ! Il a toujours fallu, depuis le RFC 1 (Avril 1969), suivre l’évolution de cette technique qui allait bouleverser nos modes de vie et adapter nos services de RFC en RFC. Les avantages que nous avions repérés au moment de notre choix de GNU-Linux pour instancier autant de serveurs que nous en avions besoin se sont renforcés. Aujourd’hui nous produisons des appliances que nous faisons tourner dans un contexte de virtualisation. Nous parlerons dans un prochain article d’ApplianceCreator et de cette fabuleuse facilité à produire aujourd’hui des images instanciables n’importe où… sur le réseau.

Sources Pour les termes utilisés dans cet article, je vous encourage à consulter Wikipédia dans diverses langues. Il est intéressant de voir comme les textes diffèrent de l’une à l’autre.

Article du FI-EPFL 2011 sous licence CC BY-SA 3.0 / R. Timsit

7

Application

HTTP SMTP FTP NFS…

6

Présentation

MIME

5

Session

RTSP H323 SIP

4

Transport

TCP UDP RTP

3

Réseau

IP (Ipv4 ou Ipv6) ICMP X.25

2

Liaison

Ethernet WI-FI

1

Physique

10BASE-T 100BASE-TX 1000BASE-T


Analyse

Le problème le plus populaire de l’hc2 2011 passé au crible Christian.Kauth@epfl.ch, EPFL - Président de PolyProg

For the 2nd edition of the Helvetic Coding Contest , PolyProg challenged 83 students from all over Switzerland with a set of eight brain teasers that asked the best of their creativity, team spirit, excellent analytical skills and working knowledge in C/ C++ or Java. Out of the 30 teams, 24 ventured to solve the Terra Incognita problem, which turned out to be craftier than one would have thought at first sight. Test how far you would have kept pace…

Pour la 2e édition de l’Helvetic Coding Contest , PolyProg a soumis 83 étudiants venant des quatre coins de la Suisse à un ensemble de huit cassetête fort provocants demandant créativité, esprit d’équipe, excellentes capacités analytiques, tout comme des connaissances en C/C++ ou Java. Sur les 30 équipes, 24 se sont aventurées à résoudre le problème Terra Incognita qui s’avéra plus complexe qu’il n’y paraissait à première vue. Testez jusqu’où vous auriez poussé la barre…

et peuvent prendre comme valeur 1, 2 ou 3. Toute paire de villes dans la liste de Heidi est différente selon au moins une propriété. Vos questions doivent être de la forme: est-ce que la propriété p a la valeur x ? avec x dans {1,2,3} et p dans {1,…,P}. Heidi répondra seulement par oui ou non. Étant donné que la communication pourrait être chère, vous devez minimiser le nombre de questions que vous posez avant de deviner dans quelle ville Heidi se trouve. Votre réponse est considérée correcte seulement si votre supposition correspond à la seule ville qui est cohérente avec toutes les réponses obtenues, et si vous n’avez pas posé plus de questions que nécessaire. Les cas de test sont conçus de manière à récompenser les solutions qui minimisent le nombre de questions dans le pire des cas, mais des stratégies non optimales obtiendront quand même quelques points.

Une première tentative

Le problème Si les huit problèmes décrivaient le périple autour du monde de Heidi, vache mascotte du concours, il s’agissait dans Terra Incognita de deviner efficacement sa demeure actuelle en lui posant des questions. À cette occasion, Heidi vous a laissé une liste avec ses N (1 <=N <= 50) destinations et leurs descriptions. Les destinations peuvent être comparées via P (1<=P<=8) propriétés, qui peuvent avoir chacune une parmi trois valeurs possibles. Ces propriétés pourraient être emplacement (sur la côte, plaine, montagnes) ou attractivité (tourisme, culture, travail) entre autres. En ce qui nous concerne, les propriétés sont numérotées de 1 à P

La première idée qui pourrait éventuellement vous venir en tête serait de considérer les N destinations l’une après l’autre. Pour chacune de ces destinations, nous posons à Heidi P questions, une par propriété, pour vérifier si les valeurs des propriétés de notre destination candidate correspondent bien à celles de la demeure actuelle de Heidi, pour un total de NP questions. Nous pouvons évidemment nous arrêter dès que nous trouvons une correspondance parfaite entre notre destination candidate et la demeure de Heidi ou sauter vers le prochain candidat dès qu’une contradiction se manifeste. Si cette solution trouve la bonne destination et a l’avantage d’être courte à coder, elle s’avère horriblement inefficace. En effet Heidi décide de sa demeure en fonction de vos questions, et elle vous répondra de manière à maximiser le nombre de demandes nécessaires. Pour améliorer notre approche, nous pouvons mémoriser les réponses antérieures de Heidi afin de ne jamais répéter une question (p. ex. si deux destinations c1 et c2 ont la même valeur pour la première propriété p1, ne posons pas cette même question deux fois !) 26 avril 2011 - N°4

7


Le problème le plus populaire de l’hc2 2011 passé au crible Serait-il donc plus efficace de déterminer plutôt les valeurs des propriétés et de compter combien de villes sont en accord avec toutes les réponses ? Tout à fait, et c’est l’observation qui était nécessaire pour obtenir 40% des points ! Il suffit en effet de demander 1, voire 2 questions par propriété. Nous pouvons donc connaître les valeurs de toutes les propriétés pour un maximum de 2P questions seulement ! Si à l’obtention de chaque réponse, nous éliminons les villes en contradiction avec la réponse, nous pouvons arrêter le processus dès que toutes les destinations sont éliminées, à une exception près.

Bien choisir ses mots Nous savons désormais que 2P questions font l’affaire à coup sûr et que Heidi nous donne toujours la pire réponse. L’astuce qui se propose serait de poser les questions non pas dans un ordre aléatoire, mais de choisir toujours la question qui nous apporte le plus d’information ! Si nous avons par exemple le choix entre deux questions qui partageraient les 11 villes restantes selon (10<oui>,1<non>) et (5<oui>, 6<non>) respectivement, nous avons apparemment meilleur temps de poser la deuxième, après laquelle il nous reste au maximum 6 candidats et non pas 10 ! L’algorithme qui trouve la question qui répartit les candidats le plus symétriquement possible simule en interne toutes les réponses à toutes les questions. Cette approche a séduit la moitié des équipes qui ont tenté ce problème, récompensées avec 70% des points.

La meilleure question Malheureusement tout ce qui brille n’est pas or, et l’intuition peut tromper. S’il semble logique que le nombre de questions nécessaires est proportionnel au nombre de candidats restants, nous n’avons porté aucune importance à la corrélation des autres propriétés parmi ces candidats ! L’approche correcte serait de simuler toutes les questions dans tous les sous-ensembles de candidats possibles et de choisir la suite de questions la plus courte. Une telle technique s’appelle minmax. Comme son nom l’indique, elle essaye de minimiser le maximum de questions. Le problème peut effectivement s’interpréter comme un jeu, dans lequel nous essayons de minimiser le nombre de questions tandis que Heidi cherche à le maximiser.

Une bonne dose d’abstractions Représentons ce jeu sous forme d’un graphe dont chaque nœud correspond à une constellation du jeu et chaque arrête représente un coup. Ainsi en posant/répondant à une question, nous traversons ce graphe. Pour que cela ait un sens, il faut que le graphe ait un point de départ et au moins un point d’arrivée. Comme chaque question force Heidi à restreindre le choix de sa demeure et chaque réponse nous permet d’exclure des candidats, ce graphe est acyclique (i.e. avec chaque coup, nous nous éloignons du point de départ) et le jeu s’approche forcément d’un point d’arrivée. Ce type spécial de graphes s’appelle arbre, illustré à merveille par l’image d’un vrai arbre. Nous partons du tronc (point de départ) et cherchons à atteindre une feuille (point d’arrivée). Pour chaque feuille il y a un seul chemin unique qui la relie au tronc. Se pose naturellement la question sur la taille de cet arbre. Si chaque nœud représente une combinaison de candidats restants, il y a 2N (environ 1015) nœuds, ce qui dépasse largement les contraintes de mémoire et de temps d’exécution. Comme précédemment, nous pouvons observer que les états sont définis non pas par les destinations, mais par les valeurs que peuvent prendre les différentes propriétés. Avec 3 valeurs par propriété, la taille de l’arbre se réduit à moins que 23P . Accordons 3 bits à la représentation des valeurs possibles de chaque propriété, un par valeur. A priori la propriété peut avoir les valeurs 1, 2 ou 3, ce que nous représentons en binaire par 0b111 (un 1 par valeur possible). Pour les états 0b001, 0b010 et 0b100, la valeur de la propriété est connue. En notant que l’état 0b000 est inatteignable (la propriété ne peut pas être indéfinie), il y a 23-1 états par propriété. En concaténant les représentations de toutes les propriétés, nous arrivons donc à (23-1) P < 23P (environ 107) nœuds, une taille parfaitement admissible avec des états encodés en 32-bits. Le point de départ avec toutes les valeurs possibles pour toutes les propriétés s’encode avec les 3P bits à 1, donc 23P-1. Toutes les feuilles ont exactement un bit à une par groupe de trois bits (i.e. par propriété). Sous l’hypothèse que les deux joueurs ne font pas de coup illégal, tous les états avec exactement P bits à 1 sont des feuilles (donc des points d’arrivée).

La traversée minmax de l’arbre Chaque nœud est défini par sa constellation (state), le nombre minimal de questions qui le séparent d’une feuille (minQ), initialisé à l’infini (INF), tout comme la question (bestQ) à poser

8 flash informatique


Le problème le plus populaire de l’hc2 2011 passé au crible pour s’approcher de la feuille la plus proche. La fonction récursive find_clever_question trouve la meilleure question à poser dans la situation courante (cState) et mémorise tous les résultats intermédiaires pour ne pas gaspiller des ressources de calcul. Cette fonction vérifie tout d’abord si on est arrivé dans une feuille. Dans ce cas, il ne reste plus qu’un seul candidat et il n’y a plus de questions à poser. Ensuite elle vérifie si la constellation actuelle a été évaluée précédemment. Si oui, on connaît déjà le nombre minimal de questions depuis cette constellation. Si par contre nous avons à faire à une nouvelle constellation, pour l’évaluer, nous devons évaluer récursivement toutes les constellations qui peuvent naître de la constellation actuelle. Donc pour toutes les propriétés encore ambiguës, nous posons les questions nécessaires et évaluons les états qui naissent d’une réponse positive (yState) et d’une réponse négative (nState). Si le maximum des questions strictement nécessaires dans chacun de ces états, augmenté de 1, est inférieur au nombre de questions qui nous semblait nécessaire depuis l’état actuel, cette question est meilleure que n’importe quelle autre considérée jusqu’à présent. Int Find_clever_question(int cState) If candidate_count(cState)<=1 Return 0 If minQ[cState] <> INF Return minQ[cState] for every property p for which cState has still several bits set for every value v set yState:= next_state(cState,’yes’) nState:= next_state(cState,’no’) minQ[yState]:= find_clever_question(yState) minQ[nState]:= find_clever_question(nState) if (max(minQ[yState],minQ[nState])+1 < minQ[cState]) minQ[cState] = max(minQ[yState],minQ[nSta te])+1 bestQ[cState] = (p,v)

les bits à 1 dans la destination sont aussi à 1 dans l’état (i.e. l’état n’exclut pas la destination). Une telle comparaison peut se faire en complexité linéaire en comparant les nombres bit par bit. Mais il y a mieux ! Comme les états et destinations sont encodés par des nombres à 32 bits, l’union logique bit par bit (&) se fait en temps constant. Il s’agit ensuite de vérifier si cette union a P bits à 1 (nécessairement un par propriété, comme la destination l’impose). Ce comptage de bits pourrait se faire aussi par considérations bit par bit. Mais la même union logique en temps constant nous permet de gagner un facteur 4 en comparant les bits par groupes de 4 … Count_bits(int n) bcnt4[16] = {0, 1, 1, 2, 1, 2, 2, 3, 1, 2, 2, 3, 2, 3, 3, 4}; nBits(0); while (n) nBits += bcnt4[n & 0xF]; n >>= 4; return nBits

voire même en temps constant d’un seul coup en parallèle par cette formule un peu magique. count_bits(int n) n = n - ((n >> 1) & 0x55555555); n = (n & 0x33333333) + ((n >> 2) & 0x33333333); return (((n + (n >> 4)) & 0xF0F0F0F) * 0x1010101) >> 24;

Le calcul des états yState et nState se fait aussi en temps constant par des opérations logiques sur les bits, moins exotiques pourtant. Est-ce que vous pouvez les imaginer ? Voilà, la barre est maintenant bien au niveau des prestigieux concours internationaux d’algorithmique et je vous propose d’accorder une pause à votre matière grise. Si vous désirez enchaîner sur d’autres problèmes de l’hc2 2011, organisé par PolyProg et sponsorisé par Open Systems , vous trouverez votre compte sur hc2.ch qui offre en accès libre tous les documents du concours (données en 3 langues, solutions en C++, fichiers pour tester votre code, tout comme le juge qui fait les tests automatiquement). Au plaisir de vous accueillir pour l’édition 2012 ou lors d’une des séances de formation de PolyProg . Bravo à Sandro Feuz, Sebastian Millius et Christian Helbling qui ont remporté la médaille d’or à l’ETHZ! Au plaisir de vous accueillir pour l’édition 2012 ou lors d’une des séances de formation de PolyProg. ■

GLOSSAIRE

Compter les bits, mais vite !

calcul des états yState et nState:

Toutes les fonctions utilisées par find_clever_question seront appelées fréquemment pendant la traversée récursive et il est crucial qu’elles soient de la moindre complexité possible pour réduire le temps d’exécution total. Intéressons-nous dans ce contexte à la fonction candidate_count qui retourne le nombre de candidats satisfaisant un certain état. Supposons pour cela que les candidats sont encodés comme les états, avec exactement un bit à 1 par groupe de 3 (1 valeur par propriété). Cette fonction doit itérer sur toutes les destinations et compter pour combien d’entre elles

yState = nState =

cState & ~((1<<(p*3+((v+1)%3))) | (1<<(p*3+((v+2)%3)))) cState & ~(1<<(p*3+v))

HC2 : premier concours de programmation suisse organisé annuellement à l’EPFL par PolyProg, hc2.ch Open Systems: www.open.ch PolyProg: association du campus qui promeut les compétences en algorithmique des étudiants et doctorants, polyprog.epfl.ch séances de formation de PolyProg: moodle.epfl.ch/course/view.php?id=8471, key="SayHello"

26 avril 2011 - N°4

9


Actualités

Conférence EDUCAUSE 2010 Pierre.Mellier@epfl.ch, EPFL-Domaine IT, responsable du KIS

Report of the conference La foire mondiale en Technologies de l’information et de la communication (ICT) pour les Hautes Écoles et Universités est sans conteste possible la conférence EDUCAUSE qui se tient chaque année aux États-Unis.

La dernière a eu lieu du 12 au 15 octobre 2010 à Anaheim en Californie, à deux pas de Disneyland. 4385 personnes avaient fait le déplacement, dont 760 CIO (chief information officer) et directeurs IT, tandis que 2268 suivaient les présentations à distance grâce à un important dispositif de vidéoconférence mis en place pour l’occasion. La gestion de l’événement par les organisateurs était impeccable. En marge d’EDUCAUSE se tenait une foire d’exposants, avec pas moins de 269 sociétés (dont Google, Microsoft, VMWare/Zimbra, Blackboard, CISCO, Dell, HP, Oracle, IBM, etc.) pour tenter de convaincre les instances IT des Hautes Écoles d’acheter leurs différents produits. Face à la crise financière que traversent les États-Unis, le climat commercial ambiant était absolument morose, et plus d’une institution essayait de résoudre la quadrature du cercle en essayant de faire mieux avec moins… Le programme des conférences était pour le moins ambitieux avec environ 520 conférences réparties dans pas moins de 250 catégories dont les principales parlaient des périphériques mobiles, de la gouvernance IT, du cloud computing, de la gestion de la sécurité, du Web et des réseaux sociaux, des équipements et infrastructures réseaux, de l’open source et de l’open access, etc. Bref, de grands thèmes de réflexion que l’on retrouve également à l’EPFL. C’était ma première participation à cet événement international et mon objectif était avant tout de comprendre la situation générale des Hautes Écoles en matière d’IT, et d’y découvrir peut-être de nouvelles tendances à prospecter. Le niveau des conférences était hélas très inégal, certaines étaient parfois à la limite de la promotion commerciale. D’autres étaient extrêmement techniques, où l’on peinait à comprendre les enjeux et le sens des résultats.

University 2.0 D’autres comme Creating an Open Web 2.0 Cloud E-Learning Experience, dont les auteurs avaient très peu de moyens financiers, essayaient d’utiliser le Cloud pour l’enseignement de la botanique. L’objectif était l’identification par les étudiants de plantes sur le terrain, avec des échanges d’information entre étu-

10 flash informatique

diants facilités par des réseaux sociaux. Les étudiants ont trouvé enrichissante et intéressante l’utilisation de ces moyens de dialogue. Le bilan était hélas plus nuancé pour les enseignants qui sont forcément séduits par les coûts très faibles de ces technologies, mais en contre-partie, sont confrontés à de gros problèmes pour extraire des réseaux sociaux les informations échangées par les étudiants, pour effectuer du post-traitement, ou simplement les conserver et les comparer avec des expériences futures. L’université d’Ithaca présentait dans sa conférence Rethinking the Modern-Day Campus Portal leur nouveau portail personnalisé myhome, revampé à la sauce Web 2.0, et accessible à l’aide d’un téléphone portable. Très fier de montrer comment leur portail se comportait de manière similaire au portail de Yahoo ou celui de la BBC (il est en effet très facile pour un utilisateur d’ajouter des composants permettant d’afficher la presse locale ou la météo) ou comment il pouvait être utilisé comme solution de single signon pour accéder à Blackboard, WebCT ou WebMail, ils avouaient plus de difficultés à réaliser des usages plus académiques (mais ils y travaillent) quand il s’agissait d’intégrer dans leur portail des outils RH, ou des outils de recherche de leur bibliothèque centrale.

Gouvernance IT Parmi les conférences plénières, celle de Mme Jolene Kœster, présidente de l’université de l’État de Californie, Northridge (36’000 étudiants) a été passablement remarquée. Le titre de sa conférence Confessions of a University President: Information Technology and University Leadership était assez évocateur des soucis de gouvernance IT qu’elle a dû gérer tout au long de sa carrière, puisque sa formation comme professeure en communication ne l’avait nullement préparé à devoir prendre des décisions très importantes qui concernaient le bon fonctionnement de l’IT ou de sa planification en regard du futur de l’Université. Elle percevait d’ailleurs les évolutions de l’IT dans le prolongement des grands axes stratégiques, définis par sa direction, tout en soulevant les problèmes de collaboration au sein même de la direction, pouvant entraîner l’apparition de silos, contre-productifs pour la réalisation des axes stratégiques. Fervente partisane d’avoir un CIO comme vice-président, elle mettait en garde l’assistance sur les dysfonctionnements de l’IT qui pouvaient entraîner des problèmes de crédibilité sur la direction. Un effet imprévu de ma participation à cette conférence a été une augmentation frappante du nombre d’emails, concernant la promotion d’outils IT (toute discipline confondue), qui débarquent désormais dans ma boîte aux lettres. Lien de la conférence: www.educause.edu ■


Analyse

Aider l’utilisateur et le responsable informatique Laurent.Kling@epfl.ch, EPFL- STI, coordinateur informatique à la Faculté des sciences et techniques de l’ingénieur

Usager

OS - Système d'exploitation

Programmes

Ch

g an

em

en

ts

How to solve interactions between user and computer facilities with a solution using OCS Inventory NG – Gestion Libre de Parc Informatique – Active Directory.

Gérer le trio utilisateur – informatique – aide avec une solution: OCS Inventory NG – Gestion Libre de Parc Informatique – Active Directory. Ordinateur

Un système en constante évolution fig. 2 – environnement informatique contrôlé

Usager

OS - Système d'exploitation

Programmes

Dans une utilisation scientifique, et particulièrement en gestion autonome du poste par l’utilisateur, on se retrouve avec les trois composants de départ et leurs évolutions: ❚ des systèmes d’exploitation, ❚ des logiciels, ❚ des usagers. L’équation devient nettement plus difficile à résoudre, en particulier quand l’usager attend une réponse précise à un problème spécifique. En général, le responsable informatique n’a aucune idée sur l’ordinateur et son évolution dans le temps. Parfois l’ordinateur a eu plusieurs vies et possède plusieurs systèmes d’exploitation. Dans ces conditions, la réponse est délicate, car l’état de départ n’est plus connu. Programmes

ge m an

ts en m a Ch

e ng

Ordinateur

OS - Système d'exploitation

en ts

Usager

Ch

La complexité du monde moderne se matérialise dans l’aide apportée aux usagers. Trois éléments entrent en jeu: ❚ le confort de l’utilisateur, ❚ son environnement informatique, ❚ l’efficacité de l’aide. Au départ, un ordinateur est un récipient vide, il est parfaitement fonctionnel, mais doit disposer de trois éléments pour dépasser l’état d’un bel objet manufacturé: ❚ un système d’exploitation, ❚ des logiciels, ❚ un usager.

fig. 1 – environnement informatique

Pour une utilisation bureautique, on peut rapidement imaginer de limiter la complexité en bloquant deux éléments: ❚ un système d’exploitation, ❚ des logiciels. La machine est figée, seuls les responsables informatiques peuvent intervenir, la variable est: ❚ l’utilisateur. Par similitude, les problèmes de l’usager seront plus rapidement cernés, car l’ensemble des paramètres extérieurs à son travail est maîtrisé.

Ordinateur

fig. 3 – environnements informatiques autonomes

Le responsable informatique peut se retrouver dans la situation des trois singes de la sagesse: ❚ aveugle, il ne connaît pas l’état actuel, ❚ sourd, il n’a pas pu suivre l’évolution, ❚ muet, il lui est difficile de formuler un conseil. 26 avril 2011 - N°4

11


Aider l’utilisateur et le responsable informatique

Domaine ✦ Inventaire de parc et déploiement de logiciel

Licence

Langue

Version

✦ GPLv2

✦ multilingue

✦ 1.3.3

Alternatives libres et propriétaires ✦ fr.wikipedia.org/wiki/Logiciel_de_gestion_des_services_ d%27assistance

Sites Web, forum ✦ www.ocsinventory-ng.org/

Plates-formes fig. 4 – trois singes de la sagesse

Le questionnement de l’usager est rarement couronné de succès, le stress provoqué par la panne ne facilite pas la communication. Pour compliquer le tout, les demandes des informaticiens sont souvent incompréhensibles pour les usagers. La prise de contrôle à distance n’est pas forcément possible, car la machine peut être inaccessible.

Suivre le cycle de vie

GLPI (Gestion Libre de Parc Informatique) est une solution de gestion complète de parc informatique, cette solution est particulièrement étendue, elle intègre le cycle de vie d’un ordinateur et un module de helpdesk.

Domaine ✦ Gestion de parc informatique

Licence

Langue

Version

✦ GPLv2

✦ multilingue

✦ 0.78.4

Alternatives libres et propriétaires ✦ fr.wikipedia.org/wiki/Logiciel_de_gestion_des_services_ d%27assistance

Sites Web, forum ✦ www.glpi-project.org/

Plates-formes

OS - Système d'exploitation

Programmes

Responsable informatique

en

ts

Ch

an

ge

m

en

ts

Usager

m ge an Ch

Devant une telle complexité et face à l’étendue des variables on peut être tenté d’appliquer une heuristique de recherche de solution par tâtonnements successifs. Avec beaucoup de chance et d’expérience, il est possible qu’une réponse apparaisse avec l’aide incomparable des moteurs de recherche. Ce modèle n’est pas efficient et il est certain que chacun redéveloppe dans son coin sa pharmacopée. L’outil idéal doit: ❚ être multiplates-formes (au minimum Microsoft Windows, Mac OS et Linux), ❚ intégrer l’usager, son ordinateur, les logiciels, ❚ point essentiel, les évolutions doivent être conservées. Avant de plonger dans la mise en place d’un tel environnement, il faut s’assurer que nos envies sont réalistes. Pour ce projet, Google et Wikipedia sont des sources incomparables d’informations: fr.wikipedia.org/wiki/Logiciel_de_gestion_ des_services_d%27assistance. J’aimerais également citer une source francophone, l’association PLUME (Promouvoir les Logiciels Utiles, Maîtrisés et Economiques dans la communauté de l’Enseignement Supérieur et de la Recherche) dans le même contexte universitaire que l’EPFL qui possède un portail particulièrement bien fourni: www.projetplume.org.

Aide et assistance Gestion du cycle de vie de l'ordinateur

+ Agent

1 x par 24 h XML avec HTTP

Ordinateur

OCS Inventory NG – Gestion Libre de Parc Informatique

fig. 5 – Environnement informatique autonome avec OCS Inventory NG et Gestion Libre de Parc Informatique

Malgré la gageure de réaliser un tel cahier des charges, il existe une solution open source qui sur le papier remplit tous les critères: ❚ OCS Inventory NG est une branche active (fork) d’un projet d’inventaire et de déploiement de paquets d’installation, la partie installation n’étant pas utilisée dans ce projet.

La mise en place

12 flash informatique

La lecture préalable de la documentation disponible permet d’éviter de prendre des voies sans issues. Pour plus de sécurité, chaque étape suit un processus d’installation – configuration – vérification. Une machine virtuelle dans un environnement vSphere offre cette méthode avec la fonction de sauvegarde intégrée (snapshot). En cas de doute, on revient très facilement à l’étape antérieure, c’est un serveur de versions de serveur !


Aider l’utilisateur et le responsable informatique

Les étapes ❚ ❚ ❚

Mise en place de l’environnement prérequis (un serveur Ubuntu LTS avec LAMP et perl) Sauvegarde automatique sur un serveur NAS OCS ng Inventory 1.34 ▲ Installation du serveur ▲ Installation automatisée de l'agent par unité, utilise la propriété TAG GLPI 0.7.2 ▲ Installation du serveur avec ▼ le module importation automatique OSC, nécessaire pour avoir une importation régulière des données provenant de OCS ng ▼ le module rapport pour étendre et créer ses propres rapports ▼ le module Comportement qui permet d’avoir des automatismes, par exemple que le groupe d’un ticket soit automatiquement renseigné ▼ l'interface mail entrante pour récupérer automatiquement des demandes de support par courriel ▼ l'interface mail sortante pour créer un formulaire s’adaptant aux différents états d’une demande ▲ Entrée de l’ordinateur dans Active Directory pour authentifier directement les usagers ▼ importer les usagers directement depuis Active Directory pour créer automatiquement les usagers ▼ créer des règles de gestion par des groupes LDAP pour gérer directement dans Active Directory les responsables techniques et les destinataires des messages ▼ activer le mode multi-entités pour séparer les organisations Apache ▲ Sécuriser le site: utiliser uniquement le mode Web sécurisé (HTTPS) pour l’ensemble des interactions avec les usagers.

Par simplicité, les deux outils cohabitent sur le même serveur. Au départ, on peut être intimidé devant l’étendue de GLPI et ne pas savoir par quel bout commencer son travail. En pratique, une lecture attentive des ressources disponibles en français (un luxe) permet de répondre à ces questions. Les fonctions non intégrées directement dans GLPI sont disponibles sous la forme de module complémentaire (plug-in).

La capacité de créer des règles dans GLPI offre un confort inégalé. Ceci permet de séparer les mécanismes logiques d’attribution des tickets (dans GLPI) de l’endroit où sont stockés les usagers (dans Active Directory). Le seul développement prévu est l’intégration avec Tequila (mécanisme d’authentification utilisé à l’EPFL) qui permettra une utilisation plus large. Actuellement, uniquement les usagers directement concernés peuvent s’authentifier. Pour évaluer la capacité de cet outil, plusieurs unités ou laboratoires en relation sont nécessaires. L’objectif est de pouvoir offrir un service amélioré, en particulier le suivi du parc informatique en conjonction avec les utilisateurs.

PAT - Plate-forme Ateliers Techniques 34 utilisateurs, 36 ordinateurs gérés, 7 ateliers Support de l’enseignement et de la recherche, la Plate-forme Ateliers Techniques est constituée de sept ateliers répartis dans la Faculté STI sur le site de l’EPFL. Ceux-ci permettent la réalisation de prototypes en tous genres, allant de la fabrication de pièces mécaniques sophistiquées aux circuits imprimés complexes. Cette situation, bénéfique pour les laboratoires de recherche, donne aussi aux étudiants la possibilité de s’initier au monde réel pendant leurs études: sti-ateliers.epfl.ch. La structure est la suivante: ❚ une organisation faitière ▲ des unités ▼ des usagers ◗ des ordinateurs ◗ des machines numériques (qui contiennent également des PC embarqués) ❚ une gestion informatique en mutation: passer d’un support par atelier à une architecture mutualisée. Contrainte supplémentaire, le changement ne doit pas perturber le travail des ateliers et ne pas occasionner une charge importante pour les responsables informatique.

Trois étapes 1. Préparatoire; mise en place de l’outil: 1 mois / homme. 2. Installation de l’agent OSC-ng: 5 minutes par ordinateur (dans un processus complet de prise en contrôle d’un ordinateur de 2 heures). 3. Réponse aux demandes et évaluation de la base de connaissance: le reste du temps disponible.

fig. 6 – relation LDAP GLPI

26 avril 2011 - N°4

13


Aider l’utilisateur et le responsable informatique

Les premiers résultats L’inventaire manuel d’une machine est fastidieux, on gère un tableau qui contient les informationsclés: ❚ fournisseur, ❚ date d’achat, ❚ identification, ❚ numéro de série, ❚ numéro d’inventaire. Et c’est probablement tout ! fig. 7 – une partie des ordinateurs

Avec GLPI couplé avec OSC ng, c’est simplement magique: ❚ l’agent découvre automatiquement la configuration, y compris le numéro de série ! ❚ la configuration matérielle est particulièrement détaillée, même la disposition des barrettes de mémoire est présente; ❚ GLPI conserve une liste de toutes les modifications; ❚ toutes les demandes de support sont liées à l’usager et à l’ordinateur.

fig. 8 – un PC en détail, seul le numéro d’inventaire est introduit manuellement

Pour les responsables informatique, le tableau de bord est constamment maintenu à jour, les anomalies sont immédiatement visibles. Pour cette structure, le nombre de tickets n’est pas encore significatif, mais la capacité de relier équipement, usagers, problèmes et solutions est parfaite. Même en cas d’évolution, il n’existe plus de découplage entre l’usager et son environnement de travail. Le responsable informatique voit immédiatement la configuration de l’usager, il peut facilement se rendre compte de la dernière remontée d’informations de l’agent. La présence de problème systématique liée à certains matériels ou logiciels peut être mise en évidence. Toutes les informations sont reliées entre elles, ce qui offre une vision cohérente du parc informatique.

Évolution

fig. 9 – un ticket d’assistance

14 flash informatique

Volontairement, uniquement les fonctions de base de GLPI ont été implémentées. Dans cette version minimum, GLPI est déjà un outil particulièrement remarquable. Son intégration avec des processus plus complexes devrait permettre d’offrir une base de développement solide. Cet outil s’inscrit dans une démarche d’amélioration continue du support informatique réalisée en commun avec le DIT et la Faculté STI. Parfois, on oppose adepte du monde des logiciels open source avec les produits commerciaux. Je crois que la confrontation est salutaire, car elle permet d’éviter de s’enfermer dans des idées préconçues (c’est un logiciel libre donc sans coût, une application commerciale doit être plus opaque).


Aider l’utilisateur et le responsable informatique On bénéficie des avantages de chacun des systèmes en connectant toutes les ressources disponibles. Au confort d’utilisation d’Active Directory répond la consommation minimum des ressources d’un serveur LAMP (Linux, Apache, MySql, PHP). Cette utilisation combinée permet de dépasser ces clivages et autres guerres de chapelles. Dans ce monde en constante mutation, il

est vain de s’accrocher à une technologie, mais nettement plus intéressant de gérer les interactions. Ces échanges engendrent une complexité plus grande, mais infiniment plus simple que le transfert d’ADN entre deux bactéries. ■

Droit de réponse

À propos de l’article sur e-voting Claude.Gerbex@bk.admin.ch, chargé d’information, porte-parole de la Chancellerie fédérale, Section information et communication

L’article Vote électronique un défi pour la démocratie 1, paru dans le FI3/2011, laisse sous-entendre une absence de règles dans le domaine du vote électronique au niveau fédéral, ce qui ne correspond pas à la réalité. Coordinatrice du projet vote électronique à l’échelon national, la Chancellerie fédérale souhaite apporter les précisions suivantes: Lancé il y a dix ans en collaboration avec les trois cantons pilote de Genève, Neuchâtel et Zurich, le projet fédéral de vote électronique vise à assurer la participation au processus démocratique des générations futures, compte tenu des conditions de vie qui changent et d’une mobilité croissante des électeurs. Après une première phase pilote conclue avec succès en 2006, le vote électronique est introduit par étapes comme troisième canal de vote en complément du vote à l’urne et du vote par correspondance. Treize cantons 2 le proposent actuellement. Les Suisses de

1

2

3

4 5

l’étranger sont les premiers à en bénéficier dans la plupart de ces cantons. Environ 90% d’entre eux résident dans des pays depuis lesquels ils sont autorisés à voter électroniquement 3. En permettant l’échange de communications cryptées sous-jacentes au vote électronique, les pays en question présentent une garantie de protection du secret de vote. L’utilisation du vote électronique lors de scrutins fédéraux est soumise à autorisation préalable du Conseil fédéral 4 lequel s’assure du respect des exigences fédérales en matière de vote électronique (il s’agit principalement des articles 27a et ss. de l’ordonnance du 24 mai 1978 sur les droits politiques 5). La Chancellerie fédérale, responsable du dossier au niveau fédéral, et les cantons collaborent entre eux et avec le monde académique au développement du vote électronique, notamment sur la transparence de ce nouveau canal de vote. ■

Article signé Olivier Martin, oliviermartin@citycable.ch, délégué au Conseil des Suisses de l’étranger pour la zone Afrique. Lien internet vers l’article: ditwww.epfl.ch/SIC/SA/SPIP/Publications/spip.php?article2174 - consulté le 12.04.2011 En plus des trois cantons pilote de Zurich, Genève et Neuchâtel, il s’agit des cantons de Berne, Lucerne, Fribourg, Soleure, Bâle-Ville, Schaffhouse, Saint-Gall, Grisons, Argovie et Thurgovie. Il s’agit des Etats de l’Union européenne, des Etats parties à l’Arrangement de Wassenaar du 19 décembre 1995/12 mai 1996 sur le contrôle des exportations d’armes conventionnelles et de biens et technologies à double usage (www.wassenaar.org), ainsi que des pays suivants: Andorre, Chypre du Nord, Liechtenstein, Monaco, Saint-Marin et Vatican. Art. 8a de la loi fédérale sur les droits politiques, RS 161.1, www.admin.ch/ch/f/rs/c161_1.html RS 161.11, www.admin.ch/ch/f/rs/c161_11.html

ndlr à propos de l’article sur e-voting L’article de Monsieur Olivier Martin Vote électronique, un défi pour la démocratie, paru dans le Flash informatique no 3 daté du 29 mars 2011 (rubrique Logiciel libre > Tribune) a suscité une réaction de la Chancellerie de l'Etat de Genève, par la voix de Michel Chevallier (secrétariat général): « … l'auteur de cet article s'y livre à des affirmations qui sont factuellement fausses quant aux choix technologiques de l'Etat de Genève. Par ailleurs, il y remet en cause l'issue d'un scrutin populaire qui s'est déroulé à satisfaction et n'a suscité aucune contestation de qui que ce soit à Genève». La rédaction de Flash informatique regrette que certaines phrases de cet article aient pu faire croire à une remise en question d'un choix démocratique et invite les lecteurs à se faire leur propre opinion sur les choix technologiques en consultant le site www.ge.ch/ evoting/ et notamment la brochure explicative Le système genevois, en deux mots. 26 avril 2011 - N°4

15


Analyse

DONNÉES Julia.Paolini@epfl.ch, EPFL - Domaine IT, responsable mySQL Esteban.Rosales@bluewin.ch, géologue et illustrateur Olivier.Glassey@unil.ch , UNIL - responsable de recherche à l’Observatoire Science, Politique, Société

Un mot: données – quelques regards: informatique, juridique et illustrateur.

Donnée c’est donnée – JP Qu’est ce qu’une donnée ? C’est une représentation de la réalité, d’un fait ou d’une information; elle est stockée en vue d’un traitement, soit par l’homme, soit de manière automatique.

Quel type d’information ? Cela peut être le nombre de jours où il a plu dans le canton de Vaud, la description d’une plante, la photo d’un animal jamais encore observé etc.

Quel support ? Cette donnée peut être conservée sur tout type de support: du papier, en format numérique, une photo, des cassettes (audio ou vidéo), etc.

Pourquoi stocker des données ? Mais pour les réutiliser pardi ! (par exemple pour faire des statistiques, élaborer un arbre généalogique, ou même écrire une encyclopédie…).

Comment les stocker ? Afin de pouvoir utiliser ces données de manière efficace, celles qui sont au format numérique peuvent être stockées dans une … base de données et l’outil qui les gère s’appelle un système de gestion de bases de données, d’où l’acronyme SGBD. Peu importe la quantité de données (50 ou des millions) stockées, ce qui importe c’est leur organisation.

Votre première base de données ? C’est peut-être le fichier d’un tableur (par exemple Excel) où vous stockez les titres de vos DVD. L’organisation est naturelle, une colonne pour le réalisateur, une colonne pour le titre, plusieurs colonnes pour les acteurs, et vous voilà devenu le Monsieur Jourdain de la base de données. Vous pourrez ensuite trier selon les critères de votre choix: tous les films de 박찬욱 ou tous ceux avec 송강호. Allons un pas plus loin dans l’abstraction, il est possible de définir des méta-données, c’est-à-dire des données qui décrivent des données…

De la sphère privée – OG Nos pratiques du Web social contribuent à un phénomène d’une ampleur sans précédent: la transformation des éléments de la sphère privée en données. Historiquement, il existe de nombreux exemples de tentatives d’extraction de données personnelles intimes, certaines occultes (les fameuses fiches), d’autres plus officielles (sondages, questionnaires, entretiens). La situation actuelle est différente, car c’est volontairement et en permanence que nous fournissons des indications sur nos actions, nos intérêts, opinions, goûts, envies, émotions et sentiments par le truchement des traces que laissent nos usages des technologies de l’information. Sont ainsi générés des monceaux de données stockables et exploitables relatives à notre sphère privée. Cet afflux massif pose une double question sous forme de boutade: que rapporte ce don de données? de quoi nous privons-nous en laissant circuler ces données privées ? La première question fait référence aux acteurs privés et publics qui participent de cette économie informationnelle et profitent de ces ressources pour innover en matière de services. Il s’agit dans ce cadre de nous demander, de manière pas si naïve que cela, si en tant qu’usagers et producteurs de cette matière première nous sommes suffisamment récompensés notamment en termes de qualité de service (qui fixe le juste prix de ce type d’information ?). La seconde question, plus fondamentale, nous renvoie sur le long terme aux effets de l’exploitation de ce type de données. Celles-ci permettent des formes de profilages poussés qui pourraient s’appliquer dans une pluralité de domaines (publicité ciblée, marketing politique individualisé, calcul des primes d’assurances, sélection à l’embauche, etc.). Ces possibilités techniques exigent l’élaboration d’un cadre juridique et éthique pour nous garantir que ces données de la sphère privée ne se retournent pas contre nous et, en définitive, ne portent atteinte à nos libertés individuelles et collectives. ■

ISSN 1420-7192


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.