Flash informatique 2009 - no 10

Page 1

éCOLE POLYTECHNIQUE FéDéRALE DE LAUSANNE

p/a EPFL - Domaine IT - CP 121 - CH 1015 Lausanne 15 - tél. +41 21 69 322 11 - Web: http://dit.epfl.ch

Sommaire FI 10/2009 2 Emballages L. Kling 6 Nouveau certificat pour RADIUS N. Biselx, R. Timsit & J. Virchaux 6 Anciens serveurs VPN J. Virchaux 7 Echos du ForumIT d’automne J. Dousson 9 Autopsie du numéro deux A. Raposo 10 Les vœux de l’équipe Formation 11 Droits de l’Homme et Internet S. Ghernaouti-Hélie 13 Windows sans l’acheter ni l’installer ? I. Marculescu 14 Nouveautés de l’accréditation L. Denoréaz 15 COUCHE C. Lecommandeur, A. Raposo, A. Schueler & E. Rosales

FI 10 – 22 décembre 2009 – page 1


Comment maîtriser la consommation énergétique de l'informatique ?

Emballages Laurent.Kling@epfl.ch, EPFL - Faculté STI

À

l’approche des fêtes de fin d’année, recommence la ribambelle d’achats qui seront immolés au dieu Noël dans un grand sacrifice d’emballages déchirés. Un des effets bénéfiques de la Commission Européenne est d’avoir limité la taille des emballages de jeu vidéo au contenu. Avant cette réglementation, le consommateur se retrouvait devant un emballage imposant ne comportant qu’un CD d’installation ! Dans le domaine de l’informatique, il arrive souvent que certains fabricants emballent le composant dans une débauche de contenants. Le magazine électronique The Register décrit avec humour les errements de la société de l’information dans sa rubrique Odds & Sods, littéralement bric-à-brac. Un article a retenu mon attention en juillet 2009: www.theregister. co.uk/2009/07/29/aboxalypse_now/ Avec la même joie enfantine du lendemain de Noël, imaginons l’organisation logistique qui a conduit l’envoi de 9 puces informatiques dans 9 emballages antistatiques contenus dans 9 cartons eux-mêmes contenus dans 9 boîtes finalement transportées avec beaucoup de soin dans 2 cartons. Dans ce cas, le cadeau pour l’environnement provient de Sony. Naturellement, les autres fabricants ne sont pas en reste dans cette débauche de contenants, je vous propose de regarder avec délectation le déballage d’une carte PCI: www.theregister. co.uk/2009/07/29/aboxalypse_now/ page4.html

Informatique et contenants

Cette thématique des fêtes nous renvoie à un sujet sérieux, le rapport entre le contenant et le contenu. À un point inimaginable maintenant, les romans de Dickens et de Zola nous décrivent ce ciel noir en plein jour parsemé d’escarbilles incandescentes dues à la machine à vapeur qui a profondément modifié le paysage humain du 19e siècle. Quelle sera la vision entraînée par l’ubiquité de l’information dans notre société ? La puissance consommée par les centres de calcul atteint des niveaux importants, particulièrement si l’on tient FI 10 – 22 décembre 2009 – page 2

compte de l’énergie électrique dépensée dans l’évacuation de la chaleur. Dans le milieu académique, nous n’imaginons pas de recherche sans informatique, dans le domaine de l’ingénierie, c’est un lieu commun d’utiliser des ressources substantielles. Il est probable qu’un des plus grands consommateurs soit la société Google; en effet, elle a réussi l’exploit de rendre un outil indépendant du nombre d’usagers, un paradoxe ? En fait, ce détachement entre la demande et le temps de réponse (qui reste en général inférieur à 0.7 seconde pour une recherche avec Google) est bâti sur une machinerie gigantesque, des centres de calcul à l’échelle industrielle qui renvoient nos locaux serveurs à la dimension d’échoppes artisanales. La description de cette infrastructure est un secret bien gardé, heureusement quelques bribes d’informations parviennent ici et là à percer ce voile du secret. Jeff Dean, Google Fellow, décrit avec beaucoup de détails le fonctionnement des systèmes distribués utilisés par Google et leur mise en place: www. cs.cornell.edu/projects/ladis2009/talks/ dean-keynote-ladis2009.pdf. Quelques éléments sont particulièrement intéressants à l’aune de nos besoins.

Le temps, le seul élément

inéluctable Dans la vision de Jeff Dean, cette variable immuable prend une clarté insoupçonnée, ramenez sur une échelle exponentielle l’ensemble des briques composant l’édifice informatique. Sur le tableau de la page suivante les seuils utilisés peuvent paraître curieux, quelques explications: Le composant élémentaire est le processeur, maintenant la puce possède plusieurs copies dans le même boîtier. Au centre, se trouvent les registres et l’unité de calcul. Ils sont reliés à une mémoire ultrarapide, la mémoire-cache de premier niveau L1. Une technique de base en informatique est l’indirection, c’est-à-dire que la case de la mémoire vive ne contient pas une valeur, mais l’adresse de la valeur, c’est le pointeur familier au programmeur.


Emballages [1]

Référence dans le cache primaire L1

0.5 ns

[2]

Calcul prédictif de saut erroné

5 ns

[3]

Référence dans le cache secondaire L2

7 ns

[4]

Mécanisme de synchronisation (Mutex lock/unlock)

[5]

Référence dans la mémoire vive

[6]

Comprimer 1Ko avec Zippy

[7]

Envoyer 2Ko sur un réseau 1 Gbps

[8]

Lire séquentiellement 1 Mo depuis la mémoire vive

250’000 ns

[9]

Temps de latence circulaire dans un centre de calcul

500’000 ns

25 ns 100 ns 3’000 ns 20’000 ns

[10] Disk seek

10’000’000 ns

[11] Lire séquentiellement 1 Mo depuis un disque

20’000’000 ns

[12] Envoyer un paquet aller-retour entre la Californie et les Pays-Bas 150’000’000 ns Composants et durées – Les nombres que chacun devrait connaître (Numbers Everyone Should Know) Dans ce cas, c’est la durée pour exécuter un pointeur en mémoire-cache de 1er niveau [1]. Pour le cache de 2ème niveau, qui est inclus dans le processeur, la durée est 14 fois plus longue [3]. Avec la mémoire vive, la durée est 200 fois plus longue [5]. Comme le flux d’instructions est séquentiel avec des ruptures, les processeurs peuvent prédire statistiquement quand aura lieu un saut, naturellement ce calcul peut être faux [2]. Quand vous travaillez avec des flux d’instructions simultanées, il vous faut un sémaphore qui va éviter un carambolage en utilisant un mécanisme d’exclusion mutuelle, Mutex [4]. Par principe, l’information est encodée dans un ordinateur (il ne comprend que des 0 et 1). En général, ces codages sont linéaires, par exemple les 26 lettres de l’alphabet nécessitent 26 positions. Cependant, certaines lettres sont plus souvent utilisées, les voyelles. Un algorithme utilise ce simple constat pour comprimer l’information en allouant une taille variable à chaque lettre, minimale aux lettres très utilisées, maximale aux lettres peu utilisées. Ce principe s’appelle une compression LZW et elle est particulièrement efficace sur du texte, 90% de compression [6]. Pour continuer dans la mémoire, il est intéressant de constater la différence de vitesse pour lire 1 Mo entre la mémoire vive [8] et le disque [11], 80 fois plus lent. Le disque est lui-même handicapé par la vitesse pour accéder à un bloc précis de données, le seek-time [10]. Pour le réseau, comparons la durée de transmission d’une faible quantité d’informations 2 Ko [7] avec la durée d’un signal pour parcourir le réseau informatique local qui est le temps de latence circulaire [9]. Et sur un plan planétaire un aller-retour transatlantique et trans-américain [12].

Une compréhension fine de l’architecture À mes débuts dans l’informatique, la mémoire vive était particulièrement limitée et les vitesses de processeurs relativement faibles (mémoire de 1 Ko, vitesse de 1 MHz). Naturellement, le seul langage disponible était le langage machine introduit en hexadécimal, l’assemblage étant réalisé manuellement. Dans cet environnement, le nombre de cycles

nécessaires pour accomplir une instruction devient important, l’optimisation étant un passage obligé. Aujourd’hui, les programmeurs utilisent des langages symboliques, apparemment la mémoire disponible est illimitée et le calcul peut utiliser des ressources réparties sur de nombreux cœurs. Cette abondance ne peut cacher que tout programme s’exécute par un déroulement séquentiel d’instructions dans un nombre limité de registres.

www.computermuseumgroningen.nl/motorola/ mek6800d2.html

Une architecture hiérarchique pour le

matériel Le débit et la vitesse sont indissociables, une structure pyramidale des composants selon leurs temps d’accès et leurs écoulements permet de construire une architecture viable. Régulièrement, j’essaye de rendre attentifs les usagers à la taille des pages Web, mais tout aussi régulièrement les créateurs de page Web tournent en dérision ces conseils, car sur leur ordinateur, le temps d’affichage est faible ! En 2005, j’ai écrit dans un article sur la méthode pour optimiser la bande passante et donc accroître la vitesse d’accès et le confort: css2 ou Gutenberg retrouvés: «Le point de comparaison ultime me paraît être Google. On est particulièrement surpris de la différence faible qui existe pour la page principale de Google, 13’130 octets, et celle obtenue après une recherche sur le mot clé STI, 13’316 octets. Ce tour de force est possible par l’absence d’objets externes autres que les 4 images

FI 10 – 22 décembre 2009 – page 3


Emballages P L1$

… L2$

P

P

L1$

L1$

P

One server

L1$

L2$

DRAM: 16GB, 100ns, 20GB/s Disk:

Disk

2TB, 10ms, 200MB/s

Local DRAM

Rack Switch Local rack (80 servers) DRAM DRAM DRAM DRAM

Disk Disk Disk Disk Disk

DRAM DRAM DRAM DRAM

Disk Disk Disk Disk Disk

DRAM: 1TB, Disk:

300us, 100MB/s

160TB, 11ms, 100MB/s

Cluster Switch Cluster (30+ racks) Disk Disk Disk Disk Disk Disk Disk Disk Disk Disk

Disk Disk Disk Disk Disk Disk Disk Disk Disk Disk

DRAM: 30TB, 500us, 10MB/s Disk:

4.80PB, 12ms, 10MB/s

A bumpy ride that has been getting bumpier over time

Architectural view of the storage hierarchy

MapReduce

GIF. L’inclusion de la feuille de style dans le fichier HTML évite le retard issu par l’appel de l’objet.»

Dans notre vision classique des structures de données, nous bâtissons une architecture organisée autour des points suivants: z récolter les données, z les caractériser, z les conserver dans des tables, z créer les index nécessaires, z générer une requête, z obtenir le résultat, z le trier, z présenter le résultat.

Dans cette réalité, les conseils de Jeff Dean peuvent surprendre: z connaître le temps de calcul de ces composants, z écrire des microbenchmarks, z encoder et compresser les données pour économiser la bande passante, z construire une architecture commune, z maîtriser son infrastructure pour identifier rapidement les éléments qui fonctionnent et ceux qui posent problème, z anticiper la montée en charge, être capable d’accepter 10x ou 20x l’objectif initial. Son attitude est à l’opposé de l’approche parfois utilisée dans des projets informatiques: à partir d’un besoin, z on analyse sommairement les principes sous-jacents, z on réutilise l’outil informatique qu’on connait déjà, z on propose un calendrier qui ne tient pas compte des aller-retour nécessaires, z on passe beaucoup de temps sur l’interface utilisateur, c’est visible, cela doit être simple ! Et au bout du compte, personne n’est content... Naturellement mon trait est grossier, et généralement l’entreprise se déroule harmonieusement. Cependant, la méthode de Jeff Dean Input est particulièrement séduisante, car elle implique qu’un projet informatique réussi Geographic feature list se base sur une architecture maîtrisée, des attentes mesurées et finalement un usager I-5 qui ne se préoccupe pas de l’infrastructure, Lake Washington le fonctionnement étant harmonieux.

Une manière différente de penser

Goggle possède de nombreuses briques logicielles, deux sont très intéressantes: z MapReduce, z GFS. FI 10 – 22 décembre 2009 – page 4

La vision de MapReduce est fondamentalement différente: z lire beaucoup de données peu ou pas structurées, z Map: extraire les données nécessaires, z les trier, z Reduce: réduire et agréger les données utiles, z écrire le résultat. Naturellement, cette approche ne convient pas pour tous les types de données, mais elle est particulièrement efficace dans le cas d’une recherche non structurée !

Map

Shuffle

Emit each to all overlapping latitudelongitude rectangles (0, I-5)

Reduce Render tile using data for all enclosed features

Sort by key (key= Rect. Id)

0

(1, I-5)

(0, I-5) (0, Lake Wash.)

WA-520

(0, Lake Wash.)

(0, WA-520)

I-90

(1, Lake Wash.)

(0, WA-520) (1, I-90) …

1

(1, I-5) (1, Lake Wash.) (1, I-90) …

MapReduce pour GoogleMap

Output Rendered tiles


Emballages

GFS

La conservation des données est un élément essentiel de notre vie numérique. Traditionnellement, le périphérique de stockage est le disque dur. Chaque disque dur contient au moins: z une tête de lecture-écriture, z un plateau divisé en secteurs et en pistes. L’unité élémentaire de mesure de cette architecture est un bloc de 512 octets. Sur cette infrastructure physique, le système d’exploitation va écrire une organisation logique, un filesystem, cette action est appelée formater, même si maintenant le formatage ne se fait pas au niveau physique. Chaque filesystem est spécifique, il permet de gérer au mieux l’entassement des données dans le support. Naturellement on espère que l’opération inverse va se dérouler correctement ! En pratique, le même support conserve les données et les structures, la taille des blocs logiques est petite (de 1 à 32 blocs disque). Les données sont présentées hiérarchiquement sous la forme de dossiers et fichiers similaires à un classement humain. En général, le filesystem ne possède pas d’informations sur la qualité des données (métadonnées). De par sa nature mécanique, malgré des progrès prodigieux en fiabilité, le disque dur peut tomber en panne. Un informaticien chevronné va même écouter le disque pour vérifier que le fonctionnement est harmonieux. Pour se prémunir contre une défaillance d’un disque, on met en place des systèmes de tolérance de panne. Dans le cas de la recherche sur Internet, le volume de données est considérable, Google File System utilise une approche différente: z les blocs logiques sont très volumineux, 64 Mo, z chaque bloc logique possède un identifiant unique, z chaque bloc est dupliqué sur 2 disques différents, z les métadonnées ne sont pas conservées avec les blocs logiques, z dès qu’un disque est défaillant, tous les blocs logiques du disque sont répliqués sur 2 autres disques. Cette architecture est conçue par nature pour être utilisée dans un cluster. Misc. servers

C0 C5

Replicas

GFS Master Masters

C1 C2

Chunkserver 1

Client GFS Master

C1 C5

C3

Chunkserver 2

Client Client

C0

C5 C2

Chunkserver N

• Master manages metadata • Data transfers happen directly between clients/ chunkservers • Files broken into chunks (typically 64 MB)

Architecture GFS Cette organisation différente résout trois problèmes simultanément: z la défaillance des disques, par la réplication des données, z une organisation trop rigide, par l’absence d’organisation préalable,

z la corruption de la hiérarchie, par la conservation des métadonnées dans une structure indépendante. La limite serait la vitesse d’accès à une donnée, il est plus aisé de lire un bloc particulier de 512 octets que 64 Mo, mais MapReduce offre une solution adaptée à GFS. Au deuxième niveau, on peut imaginer que les métadonnées soit elles-mêmes des données de structure, ainsi le bloc de GFS se mue en structure de stockage sur disque directement adapté à ses besoins ! Les données sont conservées compressées, car cela économise de la place et du temps de calcul par des transferts plus courts.

Conclusion, un emballage adapté à nos besoins

Ces nouvelles méthodes pour traiter les données sont séduisantes, malheureusement elles se heurtent à un seuil élevé de contraintes; maîtriser l’ensemble du cycle de développement du logiciel, de l’analyse au code source jusqu’à son implémentation. Les nuages de calculs nous confrontent à un dilemme similaire, une interface de programmation spécifique (API) qui nécessite de nouveau un code source adapté... La majorité des applications utilisées en ingénierie sont commerciales, mais quelle est l’architecture optimale pour répondre à ces besoins grandissants ? Cet emballage doit répondre à des critères contradictoires: z être multiplateformes, au minimum Linux et Microsoft, z héberger des applications métier, z fournir une puissance de calcul à la demande, z être économique. Une solution serait un environnement virtuel qui permette: z à l’usager d’installer son application, z de déployer cette instance sur plusieurs serveurs, z de facturer son utilisation. Finalement, l’application peut être archivée pour être réutilisée. Avec la multiplication des systèmes de virtualisation, l’émergence d’API standard, une telle solution est envisageable et permettrait de combler le fossé existant entre les clusters de calcul et le serveur isolé. À la suite de ce raisonnement, on peut même envisager que la brique élémentaire, le serveur virtuel, suive la consommation effective des ressources plutôt que d’être pré-alloué. La mise en place d’environnements de calcul à la demande nous oblige à mettre en place un urbanisme des salles serveur. Ce schéma directeur doit dépasser l’accumulation de ressources informatiques dans un espace restreint pour offrir des services qui présentent une empreinte écologique raisonnable. Il est probable que la prochaine limite des systèmes de calcul ne soit pas technique, mais énergétique, seule une vision intégrée des algorithmes et de leur implémentation avec une mesure des performances serait viable. Ainsi, l’explosion de la demande avec son corolaire environnemental, une consommation électrique excessive pourrait être contenue. n FI 10 – 22 décembre 2009 – page 5


Un nouveau certificat pour le serveur RADIUS Nicolas.Biselx@epfl.ch, Richard.Timsit@epfl.ch & Jacques.Virchaux@epfl.ch, Domaine IT

Actuellement

l’EPFL utilise une autorité de certification (CA = Certification Authority) GTE CyberTrust Global Root (GlobalSign) reconnue par défaut sur toutes les plates-formes, ceci dans le cadre d’accords européens et avec le partenaire SWITCH. Dans la foulée des institutions affiliées à TERENA, SWITCH a décidé d’abandonner cette autorité. Si le choix de QuoVadis fait par SWITCH pour ce remplacement n’est pas discutable pour les serveurs Web, il Client

pose problème pour les dispositifs précaires comme les PDA ou les smartphones de plus en plus nombreux à être utilisés pour des connexions authentifiées. Changement pour changement, nous avons préféré changer pour une autorité des plus reconnue, à savoir Thawte, qui signera ce nouveau certificat à partir du 19 janvier 2010. Les détails concernant ce changement pour les utilisateurs qui s’authentifient avec WiFi (WPA2) et 802.1x (sur une prise jaune avec un ’X’): network.epfl.ch/ara/changement_certificat.html.

Serveur RADIUS

Rappel

le mécanisme d’authentification

Contacte radius.epfl.ch

CA reconnue (Thawte ou une autre) = le serveur radius.epfl.ch est le bon

Certificat serveur authentifié par CA

Authentification RADIUS (username /password)

Pour s’authentifier, le client contacte le serveur radius.epfl.ch. Le serveur va présenter son certificat de serveur, signé par une CA connue du client qui lui permet de savoir qu’il parle bien avec radius.epfl. ch. Ensuite l’authentification par le serveur certifié peut s’établir. Il est très important de n’accorder sa confiance qu’au serveur reconnu, ceci pour éviter des actions malhonnêtes permettant de récolter les username/ password avec un serveur pirate ! n

Anciens serveurs VPN une fin de vie programmée Jacques.Virchaux@epfl.ch, Domaine IT

Depuis

l’installation des nouveaux serveurs VPN ce printemps, il est permis de respirer un peu. En effet, les anciens serveurs n’étant plus du tout supportés, une panne pouvait à tout instant nous mettre dans une fâcheuse position. Le concept du vieux client Cisco possède de surcroît une petite faille de sécurité et l’alternative PPTP n’est guère plus sécurisante. Désormais, le nouveau cluster de serveurs VPN fonctionne bien et offre d’autres possibilités outre le client léger AnyConnect. Il n’y a donc plus aucune raison de conserver les anciens serveurs. Cependant, la garantie de service ayant été donnée – pour autant que faire se peut – jusqu’à la fin 2009, il est prévu d’arrêter définitivement ces anciens serveurs le 30 juin 2010. Cela permet aux anciens utilisateurs de prévoir une FI 10 – 22 décembre 2009 – page 6

migration en douceur, sans devoir se presser et planifiée pendant une période d’activité moindre. Si dans la hotte du Père Noël vous avez un nouvel ordinateur, c’est le moment de choisir une solution plus moderne et mieux adaptée à votre système d’exploitation. Sinon, profitez de la pause de Noël pour installer un nouveau client tranquillement et pouvoir le tester avant de supprimer l’ancien définitivement (network.epfl.ch/vpn/update_client.html). Pour rappel: network.epfl.ch/vpn (et n’oubliez pas de déconnecter votre VPN si vous n’en n’avez plus besoin…). Enfin, si vous vous connectez sur le site de l’EPFL en WiFi, préférez le WPA qui est plus performant: network. epfl.ch/ara/wpa.html et n’utilisez le VPN que pour des connexions SWITCHconnect (autres campus en Suisse et HotSpots partenaires) ou depuis le domicile, si nécessaire. n


Echos du ForumIT d’automne Jacqueline.Dousson@epfl.ch, Domaine IT

Pour

ceux qui n’ont pas pu y assister, voici quelques mots sur les sujets abordés, vous pouvez retrouver les présentations complètes sur le site dit.epfl.ch/ page55589.html.

IT@EPFL L’habituel survol de ce qui s’est passé en informatique lors de ces 6 derniers mois par Jean-Claude Berney fut l’occasion de rappeler la nomination d’un coordinateur des systèmes d’information, en la personne de Didier Rey qui a pris ses fonctions le 1er novembre, et l’existence du projet CADMOS (Center for Advanced Modeling Science), qui avec ses 3 partenaires (UNIL, UNIGe et EPFL) va permettre de donner une nouvelle impulsion à la simulation numérique, par l’achat d’une machine BlueGene/P et la création de nouvelles chaires. Réseau: la couverture du réseau WiFi continue à s’agrandir (542 access points), de nouveaux bâtiments ont dû être câblés (RLC, logements pour étudiants, quartier de l’innovation). HPC: l’été a été marqué par l’installation du BlueGene/P en remplacement du BlueGene/L; ajout de 56 nœuds à Callisto (448 cores); arrêt de Mizar et Alcor prévu pour fin 2009. Stockage: l’infrastructure NAS a été renouvelée, et dès février 2010 elle permettra le stockage des fichiers individuels. Backup: le robot a été déménagé dans un bâtiment différent des unités de sauvegarde, afin d’améliorer la sécurité. Sécurité informatique: une campagne est en cours pour améliorer la qualité des mots de passe Gaspar. Messagerie: un filtrage anti-spam à 2 niveaux a été mis en place: SpamHaus retient les messages de spammers avérés sur la base du site d’envoi, entraînant une baisse de 7580% de la charge de MailCleaner. Logiciels: dans le but de maîtriser les coûts, un workflow de validation a été mis en place pour les logiciels chers ou pour lesquels une alternative moins coûteuse existe. Poseidon: une charte pour les partenaires académiques du projet (UniL, HEIG-VD) a été rédigée, une antenne du Help Desk est prévue dans le RLC. Web: le projet Web2010 progresse, la charte graphique est sur le point d’être définie, en cours une professionnalisation des métiers du Web (traduction, contenu) et une meilleure promotion de la recherche. GED: la solution basée sur Alfresco est mise en production au SAC.

Prévisions pour le 1er semestre 2010: z évolution du Flash informatique, z amélioration de plan.epfl.ch, z myPrint pour tous les étudiants,

z mise en évidence des coûts pour la distribution de logiciels, z passage progressif au mono-domaine Active Directory, z début de l’hébergement des archives du Festival de Jazz de Montreux, z et toujours les grands thèmes de réflexion qui sont la coordination des systèmes d’information, la saturation des salles serveur et l’étude du passage à la VoIP .

Enquête sur le ForumIT Ce forumIT d’automne 2009 est déjà la dixième manifestation de cette rencontre DIT/responsables informatique d’unités. Fin septembre, un questionnaire a été envoyé aux quelques 250 responsables informatique, seulement 40 réponses ont été reçues, mais qui nous ont permis de sonder comment étaient perçues ces rencontres. Elles sont dans l’ensemble jugées très utiles pour mieux connaître les prestations du DIT et pour le travail quotidien des responsables informatique. Nous allons donc continuer sous la même forme, un effort sera fait pour améliorer les présentations, pour mieux coller aux sujets que le public veut voir traiter et aussi s’ouvrir à des présentations informatique hors DIT (SAP, IS-Academia,…).

iPhone

& PDA avec Exchange

Luc Venries responsable du service Exchange est conscient de la demande croissante de synchronisation avec les PDA: plus de 500 périphériques se synchronisent par jour via le protocole ActiveSync. Une grande majorité (80%) des périphériques sont des iPhone ou iPod. Il a montré en live à quel point c’était devenu simple et intuitif de configurer et de se synchroniser avec le serveur Exchange. Tout se passe par le protocole ActiveSync (rien à voir avec le logiciel ActiveSync qui s’installe sur un PC). Le protocole ActiveSync fonctionne sans câble, par une connexion WiFi ou GPRS. L’intégration du protocole est native pour iPhone, Windows FI 10 – 22 décembre 2009 – page 7


Echos du ForumIT d’automne Mobile et Android à partir de la version 2 (pour les autres, il faut installer des applications tierces). On peut synchroniser le mail, le calendrier et les contacts. Pour le mail, en plus de l’envoi et de la réception (éventuellement en mode push) d’un message, on a accès à l’annuaire global de l’entreprise (sans configuration d’un LDAP) et à une possibilité de recherche dans les messages stockés sur le serveur. Une fonction peu connue, mais très utile en cas de vol: Remote Wipe via ewa.epfl.ch, permet à distance d’effacer toutes les données du PDA. Quelques manques bien sûr, surtout pour les non Windows Mobile, mais ils devraient être corrigés lors de prochaines mises à jour.Une fonction peu connue, mais très utile en cas de vol: Remote Wipe via ewa.epfl.ch, permet à distance d’effacer toutes les données du PDA.

Séminaires Logiciels Libres Vittoria Rezzonico (SB-IT) rappelle l’existence d’un groupe d’intérêts sur le Logiciel Libre dont le but est de partager les connaissances par le biais de séminaires. Les séminaires qui visent un public débutant ou expert, sont soit proposés spontanément par un membre du groupe, soit demandés par le groupe lui-même, en espérant que quelqu’un veuille bien parler du sujet. Il faut souligner que le but de ces séminaires étant l’échange, celui qui donne le séminaire n’est pas nécessairement un expert dans le sujet, et souvent les séminaires comportent une grande partie de discussions. Toutes les informations sont disponibles à la page: elle. epfl.ch/wiki.

Le point sur la prestation myPrint Catherine Cornaz et Thomas Becker ont présenté l’état de cette prestation, entrée en production à l’ENAC en septembre 2008 et offrant un service d’impression toujours en voie d’homogénéisation à la quasi-totalité des étudiants de l’EPFL. La prestation, ainsi que la politique qui devra l’accompagner, ont été présentées en Séance de Direction. Cela devrait avoir pour effet d’asseoir les principes de l’allocation périodique pour étudiants ainsi que celui du paiement du surplus. La simplification des flux financiers devrait faciliter la mise en œuvre de ces deux principes. Aussi, l’Ecole projette d’acquérir des appareils multifonctions devant offrir un accès plus égalitaire aux ressources d’impression et de copie. D’un point de vue technique, ces appareils seront regroupés dans la mesure du possible en nuages, l’utilisateur décidant au dernier moment sur quelle imprimante physique il libère son job (au moyen de sa carte CAMIPRO). Les nuages permettent non seulement d’imprimer sans se soucier de l’imprimante physique qui restituera le job, mais également de pallier aux éventuelles pannes, puisqu’un utilisateur n’aura qu’à se rendre au prochain appareil multifonction disponible. Depuis la mise en production de myPrint qui intègre désormais plus de 100 imprimantes, plus de 3 millions de pages ont été imprimées à travers ce système, dont 80% en noir et blanc.

FI 10 – 22 décembre 2009 – page 8

La nomenclature des imprimantes a été soulevée, notamment quant à la confusion possible de l’utilisateur, à laquelle certains proposèrent de remédier par des alias. Le site myPrint.epfl.ch regorge d’informations sur la prestation.

VCB/Netbackup Eric Krejci a présenté les tests effectués au DIT du framework VCB, annoncé comme étant la panacée pour sauvegarder des machines virtuelles. Par rapport aux solutions actuelles, le but visé était de: z diminuer l’impact des sauvegardes sur l’infrastructure virtuelle, c’est bien le cas, les sauvegardes sont très rapides; z conserver le niveau de service du backup actuel: là on n’y est pas encore puisque sur Linux, on n’a que le Full VM backup; z proposer aux utilisateurs une gestion autonome des leurs restaurations: ce n’est pas possible sans intervention des administrateurs; z garantir la consistance des sauvegardes: pas de garantie pour les sauvegardes applicatives. En conclusion, la solution n’est pas mûre pour l’instant.

Changement de certificat des serveurs Radius Yves Despond a présenté les raisons de ce changement prévu le 19 janvier 2010 et rappelé les trois cas de figure: z Windows et iPhone: on peut déjà installer les nouveaux profils, z MacOS, Linux et Symbian: il faut attendre le 19 pour changer, mais il faut se préparer, z Windows Mobile et Android: malheureusement, rien à faire. (Voir aussi l’article dans ce numéro) Rendez-vous au printemps 2010 pour la prochaine édition du ForumIT, entre-temps n’hésitez pas à nous faire part de vos suggestions pour les thèmes à aborder. n


Autopsie du numéro deux Appoline.Raposo@epfl.ch, Domaine IT

Connaissez-vous la face cachée d'un Flash informatique ? non, alors suivez-nous dans les coulisses de la rédaction pendant la préparation du FI2/09.

Un

journal, cela commence par une réunion du comité de rédaction. Il est composé de Vittoria pour la faculté SB, Laurent et Christophe pour la STI, Paulo pour l’ENAC, Patrice pour l’Université de Lausanne, JeanDamien pour l’Ecole Pédagogique, Aristide, Jacqueline, Julia, Appoline, François, Predrag et Jacques pour les différents groupes du DIT.

lundi 19 janvier: réunion du comité

z La maquette du premier numéro de l’année qui est sous presse est sur la table pour information. z Jacqueline entame la réunion en donnant les dernières informations et fait un tour de table pour composer le numéro deux. z Chacun informe de ce qui se passe dans son environnement immédiat, donne son avis en cas de problèmes – nous avons reçu une annonce de Nokia pour les étudiants en anglais, faut-il la traduire ?–, réfléchit sur l’évolution du journal, donne des idées d’articles, d’auteurs éventuels. Après la réunion, chacun tentera de mobiliser les éventuels auteurs. les articles ont en moyenne de une à quatre pages. z François propose de commencer une nouvelle rubrique qui s’appellera FlashiPhone. z Francis écrira un article sur CUDA; Natalie sur les CMS, article qui sera reporté pour le numéro trois et qui paraîtra finalement dans le numéro quatre; d’autres sont promis qui ne paraîtront jamais,… z Le thème du spécial été est choisi, ce sera Mobil-IT. z Le sponsor du concours de nouvelles s’étant proposé de lui-même, le problème de savoir si on continue ou non d’organiser ce concours est ainsi réglé pour cette année. Comme chaque année, Franck Perrot mettra au point l’outil pour recevoir anonymement les participations. Il faudra recomposer un jury, faire une campagne de publicité, etc.

pur, l’autre a été composé sur Word, OpenOffice, Latex… Il n’est pas toujours aisé de les lire. Les illustrations sont créées avec nombre d’applications différentes et doivent être redimensionnées, corrigées, voire redessinées avec Illustrator ou PhotoShop. L’article enfin mis en page est donné en relecture à Julia, Jacques et Jacqueline; Appoline est déjà passé à travers lors de la mise en page. En cas de problème d’incompréhension d’une phrase ou d’incohérence avec une autre, l’auteur sera contacté. Quelques articles sont aussi relus par des spécialistes du domaine dont ils parlent de manière à garantir la qualité du contenu. L’article relu, corrigé, est envoyé en PDF à son auteur pour un dernier contrôle.

jeudi 5 février

Le jour du délai de rédaction, nos deux comparses font le point des articles reçus, encore en attente – quelques auteurs ayant demandé un délai supplémentaire pour peaufiner leur article. Un article non annoncé est arrivé par mail. Elles évaluent le nombre de pages que représentera ce numéro qui doit être un multiple de quatre. Sinon il faut, soit étendre les articles en jouant sur les illustrations, soit comprimer un peu plus les articles existants. Il arrive de devoir courir après un article de dernière minute ou encore de devoir l’écrire.

mardi 10 février

Appel de la Repro qui veut faire le point. Quand le numéro arrive-t-il ?, combien a-t-il de de pages ?, etc. Peut-on le donner en avance parce qu’ils pourraient commencer à l’imprimer vendredi dès la première heure ?… Le FI est en effet imprimé en interne par l’atelier de Reprographie ce qui permet une grande souplesse de travail. Proximité, dialogue et bonnes relations sont nos rapports depuis nombre d’années. Roland, quelquefois Amandine, fabrique les plaques et Bernard assure le tirage sur une machine Offset. Un auteur qui avait demandé deux jours de plus, renonce finalement, trop débordé par d’autres tâches.

mardi 27 janvier

Le FI no 1 paraît.

lundi 2 février

Quelques jours avant le délai de rédaction, Jacqueline fait le point avec Appoline. Quels sont les articles reçus ? Quels auteurs doivent être relancés ? Qui les relance ? etc. Il faudra aussi faire un article sur la disparition de René Berger; Jacqueline le fera. Nous relisons ses articles et décidons de republier un article de 1986. Dès qu’un article arrive, il est mis en page avec le logiciel Adobe In-Design. Il faut mentionner que les articles arrivent chacun dans un format différent, l’un est du texte FI 10 – 22 décembre 2009 – page 9


Autopsie du numéro deux

mercredi 11 février

Vittoria appelle pour glisser un petit encart; résultat il est décidé d’ajouter une page d’annonces de conférence et de comprimer la page des cours. Maintenant le numéro semble complet, Appoline fait la maquette en discute avec Jacqueline qui propose de changer l’ordre des articles. Nouvelle maquette, nouveau coup d’œil. On attend encore les retours de quelques auteurs pour d’ultimes corrections. Reste encore à faire la manchette. Jusqu’à la dernière minute des modifications peuvent intervenir; quelquefois même des changements d’articles.

jeudi 12 février

Le FI et la manchette, en version pdf en séparation des couleurs pour la couverture et la manchette, sont sur le serveur de la Repro. Appoline attend l’appel de Roland pour passer contrôler les fichiers sur son écran RIP avant la réalisation des plaques d’impression. Les fichiers d’adresses des abonnés sont transmis sur le serveur de la Repro par Danièle pour le fichier du DIT qu’elle tient à jour et par Sandra pour le fichier Alliance (Alliance est le consortium de transfert de savoir et de technologies de Suisse romande et du Tessin). La Repro imprime les enveloppes et les remet au relieur qui fera la mise sous pli et l’envoi. Un

paquet de FI est envoyé à chaque concierge de l’EPFL pour alimenter les casiers qui sillonnent dans les lieux de passage de notre école.

vendredi 13 février

Le FI est sous presse. Il faut encore faire une annonce pour les écrans Polynex et il ne restera plus qu’à le mettre sur le Web en HTML et en PDF. Une page est créée aussi pour chaque nouvel auteur. Nous avons choisi le logiciel SPIP pour sa diffusion sur le Web. A ce jour, 1846 articles sont publiés sur SPIP par 504 auteurs.

lundi 16 février: réunion du comité

La maquette du numéro deux qui est sous presse est sur la table pour information…

mardi 17 février

Un mail est envoyé à une liste d’abonnés pour les informer du contenu du dernier numéro. Appoline change l’information de la page principale du Domaine IT pour annoncer le nouveau numéro.

mardi 24 février

Le FI no 2 paraît. Il ne vous reste plus qu’à le lire, et à la rédaction nous sommes déjà sur le no 3. n

les vœux de l’équipe des cours du DIT Pierre Berberat, Danièle Gonzalez & Josiane Scalfo, Domaine IT, cours.dit@epfl.ch

Toute l’équipe des cours du DIT vous souhaite de Bonnes Fêtes et une année 2010 riche en formations !

Prochaines parutions

Le programme complet pour le premier semestre 2010 se trouve sur notre site Web dit.epfl.ch/formation FI 10 – 22 décembre 2009 – page 10

No

Délai de rédaction

Parution

1

07.01.10

26.01.10

2

04.02.10

23.02.10

3

04.03.10

23.03.10

4

31.03.10

20.04.10

5

06.05.10

25.05.10

6

03.06.10

22.06.10

SP

01.07.10

31.08.10

7

02.09.10

21.09.10

8

23.09.10

19.10.10

9

04.11.10

23.11.10

10

02.12.10

21.12.10


Les Droits de l’Homme au regard d’Internet et de la sécurité informatique

posture ou imposture ? Professeure Solange Ghernaouti-Hélie, sgh@unil.ch, Présidente des Commissions Sociale et Egalité des Chances de l’Université, Université de Lausanne, HEC Connecter le monde de manière responsable fut le thème central du 4ème forum mondial de la gouvernance de l’Internet qui s’est tenu du 14 ou 18 novembre 2009 à Sharm al Sheikh (IGF 09). De mon point de vue, connecter le monde de manière responsable, c’est ne pas oublier que la protection des données est une condition préalable d’une part, de l’autodétermination et de la protection de la liberté d’expression et de la dignité humaine et d’autre part de la liberté et de la démocratie. Que cela soit à l’échelle d’un individu, d’une organisation ou d’un Etat, les technologies du numérique, comme la sécurité informatique au sens large, devraient pouvoir garantir le respect des Droits Fondamentaux et des Libertés civiles. Ainsi, connecter le monde de manière responsable, c’est faire respecter la Convention Européenne des Droits de l’Homme - ECHR de 1998 dont on ne se lasse pas de rappeler l’Article 8, à savoir: Chacun a droit au respect de sa vie privée et de sa famille, de son domicile et de sa correspondance. Dans une perspective de développement durable de la société de l’information, les Droits de l’Homme ne sont ni à vendre, ni à négocier. Ainsi, il est temps de repenser la sécurité informatique actuelle, dont l’efficacité est toute relative, en la plaçant dans un contexte global de société et en l’appréhendant de manière holistique. Sachant qu’aucune mesure ne résiste, qu’aucune solution de sécurité ne protège contre les fruits de l’injustice, cela revient à se poser les questions suivantes: est-ce que la sécurité publique est compatible avec l’insécurité sociale, avec un Internet marchand où tout se vend et tout s’achète, avec des services basés sur la livraison de données personnelles ou sur leur collecte et sur leur exploitation, à l’insu de leur propriétaire ? Ne serait-il pas temps par exemple, de mettre enfin en œuvre les directives de l’OCDE en matière de protection des données privées (Privacy) qui rappelons-le, existent depuis 1980 et dont les fondements sont toujours d’actualité ? Il y a donc urgence pour qu’un véritable débat de société ait lieu autour des questions de

la société de l’information, que nous sommes en train de construire et plus précisément autour de la question centrale de la sécurité des citoyens, des organisations et des Etats dans un monde numérique interconnecté. C’est dans ce contexte que j’ai organisé à l’Ecole des HEC de l’Université de Lausanne, la conférence publique: Les droits de l’Homme au regard d’internet et de la sécurité informatique: posture ou imposture ? le 3 décembre 2009. Inscrite dans une démarche citoyenne, cette conférence a offert un regard nouveau et interdisciplinaire sur la réalité de la protection des droits de l’Homme et des valeurs démocratiques pour une société de l’information inclusive, sûre et durable. Sur ce vaste sujet, qui ne peut être circonscrit en une seule fois, des orateurs de profil, d’expérience et d’âges différents, ont alimenté ce débat en livrant leurs réflexions, parfois leurs doutes, tout en identifiant des pistes de solutions. Loin d’être négatif, bien que la question soit peut-être alarmante, car les Droits de l’Homme ne sont pas acquis définitivement, ce débat n’en est pas moins porteur d’espoir dans la mesure où l’interrogation existe et que les facteurs qui peuvent les mettre à mal dans le cyberspace, ne sont pas immuables. Question de prise de conscience, de volonté et de responsabilité. Ainsi, Mme Sandrine Sorlin, Maître de Conférences à l’Université Paul Valéry de Montpellier 3, qui travaille au carrefour de plusieurs disciplines littérature, linguistique, histoire des idées linguistiques et scientifiques et philosophie du langage, s’est exprimée sur le thème: «Il vous regarde: la dignité humaine à l’épreuve de Big Brother, une relecture de l’ouvrage», 1984 de G. Orwell. Elle a, entre autres, rappelé «Poussant à l’extrême les liens entre espionnage et technologie au sein d’un régime totalitaire qui s’est emparé de tous les moyens de communication», George Orwell montre dans Mille neuf cent quatre-vingtquatre comment la dignité et l’intimité humaines sont progressivement annihilées par le truchement d’un système de FI 10 – 22 décembre 2009 – page 11


Les Droits de l’Homme au regard d’Internet et de la sécurité informatique: posture ou imposture ? surveillance panoptique appelé le télécran. L’œuvre se voulait un avertissement contre les dangers d’un contrôle invisible des paroles et déplacements humains et, à ce titre, elle semble avoir réussi: on mentionne encore aujourd’hui très souvent le nom du dictateur Big Brother dès que les libertés individuelles sont menacées. Mais au-delà d’une simple réduction des libertés, de façon plus profonde, c’est l’homme dans son humanité, dans sa définition même d’être humain, qui est atteint selon l’écrivain dans un système de contrôle généralisé. Grâce au mode fictionnel, Orwell met en effet en lumière de manière poignante la façon dont ce système finit par modifier les liens sociaux, isoler les êtres les uns des autres, encourager la délation, anéantir cette décence ordinaire qui fait que l’homme est homme selon l’écrivain. L’asymétrie de la surveillance (être vu sans voir) pousse l’être humain à s’installer dans une posture artificielle, une forme d’aliénation qui finit par avoir raison de lui. Le héros Winston Smith ne peut résister longtemps à la pression de l’écrasante machine de surveillance qui parvient à le transformer malgré lui en un sujet passif et docile, sans aspérité, protégé de lui-même, à l’abri de tout soupçon. Monsieur V. E. de Sa, expert international en informatique et sécurité (Geneva Solution SA) en nous rappelant «qu’Internet ne possède pas de frontière géographique et n’a pas vraiment de loi hormis celle imposée par les acteurs les plus forts,» interroge sur «les responsabilités des intermédiaires techniques, des fournisseurs de service ou de solutions de sécurité, mais aussi celle des utilisateurs, au regard du droit à l’intimité de la vie privée et de la protection des données».

La table ronde animée par Monsieur Frédéric Pfyffer de la RSR, à laquelle se sont également joints messieurs Thomas Schneider, représentant l’Ofcom au Conseil de l’Europe sur les questions des Droits de l’Homme et Sylvain Métille, avocat, a permis de débattre des perspectives des droits de l’Homme au regard des besoins de sécurité et l’usage extensif des technologies de l’information et de la communication. Des éléments de réflexion qui devraient permettre à tout un chacun de ne pas céder à l’idéologie de la peur et d’apprécier objectivement la réalité. Sensibiliser les professionnels de l’informatique, de la sécurité, les juristes comme les politiciens et les citoyens contribue à faire prendre conscience à tous les acteurs concernés de leur responsabilité au regard des besoins énoncés. Ainsi, des solutions de sécurité viables sur le long terme et convaincantes, que le grand public puisse s’approprier, devraient exister afin d’éviter de devoir échanger des libertés contre une protection illusoire. Savoir préserver les Droits de l’Homme au regard des technologies et des besoins de sécurité suppose de l’information, des débats, l’existence d’alternatives réalistes et une réelle volonté portée par tous les acteurs de la société. Car aujourd’hui, la posture consiste pour l’essentiel, à faire croire au mirage technologique et sécuritaire, à accréditer que la surveillance généralisée à grande échelle est normale, à contribuer à générer des consommateurs dociles. L’imposture qui en découle est de légitimer le recul des libertés, à ignorer les dérives technologiques et à accepter les mensonges sécuritaires. Mais les réponses au questionnement soulevé par le titre même de cette conférence appartiennent aux citoyens et à tous les acteurs de la société de l’information. n

Quant au grand journaliste et reporter de guerre qu’est Monsieur Claude-Marie Vadrot, ce dernier, passeur d’histoires, a abordé le thème suivant Trop de sécurité engendre l’insécurité. La surveillance et la vidéo-surveillance, remèdes placebo au malaise social. Il a notamment évoqué les promoteurs des systèmes de fichage, de contrôle et de vidéo surveillance qui reprennent curieusement à leur compte la devise de Félix Djerzinsky, le fondateur du KGB soviétique: «seuls craignent la surveillance, les gens qui ont quelque chose à se reprocher». Ce qui revient à expliquer que, contrairement à ce qui fut longtemps la règle, tous les citoyens sont a priori désormais considérés comme des suspects. Ainsi en nous imposant peu à peu une hyper-surveillance, les autorités tentent de nous convaincre que nous sommes tous menacés par les autres, que l’autre est à la fois un ennemi et un objet de curiosité permanente, que nous devons être totalement transparents, que nous devons tout savoir des autres. Ce qui, notamment, revient à transformer la vidéo surveillance et Internet en une sorte de télé-réalité permanente. Le Professeur Michel Riguidel, de Télécom Paris Tech, expert en réseaux avancés et sécurité informatique, détenteur de plusieurs brevets en sécurité dans sa conférence intitulée Internet du futur: technologie, idéologie, éthique: un choix de civilisation pour la connaissance et la communication au 21ème siècle nous a rappelé que « … nous ne devons plus faire l’économie de la compréhension des différentes dimensions des problématiques géostratégique, technique et idéologique liées au contrôle de l’Internet, tel que nous le connaissons actuellement, mais aussi de l’Internet du futur…» FI 10 – 22 décembre 2009 – page 12

Solange Ghernaouti-Hélie est l’auteure du livre la cybercriminalité: le visible et l’invisible - Collection Le savoir suisse. ISBN: 978-2-88074-848-7, PPUR 2009, www. lesavoirsuisse.ch/livres/978-2-88074-848-7.html


Avec Windows Server 2008 ... comment utiliser Windows sans l’acheter ni l’installer ? Ion Marculescu, Rhodanie Systèmes et Réseaux Sàrl,ionm@bluewin.ch

Parfois,

un utilisateur peut avoir besoin d’un ordinateur Windows pour utiliser une application Windows, mais il n’a pas de PC à sa disposition ni suffisamment de temps pour installer Windows et l’application. Heureusement, un administrateur peut, lui, préparer un grand nombre d’ordinateurs Windows, installer des nombreuses applications et les mettre à la disposition des utilisateurs. Il est donc possible pour un utilisateur de se connecter à un serveur de sessions Windows et utiliser une machine Windows sans perdre de temps. L’utilisateur peut également s’il le souhaite se déconnecter et se reconnecter sans perdre son environnement.

Le Service Bureau à distance inclut la prise en charge de jusqu’à 16 moniteurs. Il fonctionne pour le Bureau à distance et Applications à distance. Le service Bureau à distance reproduit sur l’ordinateur client de l’utilisateur le bureau qui existe sur l’ordinateur distant. Avec la fonctionnalité Expérience utilisateur installée sur Windows Server 2008, l’utilisateur peut accéder aux fonctionnalités Windows client, telles que le lecteur Windows Media, les thèmes du bureau et la gestion des photos depuis une connexion à distance. Le courtier des sessions (Session Broker), mémorise les sessions déconnectées et permet aux utilisateurs de retrouver leurs sessions ultérieurement. L’équilibrage de charge et la tolérance de panne ne nécessitent pas obligatoirement de mettre en place un cluster de basculement ou cluster NLB, l’en- RDP: Remote Desktop Protocol registrement alterné (Round Robin) suffit. Une autre nouveauté rendra heureux tous les administrateurs des serveurs TS (Terminal Server), le mode de drainage. Le mode de drainage permet à l’administrateur d’arrêter un serveur TS sans perturber les utilisateurs. En mode de drainage un serveur TS n’accepte plus de nouvelles sessions, mais permet à un utilisateur avec une session déconnectée de se reconnecter pour fermer correctement sa session. Le mode de drainage utilisé avec Session Broker permet à l’administrateur d’arrêter un serveur TS pour maintenance pendant les heures de bureau. Ceci est particulièrement important pour mettre à jour le serveur avec les derniers correctifs de sécurité ou service pack.

Le service de passerelle RDS (Remote Desktop Server) permet à un utilisateur se trouvant à la maison de se connecter comme s’il était au bureau. La passerelle est compatible avec la protection d’accès réseau NAP (Network Access Protection).

Journalisation dans WSRM

La fonction de journalisation (accounting) dans Windows Server Ressources Manager enregistre comment les processus utilisent les ressources. A l’aide de ces informations, vous pouvez générer des rapports d’utilisation des ressources processeur et mémoire par utilisateur et par application. Ces informations peuvent être utilisées pour optimiser, facturer ou pour allouer un quota de mémoire ou un processeur à un utilisateur ou une application.

Help Desk ou comment aider les

utilisateurs à utiliser les applications de manière optimale

Si les utilisateurs rencontrent des problèmes, il est possible de prévoir un service d’aide. Un membre du Help Desk peut répondre à la demande d’assistance d’un utilisateur en prenant le contrôle de la session de l’utilisateur.

Publication des applications à distance

Une partie de vos clients utilisent des ordinateurs Windows XP ou Windows 7, et souhaitent bénéficier d’une application sans l’installer. Un administrateur peut la leur mettre à disposition, sans leur demander aucune procédure. Les utilisateurs pourront lancer cette application et l’utiliser exactement comme les autres déjà installées sur leur ordinateur sans avoir à faire face à un deuxième bureau. L’exécution d’une application installée sur un serveur distant est transparente pour l’utilisateur. Le DIT organise des cours pour l’installation et la configuration de Windows Server 2008. Les rôles serveur suivants seront installés et configurés pendant ces cours: Serveur Bureau à Distance (TS), Serveur de fichiers et imprimantes, Internet Information Server (IIS), DNS, DHCP, Active Directory, Haute Disponibilité, hyper-V, Installation et déploiement automatique des ordinateurs clients. Nous vous attendons avec impatience pour vous présenter ces nouveautés qui peuvent changer la vie des administrateurs. n

FI 10 – 22 décembre 2009 – page 13


Au rayon des nouveautés de l’accréditation Laurence.Denoreaz@epfl.ch, Domaine IT

Préambule Les principes fondamentaux de l’accréditation n’ont pas changé. Ils permettent encore et toujours de connaître toute personne ayant besoin de services et/ou de prestations de l’EPFL. Le but final est de rassembler les informations à propos de ces personnes, en provenance des diverses bases de données internes (ressources humaines, service académique, système d’identification des personnes et accréditations manuelles) et de répertorier leurs droits et accès, dans une même application: Accred 2. Cette gestion continue de se faire de manière décentralisée. Quelques nouveautés étant apparues ces derniers mois, il nous a paru utile de vous en faire part.

Du côté des droits Rappel: Les droits permettent d’obtenir l’accès à des services/ prestations fournis ou gérés par l’EPFL. Toute personne titulaire d’un rôle hérite automatiquement de tous les droits dépendants de ce rôle. Cela est valable pour le niveau (institut, laboratoire, unité,…) dans la structure de l’Ecole et pour tous les niveaux inférieurs, s’ils existent. Les droits peuvent être délégués, mais le titulaire d’un droit par délégation ne pourra pas le déléguer à son tour. La liste des droits est dynamique et évolue en fonction des besoins de l’EPFL et des demandes de fournisseurs de prestations. Récemment, un droit important permettant de mieux maîtriser les dépenses en logiciels a été mis en production confirmdistrilog. (Voir article de T. Charles dans le FI9/9). Ce droit a été placé sous le contrôle du responsable administratif de l’unité qui a le devoir de déléguer ce droit aux personnes désignées par le chef d’unité. Selon l’organisation interne de votre faculté ou vice-présidence, il est possible que ce soit le superaccréditeur qui s’occupe de l’attribution de ce droit. Le droit economat pour les commandes en ligne sur le catalogue e-conomat va prochainement disparaître de l’application Accred 2. En effet, depuis août 2009, les commandes de matériel ne passent plus par ce biais, mais se font directement sur le site des achats. Une annonce officielle de fin de prestation sera prochainement envoyée. Le droit impression, lié à myPrint, permet le contrôle des coûts d’impression/copie et l’uniformisation du processus d’impression en mettant à disposition des procédures centralisées pour ces tâches, et le droit gescomlog permet de commander des logiciels pour d’autres personnes; ils sont encore actuellement en test dans l’application d’accréditation. Leur développement progresse et les fournisseurs de ces deux prestations nous informeront bientôt de leur date de mise en production officielle. FI 10 – 22 décembre 2009 – page 14

Du côté des statuts Une information très importante vient d’être envoyée à tous les accréditeurs, avec copie du message aux chefs d’unité. En raison du nombre grandissant de prestations réservées uniquement au personnel de l’EPFL, le statut Personnel sera désormais attribué automatiquement et seulement par les Ressources Humaines, via l’interface entre Accred et SAP RH. Nous vous informons que cette décision sera appliquée dès le 11 janvier 2010 dans le système d’accréditation des personnes (Accred). Etant donné que seules les Ressources Humaines auront la possibilité d’attribuer ce statut, il sera automatiquement valable pour toutes les éventuelles autres accréditations manuelles concernant les unités de l’EPFL. A partir du 11 janvier prochain, lorsque vous accréditerez manuellement une personne qui a déjà le statut Personnel dans une autre accréditation, ce statut sera mis automatiquement pour celle que vous créerez. Quant une personne quitte l’EPFL, le statut de son accréditation basée sur SAP RH passe automatiquement à Hôte le lendemain de la date officielle de son départ. Les éventuelles autres accréditations manuelles de cette personne changent également de statut pour passer à Hôte en même temps. L’accréditation basée sur SAP RH est ensuite annulée après 15 jours. Nous profitons également de la présente pour vous signaler que les recommandations pour les statuts Hôte et Hors EPFL ont été modifiées en ce sens (voir le document statut Hôte et Hors EPFL, accessible sur le site accreditation.epfl.ch).

Du côté des prestations de base L’application des prestations de base, complémentaire au processus d’accréditation, a également été sujette à des améliorations. Elle permet maintenant à partir de la même page de soumettre, en plus des demandes d’ouverture/gestion des comptes GASPAR et email, et des mises à jour pour les numéros de locaux et de téléphone, un certain nombre de nouvelles demandes de mises à jour, réparties en trois catégories: les données personnelles, les données administratives et les données informatiques. Pour plus d’informations au sujet de ces prestations, veuillez vous référer à l’aide en ligne, dans le menu de gauche de la page d’entrée de l’application Prestations de base.

Conclusion Nous remercions tous les accréditeurs et autres titulaires de rôles et de droits dans l’accréditation pour leur collaboration concernant la bonne marche de cette application et des services qui en découlent. Je profite de cet article pour vous transmettre les meilleurs vœux de fin d’année du bureau d’accréditation. Nous nous réjouissons de continuer à collaborer avec vous dans le futur.n


COUCHE (1) Les

fidèles lecteurs du Flash informatique se souviennent peut-être d’une rubrique parue tout au long de l’année 2006, mot-croisé. La règle était: un mot, deux publications: Flash informatique et EspacesTemps.net, trois regards: dessin, informatique et sciences sociales. Faute d’acteurs, la rubrique s’est mise en hibernation pendant presque 3 ans, il nous a semblé intéressant de la réveiller: un mot, plusieurs regards. Si une définition vous tente, que ce soit du côté informatique, sciences sociales…, n’hésitez pas à nous en faire part !

Le terme couche désigne généralement un ensemble de surfaces horizontales superposées parallèles. Le cas particulier où une seule couche est présente s’appelle plutôt un lit. L’abstraction immédiate est donc que chaque couche ne s’appuie que sur la couche immédiatement inférieure et ne sert de support qu’à celle immédiatement supérieure. Supposons maintenant que les couches soient coloriées des deux côtés et qu’il ne soit possible de poser une couche sur une autre que si les deux faces qui se touchent sont de la même couleur. D’abord, c’est plus joli, mais si l’on veut rajouter, enlever ou changer une des couches, en garantissant l’intégrité de l’ensemble, il faudra faire attention aux couleurs. On peut remplacer une couche en papier mâché par une autre en paupière de libellule si et seulement si les couleurs des faces correspondent. Si maintenant, on remplace le terme couche par niveau d’abstraction, ça prend une toute autre tournure. Chaque niveau utilise des concepts provenant d’un niveau plus primitif et en produit d’autres utilisables par un niveau plus sophistiqué. Ces deux ensembles de concepts seront ses couleurs. Ce paradigme a deux propriétés fondamentales: z chaque niveau est écrit dans un langage uniforme et puissant fourni par le niveau inférieur, sans se préoccuper des détails d’implémentation de celui-ci; z si deux niveaux utilisent et produisent les mêmes jeu de concepts, ils sont parfaitement interchangeables. Ce concept est à la base de la programmation informatique. Si on veut programmer un logiciel complexe directement sur la machine, on a perdu d’avance. L’exemple le plus connu d’architecture en couches est le modèle OSI (Open Systems Interconnection) pour l’interconnexion des ordinateurs. Il dispose de sept couches normalisées: 1. La couche physique est chargée de la transmission effective des signaux entre les interlocuteurs. Son service est typiquement limité à l’émission et la réception d’un bit ou d’un train de bits continu (notamment pour les supports synchrones). 2. La couche liaison de données gère les communications entre deux machines adjacentes, directement reliées entre elles par un support physique. 3. La couche réseau gère les communications de proche en proche, généralement entre machines: routage et adressage des paquets.

4. La couche transport gère les communications de bout en bout entre processus (programmes en cours d’exécution). 5. La couche session gère la synchronisation des échanges et les transactions; elle permet l’ouverture et la fermeture de session. 6. La couche présentation est chargée du codage des données applicatives, précisément de la conversion entre données manipulées au niveau applicatif et chaînes d’octets effectivement transmises. 7. La couche application est le point d’accès aux services réseaux, elle n’a pas de service propre spécifique et entrant dans la portée de la norme. On voit que toutes les contraintes des couches sont respectées, chaque couche utilisant exclusivement les concepts de la couche immédiatement inférieure. Ce modèle en couches se rencontre partout en informatique. Dès que vous utilisez un ordinateur, vous êtes en fait en relation avec l’interface utilisateur qui est la couche la plus élevée d’une suite: z le matériel, z le langage machine, z le système d’exploitation, z les librairies des langages, z les librairies applicatives, z les applications, z les interfaces utilisateurs. Ces couches ne sont pas toujours strictement respectées, mais c’est une erreur qui nuit à la fiabilité des applications.

Appoline.Raposo@epfl.ch, Domaine IT

Claude.Lecommandeur@epfl.ch, Domaine IT

Les couche-tard Les qui découchent Les en couche culotte Les Marie couche-toi-là Les sur une couche de neige Les qui en tiennent une couche Les qui craignent la fausse couche Les qui partageraient bien leur couche Les exclues de cette couche de la société Les qui fuient les trous de la couche d’ozone Les qui en voudraient bien encore une couche FI 10 – 22 décembre 2009 – page 15


COUCHE (2) Andreas.Schueler@epfl.ch, EPFL – ENAC – Laboratoire d’énergie solaire et physique du bâtiment

Esteban.Rosales@bluewin.ch

Avec mon groupe, nous étudions la façon dont des nano-composants, incorporés sous forme de couches minces ou de minuscules puits quantiques à la surface des vitrages, peuvent améliorer la transformation de l’énergie solaire. À l’échelle nanométrique, les propriétés optiques et électroniques des matériaux changent. Cela ouvre de nouvelles possibilités de développement, comme des couches colorées à haut taux de transmission pour des façades solaires actives, des puits quantiques photoluminescents pour les installations solaires de production d’électricité photovoltaïque, des revêtements thermochromiques ou des couches sélectives pour l’utilisation thermique de l’énergie solaire. L’utilisation de cette dernière est particulièrement intéressante pour le chauffage des locaux, la production d’eau chaude sanitaire, les fours solaires industriels, les installations de désalinisation de l’eau ou la production d’électricité solaire par conversion d’énergie thermique. Tous ces systèmes ont un point commun: le revêtement des capteurs par une couche permettant d’absorber un maximum d’énergie solaire tout en réduisant les pertes thermiques dues aux radiations infrarouges. Le laboratoire planche actuellement sur une méthode abordable et écologique qui permettrait de produire des couches sélectives, durables et homogènes sur des grandes surfaces. Les premiers résultats sont encourageants: les nouveaux revêtements résistent à la corrosion et sont stables à haute température. n

DIT-info Horaires du DIT pendant les fêtes Du 28 décembre au 31 décembre midi, les services du DIT seront opérationnels; un effectif réduit sera présent pendant les heures habituelles d’ouverture. Le call center sera ouvert (tél. 1234 et mail 1234@epfl.ch), mais le help desk Poseidon sera fermé. Du 24 décembre midi au 27 décembre, ainsi que du 31 décembre midi au 3 janvier, le DIT fonctionnera en mode week-end. Le DIT vous souhaite de bonnes fêtes de fin d’année ! Jacqueline.Dousson@epfl.ch, Domaine IT

FI 10 – 22 décembre 2009 – page 16

flash informatique Les articles ne reflètent que l’opinion de leurs auteurs. Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs. Abonnement à la version électronique du FI en envoyant un courrier à: fi-subscribe@

listes.epfl.ch

Rédacteur en chef: Jacqueline Dousson, fi@epfl.ch Mise en page & graphisme: Appoline Raposo de Barbosa Comité de rédaction: Aristide Boisseau, Paulo de Jesus, Patrice Fumasoli, Jean-Damien Humair, Laurent Kling, Julia Paolini, Vittoria Rezzonico, François Roulet, Christophe Salzmann, Predrag Viceic & Jacques Virchaux Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse Web: dit.epfl.ch/FI-spip Adresse: Domaine IT EPFL CP 121, CH-1015 Lausanne 15 Téléphone: +4121 69 32246 & 32247

ISSN 1420-7192


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.