������������������� ��������������������
������������������������������������������������������������������������������������������������������
août 2005
lun.mar.mer.jeu. ven. sam. dim. 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Mutation(s) / Métamorphose(s)? René Berger Professeur honoraire de l’UniL, ancien Directeur du Musée des Beaux-Arts de Lausanne, Dr Honoris Causa EPFL
rene.berger@iis.unil.ch
Une perplexité féconde
les liens
Dans le Flash Informatique de février 1994, Jacqueline Dousson s’interroge: Mosaic, vers une nouvelle culture? a. «Imaginez, écrit-elle, vous êtes devant votre écran, vous cliquez et vous lisez le dernier bulletin du Pittsburg Supercomputing Center… reclic et vous voilà au MIT... C’est une réalité aujourd’hui...». Question finale: «Et l’EPFL dans tout cela ? Car si l’EPFL est déjà en train de se mettre en forme pour les initiés, le but à atteindre est que, de n’importe quel point du globe, relié à Internet, l’on puisse connaître ce qu’est l’EPFL, ce qu’on y fait, qui contacter.» Personne n’aurait pensé, sans doute même pas l’auteur de l’article, à preuve son expression pour les initiés et celle de nouvelle culture, que le Web allait faire basculer la planète entière. Impossible d’expliquer rationnellement et linéairement (ce que l’on est toujours tenté de faire après coup) l’énormité de la mutation qui s’est produite en quelque 11 ans, encore moins le fait qu’elle se poursuit en une formidable métamorphose universelle. La mutation nous met en présence d’un changement accompli et repérable; la métamorphose nous met dans le mouvement même du changement. C’est pour souligner le caractère si nouveau de ce phénomène que j’ai réuni les deux termes dans le titre pour suggérer une quasi-symbiose en formation.
Cyberbiographie de René Berger college-de-vevey.vd.ch/ auteur/rene_berger. htm a
Mosaic, vers une nouvelle culture? sic.epfl.ch/SA/publications/FI94/2-94-page1. html b
25 Top Innovations edition.cnn.com/2005/ TECH/01/03/cnn25. top25.innovations c
Déclaration de Chloé Delaume oeuf.epfl.ch/zwook/ documents/chloedelau mecitoyennedesimcity d
Déclaration de Danny Hillis agora.qc.ca/mot.nsf/ Dossiers/Cyborg
Top innovations D’abord un coup d’œil aux 25 Top Innovations b recensées par CNN le 1er mars 2005: «… The Internet, ranked No. 1, changed the world. Today, with a couple of clicks, you can go anywhere in the world without leaving your computer… The creator of the Web as we know it is British software consultant Tim Berners-Lee. Frustrated by the multitude of information systems requiring complicated access, Berners-Lee fashioned a universal one that made information readily available.
e
Déclaration de Ilya Prigogine fr.wikipedia.org/wiki/ Ilya_Prigogine f
Ensemble de Mandelbrot (définition de Wikipédia) f r. w i k i p e d i a . o r g / wiki/Ensemble_de_ Mandelbrot g
… Top Innovations:
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=902
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 2
1 2 3 4 5 6 7 8 9 10 11 12 13 …»
The Internet Cell phone Personal computers Fiber optics E-mail Commercialized GPS Portable computers Memory storage discs Consumer level digital camera Radio frequency ID tags MEMS DNA fingerprinting Air bags
14 15 16 17 18 19 20 21 22 23 24 25
ATM Advanced batteries Hybrid car OLEDs Display panels HDTV Space shuttle Nanotechnology Flash memory Voice mail Modern hearing aids Short Range, High Frequency Radio
À n’en pas douter, directement ou indirectement, ce sont les nouvelles technologies de l’information et de la communication (NTIC) qui sont à l’origine et au cœur de cette révolution. A preuve: Google, qui date de 6 ans à peine, dénombre pour Internet, 1’480’000’000 de références en 0.07 seconde. Première dans l’histoire!
Vers une métamorphose émergente oeuf.epfl.ch/zwook/ regards/versunemetam orphoseemergente h
Recherches sur le cerveau serendip.epfl.ch/ Chevilly1/2005/06/_ mapping_the_hu.html i
Observatoire-pilote oeuf.epfl.ch Fondation J.-E. Berger, À la rencontre des Trésors d’Art du Monde www.fondationberger. ch
Mutation(s) / Métamorphose(s)
Et voici mieux: Google dénombre pour Web, 3’000’000’000 de références en 0.06 seconde. Les deux consultations, qui datent du 8 juin 2005, évoluent en permanence… Devant l’énormité de ces chiffres et la complexité des opérations pour les établir au moyen d’algorithmes et d’automates hyperperformants, on est pris de vertige. S’agit-il de mutation(s), de métamorphose(s)? Le temps de poser les deux questions à Google: ❚ Mutation: 7’900’000 ❚ Métamorphose: 810’000 Et Google, qui compte à ce jour plus de 8 milliards de références dans sa base de données, de déclencher un nouveau vertige que confirment (aggravent?) ces quelques recherches supplémentaires: ❚ peer to peer: 78’500’000 ❚ chat: 295’000’000 ❚ video games: 295’000’0000 ❚ blog, qui compte quelques années à peine: 269’000’000 Résultats obtenus entre 6 et 12 dixièmes de seconde... Prouesses techniques ou technologiques?
Vers une techno-nature Techniques et technologies: ces deux concepts méritent une brève mise au point. Dans une première approche soucieuse de distinction terminologique, la technique désigne l’ensemble des procédés qu’on utilise pour obtenir un résultat déterminé. En revanche la technologie, comme le laisse entendre le suffixe dérivé de logos, se propose quant à elle d’étudier les procédés techniques dans ce qu’ils ont de général et dans leurs rapports avec le développement de la civilisation. Il est néanmoins significatif que de nos jours technologie soit souvent employé, par métonymie défectueuse au dire des puristes, comme équivalent de technique. À telle enseigne que l’expression nouvelles technologies tend le plus souvent à l’emporter sur nouvelles techniques. La métonymie n’est pas simple incorrection; elle marque un glissement sémantique révélateur de notre orientation. Elle nous achemine en l’occurrence vers le sentiment que toute technique, même si elle désigne un ensemble de procédés, ne se réduit pas à l’efficacité du faire; elle implique en effet une manière de connaissance qui débouche sur une forme d’intentionnalité, sur une nouvelle forme de conscience collective: «L’homme fabrique des outils concrets et des symboles, observait déjà avec force Leroi-Gourhan dans Le geste et la parole, les uns et les autres recourant dans le cerveau au même équipement fondamental... Le langage... et l’outil... ne sont que l’expression de la même propriété de l’homme..». Il s’ensuit que toute technique, en sus des procédés qui la définissent, doit être située dans le cadre symbolique qui lui donne son sens. Inversement, toute théorie, philosophique ou symbolique, est indissociable, même si la chose n’apparaît ni clairement, ni tout de suite, d’une ou de plusieurs techniques qui la mettent en œuvre ou en signes, et donc la signifient à leur tour.
fi spécial été AlterIT page 3
Dès lors, qu’en est-il d’un monde tel que le nôtre, dans lequel plus rien n’existe qui ne soit médié ou médiatisé, dans lequel plus rien n’existe qui ne passe par des techniques, plus rien qui ne passe par Internet ou le Web, plus rien qui ne soit interconnecté? Un nouveau pouvoir est à l’œuvre, que j’appelle techno-urgie, susceptible de donner naissance à des configurations encore mal identifiées et pourtant déjà communément pratiquées. Le terme de technologie (étymologiquement, discours sur la technique), s’il tient effectivement compte des conditions de la langue, comme il était légitime de le faire pendant longtemps, ne tient pas compte du pouvoir d’action sui generis des techniques, devenu prépondérant aujourd’hui. Ce que fait précisément le suffixe –urgie (du grec ergon, anciennement wergon; cf. all. Werk, angl. Work, faire, agir sur). Compatibles avec les sociétés stables, tout au moins régies par une dominante stable, les systèmes de représentation, qui ont si longtemps obéi au modèle de la réalité-logos, se muent en processus de transreprésentation, de même que la réalité, ou les images qu’on s’en faisait, compatibles, répétons-le, avec les sociétés stables, tout au moins régies par une dominante stable, se muent en processus de transréalité, de réalité(s) en train de se faire. La techno-urgie automobile a transformé la campagne, les villes, les routes, les signaux, tous nos comportements. C’est d’une restructuration planétaire qu’il s’agit. Comme celle que nous propose (nous impose?) la techno-urgie de la télévision. Innombrables les chaînes qui toutes façonnent les spectateurs dans les mêmes procédures. La techno-urgie informatique a multiplié à l’infini les ordinateurs qui induisent nos comportements collectifs et individuels selon les possibilités et les contraintes des logiciels où règne encore Microsoft, menacé par les open sources…
Mutation(s) / Métamorphose(s)
Qu’on songe à la toute récente techno-urgie du téléphone mobile qui met entre les mains des moins de 5 ans jusqu’au-delà des 90 ans des instruments dits de communication, mais qui sont bien davantage des opérateurs d’identité et de jeu. Le propre de la techno-urgie est d’agir instantanément partout. Peut-être n’a-t-on pas encore suffisamment remarqué que les notions d’espace et de temps sont elles-mêmes en métamorphose. Voici que naissent l’espace-temps inter-générationnel, l’espace-temps entrepreneurial, l’espace-temps travail, l’espace-temps loisirs… Jusqu’à Chloé Delaume, première citoyenne de SimCity, qui déclare: «… J’ai fabriqué un double qui pourrait-on le croire est un reflet fidèle de mon corps d’ici-bas, de mon corps coincé ici, de l’autre côté, du mauvais côté de l’écran. Il n’en est rien pourtant. A SimCity nulle machinerie étroite, rouillée, spasmes et haut-le-cœur. Où qu’on aille d’habitude on doit emmener son corps, se déplacer avec, l’utiliser et le subir. On ne choisit pas son interface, l’organique reste souverain, grasse enveloppe imposée aux allergies faciles. On oublie qu’être dans un lieu c’est toujours être dans son corps, avant tout et quoi qu’il arrive. Se rendre à SimCity, c’est en finir enfin le temps de quelques heures avec la chair abrupte...» c. La techno-nature inaugure-t-elle l’ère les cyborgs? 548’000 sites sur Google en 0.05 seconde. Où va-ton, selon Danny Hillis d, vers la machina sapiens, qui devrait rivaliser quelque temps avec l’homo sapiens pour ensuite le dépasser? Et Hillis de déclarer avec ferveur: «Je veux faire une machine qui sera fière de moi.».
Vers une techno-culture Pendant des siècles, le paradigme occidental s’est fondé sur la structure ternaire symbolique-imaginaire-technique en mettant l’accent sur le symbolique, longtemps élaboré par les puissants (politiques et théologiens) au moyen des croyances et des valeurs qui ont configuré les religions, les institutions, les arts, ainsi que nos comportements quotidiens. ���������������������������������������������� Ce sont ces conditions que notre époque bouleverse jusque dans leur fondement. �������������������������������������������� Nous découvrons que les techniques, comme les idées, les sentiments exprimés au moyen de mots, comme les représentations figurées ou mentales, sont en train d’instaurer une nouvelle réalité caractérisée, outre par le pouvoir techno-urgique, par le passage du stable au fluide. De plus en plus s’impose en effet le passage à des structures dynamiques pour non plus seulement parler du mouvement, mais agir à l’intérieur et de l’intérieur du mouvement. Si contextualiser est une opération majeure, il convient de voir qu’elle est en train de changer de forme. Dans sa version classique, contextualiser revient d’abord à mettre en rapport des textes pour situer celui dont on s’occupe. L’accent porte dans ce cas d’une part sur les textes, de l’autre sur l’opération de leur mise en rapport. Celle-ci a l’air d’aller de soi puisque les rapprochements se font au moyen des structures classiques de la parole ou de l’écrit. Mais elle ne dit rien, du moins jusqu’à présent, du changement radical résultant de l’intervention des nouvelles technologies. Ce qui change en effet radicalement, c’est que la contextualisation porte sur des multimédias (textes, images, mouvements, sons, animations) et surtout sur le facteur entièrement nouveau du temps réel (real time). Qu’on songe à la rupture de nos comportements épistolaires à partir de l’email! Contextualiser signifie donc à la fois multimédiatiser et contemporaliser. La contemporalisation/actualisation est devenue un facteur essentiel de notre monde moderne. Les trajectoires des événements se déroulent simultanément, comme nous en assurent entre autres CNN, GoogleNews, Foxnews, par tous les moyens propres à animer voire à dramatiser. Ainsi des multiples vidéos proposées par CNN dont la formule a été reprise par toutes les agences d’information. Nos structures mentales dépassées, la confusion devient vite notre lot. Mais qu’on se dispose à adopter une autre manière de voir, les obstacles peuvent se dissoudre pour nous livrer des émergences qui, prenant figure d’indices, nous ouvrent à la métamorphose générale en cours. À ce point, il me semble opportun, sans abuser de l’analogie, de recourir à la notion d’attracteur. Comme l’a établi Ilya Prigogine e, tout système tend à l’équilibre, ou à s’en éloigner, voire à le quitter. Qu’une perturbation traverse notre système solaire, l’ébranlement qu’elle produit se dissipe au bout d’un certain temps, et tout se remet en place parce que le système solaire est à l’équilibre. Les perturbations qui l’affectent au cours de son fonctionnement se corrigent cybernétiquement par rétroactions négatives, dont le propre est de maintenir le système en état d’homéostasie. Ainsi de tous les systèmes à l’équilibre. En revanche, la moindre fluctuation qui affecte un système hors de l’équilibre peut prendre des amplifications considérables, qui vont jusqu’à faire éclater le système pour en engendrer un autre. N’en va-t-il pas de même – c’est le postulat que j’avance – de l’espace de communication créé par fi spécial été Internet qui, au-delà du cyberespace tel qu’il a été défini à ses débuts, se nourrit en permanence des traAlterIT jectoires de transition que constituent les informations, les fluctuations et les itérations ininterrompues? page 4
Mutation(s) / Métamorphose(s)
Il en résulte ces attracteurs étranges que les fractales de Mandelbrot déploient à toutes les échelles, jusqu’à l’infiniment grand et l’infiniment petit f. Corollaire de mon hypothèse, ne peut-on imaginer qu’à ce type d’attracteur physique correspondent des attracteurs mentaux qui, s’inscrivant et se développant en quelque sorte dans notre cerveau par interactions répétées, peuvent engendrer et développer d’autres formes de pensée. Et quand les facteurs se multiplient et que le système s’éloigne de l’équilibre, le comportement turbulent devient la règle, entraînant des changements radicaux, et d’abord le phénomène insolite de l’auto-organisation. C’est le cas de très nombreux systèmes naturels, c’est le cas de tous les objets-instruments-systèmes nouveaux qui s’interconnectent, s’échangent, apprennent, se syndiquent, c’est encore le cas des systèmes mentaux aux prises avec les nouvelles technologies. Par exemple du changement de nos comportements sur l’autoroute: tant que la circulation est fluide, les véhicules se déplacent, compte tenu du code de la route, au gré des conducteurs; quand la circulation augmente, notablement aux heures de pointe, le trafic devient un système auto-organisateur qui régit nos comportements en multipliant arrêts et bouchons. N’est-ce pas le cas de bon nombre de nos comportements sociaux, à l’école, au travail, dans les associations, jusque dans notre
Colonnes de neurones (source: EPFL-institut Brain&Mind)
fi spécial été AlterIT page 5
La Forêt, 1927–28, Max Ernst © Peggy Guggenheim Collection, www.guggenheim.org
alimentation et nos façons de nous habiller, de nous coiffer, de manipuler notre portable ? Dès lors se pose la question: qu’advient-il de phénomènes aussi considérables que l’avènement et le développement d’Internet, de structures telles que peer-to-peer, email, wiki qui inventent en quelque sorte l’avenir au cours d’innombrables fluctuations, les émergences se bousculant sans répit? Ce n’est pas tout. Les fluctuations et les amplifications qui se produisent dans les systèmes hors de l’équilibre non seulement entraînent l’émergence de formes inconnues, mais transforment notre expérience du temps. Autant les systèmes stables, auxquels nous avons été habitués, en restent à un état sinon stationnaire du moins stable, tel le système solaire mis en forme selon les lois réversibles de Newton, autant les systèmes mis en chaos par la turbulence se lient à un écoulement irréversible du temps. Selon le temps réversible, il est indifférent que les événements se déroulent dans un sens ou dans l’autre, les lois qui les régissent restant les mêmes. En revanche les phénomènes qui obéissent au rhéomorphisme g, et qui évoluent dans un écoulement de forces et de formes changeantes, se révèlent à la fois complexes et irréversibles. La pensée en attracteur, expression par provision, supplée les manques de la pensée linéaire. Ce n’est pas qu’elles soient antagonistes, mais les conditions nouvelles de notre époque, en particulier le rôle du pouvoir techno-urgique, nous incitent à choisir et à pratiquer, au niveau planétaire engendré par les réseaux, en particulier par Internet, un mode de penser dynamique qui privilégie, avec une complexité renouvelée, le temps irréversible et les turbulences accoucheuses d’auto-organisation. A preuve l’évolution accélérée en turbulences des navigateurs, celle non moins accélérée et turbulente des moteurs de recherche, dont Google est probablement le plus véloce, celle encore de certains sites articulatoires qui organisent l’information de façon toujours plus complexe: Wikipédia, Answers.com, Scirus, etc. Ce n’est pas un hasard si les recherches sur le cerveau se multiplient h. Ce n’est pas un hasard non plus si nous avons pris l’initiative à l’EPFL de créer l’Observatoire-pilote i.
Mutation(s) / Métamorphose(s)
De nos jours, la cohérence dynamique de notre société se manifeste prioritairement à l’échelle planétaire par nos pratiques courantes qui relèvent quasiment toutes d’une Technologie devenue globale et universelle. A côté de la notion classique de paradigme se dessine donc ce que j’appelle le pragmadigme, pour désigner l’ensemble des pratiques et des comportements que caractérise notre semi-symbiose avec l’ensemble des objets, outils, instruments, modes de penser qui relèvent de la Technologie instauratrice.
Vers une cyber-interface ? C’est peu dire qu’une nouvelle vision est en train de naître, si l’on n’ajoute aussitôt que, pour la première fois, c’est d’une vision universelle qu’il s’agit. Circonstanciellement se trouve à l’origine un homme, Tim Berners-Lee (cf. 25 Top innovations de CNN, ci-dessus) qui, dans Weaving the Web (Orion Business Books, 1999, p. 40) fait cette déclaration révolutionnaire: «The fundamental principle behind the Web was that once that someone somewhere made available a document, database, graphic, sound, video or screen at some stage in an interactive dialogue, it should be accessible (subject to authorization of course) by anyone, with any type of computer, in any country. And it should be possible to make a reference – a link – to that thing, so that others could find it.» Et l’auteur d’ajouter, ce que l’on ne soulignera jamais suffisamment, la portée philosophique de son entreprise: «This was a philosophical change from the approach of previous computer systems» (ibid.). Le projet est si neuf qu’à l’époque déjà Tim Berners-Lee éprouve le besoin d’insister: «Getting people to put data on the Web was a question of getting them to change perspective, from thinking of the user’s access to it as interaction with, say, an online library, but as navigation through a set of virtual pages in some abstract space.». Il s’ensuit, conséquence difficile à comprendre, encore plus à accepter, en particulier par les autorités, que le Web, non pas se soustrait à tout contrôle, comme d’aucuns l’ont très vite soupçonné de faire et, partant, condamné, mais qu’il y échappe par sa nature et sa vocation même: «There was no central computing controlling the Web, no single network ... not even an organization anywhere that can ran the Web. The Web was not a physical thing that existed in a certain place. It was a space in which information could exist.» (ibid. p. 39). Ainsi, le Web ne se confond pas avec une base de données, quelque gigantesque qu’elle puisse être. Même s’il peut se prêter à tous les usages classiques en les augmentant grâce à son pouvoir de calcul exponentiel, il ne se réduit jamais – il ne faut pas craindre de le répéter – tant les habitudes mentales sont tenaces, à n’être que le prolongement des structures établies. En un mot, il est toujours en voie de réinvention. Le fondement de la mutation en cours doit donc être cherché dans le changement de la nature des liens qui sont la condition même de notre existence, de toute existence. Le principe moteur du lien, ce qui en constitue à la fois l’inspiration, la manifestation et la réalisation, revient à ce que l’on peut appeler le phénomène d’activation par lequel opèrent les interactions. Voici donc que la connexion vécue en temps réel instaure un imaginaire qui, au lieu de s’en remettre en priorité aux références, comme nous le faisions habituellement jusqu’ici, se forme au fur et à mesure que les liens s’expriment. L’hypertexte, le temps réel, et tous les objets dont parle la présente édition du Flash Informatique, participent à l’avènement de nouveaux liens et, par-dessus tout, à l’émergence d’une nouvelle interface que j’appelle cyber-interface. N’est-ce pas la fulgurante émergence évoquée par Mallarmé? Le vierge, le vivace et le bel aujourd’hui Va-t-il nous déchirer avec un coup d’aile ivre Ce lac dur oublié que hante sous le givre Le transparent glacier des vols qui n’ont pas fui ! ■
fi spécial été AlterIT page 6
GGWin: historique et outils Andreas Jaggi étudiant EPFL – Section d’Informatique
GGWin
est un projet issu de la GNU Generation a, une commission de l’AGEPoly (Association Générale des Étudiants de l’EPFL) qui s’est donné pour mission la promotion des logiciels libres à l’EPFL. GGwin b réalise une bonne partie de cette mission.
les liens et références Paolo Attivissimo: L’Acchiappavirus, Pocket Apogeo 2004
Comment promouvoir les logiciels libres ?
a
andreas.jaggi@epfl.ch
Vittoria Rezzonico EPFL-SB IACS
vittoria.rezzonico@epfl.ch
Stephan Walter étudiant EPFL – Section de Microtechnique
stephan.walter@epfl.ch
dit.epfl.ch/publications-spip/article. php3?id_article=904
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 7
b
la home page de GGWin ggwin.epfl.ch c GNA!, Forge européenne gna.org
Logiciel de gestion de versions, définition dans Wikipédia fr.wikipedia.org/wiki/ Logiciel_de_gestion_ de_versions
Malgré ces avantages, il est assez difficile de convaincre le propriétaire d’un ordinateur de réinstaller son système, ou d’installer d’autres logiciels. De plus, quand les copains nous passent des logiciels sur un CD, on ne se pose pas trop de questions et on les installe, parfois illicitement. La transition entre un monde propriétaire auquel l’utilisateur est habitué et les logiciels libres doit être la plus douce possible, pour éviter la confusion et pour maximiser le bénéfice. GGWin se situe dans cette transition. Monde propriétaire
sur le Web
Ivo Blöchliger, Vittoria Rezzonico, Historique de GNU Generation, FI9/04 dit.epfl.ch/publica tions-spip/article.php3 ?id_article=777
Quand on achète un ordinateur, il arrive déjà avec des logiciels préinstallés. Pour la plupart des gens, ces programmes sont suffisamment bons, simplement parce qu’ils ne découvrent jamais les alternatives libres. Parmi les raisons de passer aux logiciels libres, on peut citer: ❚ pratiquement toutes les attaques informatiques visent les produits Microsoft, car ce sont les logiciels les plus répandus (bien sûr, ils arrivent avec le PC !); ❚ les vulnérabilités des logiciels libres ont plus de chance d’être découvertes et corrigées avant de présenter un danger réel. Souvent dans le monde des logiciels propriétaires, c’est un virus qui force le fournisseur à colmater les brèches; ❚ on ne sait pas ce qu’un logiciel propriétaire fait lorsqu’on se connecte à l’Internet... tandis que pour les logiciels libres, on a la possibilité de regarder le code source, ce qui nous assure une plus grande protection. ❚ c’est librement téléchargeable; ❚ disponibilité dans un grand nombre de langues (même l’Esperanto par exemple); ❚ les formats d'entrées-sorties sont bien documentés; ❚ on n’est pas pris en otage par une certaine entreprise américaine.
➞
Changement de quelques applications pour des équivalents libres
➞
Découverte de plus de logiciels libres
fig. 1 – la transition vers un monde libre GGWin est une compilation de logiciels libres pour MS Windows, distribuée sur un CD, avec des descriptions en plusieurs langues. Ce moyen de distribution permet d’atteindre les gens qui n’ont pas de connexion Internet aussi fiable que la nôtre. Une ligne téléphonique interrompue ne peut donc pas empêcher la diffusion des logiciels libres. Il est clair que GGWin est également disponible sur le Net.
Historique de GGWin Suite aux multiples demandes de logiciels tournant sous Linux (typiquement LaTeX, Emacs ou gcc) et après une petite recherche sur le Net nous nous sommes rendu compte que quelques passionnés avaient profité de l’ouverture du code source de ces logiciels pour les porter vers Windows. Par la suite, nous avons gravé des CD et pour éviter de refaire à chaque demande un CD, nous avons eu l’idée de créer une compilation de logiciels libres pour Windows. GNUWin était né.
➞
Changement de la couche OS
GGWin: historique et outils
Comme on était un groupe restreint et que le public visé était les nouveaux étudiants, on a décidé de générer le CD à partir de fichiers XML écrits par nous-mêmes. Chaque contributeur devait écrire ses fichiers XML, ajouter l’exécutable, comprimer le tout dans un fichier .tar.gz et déposer ce dernier sur un serveur. Ce n’était pas très convivial comme interface, ni attirant pour d’autres contributions ! Comme le contenu du CD était écrit en HTML sur un serveur publiquement accessible, il a trouvé son chemin dans la base de données de Google. Par la suite le trafic sur ce serveur a continué d’augmenter et nous avons reçu des encouragements et même des commandes de CD de la France. Suite à ce succès, nous nous sommes décidés à retenter l’expérience, mais cette fois en quatre langues. Pour faire ce travail, on avait besoin de plus de monde, donc il fallait améliorer l’interface. Ivo Blöchliger a créé une interface Web utilisant Perl/MySQL. Dix personnes ont commencé à travailler sur le projet. Comme la première version de GNUWin, GNUWin II est également entièrement accessible via le Web, hébergée sur la machine de travail d’un assistant. Début octobre 2002, on se faisait slashdotter... Ensuite, le projet a grandi, plusieurs personnes nous ont rejointes et l’interface Web n’était plus adaptée pour différentes raisons: ❚ il manquait un concept de hiérarchie parmi les contributeurs: le dernier arrivé aurait pu effacer les descriptions des fondateurs par exemple; ❚ certaines actions demandaient l’intervention d’Ivo.
Slashdotter
Slashdot.org est un site d’information incontournable pour tous les fans des technologies Internet. Plusieurs millions d’utilisateurs le consultent et plusieurs centaines d’articles sont soumis quotidiennement. Quand un site est mentionné par Slashdot, il peut arriver qu’un trop grand nombre d’internautes le consulte en même temps, ce qui peut le bloquer occasionnellement. On dit alors qu’il est slashdotté. En plus, le projet a changé de nom: comme les applications ne sont pas toutes sous la GNU General Public License, et que nous ne sommes pas liés avec la Free Software Foundation, le nom GNUWin n’était pas justifié et GGWin a été choisi comme successeur.
fig. 2 – Le logo de GNUWin II et de GGWin
La nouvelle interface de construction: vers la pérennité du code
fi spécial été AlterIT page 8
On a décidé de refaire l’interface de construction en pensant dès le début à: ❚ éviter que le code dépende d’une personne; ❚ assurer la pérennité du projet; ❚ inclure le concept de hiérarchie parmi les contributeurs afin d’éviter qu’un contributeur débutant fasse des dégâts. Le premier point déjà pose un gros problème: il faut placer un code sur un serveur CVS ou similaire. Parmi les développeurs de GGWin il y a des personnes externes à l’EPFL, ce qui signifie que le serveur en question doit être accessible depuis l’extérieur. Les solutions suivantes se présentent: ❚ une Forge sur une machine ouverte à l’extérieur, par exemple un serveur d’institut ou la machine d’un assistant; ❚ une Forge fournie par l’EPFL, qui pourrait héberger aussi d’autres projets; ❚ une Forge externe à l’EPFL.
GGWin: historique et outils
La première est une très mauvaise idée, car alors le code dépendrait d’une personne. La dernière est un peu risquée: l’EPFL perdrait son importance dans le projet. La deuxième est la meilleure, mais malheureusement il n’y a pas de Forge de l’EPFL. De nombreux groupes en possèdent une dans leur coin par contre: cette dernière est une solution envisageable pour nous, mais il faudra garder des rapports avec le groupe en question.
Qu’est-ce qu’une Forge ? Dans l’informatique, ce n’est pas une fabrique de fer, mais du code. Ces sites offrent principalement des outils de gestion de développement tels que des outils de versioning (gestion de versions), des mailing-list (listes de diffusion), et un bug tracker (suivi des bugs et tâches en suspens). La Forge la plus connue est sourceforge.net/, hébergeant plus de 100’000 projets open-source (bien que quelques-uns soient abandonnés). Pour répondre à des besoins particuliers, beaucoup de sites similaires ont ensuite débuté, par exemple Savannah.gnu.org et GNA.org. Les trois Forges mentionnées sont ouvertes à Monsieur tout le monde. Donc, en attendant que l’EPFL ouvre une Forge nous nous sommes contentés de la dernière solution en veillant à ce que le projet ne s’échappe pas sans nous... Nous avons donc réussi à avoir une place sur GNA ! c, une Forge européenne (pas besoin d’aller jusqu’aux États-Unis quand même). GNA ! offre un service d’hébergement de code source avec versioning par CVS et depuis peu aussi avec Subversion, la possibilité de créer des listes de diffusion, un suivi de bugs et de tâches.
Quels outils pour l’interface de construction ? Après des discussions, on a décidé de créer notre interface avec ce qu’il y a de plus standard: PHP/ MySQL et de rendre l’interface de construction la plus générale possible: un serveur standard doit pouvoir l’héberger. L’interface de construction se divise en trois parties principales: ❚ l’interface de construction en soi, qui permet de gérer les applications et leurs descriptions; ❚ le script qui à partir d’une base de données, génère les pages Web qui vont composer GGWin. Ces pages seront ainsi distribuées sur le CD, mais elles peuvent également être consultées sur le Web; ❚ l’ISO-maker: un script qui génère les CDs à partir du choix des langues et des groupes d’applications. Une fois l’interface de construction terminée, on sera prêt à accueillir les contributeurs qui pourront s’inscrire tout seuls au projet par la page d’authentification (Figure 3).
Conception et utilisation de l’interface
fi spécial été AlterIT page 9
Pour l’utilisateur de GGWin le site sera structuré comme suit: ❚ des articles sur les logiciels libres; ❚ des pages d’informations (et d’autopromotion) écrites par les contributeurs; ❚ une collection d’applications. La partie la plus importante sera la collection d’applications, puisque pour chaque application on aura des descriptions (une pour chaque langue !), des installateurs et éventuellement des sources. Chaque contributeur doit pouvoir ajouter des objets (articles, pages d’informations, applications, descriptions, installateurs, sources,...). Les objets de base sont les applications et tout ce qui leur est lié (descriptions, installateurs, sources). Les contributeurs ne sont pas tous égaux aux yeux de l’interface: c’est un peu comme chez les scouts, il faut démontrer que l’on est fiable pour gagner des niveaux. On débute au niveau contributeur junior. Un contributeur junior a uniquement le droit d’ajouter des objets de base. Après avoir prouvé sa bonne volonté, le contributeur junior devient contributeur et peut aussi ajouter des articles. Suivent le contributeur expérimenté (peut ajouter des pages d’information), le supercontributeur (peut ajouter des langues et des sections) et le gourou (a plusieurs pouvoirs, parmi lesquels l’administration des contributeurs). On a fait attention à la simplicité de l’interface de construction. Ceci pour pouvoir encourager de nombreuses personnes de langues différentes à devenir des contributeurs. L’utilisation de l’interface ne demande que des connaissances générales. La gestion d’une application est bien structurée, et les descriptions s’écrivent en mode WYSIWYG.
GGWin: historique et outils
fig. 3 – invitation à l’autentification
fig. 4 - exemple d’interface pour contributeur avancé: gestion des langues. Remarquer les possibilités d’interaction énumérées en haut.
Post Scriptum: cet article a été écrit de façon collaborative en utilisant SpiKini, un Wiki rattaché à SPIP, Système de Publication pour l’Internet, utilisé pour le site de GNU Generation. fi spécial été AlterIT page 10
fig. 5 - exemple d’interface pour contributeur junior: ajout d’une application. Remarquer les possibilités d’interaction limitées par rapport à la fig. 4.
Ce que nous réserve le futur Finis les examens, les développeurs auront le temps de se pencher sur le code. Pour la rentrée, on aura une interface de construction et on pourra commencer à contribuer. On espère avoir une première release de l’ISO pour le début de l’année prochaine. Vous êtes les bienvenus pour participer aux discussions autour de GGWin sur la page ggwin.epfl.ch ■
Wikipédia Jean-Denis Vauguet Secrétaire adjoint de Wikimédia France
jd@apinc.org
Wikipédia
est une encyclopédie libre éditée sous la forme d’un wiki. Ce projet, chapeauté par une fondation américaine, la Wikimedia Foundation a, existe en une cinquantaine de langues b, chaque version ayant son propre contenu. L’objectif du projet Wikipédia est de construire de façon collaborative une encyclopédie libre de qualité. La façon dont est organisée cette encyclopédie relève du mélange entre le dictionnaire thématique et l’encyclopédie traditionnelle. Le contenu texte de Wikipédia est diffusé sous une licence libre, la GNU Free Documentation licence, ou GPL. Il s’agit d’un contrat d’utilisation et de réutilisation qui assure à chacun la liberté de copier ou de redistribuer, avec ou sans modifications, commercialement ou non, le contenu des articles. Enfin, Wikipédia repose sur un logiciel libre, MediaWiki, spécialement conçu pour ce projet. Il s’agit d’un wiki, un programme qui permet à n’importe quel internaute de passage de modifier le contenu d’une page existante ou d’en créer de nouvelles. Dans le cadre d’une encyclopédie classique, la consultation et la rédaction sont deux tâches clairement séparées. Le principe du wiki est de placer dans les mains du lecteur la tâche du rédacteur, habituellement dévolue à des spécialistes recrutés par un éditeur. Sur Wikipédia, à tout moment, un internaute peut décider de modifier la page qu’il est en train de lire, en cliquant sur un lien. Lui est alors présenté le contenu de la page qu’il lisait, non plus comme une page formatée, mais comme un texte brut placé dans un formulaire. Le lecteur devenu rédacteur peut alors modifier ce code source et valider ses modifications, qui sont immédiatement visibles sur la page de lecture. Un wiki étant par définition en permanence altérable, Wikipédia est une encyclopédie en mouvement constant. Non seulement tout article est susceptible d’être modifié à tout moment, mais n’importe qui possède ce droit de modification. Le premier point interroge sur la lisibilité de l’encyclopédie, tandis que le second point pose la question de la fiabilité de ce contenu versatile. La manipulation de MediaWiki est somme toute très simple. Par contre, les innovations sociales et éducatives, le fonctionnement quotidien et les limites de Wikipédia méritent un éclaircissement.
La fiabilité relative sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=922
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 11
Wikipédia a été créée en janvier 2001 sur la base d’une idée simple: toute information, quels que soient son émetteur et son contexte, devrait être traitée avec esprit critique. Un bon moyen pour inciter le destinataire d’une information à être critique est de ne pas la certifier de façon excessive. Sur un wiki, ce qui rend une information fiable, ce n’est plus tant la crédibilité supposée d’un organisme ou d’un service, mais, entre autres, l’effort de l’internaute lui-même, qui va devoir la confronter avec d’autres informations dont il est sûr qu’elles sont - ou qu’il aura admis - comme vraies. En tant que lecteur, il faut accepter que le contenu ait une valeur réelle, c’est-à-dire faire confiance aux contributeurs et à la qualité de leur travail. En tant qu’éditeur, il faut faire confiance aux lecteurs pour qu’ils jugent avec un regard critique le contenu présent sur les pages et se l’approprient. Les projets communautaires adoptent massivement le wiki pour écrire leur documentation, car il s’agit de programmes dont la prise en main par l’utilisateur n’est pas très complexe et qui instaurent une organisation de production horizontale directe et non plus verticale et hiérarchisée. Une critique portée à l’encontre de Wikipédia consiste à mettre en doute la capacité de ce mode d’écriture à produire des articles de qualité encyclopédique. Ce défi est relevé quotidiennement depuis plusieurs années par les milliers de contributeurs au projet, qui ont adopté des méthodes d’organisation novatrices.
les liens a
Site de la Fondation Wikimedia, à la base de projets Wikipédia, Wiktionary, Wikibooks, etc. www.wikimediafoun dation.org b
Point d’entrée des projets Wikipédia dans toutes les langues www.wikipedia.org Version française de Wikipédia fr.wikipedia.org page personnelle de Jean-Denis Vauguet fr.wikipedia.org/wiki/ Utilisateur:Meanos
Wikipédia
Le consensus et les principes, tout d’abord, sont des points importants. Ignorés ou sabordés par quelques personnes, ils sont respectés par la grande majorité des contributeurs qui veillent avant tout à la stabilité et au bon fonctionnement du wiki auquel ils participent. Cette synergie est particulière et n’a rien d’une inertie qui empêcherait les transformations, au contraire. Par exemple, le plus important pour les contributeurs de Wikipédia n’est pas de bloquer un vandale qui détériorait des articles - c’est la tâche d’un administrateur - mais de procéder le plus rapidement possible aux corrections nécessaires. C’est une illustration de l’auto-contrôle, tantôt initiative personnelle, tantôt réaction à un événement, qui constitue un moyen très efficace pour préserver de bonnes conditions de travail en faisant appel à la responsabilisation. Parmi les principes fondamentaux de Wikipédia, on trouve la neutralité de point de vue. Cette expression n’est pas synonyme d’opinion moyenne, mais d’exhaustivité. Pour les fondateurs de Wikipédia, il était important que les contributeurs prennent le bon bout de la neutralité comme guide: toute opinion recevable sur un sujet qui viendrait à s’exprimer mérite d’être intégrée à l’encyclopédie. La bonne neutralité est donc celle qui donne le maximum de clés de compréhension. Le wiki est un outil efficace pour approcher ce but, car il autorise la diversité des sources, facilite la vérification et la réactivité. Cependant, l’exhaustivité n’est pas la qualité, et la croissance d’un article n’est pas toujours corrélée à son enrichissement. Comment associer développement et qualité dans un mode de production horizontal comme celui du wiki ? L’exemple de Wikipédia est somme toute révélateur. Les articles de qualité sont bien souvent le fait d’un petit groupe de contributeurs, qui sont des spécialistes – tant amateurs que professionnels – des sujets qu’ils traitent. Il est évident que la rédaction d’un bon article ne peut pas être le fait d’une centaine de personnes désorganisées. De façon surprenante, le wiki a mis en lumière un élément déterminant: l’implication du lecteur dans le processus d’écriture tend à accentuer la diversité des sujets traités et la qualité de la vérification des articles ainsi rédigés. La transdisciplinarité qui fait la richesse de Wikipédia résulte directement de la permissivité jugée parfois excessive du wiki.
L’organisation de Wikipédia
fi spécial été AlterIT page 12
Le wiki est un support de plus en plus utilisé pour organiser le travail de petites équipes, en entreprises, au sein des associations, par des communautés d’utilisateurs diverses et variées. Ce type de structure est très efficace lorsque le nombre d’intervenants est limité, et que chacun respecte volontairement quelques règles de bonnes conduites. Wikipédia est autrement plus complexe: les contributeurs, en très grand nombre, viennent d’horizons différents et ne partagent pas tous les mêmes motivations quant à leur participation au projet. Certains font une modification et ne reviendront jamais, tandis que d’autres sont des éditeurs quotidiens. L’outil doit être suffisamment souple et complet pour satisfaire à plusieurs types d’utilisation, tout en restant assez simple pour ne pas freiner les bonnes volontés des débutants. Le principe de base du wiki, la libre modification, est utilisé sur quasiment toutes les pages de Wikipédia. Au sein de l’encyclopédie existent plusieurs espaces de travail, les articles étant le premier espace visible. Chaque article est associé à une page de discussion, sur laquelle les contributeurs peuvent s’entendre sur les modifications de l’article. Un troisième espace de travail est l’espace méta, un ensemble de pages destinées à gérer la vie de l’encyclopédie: elles constituent un vaste bureau virtuel où chacun est invité à participer aux discussions et aux prises de décisions. Elles sont le cœur de la communauté Wikipédia et représentent un outil méthodologique indispensable. En effet, le contenu de Wikipédia ne peut pas demeurer désorganisé: les contributeurs sont invités à classer les pages, à les intégrer dans des thématiques pour faciliter la consultation et la gestion de l’encyclopédie. Actuellement, le logiciel MediaWiki propose deux moyens pour structurer le contenu dans des thématiques: les catégories, un procédé semi-automatisé, et le lien interne, dont le bon usage est à la charge des contributeurs. Les catégories permettent de regrouper plusieurs articles dans une même thématique. Chaque article peut être associé à zéro, une ou plusieurs catégories, ce qui permet de tisser une véritable toile sémantique entre plusieurs pages. Lorsqu’un internaute clique sur l’intitulé d’une catégorie, une page générée automatiquement s’affiche, listant les pages associées à cette catégorie et les sous-catégories
Wikipédia
éventuelles. En effet, toute catégorie est fille d’une ou plusieurs catégories parentes, le tout se présentant comme un arbre aux ramifications multiples, un arbre dont l’aspect serait quelque peu étrange, car plusieurs branches peuvent se rejoindre et former des nœuds. Le lien interne est un lien qui relie deux articles d’une même version de Wikipédia (la version francophone, anglophone, etc.) Un des points forts de Wikipédia réside dans la bonne utilisation des liens internes: ils permettent au lecteur de se promener à travers les pages virtuelles au gré de ses interrogations et découvertes. Il ne doit pas non plus être submergé de tels liens, car alors la contextualisation manque de pertinence. Le lien interne est le moyen le plus simple et le plus utilisé pour parcourir l’encyclopédie, mais contrairement aux catégories, il n’a pas vocation à créer systématiquement une relation thématique. Ces moyens ne sont évidemment pas suffisants pour créer une encyclopédie structurée. Des groupes de contributeurs s’occupent de portails, qui sont des portes d’entrée vers le contenu de l’encyclopédie. Un portail est une page en édition libre, dont la vocation est de mettre en lumière le contenu. Il répertorie les articles intéressants, permet de créer des regroupements fins qui ne seraient pas forcément judicieux sous la forme d’une catégorie (par exemple, lister tous les articles concernant l’atome, depuis l’atomisme grec jusqu’à la fission nucléaire...), d’inciter à développer et à créer des articles pour enrichir l’encyclopédie, etc. Un portail sert également de support de gestion, en étant un point de rendez-vous des contributeurs. Chaque région de Wikipédia adopte différentes méthodologies, en relation avec le champ de connaissance abordée: les contributeurs en sciences physiques ne s’organisent pas de la même manière que ceux intéressés par le cinéma américain des années 30. Cette diversité des approches est ensuite homogénéisée par le respect de consensus sur la présentation des articles, le style et la recherche de l’exhaustivité.
Un géant aux pieds d’argile.
fi spécial été AlterIT page 13
Si le wiki en général connaît un succès réel depuis quelques années, il ne faudrait pas pour autant penser qu’il s’agit d’un outil parfait. Encore une fois, l’exemple de Wikipédia est révélateur. Une première limite est le non-développement du contenu. Les différentes versions de Wikipédia comptent ainsi plusieurs dizaines à plusieurs milliers de modifications par jour qui sont, pour une grande partie, des corrections mineures. De plus, l’augmentation du nombre d’articles masque le fait qu’un grand nombre de ces pages sont des ébauches. Le risque est de se retrouver avec une encyclopédie importante en taille, abordant de très nombreux sujets, mais de façon superficielle et désorganisée. Autre limite propre aux wiki en général, le vandalisme, qui prend des formes diverses. Le blanchiment de pages, l’introduction d’insultes, de publicité ou de contenu non pertinent sont des actes facilement maîtrisés. À l’inverse, les modifications subtiles de données constituent un vandalisme pernicieux difficilement détectable, qui peut rester en place des mois ou des années et qui représente une limite concrète de l’auto-contrôle sur un projet à vocation éducative comme Wikipédia. Enfin, le coût associé à un wiki fortement dynamique peut devenir important. Il l’est d’autant plus sur Wikipédia que la gestion est pour une bonne part bénévole: la mise en place d’une structure financière saine s’avère désormais indispensable pour assurer l’avenir du projet. Un wiki n’est pas un modèle réduit de démocratie, qui s’exerce principalement par le vote et la représentativité. Le vote, notamment, ne fait que définir un consensus et n’a pas force de Loi sur un wiki. Au sens méthodologique, l’anarchie intervient ponctuellement sur Wikipédia, car elle incite à réorganiser le contenu, mais l’image extérieure du projet ne doit pas masquer l’hétérogénéité du développement des thématiques. Il est vrai qu’il existe des pans entiers de savoir qui sont traités de façon superficielle et le resteront jusqu’à tant qu’ils suscitent un intérêt chez un ou plusieurs contributeurs, tandis que d’autres sont très avancés et concurrencent les encyclopédies classiques. Un modèle - qui reste entièrement à définir - pour représenter Wikipédia et le wiki en général pourrait être celui du libéralisme collectif. Agir individuellement à sa guise, en remettant son travail aux mains d’une communauté dépourvue de représentativité et de plan d’action conscient, pour réaliser une tâche profitant à tous - voilà ce que propose un wiki tel que Wikipédia. L’aspect communautaire se trouve dans la collaboration et la discussion, mais la plupart des contributeurs s’accorderont à dire que l’essentiel du temps passé sur Wikipédia est solitaire et que le travail d’écriture en lui-même est le plus souvent un fait individuel. Ainsi, l’ensemble du travail de gestion qui était habituellement confié à des structures spécialisées est, sur un wiki, dévolu aux lecteurs eux-mêmes, et ce travail doit souvent s’accomplir de façon individuelle, mais coordonnée. L’originalité du média ne permet pas d’échapper aux aléas de la collaboration et de la vie en société. Afin d’augmenter la qualité de ses articles, l’encyclopédie libre doit encore inventer de nouveaux moyens pour inciter les contributeurs de différents champs disciplinaires à coopérer plus activement. Quatre années seulement après sa création, il est difficile de savoir si la forme actuelle du wiki est en mesure de porter à son terme ce type de projet à forte implication sociale, culturelle et politique, mais on ne peut pas lui enlever sa reconnaissance de la valeur individuelle et de l’auto-apprentissage, ses innovations techniques et méthodologiques ainsi que ses impressionnants résultats à ce jour. ■
Le fabuleux destin de Plone Plone
Olivier Deckmyn Directeur technique Ingeniweb
olivier.deckmyn@inge niweb.com
Kamon Ayeva
kamon.ayeva@inge niweb.com
est le système de gestion de contenu le plus populaire du moment, spécialement pour les projets d’intranets ou de portails d’entreprise. Il a aussi deux autres particularités: il est Open Source et il est basé sur Zope, le fameux serveur d’applications écrit en Python. Zope est écrit et maintenu à la fois par la société américaine Zope Corporation et par la communauté qui s’est construite autour de cette technologie.
les liens
Introduction
Référentiel de codes source svn.plone.org
Derrière Plone, il y a une armée d’utilisateurs (plus de 8500 à l’hiver 2004-2005), de développeurs et de consultants, parmi lesquels des sociétés majeures de l’industrie telles que Computer Associates, qui partagent les mêmes exigences de qualité technique de l’architecture et d’ergonomie élaborée de l’interface utilisateur. Le secret de Plone, c’est bien la puissance d’un outil simple à utiliser. Comme les leaders d’autres projets à succès tels que Linux (Debian, Ubuntu), ou Mozilla, Alexander Limi et Alan Runyan, co-fondateurs de Plone sont animés par la vision d’un système stable, simple à utiliser, et conforme aux standards (du Web en l’occurrence). Une ambition résumée par la fameuse expression: It just works ®.
Historique
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=924
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 14
le site officiel de Plone plone.org
Projet Kupu (éditeur orienté document) kupu.oscom.org Portail Zope francophone zopera.org Site de Plone en France monplone.com Site de la société Ingeniweb
www.ingeniweb.com
L’histoire de Plone est très intéressante et probablement emblématique d’une belle success-story du monde Open Source. 1998: Zope est un produit commercial de Digital Creations, qui lutte contre les mammouths du marché: Vignette, BroadVision, Documentum, InterWoven, etc. 1999: Zope devient Open Source. 2000: Sortie du framework CMF (Content Management Framework) de Zope. Fin 2001: Frustration d’une partie de la communauté à la recherche d’un produit vitrine, facile à utiliser et à étendre; d’où la naissance du projet Plone basé sur le CMF.
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
le site officiel de Zope zope.org
fig. 1 – homepage de Plone: plone.org
Le fabuleux destin de Plone
2003: 2004:
Sortie de Plone 1, à Paris sur le stand d’Ingeniweb à Solutions Linux 2003. Sortie de Plone 2.0 au COMDEX de Las Vegas. Également, première conférence Plone aux USA. 2004: Création de Plone Foundation; cette fondation, dont sont membres tous les développeurs et les parties intéressées à Plone, travaille à promouvoir l’utilisation et le développement de Plone. Août 2005: Sortie de Plone 2.1 lors de l’OSCON à Portland.
Organisation du développement Chaque version majeure de Plone est issue du travail acharné de la communauté de développeurs sous la coordination d’un Release Manager officiellement désigné par la Plone Foundation. C’est la personne responsable de la sortie des nouvelles versions. Stephan Holek (Autrichien) assume ce poste pour l’année 2005. Les outils de travail de la communauté sont divers: ❚ Les listes de discussions: la liste plone-developers est dédiée au développement de Plone, et la liste plone-users permet de discuter des questions relatives à l’utilisation de Plone. ❚ Le canal IRC: il offre un complément aux listes de discussions pour apporter des réponses instantanées aux questions des uns et des autres. Tout développeur même débutant y trouve de l’aide en temps réel et à toute heure de la journée. Cependant, les débutants sont encouragés à s’informer et s’autoformer à partir de la documentation disponible sur plone.org. avant de venir inonder le canal IRC de questions. ❚ Le référentiel de code source: le nouveau serveur Subversion svn.plone.org utilise le protocole SVN, le successeur de CVS, permettant de gérer de manière collaborative le code de Plone et des différents composants et logiciels affiliés. C’est grâce à ce fabuleux outil que l’ensemble des codeurs peut se partager le travail sur le code source de Plone. ❚ Le site officiel sert les objectifs classiques d’espace d’information et de communication, mais fournit également les sections essentielles au support du développement de Plone et de ses modules d’extension; on y retrouve le collecteur de bugs, et le Plone Software Center, qui recense les extensions à Plone. C’est un véritable outil de travail collaboratif. ❚ Les sprints: un des principaux outils de la méthodologie eXtreme Programming, ces sessions de quelques jours dans un endroit isolé regroupant un nombre raisonnable de développeurs permettent de faire avancer des parties importantes du code de Plone; exemples: le fameux Snow sprint annuel qui a déjà connu deux éditions à succès, et l’Amsterdam UI sprint d’avril 2005 qui a apporté l’essentiel des améliorations de l’interface pour la version 2.1. ❚ Le processus de gestion de la feuille de route (roadmap) de Plone: celle-ci est constituée d’une succession de PLIPs ou Plone Improvement Proposals. En effet, le cœur du processus de développement est le PLIP, un document publié au sein de plone.org, formalisant la description d’un changement ou d’une amélioration dans le code de Plone, les motivations derrière la proposition, et l’implémentation choisie par le développeur, avec pour objectif d’en débattre, de documenter les chanfig. 2 – Plone est au centre du travail collaboratif gements et d’assurer le bon déroulement du développement requis.
Diviser pour mieux régner !
fi spécial été AlterIT page 15
Pour faciliter la coordination des tâches, les contributeurs sont organisés en plusieurs grandes équipes dédiées avec chacun un ou plusieurs leaders: ❚ L’équipe de l’architecture: elle a la responsabilité des composants et frameworks du cœur de Plone. Parmi ses principaux acteurs, on retrouve Alan Runyan (co-fondateur initial, très attentif au devenir de son bébé), Benjamin Saller, le créateur et architecte d’Archetypes, la technologie sous-jacente qui fournit les composants moteurs de Plone, et Christian Heimes le développeur responsable du module ATContentTypes. ❚ L’équipe de l’interface utilisateur: avec Alexander Limi à sa tête, elle est en charge de tous les aspects de l’interface utilisateur, y compris l’intégration du nouvel éditeur visuel de Plone, issu du projet tierce partie Kupu. ❚ L’équipe des aspects collaboratifs: il s’agit d’un groupe travaillant en parallèle sur les extensions permettant d’ajouter des fonctionnalités collaboratives à Plone. Parmi les composants déjà utilisés en production que nous leur devons, il y a l’incontournable GroupUserFolder et son extension GrufSpaces, et le duo CMFMember / TeamSpace.
Le fabuleux destin de Plone
❚ L’équipe I18N: C’est cette équipe qui synchronise et fédère tous les volontaires qui traduisent Plone en … 32 langues ( !). Elle s’appuie sur des développeurs très actifs, responsables de la livraison des outils qui forment le trio de la gestion efficace de l’internationalisation de Plone: PlacelessTranslationService, PloneTranslations, et PloneLanguageTool. ❚ L’équipe des installeurs: avec des développeurs volontaires tels que Andy Mckay, elle travaille sur une base de package d’installation multi-plateforme sur laquelle chaque installeur particulier ajoute ses spécificités. Un installeur pour chaque plate-forme majeure est livré pour chaque version de Plone, y compris Windows et Mac OS X. ❚ L’équipe qui maintient le site plone.org et son contenu. La mise en place par cette équipe des sections PloneHelpCenter et PloneSoftwareCenter a apporté une avancée importante pour Plone en termes d’image et de facilité d’accès à l’information pour les développeurs. Chaque groupe travaille sur ses livrables et prépare les composants et éléments à intégrer dans Plone.
fig. 3 – une architecture de mise en production pour un site à forte charge
Le PLIP, pierre angulaire du développement Chaque fonctionnalité ou amélioration à apporter doit faire l’objet d’une nouvelle PLIP. Les développeurs à l’initiative de la proposition la défendent lors des discussions sur les différents forums et listes de diffusion, ce qui permet d’améliorer la proposition. A l’issue de la discussion, le changement proposé est rejeté, accepté pour la prochaine version, ou pour la version suivante du logiciel. Après acceptation du PLIP et dès que le développeur responsable du changement est prêt à fournir son implémentation, il crée une branche de Plone 2.1 dans le référentiel svn.plone.org. Une branche est une nouvelle version du logiciel, qui va vivre en parallèle de la version officielle (dite trunk) et qui apporte la nouvelle fonctionnalité. La branche devra contenir toutes les modifications ainsi que les tests unitaires (et fonctionnels) et les scripts de migration requis par ces changements. Cette branche sera testée par plusieurs des développeurs leaders, et notamment le Release Manager. Une fois jugée satisfaisante, elle sera fusionnée dans la branche principale de Plone trunk. Ce processus interviendra plusieurs fois jusqu’à ce qu’on arrive à une branche intégrant toutes les améliorations promises pour la version en préparation, stable, et tant que l’on est dans la phase alpha de la livraison, car aucune nouvelle fonctionnalité ne peut être ajoutée après la livraison de la première version bêta. fi spécial été AlterIT page 16
Appel aux contributeurs et aux testeurs Le contributeur est généralement un développeur expérimenté, mais pas uniquement; les leaders mettent en place des procédures permettant à tout contributeur même débutant de pouvoir aider. C’est
Le fabuleux destin de Plone
le cas des tâches annexes telles que la fourniture des fichiers de traduction de l’interface utilisateur pour les 32 langues de Plone ! De plus, tous les contributeurs sont encouragés à participer aux fameux bugs days pour aider à tester les bugs corrigés au fur et à mesure, et à mettre à jour le collecteur des bugs de Plone: ces sessions de 24h où se relaient les programmeurs Plone de la terre entière sont des moments-clés dans le processus qualité: le soleil ne se couche pas sur le bug collector ces jours-là!
Finalisation et release L’équipe de livraison fournit plusieurs versions alpha, plusieurs versions bêta, et une ou plusieurs Release Canditates. Généralement, dès la sortie de la version bêta, le site plone.org est mis à jour avec le code de Plone, ce qui fournit un site volumineux et critique comme plate-forme de test aux développeurs afin de valider le résultat et éventuellement trouver de nouveaux bugs, notamment en ce qui concerne les migrations de contenu.
Promotion et support Livres et presse Des livres écrits par les principaux experts de la technologie permettent de promouvoir et vulgariser l’utilisation de Plone. De plus, et c’est aussi important, des articles ainsi que des communiqués de presse, sont régulièrement publiés sur les principaux sites spécialisés et dans la presse en général: O’reilly network, eWeek.com, Slashdot,…
Conférences Une conférence mondiale dédiée à Plone est organisée chaque année. La prochaine édition aura lieu en septembre 2005 à Vienne, en Autriche. Il existe également des initiatives régionales appelées les Plone Symposiums. Outre ces conférences spécialisées sur Plone, les acteurs de la communauté participent à diverses conférences afin de présenter Plone et également de se rencontrer pour des sessions de sprint: EuroPython aux Pays-Bas, OSCON aux USA, LinuxTag en Allemagne, Solutions Linux à Paris...
Conclusion La communauté Plone a une organisation à la hauteur des exigences du produit et des attentes de ses utilisateurs. La complexité des problèmes que cherchent à résoudre les technologies incluses dans le système de gestion de contenu appelle à un équilibre intelligent entre des développeurs très impliqués et créatifs et des responsables de l’organisation du développement vigilants et polyvalents (ayant des qualités d’architectes, de communicants, ...). Le succès sans conteste de Plone est en partie dû à cet équilibre délicat que la communauté a su trouver.
À propos des auteurs Kamon Ayeva et Olivier Deckmyn sont des membres actifs et reconnus de la communauté Plone. Ils sont des membres historiques des communautés Zope et Python, auxquelles ils participent depuis 1998. Co-auteurs de 4 ouvrages de référence sur le sujet publiés aux éditions Eyrolles, ils occupent aujourd’hui des postes-clés chez le leader européen de Zope/Plone: INGENIWEB.■
fi spécial été AlterIT page 17
Communiquer et collaborer à distance mythes et réalités Adrian Bangerter Université de Neuchâtel – institut de psychologie du travail et des organisations
adrian.banger ter@ unine.ch
Sophie Bettex Université de Neuchâtel –institut de psychologie du travail et des organisations
sophie.bettex@unine.ch
La distance constitue-t-elle encore une barrière à la collaboration ? Le consultant William Bridges décrit en 1994 plusieurs mutations profondes dans le monde du travail. Un des facteurs importants concerne les effets des progrès de la technologie. Le développement des réseaux et des nouvelles technologies de l’information et de la communication (NTIC) a fait énormément baisser les coûts liés au transfert d’informations. Un des phénomènes récents les plus étonnants est constitué par la délocalisation du travail dans le secteur tertiaire, délocalisation rendue possible par la technologie. C’est ainsi que de plus en plus d’entreprises nord-américaines et européennes font appel à des services localisés dans d’autres pays. Cette délocalisation peut parfois prendre des formes surprenantes. Dans un exemple récent (Pittsburgh Post-Gazette, 23 mars 2004), on raconte l’anecdote d’une femme employée par une entreprise spécialisée dans la retranscription de rapports médicaux. Son travail consiste à retranscrire des rapports dictés par des médecins. L’étonnante particularité de l’anecdote est que la femme vit et travaille à Bangalore, en Inde, alors que les médecins travaillent pour des hôpitaux situés dans des régions différentes des États-Unis. Le processus commence lorsqu’un médecin américain dicte son rapport sur un dictaphone. Ce rapport est ensuite chargé sur le serveur de l’hôpital, crypté et transmis à la succursale indienne de l’entreprise. La femme reçoit le fichier-son et retranscrit le rapport. Le fichier texte résultant sera ensuite retransmis à l’hôpital aux États-Unis. Ce service peut s’accomplir en moins de 24 heures; pour des tâches urgentes, l’entreprise peut fournir des résultats en moins de 2 heures. Dans cet exemple, deux personnes collaborent sans jamais se voir ni se parler. Des textes publicitaires vantant les atouts des nouvelles technologies insistent sur leur capacité à dépasser les limites du temps et de la géographie. Ainsi, disposer d’un système de vidéoconférence revient à avoir sa machine personnelle à voyager dans le temps. On promet qu’avec les vidéoconférences, il est possible d’être à plusieurs endroits à la fois et de résoudre les problèmes en un instant. Dans un livre paru en 2001 et intitulé The Death of Distance 2.0 (la mort de la distance 2.0), Cairncross écrit (p. xi) que la distance ne sera plus décisive pour les coûts de la communication électronique (notre traduction). De tels exemples constituent un aspect particulier du discours de la mondialisation, un discours fascinant de par son ambivalence. D’une part, des possibilités nouvelles potentiellement transformatrices de notre façon de vivre et d’interagir sont évoquées. Cependant, ces discours nourrissent également des inquiétudes collectives, par exemple la perte d’emplois locaux par la délocalisation du travail. Ces discours reflètent-ils la réalité actuelle de la collaboration à distance, telle qu’elle est rendue possible par les NTIC? Nous allons voir dans cet article que la réalité est plus complexe et surtout plus nuancée. Dans la partie suivante, nous commencerons par une esquisse rapide de résultats d’études démontrant la supériorité de la communication face-à-face.
Distance, communication et collaboration sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=912
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 18
Des recherches en psychologie sociale menées depuis plusieurs décennies ont permis de montrer que l’interaction en situation de face-à-face est hautement sensible à la distance interpersonnelle. Lorsqu’on veut entrer en interaction avec une personne, on se rapproche d’elle. Lorsqu’on veut éviter une interaction, on s’éloigne de la personne. La plupart des interactions sociales publiques ont lieu lorsque les interlocuteurs sont situés à une distance entre 120 et 300 cm (DeVito, 1998). Ces phénomènes attirent notre attention sur l’importance de la distance. C’est à cette distance que nous pouvons bien discerner la mimique de notre interlocuteur, suivre son regard, et bénéficier d’une multitude d’autres signaux qui sont produits lors d’une interaction et qui facilitent la compréhension entre les individus. La fréquence de communication entre deux individus chute lorsque la distance entre eux augmente. Cette baisse n’est pas linéaire, mais asymptotique. Allen (1977) montre que des personnes placées à plus de 30 mètres les unes des autres ne communiquent pas plus fréquemment que des personnes séparées par des centaines de kilomètres. Mais ce n’est pas seulement la communication qui diminue avec la distance, mais également la collaboration. Une étude menée dans une grande entreprise de recherche et développement dans le domaine de la télécommunication (Kraut, Fussell, Brennan, & Siegel, 2002) a montré que la collaboration entre deux personnes (mesurée par la probabilité de publier ensemble un article de recherche ou un rapport technique) dépend de leur proximité. Par exemple, pour des personnes travaillant dans le même domaine, la probabilité qu’ils collaborent sur une publication était de 50% si leurs bureaux se trouvaient dans le même corridor. Cette probabilité chutait à environ 16% lorsque leurs bureaux se trouvaient au même étage, mais pas dans le même corridor, et elle chutait à 5% ou moins lorsque leurs bureaux se trouvaient sur des étages différents ou dans des bâtiments différents.
Communiquer et collaborer à distance: mythes et réalités
Apparemment, la proximité géographique favorise des rencontres fortuites entre collègues (par exemple autour d’une machine à café). Certaines de ces rencontres peuvent mener à une relation personnelle et professionnelle plus développée et ainsi à des travaux en commun. Les collaborations entre personnes colocalisées ne sont pas seulement plus fréquentes, mais semblent également être de meilleure qualité. Une méta-analyse récente (Baltes, Dickson, Sherman, Bauer, & LaGanke, 2002) qui se base sur 52 études expérimentales réalisées dans le domaine de la prise de décision en groupe montre une nette supériorité des groupes colocalisés sur les groupes dont la collaboration est médiatisée par ordinateur (chat, courriel, vidéoconférence). Les groupes face-à-face sont non seulement plus satisfaits du processus de prise de décision, mais prennent également des décisions de meilleure qualité et ont besoin de moins de temps pour arriver à une décision que les groupes communiquant par ordinateur. Contrairement aux discours évoqués dans l’introduction, il semble donc que le contact face-à-face soit difficilement remplaçable par les NTIC. Dans les parties suivantes, nous allons voir pourquoi en analysant plus en détail les propriétés de la communication interpersonnelle.
Propriétés et coûts et de la communication Dans cette partie, nous allons définir, en nous basant sur les travaux des psycholinguistes Herbert Clark et Susan Brennan (1991), huit propriétés que la communication peut avoir selon les médias utilisés. Collaborer sur un projet physique (monter une armoire) ou intellectuel (écrire un article) nécessite que deux ou plusieurs personnes agissent ensemble en communiquant. Ils doivent en effet se mettre d’accord sur le contenu (qu’allons-nous écrire ?) et sur les processus qui permettront de mener à bien leur projet (comment l’écrire ? Qui va écrire quoi ?). Une collaboration présuppose que les partenaires possèdent certaines connaissances communes (des concepts théoriques par exemple). Mais celles-ci ne sont pas stables, elles se construisent en même temps que le projet évolue, et ce, grâce à la communication de nouvelles informations, idées ou opinions. Cependant, la construction des connaissances communes dépend de contraintes propres à la communication. Celle-ci a des propriétés qui influencent le développement et la mise à jour de ces connaissances communes et qui varient selon le canal de communication utilisé. Nous passerons en revue chacune de ces propriétés, à savoir la coprésence, l’audibilité, la visibilité, la cotemporalité, la simultanéité, la séquentialité, la permanence et la possibilité de correction. Puis nous énumérerons les coûts liés à l’absence de l’une ou l’autre des propriétés dans les différents médias de communication.
Les propriétés de la communication
fi spécial été AlterIT page 19
Être coprésent suppose que deux personnes partagent le même environnement physique et qu’elles accomplissent une tâche au même endroit. Chacune voit et entend ce que l’autre voit et entend. Cette propriété englobe les deux propriétés suivantes: l’audibilité, c’est-à-dire que deux partenaires peuvent se parler, et qui permet de mieux appréhender le discours de l’autre grâce aux intonations et à la force de la voix; et la visibilité, c’est-à-dire qu’ils peuvent se voir. Cette dernière caractéristique a soulevé un grand nombre de débats chez les chercheurs et c’est pourquoi nous nous y attarderons plus longuement dans la partie suivante sur la visibilité. Les trois propriétés de cotemporalité, de simultanéité et de séquentialité sont caractéristiques des médias de communication qui permettent de collaborer en temps réel (par exemple le face-à-face, le téléphone et la vidéoconférence). Premièrement, la cotemporalité implique qu’un interlocuteur reçoit et comprend en même temps ce qu’un locuteur dit et ceci sans délai. Ensuite, la simultanéité permet d’envoyer et recevoir des messages en même temps. Elle assure la compréhension et l’approbation qu’a l’interlocuteur du discours de son partenaire. Cette simultanéité se traduit soit par des marqueurs d’attention tels que mhm, ou oui, soit par des comportements non verbaux, comme des signes de la tête. Et enfin, la séquentialité. Une particularité de la communication orale est qu’elle est régie par certaines règles, notamment celle des tours de parole où les partenaires parlent en alternance. Pour que la conversation soit compréhensible, leur attention se focalise exclusivement sur ce que dit et fait leur interlocuteur. Ils ne peuvent donc pas faire autre chose en même temps, au risque de s’interrompre et de perdre le fil. Les interruptions coûtent beaucoup à la conversation face-à-face puisque la parole est éphémère et notre mémoire ne peut tout retenir: lorsque nous nous faisons interrompre par une tierce personne, il faut se souvenir où nous nous étions arrêté et souvent reprendre le fil en revenant en arrière. Enfin, les deux dernières propriétés, la permanence et la possibilité de correction, concernent les médias où l’interaction n’est pas synchronisée dans le temps (par exemple le courrier électronique et les lettres). Les messages produits en communication face-à-face sont, nous l’avons vu, éphémères. Seule notre mémoire nous permet de nous souvenir de ce qui a été dit, et seulement pour un temps limité. A l’inverse, la communication écrite est permanente et permet de revoir le message afin d’y répondre ou de se souvenir de ce qui s’était dit jusque-là. Étant donné que la communication écrite est asynchrone, elle
Communiquer et collaborer à distance: mythes et réalités
entraîne un ralentissement du rythme de l’interaction. Pour pallier ce désavantage, les messages écrits sont généralement plus longs et contiennent par conséquent plus d’informations à retenir. Dans ce cas, il est évident que sans trace visible, il ne serait pas possible de continuer correctement une collaboration. Parallèlement à la permanence, lorsque le partenaire écrit ce même message, il a la possibilité, avant de l’envoyer à son interlocuteur, de le relire, de vérifier sa compréhensibilité, et si nécessaire de le corriger. Les propriétés de la communication dans différents médias sont résumées dans le Tableau 1.
Médium de communication
Propriétés
Face-à-face
Co-présence, visibilité, audibilité, co-temporalité, simultanéité, séquentialité
Téléphone
Audibilité, co-temporalité, simultanéité, séquentialité
Vidéoconférence
Visibilité, audibilité, co-temporalité, simultanéité, séquentialité
Chat
Co-temporalité, simultanéité, permanence, possibilité de correction
Courrier électronique
Permanence, possibilité de correction
Lettre
Permanence, possibilité de correction Tableau 1 – Récapitulatif des propriétés de la communication selon le média utilisé
Les coûts de la communication
fi spécial été AlterIT page 20
L’absence de l’une ou l’autre des propriétés de la communication engendre naturellement des efforts supplémentaires à fournir pour le développement et la mise à jour des connaissances communes. Nous distinguons onze coûts, selon Clark & Brennan (1991): la formulation, la production, la réception, la compréhension, le démarrage, le délai, la non-synchronisation, le changement de locuteur, la manifestation, les erreurs et les réparations. Les deux premiers coûts, celui de la formulation et de la production des messages, sont payés par le locuteur. Formuler correctement un énoncé pour s’assurer qu’il sera bien compris peut parfois demander des efforts considérables: plus le message à faire passer est compliqué (décrire des objets complexes, expliquer des concepts, etc.) plus le locuteur y mettra des efforts. C’est un coût lourd dans la communication orale, contrairement à la communication écrite qui permet de revoir le message avant de le produire. Cependant, produire un message a aussi son prix. En effet, s’il est plus facile de formuler clairement les choses par écrit, il se trouve qu’écrire un courrier électronique, par exemple, demande bien plus d’efforts que de parler. Quant à l’interlocuteur, il fait aussi les frais de deux coûts propres à sa position, celui de la réception et celui de la compréhension. D’une part, il est généralement plus facile d’écouter un message que de le lire, sauf peut-être lorsqu’il s’agit, à nouveau, d’un message complexe. D’autre part, une fois le message reçu, il peut parfois être difficile de comprendre certains mots ou concepts lorsqu’il manque un contexte dans lequel ceux-ci sont énoncés. Les médias qui n’ont pas la propriété de la cotemporalité, tel que le courrier électronique, créent des messages que l’interlocuteur doit replacer dans son contexte original, ce qui peut parfois créer des difficultés. Les sept derniers coûts, quant à eux, sont payés par tous les partenaires de la conversation. Premièrement, le coût du démarrage consiste en la difficulté de commencer une nouvelle interaction. Attirer l’attention d’une personne pour entamer une conversation est facile dans une conversation face-à-face. Il suffit de l’appréhender et de lui parler. Cela se complique dans le cas des autres médias. Envoyer un courrier électronique pour attirer l’attention de son interlocuteur demande des efforts non négligeables (trouver un ordinateur, avoir la bonne adresse, écrire le message, etc.) et on peut rencontrer des obstacles propres aux caractéristiques du média (problèmes de connexions, incertitude quant au moment où le message sera lu par l’interlocuteur, etc.). Deuxièmement, concernant le coût du délai, un laps de temps entre deux messages n’est pas perçu de la même façon selon le média. Si un silence entre deux énoncés dans un face-à-face peut être interprété comme un signe d’incompréhension ou de défaillance dans la communication, ce délai est normal et inévitable dans les échanges écrits. Troisièmement, l’absence de synchronisation dans l’émission des messages impose des réponses et des feed-back différés dans le temps. Dans la communication face-à-face, les interlocuteurs se synchronisent lorsqu’ils se passent la parole, marquent leur accord/désaccord, leur compréhension de ce qui se dit et même lorsqu’ils s’interrompent. Pendant une conversation, il existe des règles implicites qui dictent où et quand prendre la parole ou acquiescer. Il est évident que la communication écrite n’est pas synchronisée. Quand on écrit une lettre, on communique généralement beaucoup d’informations à la fois puisque le rythme du média est très lent.
Communiquer et collaborer à distance: mythes et réalités
Ensuite viennent les coûts liés au changement de locuteur. Une seule personne à la fois est une règle générale lors d’une conversation face-à-face. Des indices (regard, intonation) non verbaux permettent de se passer la parole sans trop s’interrompre et sans perdre le fil. Les énoncés sont généralement courts et nombreux, contrairement aux médias qui n’offrent pas la possibilité de faire usage de tels indices. Les énoncés dans ces médias sont généralement plus longs, moins nombreux et plus espacés dans le temps. Les coûts de la manifestation quant à eux sont cher payés dans les médias qui n’ont pas la propriété de la coprésence: montrer du doigt un objet, acquiescer d’un geste de la tête, ou regarder son interlocuteur dans les yeux pour lui montrer qu’on est attentif à ce qu’il dit sont des indices largement utilisés dans la communication orale et qui facilitent grandement le développement des connaissances communes. Cependant, il n’y a que dans la communication face-à-face que nous pouvons le faire de manière aisée. Enfin, les deux derniers coûts (les erreurs et les réparations) sont interdépendants. Dans une conversation, produire un propos erroné peut engendrer des coûts plus ou moins sévères. Un propos faux peut mener à un malentendu ou à de l’incompréhension de la part de l’interlocuteur, voire même à faire passer le locuteur pour quelqu’un de grossier ou stupide. Le problème se pose essentiellement pour les médias en temps réel, où on n’a pas la possibilité de corriger ses erreurs avant qu’elles ne se produisent. Une stratégie pour limiter ce coût serait de fournir plus d’efforts (mais qui engendre aussi un surcoût) au niveau de la formulation des énoncés. En outre, faire une erreur engendre inévitablement un autre coût, celui de la réparation. Il y a souvent un rapport inverse entre ces deux coûts. Plus un coût est élevé, moins l’autre l’est. Lors d’une conversation face-à-face, nous faisons sans cesse des erreurs (mauvaise prononciation, lapsus, etc.) mais elles sont facilement réparables. Par contre, dans la communication écrite, il est facile d’éviter des erreurs, grâce à la possibilité de correction. Mais si une erreur survient, celle-ci demandera un effort important de réparation. Les propriétés et coûts décrits ci-dessus constituent un cadre utile pour l’analyse de la communication en fonction des différents médias. Les travaux dans le domaine de l’interaction homme-machine utilisent beaucoup ce cadre pour mieux guider les processus de conception des NTIC. Dans la partie suivante, nous allons voir comment on peut l’utiliser afin d’analyser quelques problèmes inhérents à la collaboration par vidéoconférence.
Quelle visibilité faut-il pour les vidéoconférences? Depuis plusieurs décennies, l’utilisation du regard dans la communication à distance a suscité l’intérêt d’un grand nombre de chercheurs. Ainsi, d’énormes efforts ont été déployés afin de développer des technologies de vidéoconférence. Une des idées derrière cet investissement est que le fait de rajouter la propriété de visibilité (cf. le chapitre précédent) à une interaction purement audible peut simuler une situation de coprésence physique. Les vidéoconférences offrent ainsi la possibilité de voir l’interlocuteur. Ceci ajoute un canal de communication de plus, et semble donc augmenter l’efficacité de la communication. A priori, c’est une stratégie raisonnable. Les recherches en psychologie sociale sur le rôle du regard dans l’interaction confirment son importance. Mais il n’est pas toujours simple de reproduire les phénomènes essentiels du regard par vidéoconférence. De plus, beaucoup d’études montrent que le fait de voir son interlocuteur ne facilite pas forcément la collaboration. La propriété de visibilité recèle donc plus de complexité qu’à première vue. Dans cette partie, nous allons examiner ces aspects en détail.
Voir l’autre: L’exemple du regard réciproque Le regard réciproque se produit dans la conversation lorsque les deux interlocuteurs se regardent dans les yeux. En vidéoconférence, nous nous trouvons devant le dilemme, de regarder soit la caméra qui transmet notre image à notre interlocuteur (auquel cas nous ne voyons pas notre interlocuteur), soit l’image de notre interlocuteur (auquel cas notre interlocuteur nous voit comme si on regardait ailleurs). Certains utilisateurs de vidéoconférence sont gênés par ce dilemme. Il est possible de résoudre ce problème, par exemple en employant un système de miroirs demi-tain pour permettre aux participants de regarder leur interlocuteur tout en renvoyant leur image virtuelle à la caméra vidéo. Le problème du regard réciproque et sa solution technique sont schématisés dans la Figure 1. Cet exemple illustre comment les phénomènes les plus banals de communication en face à face peuvent devenir problématiques à distance.
Voir ce que l’autre voit
fi spécial été AlterIT page 21
Regarder son partenaire est certainement important, mais regarder ce qui se passe dans l’environnement partagé des collaborateurs l’est souvent encore plus (Foulon-Molenda, 2000). Les travaux effectués dans le domaine de l’interaction homme-machine ont largement contribué à soutenir cette idée. Par exemple, Fussell, Setlock, et Parker (2003) montrent que, lors d’une tâche de construction, les partenaires se regardaient rarement dans les yeux, en comparaison avec d’autres éléments de l’environnement partagé. La tâche proposée par les auteurs consiste à construire un robot selon un manuel d’instruction. Les participants ont travaillé en groupe de deux et ont été assignés arbitrairement soit au rôle d’instruc-
Communiquer et collaborer à distance: mythes et réalités
�������
teur soit au rôle de constructeur. Afin de détecter la direction du regard de l’instructeur, un appareil qui permet de suivre le regard du participant (eyetracker) a été utilisé. Six cibles ont été évaluées: le visage du partenaire, l’action du partenaire, les outils de la tâche, l’objet de la tâche, le manuel d’instruction et l’environnement pouvant influencer la progression du travail. Les résultats démontrent que le regard de l’instructeur se pose beaucoup plus souvent sur les actions du constructeur, les outils et le robot que sur le visage du constructeur.
�
������������� ������
�����
�����
������� ���������
fig. 1– Le problème du regard réciproque et une solution technique. La figure de droite a été adaptée de l’ouvrage de Dix, Finlay, Abowd, et Beale (2004). Donc, en situation de vidéoconférence, il faudrait plutôt être en mesure de voir l’environnement visuel de son interlocuteur. Or la plupart des systèmes de vidéoconférence existants n’offrent pas cette possibilité. Une possibilité encore plus intéressante est celle de voir le regard de l’autre, c’est-à-dire de voir ce qu’il voit. En sachant où regarde une autre personne, on peut formuler des messages plus brefs tout en étant plus sûr d’être compris. Par exemple, si je sais qu’un tournevis est actuellement dans le champ de vision de mon interlocuteur, je pourrais directement y faire référence. Si je ne sais pas où il regarde, il faudra d’abord que j’attire son attention sur le tournevis avant d’y faire référence. Il existe des systèmes de vidéoconférence expérimentaux qui permettent, par exemple par le biais d’une caméra fixée sur la tête de l’interlocuteur, de suivre son regard. Dans de telles situations, la communication est facilitée en comparaison à une situation où on voit le visage de l’interlocuteur. Les applications de telles technologies ne sont pas difficiles à imaginer. Par exemple, un chirurgien situé à distance pourrait conseiller efficacement un collègue qui effectue une opération en temps réel. Ou un technicien pourrait guider un astronaute qui répare une navette spatiale. Pour ce faire, point n’est besoin de voir le visage de l’autre.
Attirer le regard de l’autre
fi spécial été AlterIT page 22
Il y a un troisième aspect de la visibilité en face à face qu’il est intéressant de simuler en situation de vidéoconférence. Il s’agit de la possibilité de manipuler le regard de l’interlocuteur, par exemple en désignant un objet du doigt. Ce faisant, on attire le regard de l’interlocuteur sur l’objet (ou sur une zone du champ visuel partagé). Si on sait que l’interlocuteur fixe du regard l’objet en question, il est beaucoup plus facile de le décrire ou d’y faire référence. C’est là un avantage qui est similaire à l’avantage, décrit précédemment, de voir ce que voit l’autre. Des études menées dans nos laboratoires (cf. Bangerter, 2004) démontrent que des personnes exécutant une tâche qui ont la possibilité d’utiliser des gestes pour désigner des objets de référence ont besoin de beaucoup moins d’efforts verbaux que des gens exécutant la même tâche mais qui n’ont pas la possibilité de recourir à des gestes. Les gestes de ce type (surtout ceux désignant des objets éloignés) sont particulièrement difficiles à reproduire en vidéoconférence, d’une part parce qu’il est difficile d’avoir une vue à la fois de l’interlocuteur et de l’environnement visuel, et d’autre part parce que la vision stéréoscopique est perturbée. Cependant, des équipes de recherche en interaction homme-machine y travaillent. Fussell, Setlock, Yang, Ou, Mauer, et Kramer (2004) ont mis au point un système ingénieux appelé DOVE (Drawing Over Video Environment) qui permet aux collaborateurs de dessiner des indications par-dessus une bande vidéo en temps réel. Par exemple, on peut indiquer (au moyen d’un agenda électronique et un stylo) à un collègue où placer un objet en dessinant une flèche; celui-ci verra la flèche et saura plus rapidement placer l’objet. Dans cette approche, on renonce à la transmission de l’image des gestes produits par une personne pour adopter une stratégie beaucoup plus efficace de superposition directe de tracés sur bande vidéo. C’est à notre avis un excellent exemple d’une innovation basée à la fois sur la psychologie de la communication et sur la technologie informatique. Dans cette partie, nous avons décomposé la notion de visibilité afin de montrer qu’elle est beaucoup plus complexe et subtile que le simple fait de voir le visage de l’interlocuteur. Dans la communication coprésente,
Communiquer et collaborer à distance: mythes et réalités
la visibilité constitue une ressource importante pour la collaboration. Mais ce n’est qu’en prenant la peine d’analyser les propriétés de la communication que nous pouvons construire des systèmes adaptés.
Conclusion: Possibilités et limites de la collaboration à distance Le célèbre mathématicien et pionnier de l’intelligence artificielle Marvin Minsky a écrit en 1980 que le plus grand défi pour le développement de la téléprésence est de créer l’impression d’être sur place (anglais: being there; traduction des auteurs). En effet, dans la communication face-à-face, nous avons l’impression d’une communication aisée et immédiate, c’est-à-dire non médiatisée. Dans les meilleurs systèmes de collaboration à distance, nous n’avons pas cette impression; nous sommes toujours conscients du média qui nous sépare. Les progrès viendront-ils seulement lorsque les utilisateurs auront la même impression d’immédiateté que les personnes communiquant en face à face? Des études récentes démontrent que les utilisateurs des NTIC arrivent à s’accommoder graduellement à leur utilisation (Van der Kleij, Paashuis, Langefeld, & Schraagen, 2004). Il semble donc que certains aspects défaillants des NTIC peuvent être compensés par l’adaptabilité du langage humain. Les émoticônes en sont un exemple actuel. En regardant l’histoire des technologies, il devient apparent que la technologie crée de nouveaux moyens de communiquer; communication et avances technologiques sont en constante coévolution . A l’heure actuelle, il est clair que les NTIC peuvent améliorer la collaboration à distance. Elles peuvent aider les entreprises à économiser de l’argent. Elles peuvent également faciliter la vie des collaborateurs. Par exemple, il est possible de remplacer certains déplacements par des vidéoconférences. L’employé perd moins de temps à voyager, ce qui constitue également un avantage pour l’entreprise. Cependant, il est exagéré de dire que les NTIC peuvent remplacer complètement le contact face-à-face, en tout cas en l’état actuel de leur développement. Quant aux progrès dans ce domaine, ils ne seront pas de nature purement technologique, mais dépendront plutôt d’une collaboration étroite entre les sciences de la communication et l’informatique. Nous espérons avoir montré pourquoi dans cet article.
Références ❚ ❚
❚ ❚ ❚ ❚
❚ ❚ ❚ ❚
❚ ❚
❚ ❚
fi spécial été AlterIT page 23
Allen, T. J. (1977). Managing the flow of technology. Cambridge, MA: MIT Press. Baltes, B. B., Dickson, M. W., Sherman, M. P., Bauer, C. C., & LaGanke, J. S. (2002). Computer-mediated communication and group decision-making: A meta-analysis. Organizational Behavior and Human Decision Processes, 87, 156-179. Bangerter, A. (2004). Using pointing and describing to achieve joint focus of attention in dialogue. Psychological Science, 15, 415-419. Bridges, W. (1994). Jobshift. Reading, MA: Perseus Books. Cairncross, F. (2001). The death of distance 2.0. London: TEXERE. Clark, H. H., & Brennan, S. E. (1991). Grounding in commumication. In L. B. Resnick, J. M. Levine and S. D. Teasley (Eds.) Perspectives on socially shared cognition (pp. 127-179). Washington DC: American Psychological Association. DeVito, J. A. (1998). The interpersonal communication book. New York: Addison-Wesley. Dix, A., Finlay, J., Abowd, G. D., & Beale, R. (2004). Human-computer interaction. Harlow: Prentice Hall. Foulon-Molenda, S. (2000). A-t-on besoin de se voir pour coopérer ? Contribution théorique issue de la psycholinguistique. Le Travail Humain, 63, 97-120. Fussell, S. R., Setlock, L. D., Yang, J., Ou, J., Mauer, E. M., & Kramer, A. (2004). Gestures over video streams to support remote collaboration on physical tasks. Human-Computer Interaction, 19, 273309. Fussell, S. R., Setlock, L. D., & Parker, E. M. (2003). Where do helpers look? Gaze targets during collaborative physical tasks. CHI 03 Extended Abstracts (pp. 768-769). NY: ACM Press. Kraut, R. E., Fussell, S. R., Brennan, S. E., & Siegel, J. (2002). Understanding effects of proximity on collaboration: Implications for technologies to support remote collaborative work. In P. J. Hinds & S. Kiesler (Eds.), Distributed work (pp. 137-162). Cambridge: MIT Press. Minsky, M. (1980). Telepresence. Omni Magazine, May, 45-52. Van der Kleij, R., Paashuis, R. M., Langefeld, J.J., & Schraagen, J.M.C. (2004) Effects of long-term use of video-communication technologies on the conversational process. Cognition, Technology & Work, 6, 57-59. ■
Jabber un système alternatif de messagerie instantanée Marc Poulhies Etudiant EPFL–Section d’informatique
marc.poulhies@epfl.ch
Introduction
les liens
Parmi les programmes qui se sont invités sur la plupart des ordinateurs connectés à l’Internet on trouve des programmes de messageries instantanées (IM - Instant Messaging). Grâce à eux, il est possible de communiquer en temps réel avec le reste du monde principalement par l’envoi de texte, mais pas uniquement. Ce type de communication prend une place de plus en plus importante dans le monde connecté: que ce soit chez les particuliers ou dans les entreprises. Il apporte la rapidité que n’a pas l’email tout en conservant l’aspect informel des échanges. La majorité des gens ne connaît ce type d’échanges que par l’utilisation de Microsoft MSN Messenger et pourtant, il existe d’autres solutions pas forcément moins bonnes. Cet article portera principalement sur la présentation de Jabber, un système alternatif de messagerie instantanée qui apporte bon nombre d’avantages.
����������
Généralités sur la messagerie instantanée
��� ��� ��� ������
������
S’il fallait faire un top 3 des programmes les plus utilisés dans ce domaine, on trouverait: ❚ Microsoft MSN Messenger ❚ Yahoo ! Messenger ❚ ICQ / AOL Instant Messenger (AIM). ICQ, pionnier dans le domaine, a été racheté par le géant AOL pour finalement être fusionné avec AIM.
MSN Messenger est tellement monopolistique qu’il y a souvent confusion entre la fonction et le programme pour fig. 1 – Plusieurs programmes accédant à plusieurs réseaux finalement dire on se MSN.... Globalement, ces trois adversaires (car c’est vraiment de compétition dont il s’agit) offrent les mêmes possibilités: ❚ communication à deux ou plus, par texte: c’est la fonction principale de tout programme d’IM; ❚ téléphonie: possibilité de discuter de vive voix gratuitement. Cette fonctionnalité gagne de plus en plus d’importance, notamment avec l’apparition de programmes comme Skype; sur le Web ❚ visioconférence: en plus de la voix, il est possible de voir son interlocuteur; dit.epfl.ch/publica❚ échange de fichiers: possibilité d’échanger simplement des docutions-spip/article. php3?id_article=920 ments; ❚ diffusion de publicités: si ce n’est pas le point le plus intéressant pour les utilisateurs, c’est sans aucun doute un sujet très croustillant pour les entreprises que sont AOL, Microsoft et Yahoo ! ; ❚ d’autres fonctions plus ou moins gadgets comme la possibilité de faire vibrer la fenêtre de son interlocuteur, d’intégrer des images (au départ août 2005 lun. mar. mer. jeu. ven. sam. dim. des smileys) au texte, ... 1 2 3 4 5 6 7 Hélas, quand on parle de bataille pour une première place, les utilisateurs 8 9 10 11 12 13 14 15 16 17 18 19 20 21 ne sont pas forcément les grands gagnants. Chacun de ces programmes agit 22 23 24 25 26 27 28 sur son propre réseau, il est impossible d’aller voir ce qui se passe à côté. 29 30 31 Ainsi, si deux personnes désireuses de communiquer ensemble sont chacune sur un réseau différent, il est nécessaire qu’une des deux fasse l’effort d’être présente sur les deux à la fois. Souvent cela implique d’avoir à lancer fi spécial été un programme par réseau et du même coup dupliquer certaines tâches AlterIT (ces programmes réalisant globalement la même chose). Il est possible de page 24
a
Blog associé à une adresse Jabber Web.amessage.info/ blog/usage b
France télécom investit dans Jabber www.Jabber.com/index.cgi ?CONTENT_ ID=185 c
Intégration de Jabber par Sun linuxfr.org/2005/03/31 /18626.html d
Apple iChat www.apple.com/macosx/features/ichat e
JEP www.Jabber.org/jeps/ jep-0111.html f
JabberFr www.jabberfr.org g
IETF www.ietf.org h
SIP en.wikipedia.org/wiki/ Session_Initiation_ Protocol i
Gnomemeeting www.gnomemeeting. org j
Jabber sur wikipedia en.wikipedia.org/wiki/ Jabber k
XMPP en.wikipedia.org/wiki/ Xmpp www.xmpp.org l
Trillian www.trillian.cc m
Gaim gaim.sf.net n
Gajim www.gajim.org o
Gossip developer.imendio.com/ wiki/Gossip
Jabber, un système de messagerie instantannée alternatif
���������
comparer cela avec la téléphonie mobile: que diriez-vous si vous étiez obligé d’avoir un téléphone par opérateur (avec les problèmes administratifs que cela occasionne) pour pouvoir appeler tous vos contacts? En laissant l’argument monétaire de côté, le principe reste le même. Avec le nombre de fonctionnalités qui augmente, ces programmes ont de plus en plus tendance à devenir des usines à gaz (le problème s’accentue lorsqu’il est nécessaire d’en lancer deux ou trois), alors qu’en général, seul un faible sous-ensemble de ces fonctionnalités est utilisé (envoi de texte). Enfin, la publicité peut être vue comme gênante (par l’utilisateur) et pas très discrète, mais il est en général impossible de la cacher. Il existe une solution à ces trois problèmes: les clients multiréseaux alternatifs. Ces programmes peuvent se connecter à plusieurs réseaux différents, il n’est donc plus nécessaire de lancer plusieurs programmes ��� simultanément. Un exemple est montré sur la figure 2. Il est aussi possible de ne plus avoir de publicités en le choisissant judicieusement. ��� L’effet usine à gaz est aussi réduit, ces programmes ne supportant pas toutes les fonctionnalités du programme original. Les plus connus sont Trillian l (version gratuite ou payante, aucune des deux n’est libre) et Gaim m (logiciel libre). ��� Par contre, ce type de programme ne règle pas le problème de la mobilité. En effet, lors de déplacement et de réinstallation, il est nécessaire de se souvenir de tous les paramètres de connexion à chaque réseau. De ������ plus, contrairement à ce que beaucoup pensent, ces clients sont pour la plupart tolérés par les auteurs des programmes originaux, mais absolument pas encouragés, au contraire. Ainsi, lors de changements dans les bases des protocoles de MSN ou Yahoo!, ces clients alternatifs sont à la ������ traîne et ont besoin de temps pour prendre en compte ces changements et c’est à l’utilisateur de se tenir au courant de mise à jour.
fig. 2 – Programme multi protocoles
Jabber
Jabber est un autre système de messagerie instantanée. Il reprend la base de tous les systèmes similaires, à savoir: discussion textuelle, notification de présence en ligne, échange de fichier, sécurité (utilisation de SSL/TLS et/ou GPG/PGP). Jabber tente aussi de corriger certains points présents dans les autres systèmes tout en apportant de nouvelles fonctionnalités. Il se démarque ainsi des autres. Le réseau Jabber est constitué d’un ensemble de serveurs, chacun hébergeant des utilisateurs. Chaque serveur met à disposition de ses ��� utilisateurs (et parfois aux utilisateurs d’autres serveurs) un ensemble de services. Le mécanisme de transport est l’exemple le plus connu ��� de tels services. Un transport est une passerelle vers les autres réseaux comme MSN ou Yahoo!. En fournissant les informations nécessaires à ��������� la connexion à ces réseaux, il est possible de faire apparaître ses contacts ��� MSN comme des contacts Jabber normaux (voir figs. 3 et 4 qui montre un exemple avec Gajim n). En plus de la transparence d’utilisation, ce mécanisme permet à l’utilisateur de ne plus se soucier des problèmes ������ engendrés par les modifications apportées aux protocoles de bases, ceci devient le travail de l’administrateur du service. Jabber permettant parfois de passer plus simplement les firewalls (certains serveurs accep������ tent les connexions sur les ports correspondant à HTTP et HTTPS ce qui permet de passer au travers des proxys), il devient plus simple d’accéder aux comptes transportés. La création d’un compte Jabber est fig. 3 – Transports Jabber similaire à la création d’une adresse email. Il faut choisir un serveur où sera hébergé le compte parmi une longue liste. Bien sûr il est possible de communiquer avec des utilisateurs d’autres serveurs (voir fig. 5). Les serveurs offrent plus ou moins de services. Il est ainsi possible de trouver un service de blog a où il suffit d’envoyer un message à un contact spécial pour qu’il soit visible sur une page Web. Les adresses Jabber ont la même forme que les adresses mail: login@monserver.com et il est parfois possible de les utiliser comme adresses mails: tout mail envoyé à cette adresse sera redirigé sur le compte Jabber visé. Parmi les autres services intéressants, on peut noter l’envoi gratuit de SMS (comme cela est possible avec ICQ) sous certaines conditions (voir par exemple Web.amessage.info). Un autre des avantages visibles est la volonté de Jabber à ne pas enfermer ses utilisateurs en les forçant à utiliser un logiciel précis. fi spécial été L’utilisateur reste libre de choisir son programme client. Son fonctionnement est complètement documenté AlterIT et n’a rien de secret. Le site Jabber studio.org offre même des services gratuits (CVS, système de suivi de page 25
Jabber, un système de messagerie instantannée alternatif
bugs,...) pour encourager le développement par la communauté. C’est sans doute pour cette raison que le site Jabber.org liste plus de 100 clients différents. Il est possible d’en trouver pour tous les goûts: ❚ libre et disponible gratuitement / propriétaire payant; ❚ complexe avec de nombreuses options / léger; ❚ programme classique / application Web (javascript, applet java,...). La mobilité est aussi un des atouts de Jabber: il est possible d’utiliser un même compte depuis plusieurs endroits simultanément, ce qui n’est en général pas le cas avec les autres réseaux. Côté technique, Jabber est basé sur XMPP k (eXtensible Messaging and Presence Protocol), lui-même basé sur XML (eXtensible Markup Language). XMPP est le fruit de l’IETF g (Internet Engineering Task Force, groupe travaillant à l’élaboration des standards pour Internet) et est couvert par différents RFC (Request For Comments, documents décrivant entre autres les standards d’Internet). Il est donc librement accessible sans avoir à payer le moindre centime. Cela est très important pour assurer une certaine stabilité et une liberté. Ainsi, le protocole ne changera pas de façon radicale du jour au lendemain et personne ne peut décider d’invalider tous les clients existants pour en favoriser un en particulier.
Utilisations professionnelles
���������
fig. 4 – Gajim utilisant les Nombreux sont ceux qui pensent qu’il est plus simple d’installer en transports ICQ,AIM et MSN entreprise une solution clé en main fournie par Microsoft pour avoir MSN (comme ce qui se fait au CERN par exemple). Pourtant, plusieurs entreprises ont choisi Jabber en interne ou participent à son développement. Par exemple, France Télécom b a investi beaucoup dans Jabber Inc.: «Jabber is central to our communication, instant messaging and presence strategy, and is becoming more and more of a core element to the vision of our Wanadoo and Orange business units». Jabber est tout a fait adapté pour une entreprise souhaitant mettre en place un système de messagerie en interne sans pour autant relier ce réseau à Internet. Installer un serveur Jabber se fait assez simplement, et celui-ci peut marcher de manière autonome, sans connexion sur l’extérieur. Plusieurs projets libres mettent à disposition gratuitement des serveurs fonctionnant sur GNU/Linux. De la même façon que certains montent leurs propres serveurs mail ������������ (pour avoir un contrôle total sur l’espace de stockage, les moyens d’accès, ...) il est possible de faire son propre serveur Jabber (par exemple pour avoir un identifiant du type foo@monsuperdomaine.com). ������������ Apple a ajouté le support de Jabber dans sa dernière version de iChat d, son client de messagerie instantanée, parfaitement intégré à son système d’exploitation Mac OSX. Sun intègre aussi ce support à son système de messagerie c. Il n’est donc plus nécessaire de connaître l’existence de Jabber pour avoir un programme compatible installé sur sa machine. De plus, la simplicité de création d’un compte Jabber comparée à celle d’un compte Passport .NET, nécessaire à MSN, laisse ���������� espérer que sa popularité ira grandissante.
fig. 5 – Réseau Jabber
Bilan
Malgré son grand potentiel, Jabber est un peu à la traîne sur certains points qui freinent souvent la migration depuis MSN/ICQ/Yahoo!. Par exemple, il n’est pour l’instant pas possible de faire de la téléphonie ou de la visioconférence de façon simple. Certains projets se penchent actuellement sur le sujet. Il existe des JEP e (Jabber Extension Proposal, proposition d’extension à Jabber) et certains prototypes, notamment visant à intégrer Gnomemeeting i (programme de visioconférence basé sur H.323 et bientôt SIP h) à Gossip o (client Jabber ). Face au nombre de réseaux différents, qui ne pourra qu’augmenter, Jabber semble une solution fiable pour gérer des contacts de provenances diverses, tout en simplifiant la vie à l’utilisateur comme à l’administrateur. ■ fi spécial été AlterIT page 26
Les blogs au delà du phénomène de mode Stephanie Booth
En
contrepoint aux articles parfois alarmistes, parfois simplement utiles, qui mettent en avant les dangers liés aux blogs, voici une approche du phénomène blog qui cherche à clarifier tout ce qu’ils ont à apporter de positif, aussi bien à la société qu’à l’individu.
Au-delà des clichés stephaniejbooth@ gmail.com
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=918
Cette première moitié d’année 2005 a vu paraître plusieurs articles sur les blogs dans la presse romande a. Le plus souvent, ceux-ci ont mis en avant les dérives possibles et les risques encourus par les propriétaires – des adolescents pour la plupart – de ces sites Internet b. Les blogs sont appelés à jouer un rôle bien trop important dans les années à venir pour que l’on se contente de les étiqueter nouvelle mode adolescente potentiellement dangereuse. Ce cliché semble malheureusement déjà bien ancré dans les esprits du grand public, et il est réducteur à plus d’un titre. Premièrement, tous les blogueurs ne sont pas des adolescents, même si les blogs (ou pour être précis, une certaine variété de ceux-ci, mise à disposition par la radio Skyrock) connaissent un grand succès auprès de ces derniers. Deuxièmement, les blogs sont un outil, que l’on peut utiliser à bon ou à mauvais escient. Certains blogueurs se mettent dans des situations délicates, quelques-uns s’attirent de véritables ennuis, mais la plupart des blogueurs font leur bonhomme de chemin sans soucis majeurs. Enfin, les blogs sont en train de transformer le monde dans lequel nous vivons, et la façon dont nous tissons des liens avec autrui. Certes, il y a un effet de nouveauté pour le grand public et certains utilisateurs, qui peut donner une impression de mode. Mais le blog, de par sa grande simplicité d’utilisation, n’est finalement qu’une concrétisation de la promesse d’Internet: le pouvoir de la parole publique à la portée de chacun; la démocratisation de l’expression. Mode, ou changement profond de notre société? Ce qui suit vous permettra peut-être d’en juger. Plutôt que de proposer encore une analyse des dangers des blogs et de leur utilisation en guise de journal intime ou album photo par les adolescents, voici plutôt un tour d’horizon du rôle constructif que jouent les blogs, aussi bien pour la société que pour l’individu.
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 27
a
Blogs racistes www.lematin.ch/nwmatinhome/nwmatinheadactu/actu_suisse/ l_impossible_traque. html b
Les blogs adolescents, une pratique tribale www.swissinfo.org/sfr/ swissinfo.html?siteSect =108&sid=5773998&c Key=1115812443000 c
Tsunami: témoignages phukettsunami.blog spot.com c
D’autres blogs en rapport avec le tsunami www.tsunamihelp.info/ wiki/index.php/Blogs d
Documents Killian en.wikipedia.org/wiki/ Killian_memos e
Comptes-rendus des attentats du 11 septembre w w w. b r a i n s t o r m sandraves.com/attack/ weblogs f
Journalisme citoyen en.wikipedia.org/wiki/ Citizen_journalism wikinews.org g
Attentats de Londres technorati.com/ londonbombings
Les blogs touchent la société
h
Ni les médias, ni les politiciens, ni les entreprises ne peuvent plus ignorer les blogs. Ceux-ci les égratignent parfois et les poussent à se remettre en question, avant de réaliser quel parti ils peuvent tirer de ce nouvel outil. Voici quelques exemples pour en mesurer la portée.
i
Blog de Howard Dean www.democracyforame rica.com Blog de Dominique Strauss-Kahn www.blogdsk.net j
Blogs et médias
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
les liens
Blogs et journalisme sont souvent mis soit en opposition, soit en parallèle. Si cette mise en relation en des termes aussi simplistes n’est plus vraiment défendable, il n’en demeure pas moins que les blogs ont un rôle à jouer par rapport à la presse, que ce soit en servant de matière première ou de commentaire à celle-ci. Les blogs sont souvent une source de témoignages de première main lors d’événements importants; le tsunami de décembre en est un exemple frappant. On y trouve des récits et des photos publiés par des blogueurs de la région touchée, indigènes ou de passage, bien avant que les équipes de reporters soient arrivées sur place c. Certains émettent des doutes quant à la crédibilité de telles sources. C’est oublier que la presse elle-même n’est pas infaillible ni objective. Les blogs contribuent d’ailleurs à le rappeler, puisqu’ils permettent commentaire et
Blog de Ch. Grébert monputeaux.com k
Reporters sans frontières www.rsf.org l
Trois blogueurs iraniens en prison www.loiclemeur.com/ france/2005/06/trois_ blogueurs.html m
Comité de protection des blogueurs committeetoprotectblog gers.blogspot.com/
Les blogs: au delà du phénomène de mode
critique des informations que véhiculent les médias. Ils se montrent en cela bien plus puissants pour mettre au grand jour intox ou inexactitudes que le courrier des lecteurs ou un simple droit de réponse. Un exemple célèbre est celui des documents Killian d, présentés par Dan Rather de la chaîne de télévision CBS. Ces documents, qui se sont par la suite avérés être des faux, donnaient une image peu flatteuse des performances du président Bush dans sa jeunesse à l’armée. Ce sont les blogueurs qui ont publiquement mis en doute l’authenticité des documents les premiers, déjà dans les heures suivant la diffusion de l’émission.
C’est quoi un blog? Un blog (diminutif de weblog) c’est une sorte de site Internet, dont le contenu est organisé selon une logique chronologique, un peu comme un journal de bord. De plus, le blog est la plupart du temps géré automatiquement par une application Web qui rend l’ajout de contenu (ou sa modification) très facile – aussi facile qu’envoyer un e-mail avec Hotmail: il suffit de remplir un formulaire en ligne avec son texte et d’appuyer sur un bouton publier. En général, les lecteurs d’un blog ont la possibilité de réagir à chaque article qui s’y trouve en laissant un commentaire, qui sera ensuite visible pour les lecteurs suivants. Des liens se tissent ainsi entre le blogueur et son lectorat, ajoutant une dimension sociale importante à une pratique qui semble au premier abord n’être que de l’écriture. Un blog est donc principalement une forme de site, accompagné d’une dynamique communautaire entre un auteur, des lecteurs (souvent auteurs également) et d’autres auteurs. Son contenu peut être graphique, textuel, et même audio ou vidéo; il peut porter sur un sujet bien précis (technique, politique, sportif, culturel...) ou bien être un collage des différents intérêts du blogueur, changeant au gré du vent; il peut être un journal de voyage, un journal intime (!), une collection de critiques de sites, de films, ou de livres; des opinions de l’auteur ou des comptes-rendus factuels. La liste pourrait être encore bien longue, car il n’y a pas de règles régissant le contenu d’un blog. Un blog, c’est un format de site dont le contenu est libre, accompagné d’une simplicité de publication qui le met à la portée de tout internaute. De façon moins spectaculaire, mais plus fréquemment, les blogueurs qui trouvent dans la presse des articles traitant d’un sujet qu’ils maîtrisent n’hésitent pas à apporter leur grain de sel ou à corriger les inexactitudes qu’ils repèrent. S’ils incluent dans leur commentaire un lien vers l’article original, on peut retrouver à partir de celui-ci tous les billets qui le commentent, en s’aidant d’un moteur de recherche spécialisé dans les blogs comme Technorati, ou même simplement avec Google. Les blogs sont également une source de matière première pour les médias. Les témoins d’événements publient souvent comptes-rendus, photos, voire vidéos sur leur blog, dont peuvent se servir les journalistes. Inutile de courir après les interviews, tout est déjà en ligne! Lors des attentats du 11 septembre 2001 e, on a pu lire les témoignages de personnes résidant dans les environs. Le blogueur devient ainsi dans une certaine mesure un petit reporter de l’actualité dont il est témoin. La blogosphère ne remplace pas la presse traditionnelle, qui fait entre autres un travail de synthèse et d’analyse qui est absent des témoignages bruts, mais elle présente un regard plus personnel et immédiat sur divers événements. On utilise l’expression journalisme citoyen f pour faire référence à ce rôle actif des personnes ordinaires dans la diffusion de l’information. De plus en plus, le public se tourne vers les blogs ou des sites collaboratifs, comme wikipedia ou wikinews, lors d’événements comme les attentats de Londres du 7 juillet g, à la recherche d’informations qui ne sont peut-être pas encore dans la presse, ou simplement pour écouter l’histoire de ceux qui y étaient.
Politique fi spécial été AlterIT page 28
Les blogs jouent un rôle de plus en plus important en politique. Les hommes politiques ouvrent leur blog, ce qui leur permet un contact plus direct avec le public (un bain de foule virtuel). Aux États-Unis, Howard Dean h (candidat aux primaires 2004) a utilisé très efficacement les blogs
n
Blog de Vichy (Journal de ma peau) w w w. j o u r n a l d e m a peau.fr o
Liste de blogueurs employés de chez Microsoft w w w. m i c r o s o f t watch.com/article2/0, 1995,933657,00.asp p
Blog de Robert Scoble radio.weblogs. com/0001011 q
Blog de Mario Asselin cyberportfolio.st-joseph. qc.ca/mario r
Utilisation des blogs en milieu académique newsvote.bbc.co.uk/ mpapps/pagetools/ print/news.bbc. co.uk/2/hi/uk_news/ education/4194669. stm s
Blogs de l’EPFL blogs.epfl.ch t
Une liste de professeurs-blogueurs rhetorica.net/professors _who_blog.htm u
Cluetrain Manifesto www.cluetrain.com v
Un blog d’ados pas comme les autres w w w. k o z l i k a . o r g / flamants-roses w
Plate-forme qu’affectionnent les ados skyblog.com x
Sur les blogs d’ados, des délires qui font mal www.letemps.ch/dos siers/dossiersarticle.asp? ID=153596 y
Une alternative pour les albums photo flickr.com z
Ferme ton blog, d’abord! www.liberation.fr/page. php?Article =284309 Site de Stephanie Booth climbtothestars.org/ stephanie-booth.com/
Les blogs: au-delà du phénomène de mode
pour mener sa campagne et récolter des fonds. Il avait d’une part un blog de campagne, alimenté par plusieurs personnes, dont lui-même, et d’autre part une liste de ressources pour encourager ceux qui le soutenaient à ouvrir leur propre blog, afin de mener campagne sur Internet. Plus proche de nous, en France, l’ex-ministre Dominique Strauss-Kahn i possède un blog qu’il met à jour plusieurs fois par mois, et dont les billets suscitent des discussions constructives. Un homme politique sans blog sera bientôt une chose impensable. Le blog est aussi un outil politique pour le simple citoyen, comme le démontre MonPuteaux.com j, la page d’un Putéolien qui a décidé de l’ouvrir. Christophe Grébert, habitant de Puteaux, jette un regard critique sur la politique de sa ville. On apprend sur son blog que le maire de Puteaux, après 35 ans à la tête de la commune, vient de remettre les clés de celle-ci à sa fille. Mairie héréditaire? Outre la gestion discutable des finances de la commune (copinage et conflits d’intérêts), l’opposition politique quasi inexistante au sein du conseil municipal, Christophe dénonce encore sur son blog pressions, menaces, et tentatives d’intimidation. Le blog MonPuteaux. com, qui a été d’ailleurs sélectionné par Reporters sans frontières k parmi les 60 meilleurs blogs défendant la liberté d’expression, vaut en effet à son auteur un certain nombre d’ennuis avec les dirigeants de sa commune, y compris un procès, dont on a pu entendre parler dans la presse nationale, et même internationale. Plus loin de nous, les citoyens vivant sous des régimes totalitaires n’ont parfois qu’Internet et les blogs pour se faire entendre. En Iran l, de nombreux blogueurs, journalistes parfois, mais pas nécessairement, utilisent leur blog pour dénoncer les excès du régime. Les représailles dont ils sont victimes (prison voire pire) confirment l’efficacité de cette forme d’expression qui ne demande finalement que peu de moyens pour être exploitée m.
Entreprises (ou institutions)
fi spécial été AlterIT page 29
kit de découverte Pour faire son blog typepad.fr (payant) blogsome.com (gratuit) www.hautetfort.com (gratuit) wordpress.org (à installer sur son propre serveur) viabloga.com (payant) Comparatif de plates-formes gratuites (en anglais): climbtothestars.org/?s=blog+platform+test Pour suivre l’actualité des blogs pointblog.com Femmes et technologie (en anglais) www.misbehaving.net Quelques blogs en français embruns.net bricablog.net standblog.org la.cote.free.fr/canclaux tsr.blogs.com/br calirezo3.free.fr parlonsfoot.com En anglais randomreality.blogware.com joi.ito.com www.anitabora.com/blog noahslark.com zeldman.com chocnvodka.blogware.com Femmes polyglottes serendipity.lascribe.net martinepage.com/blog climbtothestars.org Photologs flickr.com/photos/mhowells www.boymond.com tenyearsofmylife.com
Le monde de l’entreprise et des prestataires de Pour explorer plus services est également touché par les blogs. A l’interne, technorati.com/ tout d’abord, on peut utiliser les blogs pour améliorer la communication au sein de l’entreprise, entre les individus et les différents départements. Par opposition à l’e-mail, qui est une technologie dite push (l’auteur de la communication doit décider à qui l’envoyer, et par conséquent, qui elle pourrait intéresser), les blogs sont une technologie pull : l’information est mise à la disposition de tous, et ceux qui s’y intéressent vont la consulter. Un outil appelé agrégateur RSS ou lecteur de news permet de s’abonner aux weblogs que l’on désire surveiller, afin d’être automatiquement prévenu des mises à jour. Un chef de projet pourrait ainsi s’abonner au blog de son équipe, à celui des communications officielles de l’entreprise, aux blogs de projets ayant une connexion avec le sien, et enfin à quelques blogs de collègues ou départements dont il a besoin de suivre le travail. Il publierait sur le blog consacré à son projet, avec l’aide de son équipe, des nouvelles et des communications concernant l’avancement de celui-ci, des réflexions sur les problèmes rencontrés, ou encore des appels à suggestions. Cette façon d’utiliser les blogs présuppose une certaine culture de la transparence – ce qui est probablement la raison pour laquelle cet outil est encore utilisé assez timidement. Le blog a également son utilité dans les relations avec la clientèle, comme outil de marketing et de communication. Un exemple intéressant d’une telle utilisation du blog est celui de Vichy (L’Oréal). Afin de promouvoir le lancement d’un nouveau produit, Vichy a ouvert Le journal de ma peau n, une sorte de blog tenu par Claire, un personnage fictif que les blogueurs-lecteurs n’ont pas tardé à percer à jour. Dans les heures et jours qui ont suivi le lancement, Vichy a été très vertement critiquée par la blogosphère. L’entreprise a rapidement remis en question sa démarche, ouvrant un véritable blog où de vraies clientes racontaient leurs expériences avec le produit, et qui a été un succès. On voit que Vichy a su aussi bien écouter sa clientèle que lui parler via le canal des blogs.
Les blogs: au-delà du phénomène de mode
Une autre façon d’utiliser les blogs, pour une entreprise ou un prestataire de services, consiste à faire bloguer (ou laisser bloguer!) les personnes qui en font partie. Ainsi, de nombreux employés Microsoft o (dont certains cadres supérieurs comme Robert Scoble p) tiennent un blog. Ces blogs contribuent à donner une figure humaine à l’entreprise et sont en général perçus très positivement. Cela exige bien entendu une politique claire de la part de l’entreprise concernant les blogs: les employés ont-ils le droit de bloguer, peuvent-ils parler de leur travail sur leur blog, et que doivent-ils garder confidentiel? Du côté des institutions, on trouve par exemple le blog de Mario Asselin q, directeur de l’Institut StJoseph, une école privée québecoise. Depuis plusieurs années, il partage sur son blog la vie de son école, ses idées sur l’éducation, et les expériences éducatives faites avec Internet. L’école gagne en visibilité, et le directeur en humanité.
Et la recherche? Le Web fut créé pour permettre un partage global de l’information, dans un contexte de recherche scientifique. Il est dès lors logique que les blogs aient un rôle à jouer dans le monde académique r, qui demeure le lieu par excellence du savoir et de son partage. L’EPFL s l’a bien compris, et offre depuis 2004 des blogs à son personnel et à ses étudiants. Malheureusement, la plate-forme en place est un peu primitive, et il y a fort à parier que les chercheurs-blogueurs sérieux choisissent Blogs à risque d’héberger leur blog ailleurs. Le chercheur qui publie l’avancement de ses traÉcrire en public présente des risques. Ce qui était auparavant réservé vaux sur le Web augmente ses chances de rentrer en à des professionnels formés à cet exercice est maintenant à la portée de contact avec d’autres scientifiques travaillant dans le tous. même domaine. Comme pour toute activité mettant ❚ Le blogueur débutant ne maîtrise pas la parole publique. Qu’est-ce en jeu une communauté, la publication sur Internet qu’on dit en public et comment? Que vaut-il mieux garder pour soi? au travers d’un outil comme le blog favorise la comQuel sera l’impact de ses mots? Est-on prêt pour les conséquences? munication, les interactions, les échanges. ❚ Il surestime souvent la protection offerte par l’anonymat ou la disLes mots publiés sont archivés et datés au vu crétion dont il entoure son blog. Même si on ne divulgue pas son et au su de tous ceux qui y ont accès. Lorsque les nom sur son blog, une connaissance peut le lire par hasard et faire sujets abordés sont trop sensibles, un certain degré des rapprochements. De nombreux blogueurs anonymes apprennent de discrétion peut être obtenu à travers les réglages après-coup que leurs proches avaient en fait découvert leur blog et le de l’outil de blogging utilisé. Dans un monde où il lisaient sans le leur dire. est important de documenter ce que l’on fait, et de ❚ Le blogueur imprudent peut s’attirer des ennuis avec son employeur, donner crédit à ceux qui le méritent, le blog permet ses proches, les autorités scolaires, et bien entendu les autorités en également de garder une trace de l’histoire qui est en général (diffamation, insultes et injures, divulgation d’informations train de se faire t. confidentielles ou sensibles, atteinte à la personne par la publication de photos prises sans le consentement de l’intéressé...). Transparence et honnêteté ❚ Les conséquences peuvent être lourdes: perte de travail, conflits avec De façon très générale, les blogs poussent les les proches, ennuis dans le cadre scolaire, plaintes pénales... institutions vers une certaine forme de transparence Pour bloguer sans souci, il faut le faire de façon responsable. Une et d’honnêteté. Ils donnent au public, aux clients, ou ligne de conduite prudente est la suivante: encore aux électeurs le moyen de se faire entendre ❚ utiliser son vrai nom sur son blog (cela évite bien des tentations); si – quand ils sont mécontents, mais également quand l’on utilise un pseudonyme, s’assurer que c’est pour créer une barrière ils sont satisfaits, comme l’a montré l’histoire du entre son identité et des inconnus, et non pas pour dissocier ses écrits faux-blog-devenu-vrai de Vichy. de son identité pour les gens qui pourraient nous connaître; L’âge du courrier des lecteurs ou de la lettre à la ❚ n’écrire que ce que l’on serait d’accord de voir lu par chacun (y compris direction est en passe d’être révolu: on s’adresse mainles personnes concernées, son patron, sa grand-mère); tenant directement à tous via son blog, avec garantie de publication et absence de censure. Les blogs sont réactifs: si une nouvelle mérite diffusion, elle le sera dans des délais parfois terriblement brefs. L’entreprise qui roule ses clients, le politicien qui ne tient pas ses promesses et le journaliste qui falsifie ses sources courent le risque de voir leurs pratiques exposées sur la place publique, de façon beaucoup plus dramatique qu’auparavant u.
Les blogs touchent l’individu
fi spécial été AlterIT page 30
Les blogs n’ont en général pas, pris inviduellement, le genre d’impact dont il a été question plus haut. Il existe bien entendu des exceptions, des blogs à forte audience et grande influence, mais la plupart des blogs n’intéressent qu’un tout petit lectorat et ne font jamais é eux seuls la une des journaux. L’apport des blogs à la société serait-il donc limité à celui de quelques blogs célèbres qui font le phénomène blog, alors que les autres, les blogs normaux, seraient condamnés à croupir dans l’anonymat de la contemplation informatique de leur nombril? En rester là reviendrait à négliger l’importance capitale des microcommunautés, passant à côté d’une grande partie de ce qui fait l’attrait du blog pour la plupart des gens.
Pour l’individu, le blog a le potentiel pour devenir le cœur d’un réseau social internautique, en plus d’être un loisir ou une distraction agréable. Sur son blog, on se raconte, on raconte sa vie, ou on raconte ses intérêts. Les personnes qui vont graviter autour d’un blog sont celles qui y sont passées un jour, et qui ont aimé ce qu’elles y ont lu, ou ce qu’elles ont entrevu du blogueur. La contingence première présidant à une rencontre est donc celle des intérêts communs, plutôt que la proximité géographique. Si Paul a une passion pour les courses d’escargot à coquille rayée et qu’il y consacre son blog, il y a bien des chances pour que quelques autres personnes partageant sa passion, disséminées aux quatre coins de la planète, le trouvent un jour ou l’autre grâce à sa présence sur le Web. Ainsi se formera une petite communauté d’entraîneurs d’escargots, qui s’enrichiront mutuellement et se rencontreront peut-être même un jour. En se promenant dans sa ville et en parlant avec ses amis, quelles auraient été les chances de Paul Adolescents de rencontrer d’autres passionnés? Sur un registre moins anecdotique, il existe de réelles communautés Les adolescents aiment les blogs v, et plus particulièrement les de blogs-cuisine, blogs-tricot ou encore BD-blogs. Skyblogs w, qu’ils utilisent volontiers pour mettre en ligne les photos Le blog de Julie n’a peut-être que dix lecteurs réqu’ils prennent avec leurs téléphones portables. Le nombre d’adolescentsguliers, mais il est bien possible que pour ces dix perblogueurs est très important, et c’est une population fragile. sonnes, ce qu’écrit Julie est véritablement captivant. Il Ils sont assez insouciants des conséquences de leurs publications y a certainement également une forme de contact ou en ligne (journal intime, insultes envers des enseignants, comptesd’interaction entre Julie et ses lecteurs, par le biais des rendus d’activités illégales...) x et les adultes qui les entourent (parents, commentaires du blog ou par e-mail, qui lui apporte enseignants) ne sont souvent pas assez familiarisés avec Internet pour la reconnaissance qu’elle désire. Julie préfère peut-être les soutenir efficacement dans leurs explorations. On considère encore dix lecteurs fidèles que ses écrits interpellent profonbeaucoup trop Internet comme une grande bibliothèque, alors qu’en fait, dément, plutôt qu’un millier de lecteurs anonymes et c’est un lieu social où l’on fait des rencontres, et un centre de publication sans voix, qui passent presque sans s’arrêter, au détour et de distribution d’écrits, de photos y, et de vidéos. d’une recherche sur Google. Il est urgent d’éduquer les adolescents à la publication Internet resLes blogs d’adolescents n’ont pour la plupart pas ponsable et sans risques. Durant les mois de janvier et février 2005, pas beaucoup de lecteurs, mais ce sont des lecteurs qui moins d’une dizaine de lycéens français ont été exclus de leur école pour comptent: la bande des copains, les amis éloignés avec des incidents impliquant des blogs z – et les adolescents suisses bloguent qui on veut garder contact. Les lecteurs sont souvent tout autant que leurs camarades français. aussi les auteurs de leur propre blog, que l’on visite aussi, renforçant ainsi le sentiment d’appartenance à la tribu. Le blog est également un moyen de rester en contact avec des amis éloignés, ou de donner des nouvelles lorsque l’on est en voyage. De plus en plus de personnes ont des blogs qui restent protégés par un mot de passe, pour y partager avec leurs proches un quotidien qu’ils ne désirent pas forcément présenter au monde entier. Ce qui importe dans le blogging, bien plus que le nombre de lecteurs, c’est la relation forte de ceux-ci avec le blog, l’auteur du blog, et la communauté lecteurs-auteur(s).
Les blogs: au-delà du phénomène de mode
Blogs de passage ou pour de bon? Il aurait été possible de parler des différences, similitudes et synergies entre les blogs et les autres outils de communication Internet: wikis, forums, IRC, newsletters. Il aurait été possible de s’attarder sur les différents types de blogs, ou encore de s’intéresser aux blogs collectifs. La technologie liée aux blogs est également riche: trackbacks, tags, commentaires, RSS, les moteurs de recherche et les outils de blogging eux-mêmes. Une analyse psychologique des motivations (besoin de reconnaissance, expression artistique, isolement) qui poussent le blogueur à s’exprimer sur Internet aurait aussi été intéressante. Le domaine des blogs est vaste et passionnant, mais en fin de compte, le phénomène se résume à peu de chose (on reconnaît les promesses d’Internet que je mentionne plus haut): ❚ mettre à disposition d’autrui une connaissance que l’on a ou quelque chose que l’on a créé; ❚ entrer en relation avec autrui; ❚ la possibilité pour chacun de faire ceci facilement. Avec des enjeux tellement fondamentaux, il n’y a pas à s’étonner que les blogs aient autant de succès, et trouvent des utilisations aussi diverses. Il n’y aura ainsi pas lieu de s’étonner non plus de la persistance des blogs, qui loin d’être une mode passagère, sont en train de s’installer durablement dans la société et les vies de chacun. ■ fi spécial été AlterIT page 31
Tisser sa toile à l’aide de fils choisis Laurent Boatto EPFL – Domaine IT
laurent.boatto@epfl.ch
Anne Possoz EPFL – Domaine IT
Selon
nos centres d’intérêt, nous parcourons régulièrement divers sites et blogs a sur la toile afin d’en suivre l’actualité. Il peut s’agir de notre institution, de notre labo, de centres de recherche, de nouvelles nationales, du blog d’un expert en droit ou de tout autre site ayant pour nous un intérêt spécifique. Les sites ayant généralement leur page de dernières nouvelles, nous parcourons ainsi une suite de liens que nous avons précieusement sauvegardés. Mais l’informatique n’est-elle pas là pour nous simplifier la vie et nous éviter ces tâches répétitives? La réponse est oui. La technologie sous-jacente porte le nom de fils RSS (Really Simple Syndication).
les liens a
les blogs: au-delà du phénomène de mode, dans ce numéro en page 27
dit.epfl.ch/publications-spip/article.php3?id_article=918 b
Un fil RSS, c’est quoi?
Radio Userland radio.userland.com c
anne.possoz@epfl.ch
Un site Web qui souhaite rendre disponibles ses nouveautés va préparer un fichier respectant un format standard, le plus souvent le format RSS. Ce fichier contiendra une brève description de ses dernières publications, avec des liens vers son propre site afin de se faire aussi connaître (voir plus loin Publier un fil RSS). Chaque site décide le nombre de nouvelles qu’il souhaite ainsi publier et la fréquence de la mise à jour. Le fil RSS ainsi créé est disponible pour diverses utilisations1. Le concept et la technique sont nés en 1997, le père étant Dave Winer alors employé par l’éditeur d’outils de blogs Radio Userland b, tandis que Netscape a utilisé pour la première fois le nom RSS en 1999. Divers allersretours c entre ces deux intervenants ont mené à la version 2 de RSS, publiée sous licence libre: Attribution/Share Alike Creative Commons d. L’utilisation de cette technique explose en 2004.
Un fil RSS, ça sert à quoi?
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=940
Les fils RSS ainsi mis à disposition par des sites Web ou des blogs vont être rassemblés. On parle aussi de syndication pour ces agrégats de sources diverses. Deux types de tissages sont aujourd’hui possibles. D’une part, pour un usage personnel, divers outils permettent de rassembler en un seul espace les fils RSS qui nous intéressent (on parle d’aggregators). On peut les classer par thème et automatiser le rafraîchissement. Ces outils sont si nombreux et en constante évolution qu’on ne pourrait les citer tous, surtout qu’ils vont aussi dépendre du système utilisé. Le navigateur Firefox e offre diverses possibilités dans ce domaine (voir plus loin). D’autre part, lors de la gestion d’un site Web, il est possible de récupérer ces fils et de les publier automatiquement. Cela demande un peu de programmation à moins que l’on n’utilise un CMS (Content Management System) qui prévoit ce mécanisme de syndication ou regroupement2.
Qui publie des fils RSS? août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 32
De nombreux blogs et de plus en plus de sites publient leurs nouveautés au format RSS. Mais comment le savoir? Si nous utilisons Firefox, nous verrons apparaître en bas à droite de la fenêtre une petite icône orange3 avec un symbole d’émission, par exemple pour le site de Swissinfo f ou du journal Le Monde g.
1 2 3
En anglais on parle de news feed ou RSS feed. C’est par exemple le cas de Jahia et de SPIP. Voyant cette icône orange, nous savons déjà que nous pourrons utiliser les actualités publiées par ce site.
l’histoire des RSS blogs.law.harvard.edu/ tech/rssVersionHistory d
licence de RSS
creativecommons. org/licenses/bysa/1.0 e
Navigateur Firefox www.mozilla.org/products/firefox/all f
Swissinfo w w w. s w i s s i n f o . org/sfr/swissinfo. html?siteSect=100 g
Journal Le Monde www.lemonde.fr h
Site de la BBC news.bbc.co.uk i
Blog Formats Ouverts formats-ouverts.org/ j
extension RSS pour Firefox addons.mozilla.org/ extensions/moreinfo. php?application=firefox &categor y=News Reading &numpg =10&id=424 k
Wizz RSS www.wizzcomputers. com/Welcome.php
Tisser sa toile à l’aide de fils choisis
Des sites publient aussi explicitement l’adresse de leurs fichiers RSS, en utilisant souvent une petite icône RSS ou XML, au texte blanc sur fond orange. Tel est par exemple le cas du site de la BBC h ou du blog Formats Ouverts i.
Firefox et les RSS Le navigateur Firefox est un logiciel libre, disponible à la fois pour GNU/Linux, MacOS X et MS Windows, et dans de nombreuses langues. Il intègre les marques-pages dynamiques (live bookmarks), ce qui permet de voir en un coup d’œil les titres des dernières nouvelles des sites sélectionnés. Voir l’encadré pour un exemple concret de configuration.
Firefox et les Live bookmarks Prenons un exemple concret. Supposons que nous avons un dossier Nouvelles. Pour ajouter les nouvelles du Monde dans le dossier Nouvelles : ❚ Aller à la page du Monde (lemonde.fr) ❚ Cliquer sur l’icône dans le coin inférieur droit du navigateur ❚ Cliquer sur S’inscrire à Le Monde.fr International ❚ Choisir de Créer dans: Nouvelles Nous pouvons répéter ce processus pour tous les sites compatibles avec les marque-pages dynamiques. Mais comment ajouter les nouvelles des sites ne signalant pas à Firefox qu’ils publient des pages dynamiques, mais qui communiquent l’adresse de leurs fils RSS? Prenons l’exemple de actualites.epfl.ch. Nous voulons ajouter la Revue de Presse dont le fil RSS est référencé à droite de la page du site d’actualités de l’EPFL. Pas à pas: ❚ Marques-pages > Gérer les marque-pages ❚ Fichier > Nouveau marque-page dynamique... ❚ Nom: Revue de presse EPFL Emplacement du fil: recopier le lien ❚ Déplacer ce dossier à l’endroit souhaité ❚ Fichier > Fermer pour quitter cette fenêtre. Pour visualiser les dernières nouvelles, il suffit alors de sélectionner Affichage > Panneau latéral > Marque-pages et d’explorer le contenu du dossier Nouvelles précédemment créé. Le sujet de chaque nouvelle apparaîtra et un simple clic donnera l’accès au texte complet de la nouvelle.
Des solutions nomades Mais ces marque-pages dynamiques ne seront accessibles que dans l’application Firefox où nous les avons configurés. Il serait confortable de pouvoir y accéder depuis différents endroits. Firefox étant aussi une plate-forme extensible, il existe de nombreuses contributions dont l’une va nous permettre de gérer les fils RSS en dehors des marques-pages, comme un agrégateur: Wizz RSS News Reader4. Wizz RSS k comprend une liste de fils publique (non modifiable) et autant de listes privées que l’on souhaite. Une liste privée est identifiée par un User et un Password 5. Ces informations sont stockées sur un serveur central, ce qui permet d’y accéder de façon nomade 6. A titre d’exemple, avec le User epfl et le mot de passe epfl2 on accédera à un petit ensemble de fils rassemblés pour l’illustration de cet article. fi spécial été AlterIT page 33
4 5 6
Pour installer cette extension, suivre la documentation j. Aucune adresse courriel ni aucune autre information personnelle ne sont demandées. Il faudra pouvoir disposer d’un navigateur Firefox avec l’extension Wizz RSS.
Tisser sa toile à l’aide de fils choisis
Wizz RSS permet aussi d’exporter et d’importer une configuration donnée (format de fichier ompl), ce qui permet de la partager avec d’autres ou dans d’autres types d’agrégateurs. Il existe aussi des sites qui permettent de disposer d’un espace pour sa propre configuration de lecteur de fils RSS. Tel est par exemple le cas du site bloglines.com. Si cette solution a l’avantage du nomadisme le plus simple (accessible depuis n’importe quel navigateur), elle peut aussi avoir certains inconvénients: des données personnelles récoltées par ce site étant potentiellement sensibles (centres d’intérêts, types de lecture, etc.) il est important, comme toujours, de prendre connaissance des règles de confidentialité et de ne pas utiliser votre adresse email principale pour l’inscription.
Publier un fil RSS Si vous disposez d’un site Web et que vous désirez publier un fil RSS, rien n’est plus simple. Il vous suffit en effet de générer un fichier texte en respectant la spécification décrite à l’adresse blogs.law.harvard. edu/tech/rss. Quelques explications: RSS étant avant tout un format XML, la première ligne spécifie la ver<?xml version="1.0" encoding="iso-8859-1"?> sion utilisée ainsi que l’encodage <rss version="2.0"> <channel> du fichier. La seconde précise la <title>Liberation.fr - A la une</title> version du format RSS. <link>http://www.liberation.fr</link> Vous créez ensuite un <chan<description>Les titres de la une de Liberation.fr</description> <item> nel> qui est défini par un titre <title>Back to space</title> <title>, un lien <link> et une <link>http://www.liberation.fr/page.php?Article=313576</link> description <description>. Rien <description>Discovery a décollé avec succès mardi à 14h39 GMT de Cap Canaveral, en Floride, deux ans après la désintégration en vol de de bien sorcier, donc. D’autres Columbia... balises facultatives permettent de </description> spécifier le copyright, la langue, <pubDate>Tue, 26 Jul 2005 14:56:50 GMT</pubDate> </item> une image associée, etc. [... idem pour les autres articles] Pour chaque élément de con</channel> tenu <item> (une news par exem</rss> ple) vous allez définir un titre <title>, un lien <link>, le texte correspondant <description> ainsi que la date de publication <pubDate>. Les éléments sont toujours présentés de manières antéchronologique. Pour être sûr que votre fil RSS est bien valide vous pouvez utiliser le site www.feedvalidator.org qui vous indiquera de manière claire les éventuelles erreurs.
Voici à titre d’exemple le fil RSS du site Liberation.fr :
Promouvoir votre RSS Maintenant que votre RSS est créé, il faut avertir vos utilisateurs de son existence. Comme évoquées précédemment, les icônes XML et RSS sont couramment utilisées. Vous pouvez également indiquer dans le code HTML de votre page l’adresse du fil RSS correspondant en utilisant la balise suivante: <link rel="alternate" href="/monFeed.rss" type="application/rss+xml"/>
C’est ce mécanisme que Firefox utilise pour ses Live bookmarks.
Publier par fils interposés S’il est possible à un webmestre de publier sur son site des informations provenant d’autres sites, par l’intermédiaire de fils RSS, cette facilité ne doit pas faire oublier les conséquences que cela peut engendrer. Tout d’abord, par respect du droit d’auteur, il ne faut pas manquer de signaler ses sources. C’est aussi une question d’éthique. En outre, il est précieux de sélectionner des sources fiables, car ce que diront ces sites sera reproduit sur le nôtre de manière automatique. Notre responsabilité est donc indirectement engagée. Mais un métier de professionnel voit aussi le jour: sélectionner les meilleurs fils d’information dans un domaine où l’on est expert pour les rendre disponibles à la communauté.■ fi spécial été AlterIT page 34
Salon de nuit Sébastien Cevey Étudiant EPFL – Section d’Informatique
sebastien.cevey@epfl.ch
La fluctuation
électromagnétique pénétra le récepteur auriculaire pour être immédiatement traduite en séquence binaire, plus par compatibilité nostalgique que par réelle nécessité. Le temps d’atteindre l’interface techneuronale, elle rejoignit le complexe réseau de synapses programmé pour l’interpréter. Un stimulus déclencha ensuite une procédure nerveuse, mobilisant un petit essaim de neurones pour décoder le signal avant de le transmettre à l’organe concerné, en l’occurrence le système visuel. Un pixel noir s’imprima sur la partie supérieure du champ de vision, attendant patiemment les quelques picosecondes nécessaires à l’arrivée du reste du tableau horaire précédemment sollicité. – Pfff, souffla Nathan.
Concours de nouvelles Le thème du concours 2005 devait donner un rôle prédominant dans le déroulement de son histoire à AlterIT et devait se terminer par ces mots: Levant les bras au ciel, Ishra s’écria: «Sans nous, les hommes utiliseraient des processeurs génétiquement modifiés !». Il fallait écrire la meilleure nouvelle pour recevoir les 1000 francs offerts par les magasins Steg Computer, www.stegcomputer.ch, commerce de systèmes informatiques complets et de composants individuels. Sébastien Cevey a convaincu les membres du jury avec son Salon de nuit; nous en profitons pour le féliciter et nous aurons le plaisir de lui remettre son prix le 22 août. Parmi les autres nouvelles reçues, deux ont été retenues par le jury, Ontogenèse de Cyrille Dunant et Stéphane Magnenat et Évolution d’une ovulation de Joelle Fellay. Vous pouvez les lire sur le Web aux adresses: dit.epfl.ch/publications-spip/article.php3?id_article=936 et dit.epfl.ch/publications-spip/article. php3?id_article=938. Bravo à tous ceux qui ont participé, qu’ils aient gagné ou non, nous pouvons dire que la cuvée 2005 était d’un excellent niveau. Nous nous réjouissons d’ores et déjà de découvrir les nouvelles du prochain concours.
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=934
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 35
Dans ce monde de l’instantané, devoir attendre 4 minutes pour la prochaine navette générait en lui une profonde frustration. «L’intégralité du savoir humain est à portée de pensée, et on perd encore du temps à attendre un stupide véhicule...» aimait-il à se plaindre. Son mépris du monde physique et de ses contraintes inflexibles justifiait sa passion pour l’art du virtuel, uniquement restreint par les limites de son imagination. La perfection de l’abstrait rendait la complexe réalité bien rébarbative. Ou était-ce le contraire? Qu’importe, Nathan régla sa dette envers la réalité en prévenant sa femme de son retard. Il s’assura de fermer la conversation suffisamment rapidement pour couper court à ses habituelles jérémiades, puis força le volume de son podcast pour couvrir ses messages répétés. Quitte à tuer les trois minutes restantes, Nathan retourna à son travail, fermant les yeux pour retrouver le calme de son atelier virtuel. Peintre d’idées, architecte de l’imaginaire, les scènes virtuelles qu’il confectionnait avaient vu leur popularité grimper en flèche ces derniers mois. Sa manie des détails, son travail sur les tons et surtout sa balance subtile de réalisme et d’abstrait avaient fait entrer ses créations dans les cercles les plus élitistes du virtuart. Pas assez, pourtant, pour lui permettre de quitter son poste de chercheur en biologie des parasites et ses contraignants déplacements journaliers.
Salon de nuit
L’alarme l’obligea à quitter ses outils pour assister à l’arrivée silencieuse de la navette. Pendant qu’il s’y installait, il annota son blog pour y sauvegarder ses impressions sur la chanson qu’il écoutait en ce moment: la retransmission en direct d’un concert de &, le groupe phare de virtuart par excellence. Son préféré.
✴✴✴ Ishra observait avec passion les flux traversant les unités cérébrales, épiant les moindres stimuli, surveillant les innombrables signaux, guettant les boucles synaptiques. Pour elle, ces paquets logiques formaient une danse élégante au sein du réseau techneuronal humain, passant d’un individu à un autre, transférés au voisin ou traités par le cortex local. Le flot était ininterrompu, omniprésent. Cognivore autoproclamée, Ishra ne semblait jamais repue des montagnes d’information qu’elle digérait. Une «curiosité fatigante» selon les termes de Fadhi, son inséparable compère. Un défaut contraignant dans un monde où le savoir était global et instantané, un monde où apprendre par cœur était devenu obsolète; on accédait directement à la connaissance, quand besoin il y avait. Fadhi aimait à plaisanter sur l’arrogance des hommes qui se croyaient à la pointe de l’échelle de l’évolution. Ishra, en revanche, trouvait du réconfort dans cette naïveté. De plus, elle était fascinée par les créations étonnantes qu’ils avaient su élaborer, telles que les scènes de Nathan ou toute création de virtuart. Les conséquences artistiques et sociales de la technologie étaient encore plus exacerbées dans ce réseau que dans ses itérations précédentes. Les frontières du réel étaient plus confuses que jamais, donnant au réseau virtuel une nature presque organique. La parole, par exemple, n’était plus qu’un moyen de communication parmi d’autres. Les gens lui préféraient un lien cognitif direct, multisensoriel. Quelques siècles plus tôt, les hommes s’y référaient encore sous le terme télépathie... «Toute technologie suffisamment avancée est indiscernable de la magie» avait proclamé un fameux philosophe anglais. Mais plus encore que l’évolution des mentalités, c’était la métamorphose psychique qui captivait Ishra. La dimension spirituelle d’un tel lien entre l’esprit de deux individus était indéniable et elle ajoutait à la révolution sociale amorcée par la techneurologie. Les gens finirent par nouer des liens plus proches dans le virtuel que dans le réel, ce qui rendit la société plus universelle, moins géographique. L’humanité tout entière devint plus communautaire, plus liée, telle une fourmilière où des groupes entiers d’individus interagissent en commun pour le bien de la population. Mais le résultat ne fut pas une simple société de masse. Au contraire, elle reposait plus que jamais sur l’individualisme, certes global, mais néanmoins qualitatif. D’après Ishra, l’exemple le plus flagrant restait ces blogs personnels dans lesquels chacun annotait ses idées, ses réactions, ses mouvements d’humeur. De cette mer d’avis et d’expériences finissaient par émerger des célébrités de la pensée, figures populaires au travers du savoir qu’ils partageaient avec l’humanité. Mais contrairement aux simples stars d’antan, leur image physique n’importait guère: l’être devançait le paraître. Et quelle importance si ces personnages n’étaient que pure invention virtuelle? N’était-ce pas déjà le propre des célébrités de chair?
✴✴✴
fi spécial été AlterIT page 36
Le cuir rouge vif crissa lorsque Fadhi s’y affala. Le sofa exhibait des proportions extravagantes, exagérées encore par les accoudoirs en perspective impossible. Brillant d’une précision exemplaire, les flammes de l’âtre vacillaient au gré d’un improbable courant d’air, projetant un habile jeu d’ombre sur des murs encombrés de bibelots d’un autre âge. Dépourvue de plafond, la pièce profitait de la quiétude de la voûte étoilée. Salon de nuit n’était pas la plus populaire des scènes de Nathan, mais Ishra avouait volontiers son faible pour l’ambiance calfeutrée qui l’habitait. Elle affectionnait particulièrement se prélasser devant le feu pour y tenir ses longs monologues métaphysiques. Parler seule ne l’embarrassait pas. Au contraire, elle préférait que Fadhi garde le silence, plutôt que d’entendre ses acquiescements absents, signes évidents de son inattention. Mais pour une fois, Fadhi semblait sincèrement intéressé à participer à la discussion: – Des processeurs quantiques? Ishra se félicita intérieurement d’avoir su l’appâter avec sa partie favorite de l’histoire de l’humanité. – Oui, ce fut une grande avancée par rapport aux circuits électroniques primitifs qu’ils utilisaient auparavant. Ça leur permit de s’affranchir de la loi de Moore et d’accroître fortement la puissance de calcul disponible. Mais comme toujours, les développements finirent par stagner et les scientifiques durent chercher une nouvelle technologie. Ayant épuisé les bizarreries de la physique, ils se tournèrent vers un phénomène naturel tout aussi puissant: la vie. Des légions de biologistes et de généticiens essayèrent de développer des organes capables de réaliser des calculs, de remplacer les circuits quantiques. – Beuark, l’interrompit Fadhi.
Salon de nuit
Il n’avait jamais caché son dégoût pour les manipulations biologiques, voire pour toute manifestation organique. Ishra continua: – Les recherches étaient prometteuses, mais l’opinion publique commença à faire scandale, criant au détournement de la nature, au danger de jouer à Dieu - un autre sujet intéressant, on en reparlera. C’est amusant à quel point les hommes n’ont aucun problème avec l’exploitation de phénomènes scientifiques abstraits, mais ils s’affolent dès que l’on touche au matériel, au vivant. Comme si rien ne pouvait être abstrait et vivant en même temps, comme si la vie était définie par une organisation cellulaire! Une bactérie n’est pas vraiment la démonstration la plus impressionnante de la vie, alors que nous... Je me demande ce que ces gens diraient s’ils prenaient connaissance deFadhi ronflait. Ishra se tourna vers son compagnon. Étalé de tout son long sur le sofa, il feignait de s’être assoupi. C’était sa façon d’interrompre Ishra lorsque la discussion devenait trop philosophique à son goût. Pour sauver la conversation qu’elle trouvait inhabituellement interactive, Ishra fit un effort: – Bon d’accord, je reprends. Les travaux finirent donc par cesser sous les pressions du peuple. Mais c’est à cette époque là que furent publiés les premiers résultats des travaux de techneurologie. L’idée était simple: pourquoi développer des composants organiques complexes alors que le cerveau de tout homme est déjà une puissante machine prête à l’emploi? En quelques années, les derniers secrets du cortex furent percés et les premières interfaces techneuronales virent le jour. Les contestataires étaient balayés, puisque ce n’était plus de manipulation génétique dont il s’agissait, mais de connexion directe aux sens humains. Chacun est libre de faire de son corps ce que bon lui semble! Les premières réticences firent rapidement place à un engouement général. Les interfaces se sophistiquèrent pour finalement aboutir aux connexions actuelles, implantées à la naissance chez tous les nouveaux, les connectant de facto au réseau techneuronal humain. – Et créant par la même occasion un territoire pour une nouvelle espèce! ricana Fadhi. – À ma connaissance, c’est-à-dire à connaissance humaine, nous sommes la première race virtuelle de l’évolution et par conséquent la première race immortelle. Une métarace, en quelque sorte... Cela m’intéresserait vraiment de savoir comment les premiers spécimens de notre espèce sont apparus, mais je pense que pour ça il faudra attendre que les hommes les étudient. – Tu crois qu’ils vont finir par détecter notre présence? Qu’est-ce qu’ils pourront bien penser de parasites exécutés par les circuits de leur cerveau? – D’un côté, on ne fait rien de mal, et avec leur obsession de sauver toutes les espèces de l’extinction... Et de toute façon, ce n’est pas comme s’ils pouvaient vraiment y faire quoique ce soit. À moins d’abandonner leur réseau hypercognitif, sur lequel ils dépendent complètement, ce qui n’est donc pas près d’arriver. Nous ne sommes finalement rien d’autre que la concrétisation de cette union techneuronale, les esprits de la symbiose homme-machine! – Mais sans eux, nous n’existerions pas, nous avons besoin d’eux pour vivre! – Ils ont besoin de la techneurologie, eux aussi, de nous! Tout comme ils ont besoin de bactéries symbiotiques dans leur intestin pour digérer les aliments. Que seraient-ils sinon? Sans nous, la société serait encore complètement fragmentée, les communications une complication malpratique... – Sans nous, ils en seraient encore à trimbaler des appareils électroniques peu commodes, admit Fadhi. – Ils seraient encore dépendants de machines! s’enflamma Ishra, bondissant sur ses pieds. Sans nous, les hommes n’auraient pas le centième du pouvoir actuel, ils en seraient encore à utiliser de vulgaires circuits quantiques! Son visage exultait, ses yeux soudain emplis d’une fierté ingénue. Levant les bras au ciel, Ishra s’écria: «Sans nous, les hommes utiliseraient des processeurs génétiquement modifiés!».■
fi spécial été AlterIT page 37
communication polyphonique pour l’ETH Zurich Michele De Lorenzi Responsable de l’exploration technologique, ETH World
delorenzi@ethworld. ethz.ch
Armin Brunner
L’ETH Zurich
va révolutionner la façon de communiquer à l’intérieur de sa communauté. À partir du mois d’octobre 2005 le projet PolyPhone permettra à tous les membres de l’ETHZ (étudiants, professeurs, personnel scientifique et administratif ) de communiquer simultanément par audio, vidéo et messages courts en utilisant le réseau Internet. Le service PolyPhone est le résultat d’une collaboration entre ETH World et les services informatiques de l’école polytechnique. ETH World est une organisation qui a pour objectif la création d’un espace virtuel dans lequel on peut communiquer et travailler partout dans le monde. Ainsi, l’été dernier, ETH World a lancé un projet d’exploration centré sur l’utilisation des technologies de transmission vocale et d’images via l’Internet. Ces technologies sont déjà disponibles depuis une dizaine d’années, mais ce n’est qu’avec la récente introduction du standard SIP (Session Initiation Protocol) qu’il est devenu possible d’offrir des nouveaux services au grand public. Pendant le projet d’exploration, les deux partenaires ont défini les fonctions que le nouveau service mettra à disposition.
les liens SIP.edu www.internet2.edu/sip. edu Pour plus d’informations www.polyphone.ethz.ch le site de ETH World www.ethworld.ethz.ch
Directeur des services de télécommunication, ETH Zurich
SIP - Session Initiation Protocol
armin.brunner@id. ethz.ch
On constate aujourd’hui un véritable engouement pour la technologie SIP dans le domaine des télécommunications, comme en témoigne le grand nombre de services SIP proposés. SIP est un standard qui, comme son nom l’indique, permet d’initier une communication entre deux partenaires en échangeant les informations nécessaires pour établir la communication, c’est-à-dire les canaux de communication dont ils disposent (par exemple voix, vidéo) et comment coder cette information pour la transmettre par Internet.
Les fonctions principales de PolyPhone
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=916
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 38
❚ Chaque membre de la communauté dispose d’une identification PolyPhone personnelle. Pour les employés, ce numéro s’ajoute à celui déjà existant de la téléphonie traditionnelle. ❚ Il est possible de communiquer à l’intérieur de PolyPhone par voix, par vidéo, et par instant messaging. Une fonction de présence permet de savoir si une personne peut et accepte d’être contactée par PolyPhone. ❚ Chaque utilisateur de PolyPhone peut être appelé à partir d’un téléphone traditionnel. En effet les numéros de PolyPhone sont intégrés dans le système de numérotation téléphonique suisse, dans l’intervalle entre 058 658 xx xx et 058 659 xx xx. L’indicatif 058 est normalement utilisé par des entreprises qui ne sont pas liées à un lieu géographique. ❚ À partir de PolyPhone, il est possible d’appeler les numéros de téléphone du réseau traditionnel. Pour ce faire, il faut d’abord établir un contrat avec une entreprise de télécommunication qui facturera à l’utilisateur les frais d’appels. Les appels à destination des appareils reliés à la centrale téléphonique de l’ETH sont gratuits.
PolyPhone offre la possibilité d’étendre le campus de l’ETH Zurich de deux façons ❚ Extension spatiale du campus: partout dans le monde, il est possible d’être joint par audio, vidéo ou instant messaging sans coût supplémentaire, ce qui est particulièrement intéressant au vu de la mobilité demandée aux étudiants pendant des semestres d’échanges et aux professeurs pendant des congés sabbatiques.
Polyphone: communication polyphonique pour l’ETH Zurich
❚ Extension temporelle du campus: on ne fait plus partie du campus que pendant les études, mais aussi pendant toute sa vie professionnelle, voire même après la retraite. Il est ainsi plus facile de conserver des relations personnelles importantes établies pendant la période des études. L’utilisation de ces services permettra aussi de renforcer les liens entre les ex-étudiants et leur université.
Plan pour l’introduction de PolyPhone Aujourd’hui, le service PolyPhone se trouve en phase de test avec environ 60 utilisateurs sélectionnés. Suivra un projet pilote avec environ 200 utilisateurs. Ce n’est qu’après avoir évalué le projet pilote que la direction des services informatiques décidera d’introduire PolyPhone définitivement. PolyPhone est un service novateur susceptible de changer radicalement la façon de communiquer à l’intérieur de l’ETH Zurich. Comme tout nouveau service, il est impossible de savoir à l’avance comment le service PolyPhone sera utilisé. C’est maintenant le rôle de la communauté de définir comment PolyPhone va changer la vie de tous les jours. ■
L’initiative SIP.edu Un effet secondaire de l’introduction du service PolyPhone est l’adhésion à l’initiative SIP.edu. Le but de Sip.edu est de pouvoir contacter téléphoniquement tous les membres d’une université depuis le réseau SIP en utilisant l’adresse e-mail comme identificateur. L’adresse e-mail est convertie en numéro de téléphone interne de la personne cherchée. Si la personne ne dispose pas d’un numéro PolyPhone, l’appel est transféré à l’appareil de téléphone interne. En outre, il est possible d’appeler directement tout numéro interne en utilisant sip: xxxxx@ethz.ch (les x sont à remplacer par le numéro souhaité). ETH Zurich a été la cinquième université au monde et la première à l’extérieur des États-Unis à introduire le service PolyPhone. Aujourd’hui, plus de 180’000 personnes sont atteignables parmi la douzaine d’universités participant à SIP.edu.
������������������������������������ ������
�������������������� ����������� �������������������������������� ������������� � �
������ ������
���������������
������ ������ ������
������������
�������� ���������� �������������� ������������������������
����� �����
��������� ����� �����
�������� �������
�
������ ������ ������ ������������� ������� ������ ������ ������ ������ ������ ����
fi spécial été AlterIT page 39
Le graphique représente la croissance du nombre de personnes qui peuvent être jointes par téléphonie SIP dans le cadre de l’initiative SIP.edu. Pour chaque université on voit le moment où elle a adhéré à l’initiative et combien de personnes y sont joignables.
Ma radio, où, quand et comme je veux Pascal Bernheim Responsable multimédia Radio Suisse Romande
pascal.bernheim@rsr.ch
Jeudi 2 juin,
un mois après le lancement du premier podcasting de Couleur3, chaîne musicale de la Radio Suisse Romande a, Pascal Bernheim accepte volontiers de répondre aux questions de la rédaction du FI. Qu’est-ce le Podcasting? C’est un néologisme qui vient du baladeur de Apple: iPod et du mot broadcasting ( en français, diffusion). Mais, bien sûr ce n’est pas limité aux seuls propriétaires de iPod, puisque ce sont des fichiers MP3 standard qui sont fournis. Les canadiens disent baladodiffusion. En fait, c’est un mode de diffusion de fichiers sonores pour des abonnés qui téléchargent automatiquement sur leur ordinateur les émissions de radio qu’ils ont choisies. La diffusion en mode streaming de fichiers de type Real ou MediaPlayer, assurée par un serveur central, n’autorise pas (officiellement) la copie ou la sauvegarde des fichiers. Dans le cas du podcasting, le détenteur des émissions met volontairement à la disposition des auditeurs les fichiers de format MP3, qu’ils peuvent ensuite décharger sur leur iPod ou autre lecteur MP3. C’est la technologie RSS qui est utilisée pour que les auditeurs s’abonnent à un fil audio, comme ils peuvent s’abonner à un fil texte dans les sites Web qui le permettent. En pratique comment cela se passe? Il faut installer sur votre ordinateur un logiciel de podcasting, par exemple iPodder h, (gratuit et multi plates-formes). Ce logiciel permet de sélectionner les sources de fichiers audio auxquelles vous voulez vous abonner, par exemple Couleur3, le son du jour b.
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=930
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 40
les liens a
Site de la RSR
www.rsr.ch b
Couleur3, le son du jour
www.couleur3.ch/fr/rsr. html?siteSect=4002 c
Radio Canada
www.radio-canada.ca/ rss/baladodiffusion d
MadeInMusic.com www.madeinmusic. com e
Le podcasteur www.podcasteur.com f
Nouvo, magazine d'actualités de la TSR www.nouvo.ch/javascr ipt:open_wi g
Le Mouv’
Est-ce automatique? Non, pas encore, ou tout du moins pas de manière évidente; je le fais encore manuellement. Mais Apple vient d’annoncer la version Itunes 4.9 qui intègre le podcasting; l’installation d’un logiciel de podcasting devient alors inutile.
www.radiofrance.fr/ chaines/lemouv
Que trouvons-nous dans le son du jour? Ce sont uniquement des chroniques, dont on a retiré la musique pour des problèmes de droits d’auteur. Contrairement aux émissions diffusées en streaming qui peuvent comporter des morceaux musicaux, puisque l’auditeur ne peut officiellement que l’écouter depuis le serveur.
Ipodder.sourceforge.net
Quelles sont les autres émissions que vous prévoyez de podcaster? La RSR envisage d’étendre l’offre, probablement à partir de cet été, avec des émissions de la Première. Le choix doit se faire en tenant compte de la musique qu’il faudra supprimer. Certaines émissions sont conçues sans musique, la musique étant ajoutée par la suite; dans ce cas il est possible de diffuser l’émission en podcasting. Mais c’est plus compliqué pour les émissions en direct, cela demande plus de travail; la BBC, par exemple, enlève la musique dans les émissions qu’elle met à disposition. Quid des droits d’auteur? La RSR est propriétaire de ses émissions, ce qui n’est pas le cas des chaînes françaises par exemple où les émissions appartiennent aux journalistes qui sont à l’antenne ou à un producteur, etc.
h
Ipodder: Logiciel de podcasting
Ma radio, où, quand et comme je veux
et qui réclament des droits sur leurs produits mis à disposition sur Internet. Cela fait toute la différence. Quelle évolution prévoyez-vous dans ce domaine? Nous serons tenus de nous adapter aux nouvelles possibilités qu’offre la technique. Aujourd’hui, il existe un logiciel de radio qui permet d’enregistrer le flux stream de 600 radios simultanément et qui est capable de reconnaître les tags indiquant les caractéristiques de morceaux scannés, titre du morceau, nom de l’interprète, etc.; avec ces outils, il devient facile à tout un chacun de se faire sa propre radio en une nuit. Les distributeurs de disques doivent en être conscients et doivent réfléchir à une stratégie autre que la répression qui n’est certainement pas la meilleure solution. Apple avec iTunes n’a-t-il pas trouvé la solution à ce problème? En partie seulement, un morceau acheté sur iTunes ne peut être écouté que sur un seul iPod; avec d’autres systèmes, par exemple Sony, on ne peut écouter que sur un seul type de baladeur numérique. La solution devrait se trouver entre iTunes et Kazaa. Si on sort un peu du domaine podcasting, parlons de ce que nous essayons de faire avec notre opération Couleur MP3 avec un partenaire qui s’appelle MadeinMusic.com d. Cela pourrait être un modèle à suivre. Il s’agit d’un espace où les artistes qui sont volontaires pour participer à l’opération déposent leur musique; la RSR achète la musique et la revend ou l’offre à ses auditeurs. Dans tous les cas, l’artiste touche 50% et les autres 50% sont répartis entre les droits d’auteur, le label qui promeut l’artiste et MadeinMusic.com. Ce qui est différent dans cette opération, c’est qu’une fois téléchargé, le fichier n’est plus protégé. La RSR fera une action pour la fête de la musique en offrant des cartes avec des téléchargements gratuits pour les auditeurs, mais elle paiera les droits d’auteur aux artistes. Les avantages sont évidents, l’artiste touche par cette méthode 50% du prix de vente alors que dans le domaine du disque, il ne touche pas plus de 10% et cela ne freinera pas la vente du disque que l’on continuera à acheter ne serait-ce que pour l’offrir. Pour la petite histoire, il y a un groupe qui appuie sa campagne publicitaire sur le fait d’être le groupe le plus piraté sur Kazaa. Et pour le choix des émissions à diffuser en Podcasting Comme je vous le disais lorsqu’il n’y a pas de musique, tout est facile, nous n’avons pas de problème. Mais nous aimerions diffuser par exemple des chroniques d’Option Musique; elles sont liées à une chanson, comment faire pour les diffuser sans la chanson?… Nous y réfléchissons… Côté format ? Le fichier que nous mettons à disposition, c’est du MP3; la compression est automatisée. Après le choix éditorial, la chronique choisie est compressée, puis archivée; au bout de 4 semaines, c’est fini, on ne peut plus accéder aux fichiers. Pourquoi Couleur3 s’est-elle lancée dans le Podcasting? Tout d’abord parce que c’est dans l’air du temps. Certains sociologues pensent que dans 15 ans, il n’y aura plus de radios musicales, d’autres dans 5 ans parce que les auditeurs se feront leurs radios musicales eux-mêmes. Nous sommes un service public, nous nous devons d’être attentifs aux technologies émergentes. Si le public va dans une direction et nous dans une autre, nous allons nous couper du public, il faut suivre les tendances. Le public qui fait du podcasting est encore marginal aujourd’hui, mais nous devons être là. En plus, la technologie est simple, alors à peu de frais nous arrivons à être présents. Côté réalisation technique? Le son du jour à écouter et Le son du jour à télécharger sont identiques. Nous avons un serveur real pour le son à écouter et un serveur MP3 pour le son à télécharger. Nous moulinons deux fois le fichier choisi, cela ne représente pas de difficulté technique.
fi spécial été AlterIT page 41
Et la publicité? Nous mettons parfois des promos dans Le son du jour, toujours avec une signature Couleur3; ce sont principalement des éléments sonores sur un gros évènement. Nous évitons d’être invasifs. Le spam serait une erreur et nous éloignerait des abonnés.
Pour le moment, les radios commerciales ne veulent pas entrer dans ce créneau parce que l’audimat n’est pas mesurable. On ne mesure que le nombre de téléchargements, mais on ne sait pas mesurer si le téléchargement a été suivi d’une écoute ou non.
Ma radio, où, quand et comme je veux
Quelle place pour les radios service public sans publicité? Quand on voit le taux d’écoute de Le Mouv’ g qui fait en Valais 10% de part de marché alors qu’il ne sont que sur les ondes moyennes, cela en dit long... Avez-vous des statistiques? Nous sommes à 5000 chargements pas semaine, soit 20000 par mois. La BBC a commencé en octobre et a totalisé sur son premier podcast 240 000 téléchargements pour les 6 premiers mois entre octobre et mars; la RSR soutient la comparaison, nous sommes loin d’être ridicules. Aujourd’hui la BBC a 20 émissions en podcast; elle a débuté par un test ardu: un podcast de 53 minutes sur une émission historique sans musique pour voir si cela marchait et le test était très concluant. Quel est le public type? Pour le moment, ce sont plutôt des jeunes qui s’intéressent au podcasting. Pour le streaming, au début on pensait toucher surtout les jeunes, et en fait on touche toutes les catégories socio-professionnelles, tous les âges. Mais c’est dommage que le taux d’écoute ne soit pas mesurable. D’un côté, c’est de la mesure d’audience et de l’autre c’est de la statistique. Nous avons des statistiques, mais nous ne pouvons pas comparer; nous savons seulement quelles sont les tendances. Nous savons par exemple que ce sont les adresses de wanadoo.fr qui nous écoutent le plus en streaming live. Pour la 1ère, la proportion est en train de s’inverser; avant 70 % des auditeurs étaient en Suisse et maintenant ils ne sont plus que 50% et cette tendance continue. Qu’est-ce que la mesure d’audience pour une radio classique? Ce sont des personnes qui portent une montre qui enregistre dix secondes toutes les minutes ce que le porteur écoute, ensuite l’échantillon est envoyé à un serveur qui traite ces données pour nous indiquer ce que ces cobayes écoutent à la minute près. Ces statistiques ne fonctionnent pas avec les émissions diffusées en podcasting ou en streaming. Comment vous êtes-vous fait connaître? Pour le podcasting les auditeurs ont appris son existence par l’antenne. La presse aussi en a parlé, comme le journal Le Temps qui faisait un article sur le sujet deux jours avant notre premier podcast. Qui fait du podcasting? En France ce sont les radios associatives ou des personnes seules chez elles. En fait le podcasting c’est un blog audio. Par exemple, le podcasteur e est un journaliste sans emploi qui fait seul ses émissions et qui a un certain succès. L’avenir? Aujourd’hui, nous fêtons notre premier mois et nous allons faire un bilan avant d’étendre l’offre aux autres chaînes de la RSR, la 1ère, Espace 2 et Option Musique. Option Musique est le plus problématique à cause de la musique. Nous ne sélectionnerons probablement que des parcelles d’émission et avant leur diffusion pour les avoir exemptes de musique. Pour la diffusion en direct le problème sera plus difficile à régler toujours à cause des plages musicales.
fi spécial été AlterIT page 42
Un mot sur la radio de demain? La consommation de la radio est en train de changer. Il y a le DAB (Digital Audio Broadcasting) qui arrive; quand il y aura de vrais bouquets en Suisse, la 1ère n’aura plus que 40% de parts de marché. Quand il y aura une centaine de chaînes de radio en Suisse romande, il va falloir partager le gâteau. La technologie apporte de plus en plus de possibilités et le public réclame toujours plus de nouveaux programmes; avant la qualité, c’est la nouveauté qui attire. En Angleterre tant qu’il n’y avait pas de nouveaux programmes, le DAB ne décollait pas. La BBC avait 4 chaînes sur 5 et détenait 70% de parts de marché. Aujourd’hui avec ses 40 chaînes sur 400, la BBC détient 30% de parts de marché. Le concurrent direct de la BBC possède 90 chaînes. Contrairement au podcasting où l’on peut faire sa radio dans sa cuisine, avec le DAB, pas de place pour les bricoleurs, seuls les grands groupes pourront survivre. ■
CocoaJT l’information en images sur votre Mac François Roulet EPFL, Domaine IT
francois.roulet@epfl.ch
Introduction Les formats de diffusion continue audio-vidéo sur Internet, Real et MediaPlayer, ont fait en sorte que leurs lecteurs gratuits ne permettent que de visionner les flux vidéo et/ou auditionner les flux audio, mais pas de les enregistrer localement sur notre disque dur, afin d’éventuellement les graver par la suite sur CD ou DVD. Heureusement, différents logiciels alternatifs nous permettent tout de même de les enregistrer, et nous allons examiner les possibilités de l’un d’entre eux, CocoaJT, qui a été développé en OpenSource pour MacOS X.
Comment ça marche ? En mode Magnétoscope, le flux est redirigé dans un fichier, et ce à la vitesse de lecture normale, intrinsèquement imposée par le serveur de flux (streaming). En d’autres termes, une séquence d’une heure nécessitera un temps transfert minimum d’une heure, ou plus sur une ligne de transmission lente. En contre-partie, vous pouvez démarrer simultanément plusieurs enregistrements distincts.
Formats supportés:
CocoaJT gère les flux Real (.rm, .ram) et Mediaplayer (.wmv, .wma), à la condition d’avoir préalablement installé ces 2 lecteurs propriétaires gratuits.
Le plus de CocoaJT
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=906
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
Ce logiciel dispose de menus, permettant de rapidement sélectionner les émissions et journaux télévisés de nombreux pays, classés par chaîne, puis par date. A ce titre, la télévision et la radio suisses romandes y figurent avec non moins de 24 émissions télévisées et 4 radiophoniques, ce qui les place en tête du palmarès dans ce logiciel. L’explication tient au fait que contrairement aux chaînes télévisées françaises, la TSR est propriétaire de toutes ses émissions, et par conséquent est exemptée de redevances pour leur diffusion. La TSR ne recourt qu’à un seul format de codage, Real, en 2 ou 3 qualités, soit autant de débits, respectivement 80, 160 et 450 Kbps. La qualité inférieure ne passe hélas même pas sur une ligne modem V90 (56 Kbps), alors que la supérieure transite aisément sur les lignes ADSL les plus lentes, 600 Kbps, constituant l’entrée de gamme helvétique. Cette dernière est qualitativement tout à fait acceptable, et nous permet d’afficher la séquence de 480x360 pixels en plein écran, en ayant l’impression de visionner une cassette VHS. Cela dit justement, rien n’empêche d’enregistrer une émission en qualité supérieure via une ligne modem, afin de la visionner ensuite. Dans ce cas, le temps de transfert avoisinerait le décuple du temps de lecture !
Recommandation fi spécial été AlterIT page 43
A consommer sans modération à domicile; attention! une heure d’émission télévisée à 450 Kbps pèse tout de même 200 MB de données. ■
les liens CocoaJT jeanmatthieu.free.fr/ cocoajt/index.html Logiciels similaires pour Windows all-streaming-media. com/record-videostream/record-strea ming-video-windowsmedia.htm Site de la TSR www.tsr.ch
Myotis, le rêve d’utopie Jérôme Knobl Myotis
jerome@knobl.ch
L’association
myotis, à l’instar de la chauve-souris Myotis dont elle emprunte le nom, vole de ses propres ailes sur les ondes du ciel lausannois, hante les ordinateurs de quelques passionnés et mange des chips (voir l’encart antennes pringles). Depuis plusieurs années des passionnés de radio et de logiciel libre se sont regroupés dans une association à but non lucratif au cœur de la capitale vaudoise. Son but: rompre les chaînes du fil cuivre, et voir s’élever dans les cieux un réseau Internet sans fil, bon marché et communautaire. En 2000 ces passionnés installent une première antenne Wi-Fi sur le toit de l’ancienne école de chimie transformée en locaux associatifs. Aujourd’hui de nombreuses antennes de membres de l’association parsèment Lausanne et alentour. Nous avons même créé une carte permettant de visualiser les points d’accès au réseau myotis.
Carte des points d’accès au réseau, www.myotis.ch/map/
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=910
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 44
But de l’association L’association myotis s’est donné pour but de regrouper des compétences sur les réseaux sans fil (onde radio, infrarouge, laser, etc.), de promouvoir ces technologies (par des présentations, séances d’information et ateliers techniques sur la création d’antenne ou configuration de points d’accès) et finalement de développer une infrastructure communautaire d’utilisation du Wi-Fi. Ce dernier point est probablement le plus ambitieux. En effet, sans vouloir concurrencer les grandes sociétés de télécommunication, nous avons l’ambitieux projet de créer une plateforme destinée à aider des particuliers à participer facilement au réseau myotis. Nous nous sommes appuyés sur un type de matériel, les points d’accès Linksys. Notre choix de ce matériel ne doit rien au hasard. En effet, ce matériel Linksys a l’avantage d’intégrer un mini-linux en
Myotis, le rêve d’utopie
son sein. Ce qui permet une grande malléabilité de ce matériel (possibilité d’installer des protocoles d’authentification et même un mini serveur Web de quartier). En ce qui concerne l’authentification, nous avons pris l’option de conserver une porte ouverte à tout le monde. En effet, tant que l’utilisateur lambda se contente de surfer sur Internet à l’aide du protocole http, il peut le faire sans la moindre authentification. Par contre, le membre de l’association myotis peut utiliser toutes les potentialités de la connexion. Nous avons aussi défini des utilisateurs locaux à un point d’accès (dans le but de pouvoir connecter ses voisins). Le système est en passe de devenir opérationnel. Nous terminons la première version du système central (basé sur le couple chillispot et openRadius). Toutefois, nous manquons (comme beaucoup d’autres associations) de membres entreprenants. En effet, depuis un à deux ans le mouvement s’essouffle petit à petit. C’est de plus en plus compliqué de recruter des personnes prêtes à donner un coup de main. On profite donc du présent article pour dire à toute personne intéressée à participer activement à cette association de se faire connaître à info@myotis.ch. ■
les liaisons optiques par Nicolas Desir Ce type de connexion n’est pas nouveau, mais son usage est limité pour plusieurs raisons:
Le nombre de coupures trop élevées dues aux intempéries à Lausanne Nous avons eu quelques coupures de quelques heures (certaines ont duré jusqu’à 10h d’affilée) sur une liaison de 300 m au début de cette année dues au brouillard. La pluie et la neige n’ont dans la majeure partie des cas pas eu d’effet sur la liaison, sauf lors de très, très fortes averses qui n’ont jamais dépassé 10 minutes. Ce genre de coupure, qui représente un manque de disponibilité plus petit que le pour cent, rend difficile l’utilisation de cette technologie dans un contexte commercial normal. Par contre si un système de backup est installé en parallèle (liaison WiFi, xdsl, câble) une liaison optique devient beaucoup plus intéressante. Ou si une entreprise très gourmande en bande passante possède déjà une connexion de plusieurs Mb/s via une liaison terrestre, il peut être très intéressant d’assurer une redondance voir carrément un deuxième accès via cette technologie. En général les éléments externes influençant une fibre optique ou un câble enterré et une liaison optique ne sont pas les mêmes et ont donc très peu de chance de se produire en même temps.
Le prix très élevé des systèmes disponibles sur le marché Les systèmes vendus en général sur le marché s’adressent à des entreprises qui cherchent des alternatives à la fibre optique pour de petites distances . Les coûts de pose d’une fibre correspondent en général à ceux des travaux d’enfouissement (environ 500 CHF le m.). Donc un système à 100Mbit/s avec une portée de 200m qui coûte 10000.- est parfaitement compétitif. Un ronja (Reasonable Optical Near Joint Access) coûte 250 CHF de matériel, mais il faut compter 70 heures de construction par une personne habituée à travailler dans le domaine de l’électronique. Il serait sans doute possible de diviser le nombre d’heures moyennant une augmentation des coûts.
Leur faible portée: fi spécial été AlterIT page 45
Alors que des liaisons HF radio dirigées atteignent facilement plusieurs dizaines de kilomètres, une liaison optique ne dépasse pas quelques centaines de mètres avec une disponibilité correcte et éventuellement quelques kilomètres avec une disponibilité réduite.
Myotis, le rêve d’utopie
Seulement adaptée au point à point: La nécessité de la vue directe et la précision requise du pointage empêchent toute utilisation qui ressemblerait à un point d’accès dans une pièce couvrant les quelques pièces alentour. Néanmoins, des systèmes couvrant une pièce en infrarouge de façon omnidirectionnelle existent (comme les casques sans fil infrarouge par exemple).
Mais ce type de connexion a aussi d’énormes avantages Vitesse de transmission énorme À la fréquence et à la largeur de bande de la lumière (plusieurs centaines de Thz et large de quelques centaines de Thz) la bande passante est énorme et même en utilisant des modulations simples on atteint des débits très élevés. Le ronja fonctionne à 10Mbit/s full duplex et un modèle 100Mbit/s est en préparation. Des modèles commerciaux fonctionnent à 2,5Gbit/s et en théorie il serait possible d’utiliser les techniques de la fibre optique (DWDM par exemple) pour atteindre le Tbit/s.
Possibilité de construire un réseau extrêmement dense sans risques de perturbations mutuelles des liaisons Pour qu’un récepteur soit dérangé par un autre émetteur, il faut que ce récepteur soit placé dans le cône d’un degré défini par l’émetteur et que l’angle entre le récepteur et le rayon provenant de cet émetteur soit inférieur à 2° ou 3°. Contrairement à une liaison WiFi par exemple, une liaison optique est full duplex, c’est-à-dire qu’elle peut envoyer 10Mbit/s et recevoir 10Mbit/s en même temps. Les constructeurs de switch parlent alors en général de 20Mbit/s. En installant deux liaisons WiFi 11Mbit/s sur deux canaux différents il serait possible d’atteindre ces performances, mais malheureusement dans la majeure partie des cas, on est plus seul du tout dans ces fréquences.
Absence d’électro-smog le système utilise de la lumière. Là, le ronja a une particularité: il utilise de la lumière visible, par défaut du rouge alors que quasiment tous les autres systèmes fonctionnent en infrarouge (cependant, il est possible d’équiper un ronja avec une diode infrarouge si votre voisin se plaignait); et ceci, pour plusieurs raisons: ❚ il est basé sur une LED (diode électroluminescente) de très haute performance qui n’a pas (encore) d’équivalent en infrarouge. ❚ pointage facilité ❚ le concepteur pousse encore en défendant l’avantage de la sécurité pour l’œil humain qui sera capable de fermer l’iris bien que la lumière dans l’axe ne dépasse pas celle d’un phare de voiture.
Pas de licence pour la lumière Pas encore? Peut-être que ça tombera un jour sous la loi régissant les enseignes lumineuses
fi spécial été AlterIT page 46
.
Myotis, le rêve d’utopie
Antenne Pringles par Jean-Christophe Hegger
Description L’antenne Pringles, mis à part le côté fun de la transformation d’une boîte de chips en antenne, peut être considérée comme un mauvais choix en production. Sa construction est imprécise, les dimensions de la boîte sont très approximativement utilisables pour du 2.4 Ghz, la boîte est en carton, bref c’est juste bon pour les amateurs. Alors, pourquoi perdre son temps à construire une antenne Pringles ? Pour plusieurs raisons. Tout d’abord, elle n’est pas chère et les Pringles sont plutôt goûteuses. Mais aussi, peut-être grâce à son côté bricolé, ses résultats sont stupéfiants (voir tests et commentaires). En conclusion, l’antenne Pringles est intéressante seulement à courte distance et en intérieur.
Construction
❚ Découper la tige filetée à 143 mm. ❚ Assembler les écrous et les rondelles en respectant un écartement de 31 mm (1/4 de la longueur d’onde) à l’axe de chaque rondelle. ❚ Percer un trou dans la boîte de Pringle, l’axe à 86 mm du fond de la boîte et du diamètre du connecteur N (peut varier entre chaque modèle). ❚ Souder le fil de cuivre sur le connecteur N. ❚ Couper le fil afin que la distance entre le bord de la boîte et le bout du fil soit inférieure à 36 mm (1/2 du Ø intérieur de la boîte, soit environ 34 mm). ❚ Fixer le connecteur N.
Tests et commentaires L’antenne Pringles est une Yagi, c’est-à-dire directionnelle. Mais le plus surprenant, lors de son utilisation, est que la ligne droite entre deux points n’est pas forcément synonyme du meilleur résultat. Elle fonctionne particulièrement bien dans des situations de réflexion. Suite à divers tests, la Pringles permet aussi de détecter des réseaux à des distances allant jusqu’à plusieurs kilomètres. Cependant, ne vous y méprenez pas, passé une distance d’environ 300 mètres, elle devient très instable. Ne l’utilisez donc que pour de courtes distances.
Références fi spécial été AlterIT page 47
l’encart de Jean-Christophe Hegger http://www.myotis.ch/exoops/modules/mydownloads/cache/files/pringles.pdf Design original: http://www.oreillynet.com/cs/weblog/view/wlg/448
CIEL serveur de publication pour les codes de recherches scientifiques Violaine Louvet Institut Camille Jordan, Université Lyon 1
louvet@math.univlyon1.fr
Le groupe calcul
en collaboration avec le CCSD b (Centre pour la Communication Scientifique Directe) est en train de mettre en place un outil d’archivage des codes nommé CIEL c (Code Informatique En Ligne). L’origine de ce site de dépôt de codes de calcul scientifique résulte de deux initiatives indépendantes et presque simultanées, la première du laboratoire de Mathématique d’Orsay, la seconde du groupe calcul a du CNRS (Centre National de la Recherche Scientifique en France). Les principales motivations de ces propositions étant communes, les deux initiatives ont fusionné en une seule qui a abouti à la création de ce site.
Motivations et finalités Les principales motivations de ce projet sont: ❚ Promouvoir et valoriser les codes de calcul c’est-à-dire mieux faire connaître les codes de recherche développés dans les laboratoires de recherche et permettre une reconnaissance aux développeurs de ces codes de la même façon qu’un article dans une revue avec comité de lecture. ❚ Pérenniser les codes de calcul pour parer au problème de la perte de savoir-faire due au départ d’un thésard ou d’un chercheur. C’est également l’un des moyens pour faire connaître l’existence de ce patrimoine scientifique dans notre communauté, mais aussi dans le milieu industriel. ❚ Assurer la reproductibilité des résultats de publication pour permettre aux personnes intéressées par les articles de disposer d’un outil mettant en œuvre les méthodes proposées et permettant de reproduire les résultats décrits dans l’article. Ainsi, la publication d’un code qui a servi à produire les illustrations d’un papier de sciences appliquées accepté dans un journal classique va d’une part permettre de reproduire les résultats publiés, mais aussi de l’utiliser pour d’autres applications comme n’importe quel résultat théorique issu d’une publication. Par ailleurs, les personnes qui développent des codes de calcul en dehors d’un contexte de publication peuvent trouver ici un outil pour faire connaître leurs travaux et valoriser ceux-ci. Cet outil fonctionne donc comme un système de prépublication, adapté aux logiciels.
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=908
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
Publication de codes Les éléments nécessaires à la publication d’un code sur CIEL sont:
Description du problème résolu et objectif du code Un code de calcul est toujours réalisé dans un certain but. Ce peut être la mise au point de nouvelles méthodes de résolution ou la mise en évidence de certains phénomènes. Il s’agit donc de décrire le problème résolu, les méthodes de résolution et la finalité du projet.
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 48
Manuel d’utilisation C’est une partie essentielle. Il doit être clair et concis. Il doit faire état de l’ensemble des éléments nécessaires à l’usage du programme: ❚ description des données (physique et format), ❚ description des options du code (choix algorithmiques). Il peut aussi décrire les astuces de programmation utilisées indispensables à la compréhension du code et à son fonctionnement.
les liens a
le groupe calcul calcul.math.cnrs.fr b
le CCSD ccsd.cnrs.fr c
Le CIEL ciel.ccsd.cnrs.fr d
La licence CeCILL www.cecill.info e
Vérification des dépôts calcul.math.cnrs. fr/ar ticle.php3?id_ article=125 f
Outil de grid computing DIET graal.ens-lyon.fr/ DIET/
CIEL, Serveur de publication pour les codes de recherches scientifiques
Sources du code Le langage de programmation est indifférent pourvu ❚ qu’il soit standardisé, ❚ qu’il soit suffisamment répandu, que les compilateurs soient accessibles ou que les logiciels soient disponibles, ❚ que la norme du langage soit respectée, donc que les extensions constructeurs soient évitées.
Jeux de tests Il est indispensable que quelques jeux de tests soient mis à la disposition des futurs utilisateurs et soient décrits dans le guide d’utilisation. Les résultats doivent également être accessibles pour permettre la vérification de l’installation du code.
Références vers d’autres publications Pour les codes dont les résultats ont fait l’objet d’une publication, les références doivent être indiquées sur ce site. De même, il est très souhaitable que, réciproquement, ce site soit référencé dans la publication des résultats. L’ensemble est alors cohérent et les travaux théoriques et numériques pleinement reproductibles.
Exemple d’un dépôt dans CIEL
Licence Il est possible, et même conseillé, d’associer une licence au code. Certains codes ont leur propre licence, mais cet aspect n’a en général pas été pris en compte pour la plupart des logiciels développés dans les laboratoires de recherche. Le choix de la licence sous laquelle le logiciel est publié comporte donc trois possibilités: ❚ le logiciel n’a pas de licence propre et le développeur ne souhaite pas associer de licence à son code, ❚ le logiciel a une licence propre et le texte de cette licence est déposé en même temps que le code, ❚ le développeur peut choisir d’utiliser la licence CeCILL d qui est une licence française de logiciel libre, reprenant les principes de la GNU GPL et élaborée conjointement par le CEA, le CNRS et l’INRIA.
Aspects techniques de l’outil CIEL
fi spécial été AlterIT page 49
Le serveur CIEL est une instance de HAL (Hyper Article en Ligne), qui permet aux auteurs de prépublications de déposer sur la base du CCSD des manuscrits d’articles scientifiques dans toutes les disciplines. D’un point de vue technique, HAL utilise PHP et MySQL. Les entrées dans le serveur sont définies par un certain nombre de métadonnées, c’est-à-dire des informations structurées sur le document. La présence des métadonnées structurées permet des recherches
CIEL, Serveur de publication pour les codes de recherches scientifiques
fines, comme des extractions automatiques des codes au niveau d’un laboratoire, d’une unité ou d’une université, avec des présentations personnalisées. Cet aspect est très intéressant pour valoriser l’activité de développement de code au sein d’une structure de recherche. Chaque dépôt commence par le renseignement de ces métadonnées, suivi du téléchargement des fichiers source du code sur le serveur du CCSD. La clé MD5 de chaque fichier chargé sur le serveur est calculée puis affichée pour permettre la vérification de l’intégrité du fichier. CIEL n’est pas un outil de gestion de version. Ainsi, à chaque modification d’un code, il est nécessaire d’effectuer un nouveau dépôt. Par exemple, lorsqu’un code a servi à la publication d’un article scientifique, puis qu’il a été modifié pour une nouvelle publication, ces deux instances doivent faire l’objet de deux dépôts distincts. Chaque dépôt passe par une étape de validation réalisée par une équipe de modérateurs. Le label apposé à un dépôt est en rapport avec la conformité et la vérification fonctionnelle du programme déposé. Il peut être de quatre niveaux différents: ❚ simple dépôt, c’est l’état initial. Aucune vérification ni analyse du contenu n’a été faite. ❚ conforme. Il a été seulement vérifié que le dépôt est conforme aux spécifications du site. ❚ compile. Il a été vérifié que la procédure d’installation est claire et que le code se compile et s’exécute. ❚ testé. La conformité des sorties a été vérifiée par rapport aux éléments fournis (jeux de tests et leurs sorties).
Plate-forme de validation La vérification fonctionnelle des dépôts est réalisée sur une machine dont les caractéristiques techniques sont toujours accessibles e. Chaque modification de configuration donne lieu à l’archivage de la configuration précédente et à la mise à jour des caractéristiques techniques. Ainsi, si un dépôt a été validé à une date donnée, il est facile de savoir précisément avec quelles versions de compilateurs et de librairies ce test a fonctionné. Une autre plate-forme de validation est en train de se mettre en place. Il s’agit de permettre aux utilisateurs intéressés d’accéder aux codes et de pouvoir les exécuter sans être obligés de les télécharger et de les installer sur leur propre machine. Cette fonctionnalité sera basée sur l’outil de Grid computing DIET f qui donnera accès aux codes via un portail Web. Les utilisateurs pourront alors exécuter le code, soit avec les données qui ont été jointes, soit avec leurs propres données. Le calcul sera déporté via DIET sur leur machine qui deviendra temporairement cliente de l’environnement distribué pour le temps du calcul, sans démarche technique de leur part. Pour les développeurs réticents à mettre en téléchargement libre les sources de leurs codes, un nouveau service devrait aussi voir le jour, basé sur la plate-forme de test de DIET, permettant de mettre à disposition des utilisateurs la possibilité d’exécuter le code avec leurs propres données. Ensuite, si celui-ci répond à leurs attentes, ils pourront contacter directement l’auteur qui prendra la décision de donner ou non ses sources.
Conclusion Le site du projet CIEL est opérationnel depuis quelques semaines et le lancement à grande échelle de ce service aura lieu en septembre. Ce projet ne peut vivre qu’avec la participation des personnes du monde du calcul intéressées par le concept. Nous invitons donc toutes les personnes se sentant concernées par la prépublication de codes de calcul à publier sur le site et nous donner un retour d’utilisation de cet outil. ■
fi spécial été AlterIT page 50
Vers un outil Peer-To-Peer orienté calcul intensif Nabil Abdennadher Université des Sciences Appliquées Suisse Occidentale École d’Ingénieurs de Genève
abdennad@eig.unige. ch
Régis Boesch Université des Sciences Appliquées Suisse Occidentale Ecole d’Ingénieurs de Genève rboesch@eig.unige.ch
Introduction
les liens
Le développement des réseaux haut débit et la disponibilité de ressources informatiques faiblement utilisées sur Internet laissent penser qu’il est tout à fait possible de construire un gigantesque ordinateur virtuel permettant un accès homogène et transparent à ces ressources. L’objectif des systèmes Peer-To-Peer (P2P) est de faire collaborer des milliers d’ordinateurs pour exécuter un service donné: échange de données [1], [2], exécution d’une application de calcul intensif c, d, e, f, etc. Cet article présente une plate-forme P2P appelée XtremWeb-CH (XWCH b), développée à l’École d’Ingénieurs de Genève (EIG). XW-CH est une amélioration de l’environnement XtremWeb, développé à l’Université d’Orsay (Paris, France). XW-CH est utilisé pour exécuter des applications distribuées de haute performance sur des ordinateurs anonymes connectés à Internet. Ce papier est organisé comme suit. La prochaine section présente l’environnement XW tel que développé par l’Université d’Orsay. Le paragraphe XtremWeb-CH présente l’environnement XW-CH et les améliorations qu’il apporte par rapport à XW. Enfin, le déploiement de XW-CH est détaillé en dernière section.
XtremWeb [3] est un environnement de calcul P2P orienté hautes performances. Il permet à des centres de recherche, des universités et des industriels d’installer et d’utiliser leur propre système de calcul P2P pour leurs travaux de recherche ou pour la production de calcul. XW a est une plate-forme généraliste: à la différence de projets tels que SETI@HOME c , XW n’est pas dédié à une application particulière, mais peut supporter toute application proposée par l’utilisateur. L’architecture générale d’XtremWeb est centralisée (fig. 1): un serveur organise les calculs sur des machines distantes anonymes appelées workers.
��������� ������� ��������
dit.epfl.ch/publications-spip/article. php3?id_article=914
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 51
XW www.xtremweb.net b
XW-CH www.xtremwebch.net c
Seti@home
setiathome.ssl.berke ley.edu d
Entropia™
www.entropia.com e
United device™
www.ud.com/home. htm
XtremWeb
�������
sur le Web
a
������� ��������
�������� ��������
���������������������
fig. 1 – Architecture de XtremWeb À la demande d’un client qui désire exécuter son application, le serveur XW l’affecte à un worker en lui transmettant son code et ses données d’entrée. À la réception des résultats, le serveur XW les renvoie au client. Dans sa version originale, XW supporte des applications mono-module (par opposition aux applications distribuées multi-modules).
XremWeb-CH XtremWeb-CH est une version améliorée de XtremWeb. Cet environnement permet l’exécution d’applications parallèles/distribuées composées de modules communicants. L’application est décrite par un graphe flux de données où les nœuds sont les modules de traitement et les liens inter-nœuds
f
Parabon Computation™
www.parabon.com 9
PHYLIP
evolution.genetics. washington.edu/ phylip.html
Vers un outil PeerTo-Peer orienté calcul intensif
représentent les échanges de données entre ces modules. Le graphe flux de données est représenté par un fichier XML qui décrit les modules et les données échangées. Un module n’est affecté à un worker que si ses données d’entrées sont disponibles. Une donnée est dite disponible si elle a été générée par un module précédent. Initialement, la seule donnée d’entrée disponible est celle qui est fournie par l’utilisateur pour exécuter le (ou les) premier(s) module(s). Les différents modules de l’application (à l’exception du premier) sont initialement bloqués: ils ne peuvent être exécutés puisque leurs données d’entrée ne sont pas disponibles. A la fin de l’exécution d’un module par un worker, celui-ci informe le serveur. Un processus particulier de XW-CH, appelé espion, parcourt alors tous les modules bloqués pour débloquer ceux dont les données d’entrée sont maintenant disponibles. Le processus ordonnanceur de XW-CH se charge alors de les affecter à des workers libres. La communication entre les modules se fait directement entre les workers exécutant ces modules (sans passer par le serveur). Cette nouvelle fonctionnalité est une extension de XW-CH par rapport à XW. En effet, dans XW les communications entre workers ne peuvent avoir lieu que via le serveur. Ce dernier se trouve alors déchargé des tâches de communication. XW-CH s’approche donc davantage du concept P2P: les nœuds ont les mêmes fonctions, le même pouvoir. L’architecture de XW-CH est donc partiellement décentralisée par rapport à celle de XW. Lorsqu’un worker finit son exécution, il stocke ses résultats dans un fichier temporaire et envoie un signal au serveur XW-CH lui indiquant la fin normale de son exécution et l’emplacement du fichier résultat: adresse IP et répertoire. Lorsque le serveur XW-CH affecte les modules nouvellement débloqués à des workers libres, il leur envoie aussi l’emplacement de leur donnée d’entrée. Le transfert des données se fait donc directement entre workers. Dans le cas où l’un des workers est protégé (adresse interne, pare-feu, etc.), la communication directe ne peut avoir lieu. L’échange de données se fait alors via une machine relais.
Déploiement de XtremWeb-CH
��������
�������
����������
������
������������
�������
�����
�����
���������
Aujourd’hui, le serveur de XW-CH tourne sous Linux alors que les workers tournent sous les systèmes Linux, Windows et SunOS. La plate-forme expérimentale de XW-CH est constituée de 100 machines installées à l’EIG. Celles-ci sont très hétérogènes: Pentium 2, 3 et 4. Il est possible de charger et installer le module worker à partir de l’URL: http://www.xtremwebch.net/xtremweb.php. La plate-forme expérimentale actuelle est utilisée dans le cas concret d’une application de génération d’arbres phylogénétiques. La phylogénétique est la science qui permet de reconstruire les relations de parenté entre organismes vivants à partir de leurs séquences ADN. Un arbre phylogénétique (appelé aussi arbre de vie) est alors construit pour montrer les liens de parenté entre les espèces. L’arbre phylogénétique montre la succession chronologique de l’apparition de nouvelles espèces (et/ou de nouveaux caractères) au cours du temps ainsi que leurs relations de parenté (fig. 2).
������ ������� ������������
�������� �����������
������ ������� ���������
fig. 2 – Exemple d’arbre phylogénétique
fi spécial été AlterIT page 52
La reconstruction de l’arbre de vie est particulièrement utile dans le cas des virus ARN (Acide Ribo Nucléique) tels que le HIV (Human Immunodeficiency Virus) connu sous le nom de sida, le HCV (Hepatitis C Virus), etc. Dans le cas du HIV, l’identification des mutations associées à la résistance du virus est cliniquement importante. L’analyse de la diversité du HIV fournit de précieuses informations quant à sa propagation à partir de son lieu.
Vers un outil PeerTo-Peer orienté calcul intensif
Dans le cas du HIV ou du HCV, la génération d’un arbre de vie peut s’avérer lente. En effet, ces virus se distinguent (des autres virus) par le manque de fidélité de leur processus de réplication. Ceci se traduit, inévitablement, par un nombre important de séquences correspondant à la même famille de virus. Le laboratoire de virologie de l’Hôpital Universitaire de Genève (HUG) travaille depuis plusieurs années sur les stades précoces de l’infection HIV. Pour générer ses arbres phylogénétiques, ce laboratoire utilise une application appelée PHYLIP (logiciel libre) g. Plusieurs méthodes de reconstitution d’arbres phylogénétiques sont supportées par PHYLIP. Dans certains cas, la lenteur de traitement de PHYLIP empêche les chercheurs de lancer de gros calcul pour approfondir leurs analyses. Cette lenteur est fonction de la méthode employée et du nombre de séquences (en entrée de l’application). Le temps de réponse des applications de reconstitution des arbres phylogénétiques reste donc un problème ouvert dans le cas où le nombre de séquences analysées est important (cas des virus HIV). Le portage de PHYLIP sur XW-CH vise donc à réduire le temps de réponse de cette application lorsque la taille de l’arbre est importante (nombre important de séquences). L’objectif est de fournir aux chercheurs du Laboratoire de virologie une puissance de calcul dont les coûts de maintenance et d’exploitation sont quasiment nuls.
Conclusion
Les premiers tests effectués avec XW-CH ont permis de valider les choix retenus lors des phases de conception et de développement: modélisation de l’application distribuée, communication directe entre workers, etc. D’autres travaux sont en cours pour: ❚ valider XW-CH dans le cas concret d’autres applications parallèles/distribuées notamment dans le domaine des télécommunications; ❚ résoudre les problèmes de sécurité liés à l’asymétrie du réseau Internet; ❚ générer de manière automatique la granularité de l’application en fonction du nombre de workers disponibles; ❚ concevoir une version multiserveur permettant la communication interserveur et l’équilibrage de charges.
Bibliographie [1] Kan G., Peer-to-Peer: harnessing the power of disruptive technologies, Chapter Gnutella, O’Reilly, Mars 2001. [2] Ian Clarke. A Distributed Decentralised Information Storage and Retrieval System. Division of Informatics. Univ. of Edinburgh. 1999. http://freenet.sourceforge.net [3] Franck Cappello et al. Computing on Large Scale Distributed Systems: XtremWeb Architecture, Programming Models, Security, Tests and Convergence with Grid. In Future Generation Computer Science (FGCS), 2004. ■
fi spécial été AlterIT page 53
WOS: la Grille avant la grille Kevin Cristiano École d’ingénieurs et d’Architectes de Fribourg
kevin.cristiano@eif.ch
Pierre Kuonen École d’ingénieurs et d’Architectes de Fribourg
Le
concept de grille de calcul (Grid en anglais) est de plus en plus populaire. Ce concept a été introduit pour la première fois en 1999 par Ian Foster et Carl Kesselman dans leur livre désormais célèbre «The Grid: Blueprint for a New Computing Infrastructure» [5]. La popularité d’Internet ainsi que la disponibilité d’ordinateurs puissants et de réseaux à grande vitesse changent rapidement notre façon d’utiliser les outils informatiques. Ces technologies nous permettent d’utiliser des ressources distribuées simples et unifiées. Cet état de fait a grandement contribué à la popularisation du concept de Grid. Bien qu’aujourd’hui il n’existe pas d’infrastructure méritant vraiment le nom de Grid tel que défini par I. Foster et C. Kesselman, de nombreux outils et projets fournissent des solutions partielles. On peut dire que tout le monde tente de créer sa propre grille aussi bien dans le milieu industriel (Microsoft, IBM, ...) que dans le milieu académique où de nombreux projets, financés par les gouvernements, voient le jour (Unicore, Globus, EGEE, CoreGrid, DEISA,...). Dans cet article nous présentons un projet antérieur au livre de I. Foster et C. Kesselman mais qui contenait déjà tous les éléments du concept de Grid, il s’agit du projet WOS: Web Operating System, né au milieu des années 90 au Canada [4, 10, 7]. Cet ancêtre du Grid est le fruit d’un travail académique entre différentes universités situées un peu partout dans le monde (Canada, Australie, Allemagne, Suisse). WOS a été mis en place dans le but de rendre disponible, en tout point d’un réseau, les ressources permettant d’effectuer des calculs pour lesquels les ressources locales ne seraient pas suffisantes et ceci de façon transparente pour les utilisateurs. La vision du WOS était assez avant-gardiste pour l’époque, le slogan de ce projet était: any-time, any-where, any-service [8], ce qui s’inscrit parfaitement dans le contexte des recherches réalisées actuellement dans le domaine du Grid.
Architecture pierre.kuonen@eif.ch
WOS se constitue d’un ensemble de nœuds (WOS node) dont chacun peut offrir un ensemble de services et de ressources. Chaque WOS node possède une ou plusieurs versions de WOS, lui permettant de dialoguer (d’interagir) avec d’autres WOS nodes ayant la même version que lui (c’est-à-dire, d’autres nœuds pouvant le comprendre [2]). Les WOS nodes constituent un réseau appelé WOSNet. Chacun de ces nœuds est à la fois client et serveur ce qui permet d’émettre et de recevoir des requêtes provenant d’autres WOS nodes, comme le montre la figure 1.
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=926
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 54
fig. 1 - Architecture d’un WOS node [13]
WOS: la Grille avant la grille
Chaque nœud possède une base de données locale, appelée data warehouse, dans laquelle sont stockées des informations sur d’autres nœuds [6]. En d’autres termes, il n’existe pas de machines ayant une connaissance globale du WOSNet. WOS est par définition un système distribué et décentralisé. Pour des raisons de performance, ces bases de données possèdent des capacités limitées, ainsi chaque data warehouse a la faculté d’apprend et d’oublier des informations. La data warehouse a donc la capacité de décider automatiquement quelle information doit être enregistrée, remplacée, supprimée ou obtenue par une autre data warehouse. Cette base de données est la structure de données essentielle pour chaque WOS node. Toute l’architecture d’un WOS node s’articule autour de cette base de données comme le montre la figure 1. La structure d’une data warehouse est un arrangement hiérarchique d’av-pairs (attribute - value pairs) permettant de décrire les services proposés et les services demandés. Une av-pair est composé d’un attribut et d’une valeur associée à cet attribut. Pour bien comprendre cette notion d’attributs et de valeurs, donnons une petite définition rapide de ces deux termes. Un attribut est une catégorie dans laquelle un objet peut être classé (par exemple l’attribut service) et une valeur est une classification d’objet dans une catégorie (par exemple le service imprimante). La figure 1 décrit l’architecture d’un WOS node. Ainsi, nous pouvons voir que chaque nœud utilise des protocoles de communications pour permettre l’interaction avec les autres nœuds de la communauté WOS. Ces protocoles sont décrits dans la section suivante.
Les protocoles de communication WOS possède deux protocoles de communication, le WOS Request Protocol (WOSRP) et le WOS Protocol (WOSP) [3, 11].
Le protocole WOSRP WOSRP est un protocole de communication qui fournit des mécanismes pour échanger des informations sur les versions de WOSP utilisées. Ce protocole utilise des requêtes qui permettent à un nœud d’interroger d’autres nœuds sur les connaissances qu’ils possèdent. En effet, soit le nœud parle la même version (de cette façon il sera possible d’interagir avec lui) soit il ne peut pas interagir, mais il connaît peut-être un autre nœud possédant cette capacité.
Le protocole WOSP WOSP est le protocole qui permet les interactions entre les WOS node. En effet, ce protocole possède des mécanismes pour changer les paramètres d’exécutions, utiliser les ressources et interroger la base de données d’un WOS node. WOSP est un protocole défini par une grammaire générique qui fournit un support de communication pour les services de WOS. Une version de WOS correspond à une instanciation particulière de cette grammaire générique.
WOS et HPC En 2000 et 2001 une équipe canado-suisse a proposé, dans deux articles intitulé Intensional High Performance Computing et A WOS-Based Solution for High Performance Computing [9, 1] une solution permettant grâce à l’architecture WOS de déployer une infrastructure, que l’on appellerait aujourd’hui, de Grid-computing. A cet effet une version du WOSP adapté au High Performance Computing: le HPWOSP, a été définie.
Conclusion
fi spécial été AlterIT page 55
WOS contenait déjà les concepts de ce que l’on appelle aujourd’hui une grille. Cela montre clairement que le livre de I. Foster et C. Kesselman est arrivé dans un contexte recherche où cette notion était dans l’air. Il a eu l’avantage de lui donner un nom largement accepté par les différentes communautés travaillant sur ce thème et d’ainsi les regrouper sous une seule bannière. Quant au projet WOS, faute de moyens financiers, il a été mis de côté pendant quelques années. Aujourd’hui avec l’intérêt grandissant pour le concept de Grid, il revient au goût du jour. Le projet ISS (Intelligent Grid Scheduling System) [12] qui a pour but la mise en place d’une grille de calcul au niveau suisse construite autour d’un scheduler intelligent, a d’ailleurs décidé de s’en inspirer.
WOS: la Grille avant la grille
Remarque
le colophon
Si vous êtes intéressés par le projet WOS et que vous désirez un complément d’information, vous pouvez contacter les Professeurs Gilbert Babin (Gilbert.Babin@hec.ca), Peter Kropf (peter.kropf@unine.ch) ou Pierre Kuonen (pierre.kuonen@eif.ch).
Les articles ne reflètent que l’opinion de leurs auteurs. Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs.
Références [1]
[2] [3] [4]
[5] [6] [7] [8] [9]
[10] [11] [12]
[13]
N. Abdennadher, G. Babin and P. Kropf. A WOS-Based Solution for High Performance Computing. 1st International Symposium on Cluster Computing and the Grid (IEEE-CCGRID 2001), p.568-573, Brisban, Australie, May 2001 G. Babin and P. Kropf. A Versioned Communication Infrastructure for the WOS, 2001. G. Babin, P. Kropf, and H. Unger. A twolevel communication protocol for a Web operating system (wos tm. In IEEE Euromicro Workshop on Network Computing (Vaster as, Sweden)), 939-944., 1998. S.Ben Lamine, P. G. Kropf and J. Plaice. Problems of Computing on the Web, High Performance Computing Symposium 97, A.Tentner, ed., The Society for Computer Simulation International, Atlanta, GA, pp.296_301, April 1997. I. Foster and C. Kesselman. eds., The Grid: Blueprint for a Future Computing Infrastructure. Morgan Kaufmann, San Francisco, 1999. S.Khoury, P. Kropf and G. Babin. Resource warehouses: a distributed information management infrastructure, in High Performance Computing Symposium 2002 (HPC 2002). San Diego, CA, USA. 2002. P. Kropf. Overview of the wos project. Advanced Simulation Technologies Conferences (ASTC 1999), San Diego, CA, USA., 1999. P. Kropf. The WOS and beyond, Ubiquitous computing day, Universté de Fribourg, http://diuf.unifr.ch/pai/events/seminars/ubiComp02/ docs/presentations/wos.pdf. October 2002 P. Kuonen, G. Babin, N. Abdennadher and P.-J. Cagnard. Intensional High Performance Computing. In the proceeding of Distributed Communities on the Web (DCW’2000) workshop, Quebec City, Canada, 19-21 June 2000. H. Unger, J. Plaice and P. Kropf. Towards a Web operating system (WOS), Webnet ‘97, Association for the Advancement of Computing in Education, Toronto, Canada, 2 pages on CD, November 1997. M. Wulff, G. Babin, P. Kropf, and Q. Zhong. Communication in the WOS. Research Report DIUL-RR-9902. Université Laval, Sainte-Foy, Québec, Canada. P. Kuonen, R. Gruber, and M.-C. Sawley. ISS: The collaborative Development of an Intelligent Scheduler, , in SWITCHjournal, November 2004, Zürich: SWITCH The Swiss Education & Research Network, ISSN 1422-5662, p. 18-19 P. Kropf, H. Unger, and G. Babin. WOS: an Internet computing environment. In Workshop on Ubiquitous Computing, International Conference on Parallel Architectures and CompilationTechniques. Philadelphia, PA, USA., 2000. ■
Abonnement à la version électronique du FI en envoyant un courrier à:
fi-subscribe@listes. epfl.ch Rédacteur en chef: Jacqueline Dousson,
fi@epfl.ch Mise en page & graphisme: Appoline Raposo de Barbosa Comité de rédaction: Omar Abou Khaled, Aristide Boisseau, Jean-Daniel Bonjour, Nicolas Bouche, Milan Crvcanin, Jean-Damien Humair, Pierre Kuonen, Maciej Macowicz, Daniel Rappo, François Roulet, Christophe Salzmann & Jacques Virchaux Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse Web: dit.epfl.ch/FI-spip Adresse: Domaine IT EPFL CP 121, 1015 Lausanne 15 Suisse Téléphone: +4121 69 32246 & +4121 69 32247
fi spécial été AlterIT page 56
Des petits hommes verts au numéro 1 du top500 Vincent Keller EPFL – Laboratoire d’ingénierie numérique
vincent.keller@epfl.ch
Michela Spada EPFL – Domaine IT
michela.spada@epfl.ch
Le projet Seti@Home
les liens
Le projet Seti@Home g (Search for Extra-Terrestrial Intelligence) a débuté officiellement le 17 mai 1999. Il s’agit ni plus ni moins que de découvrir le premier signal extraterrestre intelligent h. Ce projet est la continuation logique du projet OZMA [1] du NRAO (National Radio Astronomy Observatory) débuté en 1960. Le radiotélescope d’Arecibo sur l’île de Puerto Rico (voir figure 1) enregistre toutes les ondes émises par l’univers sur une plage de fréquence de ± 2.5 MHz autour de la raie de l’hydrogène (1420 MHz). Cette plage de fréquence a été choisie, car elle représente une trouée dans la brume radio de l’univers, on dit qu’elle constitue le trou d’eau (waterhole).1 En 3 ans, la durée du projet, le radiotélescope d’Arecibo a couvert trois fois la partie du ciel qui lui est visible, représentant 39 Tbytes de données.
a
Des données parfaitement indépendantes
lattice.umiacs.umd. edu
Les observations recueillies par le radiotélescope peuvent être séparées en bandes de fréquences indépendantes et chacune d’entre elles décomposées en petits paquets à traiter, indépendants les uns des autres. Le traitement consiste en une décomposition FFT (Fast Fourrier Transform) suivie par une transformée inverse. On peut donc très facilement créer une application qui se chargera de traiter un paquet de données de façon indépendante. On appelle ce type d’application embarassingly parallel (parallélisme indépendant).
Site officiel du projet BOINC
boinc.berkeley.edu b
Japaleno
jalapeno.therning. org c
Site officiel du projet lattice
d
Site du cluster d’Opterons Mizar
mizar.epfl.ch e
Site du radiotélescope de Parkes en Australie
www.parkes.atnf. csiro.au f
Site du cluster de Pentiums 4 Pleiades
pleiades.epfl.ch g
Site officiel du projet Seti@Home
setiathome.ssl. berkeley.edu h
Historique en français sur la recherche d’intelligence extraterrestre
w w w. n i r g a l . n e t / oriflseti.html
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=928
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 57
i
fig. 1 – Radiotélescope d’Arecibo (Puerto Rico)
Site des 500 machines les plus puissantes de la planète
Une architecture adaptée La quantité de données étant gigantesque, mais chaque paquet de données étant indépendant d’un autre, on peut très bien diviser en petits paquets l’intégralité des mesures d’un jour (la granularité choisie est de 10 KHz), de manière à ce que ces paquets soient traitables par un ordinateur personnel. Une architecture client-serveur est donc parfaitement adaptée: le serveur distribue les paquets aux clients, ces derniers les analysent et renvoient les résultats au serveur. Ceci correspond donc à faire du calcul distribué. 1
La bande de fréquence radio située entre la raie de l’hydrogène (H) à 1420 MHz et celle de l’hydroxyle (OH) à 1662 MHz est appelée trou d’eau. Cette bande se trouve dans le spectre radio dans lequel il y a relativement peu de bruit provenant des sources stellaires naturelles, de façon à ce qu’une exocivilisation puisse émettre à moindre puissance en direction de la Terre, tout au moins réussir une communication interstellaire directionnelle.
www.top500.org j
XW-CH www.xtremwebch.net k
Vers un outil peerto-peer orienté calcul intensif dans ce numéro en page 51 dit.epfl.ch/publications-spip/article. php3?id_article=914
Des petits hommes verts au numéro 1 du top500
Le plus grand supercalculateur du monde Un des nombreux rêves des informaticiens dans le domaine du HPC est de récupérer à bas prix la puissance dormante des millions d’ordinateurs connectés à Internet. Évidemment, si l’on additionne trivialement chaque Flop à disposition, on obtient ni plus ni moins que l’ordinateur le plus puissant de la planète, pour autant que les applications soient adaptées à l’architecture. De ces deux constatations – données totalement indépendantes et puissance dormante – est né le projet Seti@Home g. Au début 1997, le projet Seti@Home n’était qu’un simple client à télécharger (un économiseur d’écran pour les machines à base de Microsoft Windows et un petit utilitaire console sous Linux). L’utilisateur désirant participer au projet laissait le programme utiliser la puissance de sa machine, lorsqu’il ne s’en servait pas, pour la recherche d’un signal extraterrestre. En 3 ans (la durée du projet initial), le nombre d’utilisateurs a dépassé les 2 millions.
fig. 2 – BlueGene/L numéro 1 du top 500 i... vraiment ?
De Seti@Home à BOINC Après 3 ans de collecte d’informations à Arecibo et suite à des problèmes financiers, la question s’est posée de savoir si le projet devait continuer, à savoir enregistrer des données dans une autre portion du ciel. Ayant répondu par l’affirmative, le plus grand radiotélescope de l’hémisphère austral a été mis à disposition pour recueillir de nouvelles données (toujours sur la même plage de fréquence) à Parkes en Australie e. Malheureusement, la version de Seti@Home n’était capable d’analyser que les données enregistrées à Arecibo. Berkeley a donc fait table rase de son ancienne architecture et a développé une base beaucoup plus modulaire, plus généraliste: BOINC a (Berkeley Open Infrastructure for Network Computing). Seti@Home tel qu’on peut l’utiliser aujourd’hui n’est qu’une couche supplémentaire à BOINC.
BOINC
fi spécial été AlterIT page 58
Depuis 2003, l’architecture BOINC est utilisée par divers projets du type calcul distribué: de Seti@Home à LHC@Home (analyse des Tbytes du Large Hadron Colider du CERN) en passant par Folding@Home (pliage des protéines), Predictor@Home (biologie moléculaire), ClimatePrediction (déterminer le climat de la Terre pour les 100 prochaines années), Einstein@Home (détection de pulsars) et d’autres en devenir. Cette architecture autorise l’utilisateur à partager son temps CPU inutilisé entre plusieurs projets BOINC. Elle permet également d’offrir une partie de son espace de stockage (disque dur) à la communauté. Le nombre d’utilisateurs de BOINC croît en moyenne de 20 % tous les 6 mois. Vous pouvez vous aussi créer un projet BOINC afin de récupérer les ressources inutilisées de votre parc informatique. Cependant, votre application doit avoir certains critères: parallélisme indépendant, tolérance aux fautes (gérer la redondance des calculs), intérêt pour le reste du monde (intéresser des clients). BOINC offre l’API C/C++ ainsi que toute la partie serveur, y compris le serveur Web de votre projet (voir fig. 3). À noter qu’il est également possible d’interfacer une application écrite en Fortran. BOINC est sous LGPL2. 2
Lesser GNU Public License
Des petits hommes verts au numéro 1 du top500
���������������������������
����������������
����������������
����� �� ��������������������
������ ������
���������� ������
���� �������
��� ����������
������������������ ���������� ������������ �����������
fig. 3 – BOINC schématiquement: serveur et client. BOINC a introduit un nouveau terme dans la jungle du calcul scientifique: le public computing. Mais que le lecteur ne s’y méprenne pas, il s’agit simplement d’une architecture clients-serveur, BOINC ne peut aucunement être assimilé à une architecture pair-à-pair.
Vers le grid... De l’idée de récupération des cycles dormants ou de la mise à disposition d’une partie de son espace de stockage privé au Grid computing il n’y a qu’un pas. On ne saurait être complet dans cet article sans mentionner le projet Lattice.
fig. 4 – Architecture du projet Lattice Le projet Lattice, de l’université du Maryland, préfigure l’architecture du Grid computing de demain (voir fig. 4). Il comprend dans une même grille de calcul des machines parallèles (SX-5, BlueGene, etc.), des clusters de PC (comme Pleiades f ou Mizar d) et finalement des machines connectées à Internet utilisant l’architecture BOINC. Il est construit autour du middleware Globus Toolkit ainsi que du scheduler Condor-G.
Conclusion
fi spécial été AlterIT page 59
Nous l’avons vu, dans le domaine des applications totalement distribuées, BOINC offre une plateforme intéressante et permet de récupérer les cycles non utilisés des machines d’un parc. Les divers projets à base de BOINC sont là pour le prouver. Malheureusement, le calcul scientifique ne se résume pas à ce type d’applications. Pour une grosse application, par exemple CFD (Computational Fluid Dynamics), vous aurez toujours besoin d’une imposante machine parallèle avec un réseau d’interconnexion rapide, peut-être même d’une mémoire partagée pour obtenir des résultats en un temps décent. Le projet Lattice est en ce sens le plus avancé. Il tente d’offrir sur une même grille tous les types de machines pour du calcul scientifique. Le point faible réside dans le scheduling des différentes applica-
Des petits hommes verts au numéro 1 du top500
tions: Condor-G ne connaissant pas leur comportement, comment savoir si une application donnée doit s’exécuter sur le pool BOINC ou sur le SX-5 ? Le projet ISS (Intelligent grid Scheduling System) [2]) mené actuellement entre l’EPFL, le CSCS et l’EIA de Fribourg tente de combler ce manque.
Peer-to-peer or not ? Dans le cadre du calcul distribué, calcul parallèle particulier consistant à répartir un ensemble de données à traiter sur divers sites, généralement diverses machines de type hétérogène, on distingue deux types d’architecture: l’architecture clients-serveur et l’architecture pair-à-pair (peer-to-peer, p2p) (voir fig. 5). ❚ L’architecture clients-serveur est centralisée. Elle est constituée d’un serveur et de multiples clients. Les clients ne connaissent que le serveur et s’y connectent pour récupérer une partie du travail à exécuter. BOINC en est un exemple. ❚ L’architecture pair-à-pair est une extension de l’architecture clients-serveur. Chaque nœud de l’architecture est à la fois client et serveur, c’est une paire (client, serveur) communément appelée servent. Il s’agit d’une architecture décentralisée. Chaque servent ne connaît qu’une partie du système (ses plus proches voisins) jusqu’à un niveau donné. Les spécifications GNUTella sont un exemple de réseau pair-à-pair. Actuellement, les infrastructures de calcul basées sur cette technologie n’existent pratiquement pas. On a comme exemple de projets qui tentent de s’en approcher, Jalapeno b ou encore XtremWeb-CH j, k. L’application la plus connue du pair-à-pair reste bien évidemment le partage de fichiers: les réseaux E-mule ou KaZaa sont bien connus des plus jeunes d’entre nous.
������
�������
������
������
������
���������������
������
������
������
�������
�������
�������
�������
�������
�������
������
�������
���������������������������
������������������������
fig. 5 – deux architectures pour le calcul distribué
Références [1] [2] [3]
fi spécial été AlterIT page 60
Frank Drake. Project Ozma the search for extraterrestrial life. Proceedings of the NRAO Workshop held at the National Radio Astronomy Observatory, Green Bank, West Virginia, Workshop No. 11, pages 17 – 26, 1985. Ralf Gruber, Marie-Christine Sawley, et Pierre Kuonen. Le Grid EPFL, déploiement et évolution. EPFL - FI4/2003, dit.epfl.ch/publications-spip/article.php3?id_article=138 Eric Kopela, Dan Wertheimer, David Anderson, Jefl Cobb, and Matt Lebofsky. Seti@home - massively distributed computing for seti. Computing in Science & Engineering, 3(1):78 – 83, JanFeb 2001.■
Du consommateur à l’amateur Bernard Stiegler Philosophe, Directeur de l’institut de recherche et de coordination acoustique/musique (Ircam)
B e r n a rd . St i e g l e r @ ircam.fr
sur le Web dit.epfl.ch/publications-spip/article. php3?id_article=932
août 2005 lun. mar. mer. jeu. 1 2 3 4 8 9 10 11 15 16 17 18 22 23 24 25 29 30 31
ven. sam. dim. 5 6 7 12 13 14 19 20 21 26 27 28
fi spécial été AlterIT page 61
Inventer de nouveaux modèles industriels, une nouvelle puissance publique, et des entreprises de civilisation
La
grande responsabilité des industriels et des acteurs publics d’aujourd’hui et de demain est et sera de produire des modèles industriels nouveaux, qui ne reposent plus sur le calcul appliqué à la motivation, mais sur l’intensification des singularités comme néguentropisation des activités industrielles. Il faut pour cela cesser de raisonner en terme d’usages et d’usagers et commencer à raisonner en termes de pratiques et de praticiens. On n’utilise pas un piano: on le pratique. On utilise son téléphone portable, mais on devrait le pratiquer: il devient une sorte d’instrument, en réseau avec d’autres instruments, et avec d’autres praticiens. Il s’agit, en inventant des pratiques d’objets et de services industriels, de produire une véritable culture industrielle, et de dépasser le stade grégaire qu’auront représenté, dans l’histoire de l’humanité, les industries culturelles. L’usage des objets industriels jetables et peu désirables pollue l’atmosphère et l’esprit des individus psychiques et collectifs. La pratique des objets industriels doit réinventer les objets industriels tous les jours par cette pratique – là est la véritable société de l’innovation –, et par celui qu’il ne faut plus appeler le consommateur de cet objet, mais son amateur – comme il y a des amateurs de musique, c’est-à-dire d’instruments de musique[1]. Il ne s’agit pas ici simplement de vendre des services autour d’un objet, mais bien de constituer des communautés de savoirs – qui sauront trouver les conditions économiques de leurs échanges, mais dans lesquelles une nouvelle puissance publique, repensée, doit investir, et dans le temps au long cours de la pratique, qui est aussi le temps de l’individuation: l’Europe devrait devenir un modèle de cette nouvelle puissance publique, configurant cette société des savoirs dont on répète ici et là, comme pour s’en convaincre, et dans la plus grande confusion, qu’elle devrait être la concrétisation d’une troisième révolution industrielle. Comme la cellule ethnique de Leroi-Gourhan, une entreprise comporte un milieu intérieur et un milieu extérieur. Mais ce milieu intérieur et ce milieu extérieur ne se tiennent en relation que dans la mesure où ils forment des équilibres métastables où des flux de désir les traversent. Il y a des flux de désir dans les milieux extérieur et intérieur de l’entreprise que celle-ci doit capter et articuler, non pas pour les épuiser en les calculant, mais pour les intensifier en les exceptionnalisant. Telle serait la question d’une écologie du désir dans un capitalisme réinventé contre ses propres tendances autodestructrices, qui expriment l’instinct de mort aux plus hauts niveaux de l’économie. Les entreprises doivent devenir des amplificateurs du désir qui désire et produit des exceptions, et cesser d’être les organismes organisant sa destruction par la performance définie comme adaptation et instinct. Les entreprises doivent devenir des entreprises de civilisation. Chez Nietzsche, le comportement adaptatif est celui du dernier homme, le nihiliste qui renverse toutes les valeurs des clercs pour tout égaliser. C’est le mouton grégaire, la masse mimétique. Contre ce destin entropique, Nietzsche en appelle à une nouvelle figure qu’il appelle le surhomme. Mais le surhomme n’est pas un homme plus fort que les autres: c’est l’homme en acte, c’est-à-dire l’homme qui n’est homme qu’en tant qu’il s’excepte - y compris et surtout par rapport à lui-même: c’est l’homme qui ne cesse de se mettre en cause. En puissance, l’homme peut demeurer moutonnier tout en étant porteur de la possibilité de passer à l’acte en s’exceptant. Lorsqu’il passe à l’acte, il devient ce qu’il est: l’affirmation de la possibilité d’un avenir toujours nouveau. C’est ce que Nietzsche appelle une nouvelle croyance - qui est beaucoup plus qu’une simple confiance. En parlant de croyance, Nietzsche affirme qu’il faut croire dans l’exception - dans l’improbable. Il
les liens a
page d'accueil de Ars Industrialis
www.arsindustrialis. org b Commission Fédérale des Communications américaine
www.fcc.gov
bibliographie Éditions Galilee La technique et le temps. 1, 2 et 3 (1994, 1996, 2001) Passer à l’acte (2003) Aimer, s’aimer, nous aimer (2003) De la misère symbolique 1 et 2 (2004, 2005) Philosopher par accident (2004) Mécréance et discrédit (2004) à paraître en 2005: Constituer l'Europe, 1 et 2
Du consommateur à l’amateur
faut croire depuis un autre plan, un plan de consistance, qui n’est pas de l’ordre de ce qui existe, mais de ce qui consiste. Le dernier homme est celui par qui plus rien n’arrive. Il ne voit pas que, bien que Dieu soit mort, il y a de la consistance qui ne se réduit pas à l’existant, qui seul est calculable. Le dernier homme, adaptationniste, est profondément réactionnaire: il refuse de voir qu’est arrivée la fin du processus d’individuation où il se désindividue, et il nie qu’il faille inventer une nouvelle modalité de cette individuation. Ne voyant pas qu’il faut sauter non pas dans le devenir, qui ne nous attend pas pour s’écouler, mais dans un avenir qu’il faut faire en y sautant, il s’accroche à ce qui existe, où il demeure bloqué. Inventer une nouvelle croyance, c’est affirmer un avenir par delà le devenir, c’est relancer l’individuation, et ce devrait être la tâche d’une Europe à venir et le fondement de sa constitution. [...]
Minotaure aveugle devant la mer, conduit par une petite fille, 1934, Pablo Picasso (1881-1973), musée Picasso Paris © 2005, ProLitteris, Zurich
fi spécial été AlterIT page 62
Face au modèle du capitalisme à l’américaine de plus en plus défaillant, y compris aux États-Unis, l’Europe a une puissance de prescription très considérable. Mais elle ne se construira et ne se constituera qu’à la condition de bâtir un processus d’individuation psychique et collective capable d’inventer son propre modèle de développement. Et celui-ci ne se concrétisera que par l’invention de nouveaux modèles de socialisation des technologies culturelles et cognitives, issues des technologies de la communication et de l’information, et dont l’ensemble constitue ce que j’appelle les technologies de l’esprit. A cet égard, en France, l’Agence Nationale de la Recherche n’a pas encore identifié, je le crains, le caractère stratégique de ces industries de l’esprit, et continue à raisonner comme dans les années 1960, comme si les grandes questions d’avenir étaient l’atome, le rail ou l’aéronautique. Ce n’est pas là que se forme l’avenir. Bien sûr que ces enjeux demeurent des questions pour l’avenir, et qu’il faut une politique industrielle nationale et européenne dans ces domaines d’excellence. Mais ce qui fera les motifs de l’avenir, c’est l’industrie de l’esprit qui saura faire du passé européen non plus un poids, mais une force pour l’avenir. Ici, on ne peut qu’être profondément frappé de la pauvreté du débat qu’a suscité l’initiative prise par Google de constituer une bibliothèque numérique mondiale. Je vais revenir sur ce point. Mais je voudrais dire tout d’abord que la constitution de technologies industrielles de l’esprit suppose de dépasser la figure du consommateur, et de retrouver une intelligence de la figure de l’amateur qu’il s’agit de mettre au cœur du modèle industriel. Les technologies qui se développent, celles qui tirent les autres, ce sont les technologies cognitives ou culturelles, qui socialisent aujourd’hui massivement les technologies numériques. Le cognitif et le culturel mettent en œuvre des technologies de l’esprit, numériques et analogico-numériques, mais ce sans aucun modèle, sans aucune prescription pratique, sans aucun projet, ni national, ni européen, sans reconfiguration du social à travers elles, si ce n’est comme commerce électronique, et donc sans aucune théorie économique et politique de leur immense potentiel social.
Du consommateur à l’amateur
Ce gâchis inconcevable est encouragé par les groupes qui jouissent de rentes de situation et qui ne veulent rien y voir changer, en particulier les industries de programmes, qui ont investi dans des technologies du passé, et qui ne veulent pas diminuer leurs parts de bénéfices pour se mettre au niveau de l’innovation technologique la plus récente. Si l’on ne fait rien le jour viendra où l’on découvrira à la fois leur caducité et le fait qu’il sera alors trop tard pour renverser la vapeur. Ces médias, qui fabriquent l’opinion, ne cessent de légitimer ainsi leur immobilisme. Bertrand Gille a montré que les maîtres de forges lorrains développèrent la même attitude face à l’apparition du haut fourneau Bessemer, aidés en cela par l’État qui appliquait des barrières douanières aux aciers anglais, moins chers et de meilleure qualité, que la technologie Bessemer permettait de produire, jusqu’à ce que l’État découvre qu’il fallait acheter d’énorme quantité d’acier pour renouveler le réseau ferré national, compte tenu de l’augmentation de la vitesse des machines. Alors, les sidérurgistes lorrains durent réduire leur bénéfice et investir, c’est-à-dire changer de modèle de production – après que beaucoup d’argent eut été gaspillé, et beaucoup de temps perdu à préserver les bénéfices de ces sidérurgistes français. Jean-Paul Baquiast: Certains estiment que l’absence de modèle de développement des technologies numériques est une bonne chose, le début d’un grand mouvement de libération de la création. On dit que les jeunes et même les très jeunes s’affranchissent ainsi de ceux qui ne leur laissaient pas la parole. Bernard Stiegler: Je crains plutôt que ce modèle libertaire ne soit un bon alibi pour laisser jouer totalement le marché, sans aucune ambition publique. Un minimum d’organisation sociale permettrait à ces jeunes d’utiliser bien plus efficacement les ressources dont ils disposent. L’idéologie de l’auto-organisation est en réalité très dangereuse, surtout dans un monde qui est en train de rencontrer ses phases de passage aux limites, pour reprendre une thèse de René Passet. Nous développons des technologies de télécommunication et de convergence qui se répandent partout sans aucune stratégie à moyen terme et à long terme de construction d’un modèle social, sinon pour créer des services à rentabilité immédiate: c’est totalement absurde. Le modèle issu de l’idéologie américaine (qui ne correspond pas du tout aux pratiques effectives des USA) consiste à laisser le marché décider tout seul. Effectivement, sous l’influence du marché, certaines choses se passent, en apparence. Mais ce modèle est entropique, auto-destructif. Les technologies de communication ne communiquent que du vide, et cela ne pourra pas durer longtemps: cette société se réveillera bientôt avec une terrible gueule de bois, comme on dit. L’Europe dispose pourtant de grandes opportunités pour mettre en place des solutions différentes. Alors que j’étais directeur général adjoint de l’Institut National Audiovisuel, j’avais rencontré les équipes de recherche d’Alcatel, à Anvers, qui m’avaient convaincu que la technologie ADSL, c’est-à-dire aussi la télévision sur le téléphone, arriverait dans les 5 ans (c’était en 1996: cela a pris un peu plus de temps, mais c’est aujourd’hui effectif dans toute la France). Sur cette base, j’ai développé un modèle de télévision reposant sur l’hypothèse que les médias de diffusion de masse pourraient changer profondément de nature - à la condition évidemment d’une volonté politique forte. Le modèle qui dominait alors, la diffusion hertzienne par le réseau TDF, avec un ticket d’entrée pour la diffusion extrêmement élevé, aurait pu faire place à une tout autre économie, avec des images circulant dans les deux sens sur les paires de cuivre du réseau commuté, c’est-à-dire par la voie du téléphone. Il n’y avait plus, dans ce modèle, d’émetteurs, mais des serveurs. Il n’y avait plus seulement des grilles de programmes, mais des modes d’accès très individualisés à partir de ces grilles. Ceci signifiait la possibilité d’inventer un tout autre média, dont les pratiques pouvaient s’avérer extrêmement riches pour la vie de l’esprit, à commencer par l’enseignement et la recherche, mais aussi la formation professionnelle, et mille autres secteurs, commerciaux ou non. J’ai alors créé, pour préfigurer de tels modèles, un studio de production spécialisé, qui existe encore, animé par de brillantes personnalités [2], et qui a été depuis primé au niveau international, en diverses occasions. Cependant, ma tutelle ne m’a pas cru. Et surtout, elle n’a cru ni à la possibilité ni à la nécessité de mener une politique publique dans ce domaine. Ce que vous décriviez ressemble à ce que l’on voit déjà avec Internet.
fi spécial été AlterIT page 63
Internet se combinera bientôt avec la radio-télévision, en associant la logique de flux de la grille de programme issue de l’âge de l’émetteur avec la logique de stock de la chaîne devenant un serveur. Ces évolutions sont inscrites dans la logique des industries nouvelles, et c’est pourquoi l’on pourra faire un jour à grande échelle ce que j’avais fait avec France 3, en particulier dans un journal conçu dans le cadre de l’opération Télé Riviera, et pour une émission produite et animée par Bernard Rapp, Un siècle d’écrivains. J’avais alors proposé à Bernard Rapp, à l’occasion de la production d’une émission consacrée à Roger Caillois, de réaliser ce que nous appelions une production multi-supports, comportant un format de 45 minutes pour l’antenne, et des formats
Du consommateur à l’amateur
plus longs, et surtout, cliquables, c’est-à-dire navigables de façon non-cursive, délinéarisables et discrétisés par des technologies de représentation et d’indexation du flux, consultables sur Internet en formats de 2 heures, de 5 heures, voire de 10 heures... J’ai un peu théorisé ces expérimentations avec le concept d’objets temporels numériques dans quelques textes. Supposez un professeur d’université dont un étudiant de troisième cycle travaille sur Roger Caillois. Le film de 45 minutes ne lui apprendra pas grand-chose. Mais pour faire ce film, Nicolas Stern, son réalisateur, avait réuni de nombreuses heures d’archives, et enregistré des entretiens avec de grands écrivains. Tout ce travail pouvait devenir tout à coup utile à la société selon de tout autre critère d’utilité que ceux de l’audimat et du business à courte vue de TF1. On pourrait très bien imaginer de mettre en place un tel système de diffusion pour une part en accès gratuit (financé par la redevance ou la publicité), pour une autre en accès payant, et qui permettrait aux spécialistes un accès approfondi à l’œuvre de Roger Caillois - sans parler des opérations qui pourraient être réalisées avec la BNF sur les textes eux-mêmes. Des milliers d’heures de programmes de radio et de télévision se perdent, chaque année, alors que le travail considérable que suppose leur réalisation pourrait bénéficier à toutes sortes de catégories sociales, à commencer, bien sûr, par les écoles. La télévision ne serait plus alors cet avilissement généralisé qui détruit les processus de sublimation qui sont eux-mêmes à l’origine de l’école, mais, au contraire, ce qui viendrait les intensifier et les réinventer. On pourrait ainsi imaginer que la télévision à domicile perde peu à peu sa vocation exclusive d’entertainement, qui est en vérité devenue une fonction addictive, pour devenir une pratique sociale et culturelle nouvelle et riche. On peut imaginer cela pour la télévision, pour la radio, pour la presse, et pour toutes sortes de nouvelles formes d’expression qui permettent de revisiter et de revitaliser d’anciennes formes d’expression. C’est ainsi que je crois beaucoup aux possibilités de la photographie par téléphonie mobile pour apprendre à regarder des photos d’art, mais aussi des œuvres plastiques. Pourquoi ce système ne se développe-t-il pas? Il serait très valorisant pour les auteurs et réalisateurs d’émissions.
fi spécial été AlterIT page 64
Pour une raison très simple: les industriels des programmes n’ont aucune envie qu’il se développe - et ils ont bien tort, car c’est leur avenir qui est en jeu. Ces industries, qui ont choisi un certain modèle qui abaisse les téléspectateurs, ont par ailleurs investi dans la diffusion par satellite. Quant à la TNT (télévision numérique terrestre), elle n’introduit aucune innovation et ne change rien au modèle dominant. Il faut dire aussi que certains professionnels de la profession sont très frileux et se sentent menacés et dépassés par ces nouvelles perspectives, et que le corporatisme fonctionne alors à plein. C’est ainsi que l’on voit paradoxalement des mécanismes de résistance aussi bien chez les producteurs que chez les exploitants. Mais ce fut aussi le cas à l’époque de la sidérurgie dont je parlais précédemment: capitalistes et prolétaires s’accordaient alors à ne rien vouloir changer. Il existe un autre marché potentiel, un autre modèle d’activité économiquement rentable. Mais il ne se développera pas sans un investissement public soutenu et clairement finalisé. Nous sommes dans une situation analogue à celle qui avait caractérisé en France le déploiement des infrastructures ferroviaires. Sans l’État, les compagnies auraient été incapables de supporter le coût de mise en place des réseaux: dès le début du XXe siècle, la collectivité nationale dut racheter les compagnies qui ne parvenaient pas à équilibrer leurs comptes: elles étaient déficitaires alors même que tout le monde sait bien que le chemin de fer aura constitué la base même de la révolution industrielle. Cela voulait-il dire que l’on devait renoncer à étendre le réseau ferré ? Bien sûr que non. Cela signifiait que l’investissement devait être mutualisé et projeté dans le long terme, c’est-à-dire porté par la puissance publique. Aujourd’hui, la situation est la même face à la nécessité de développer des infrastructures culturelles numériques qui tournent le passé qu’est la culture européenne vers son avenir, et qui soient mises au service d’une élévation de l’esprit, et non d’un avilissement généralisé. Ces technologies du symbolique font muter complètement les logiques de développement. Mais tout comme le chemin de fer, elles sont confrontées à la résistance de la malle-poste et de la paysannerie - mais ici, la malle-poste et la paysannerie, c’est ce qui s’accroche au modèle caduc des industries de programmes. C’est pourquoi il faut que la puissance publique investisse dans la durée, afin de soutenir des modèles nouveaux d’utilisation, et ceci pendant de nombreuses années. Cette puissance publique, c’est l’Europe: c’est avec une telle capacité d’action que l’Europe bâtira le crédit sur lequel seulement elle pourra se construire dans la réalité, c’est-à-dire comme un processus d’individuation, et non seulement dans les chiffres et indicateurs abstraits et en vérité déréalisants de la technostructure.
Du consommateur à l’amateur
fi spécial été AlterIT page 65
Vous voulez dire que le premier devoir des dépositaires et gestionnaires de fonds culturels européens serait de numériser ces fonds et de les mettre en accès libre, en Open Source, à la disposition de tous, notamment au profit de gens qui en feraient des produits plus élaborés, éventuellement marchands ? Je ne parle pas simplement de numériser. Il faut évidemment numériser les documents existants, mais il faut inventer des modèles de production et par là même d’accès tout à fait nouveaux. La question est l’accès, mais telle qu’elle doit se penser dès la production, et c’est pour cela il faut investir. C’est une priorité majeure. Lorsque nous avions tenté de penser une nouvelle forme de production, à l’INA, il s’agissait d’élaborer une chaîne de production des images et des sons gérant l’ensemble des prises de vue et des enregistrements à travers un système numérique intégré de base de données, générant automatiquement ce que l’on appelle des métadonnées, par l’utilisation de fonctions spécialisées sur les caméras - ce qui a été formalisé par les normes MPEG 7 puis MPEG 21 -, et par l’exploitation des données de ce que l’on appelle les edit lists des bancs de montage virtuel, etc. C’est parce que ces technologies permettent d’installer un nouveau système technique audiovisuel, centré autour de la fonction de serveur qui transforme tous les stades du circuit audiovisuel, conception, production, diffusion et réception, que j’ai fait en sorte, dès mon arrivée, que l’INA entre dans le groupe industriel de spécifications de la norme MPEG [3]. Des enjeux économiques, industriels et culturels considérables sont derrière ces normes. Ce sont des domaines où l’intervention de la puissance publique est absolument indispensable pour mettre au point de nouveaux modèles d’accès et de navigation. Récemment, Jean-Noël Jeanneney, président de la Bibliothèque nationale de France, s’inquiétait légitimement, tout comme après lui le président de la République, de l’emprise que Google allait prendre sur les pratiques de lecture et l’accès à la littérature par son initiative de numériser 15 millions d’ouvrages en partenariat avec quatre grandes bibliothèques universitaires américaines [4]. Et il proposait de lancer une semblable initiative au niveau européen. Mais la question est-elle simplement de numériser ces textes, et de faire un moteur de recherche européen sur le modèle de celui de Google ? Ou bien ne s’agit-il pas au contraire de promouvoir une autre logique ? Le véritable enjeu est de mettre au point des modes d’accès aux textes numérisés qui apportent quelque chose de nouveau par rapport au modèle de Google, qui est à la fois très efficace pour une recherche rapide et grossière, et très primitif dès que l’on veut sortir d’une approche de masse, c’est-à-dire de la logique de l’audimat et du référencement, sur laquelle repose ce système de navigation qui renforce, par principe l’accès, aux consultations les plus fréquentes. Une toute autre logique consiste à formaliser et à industrialiser un langage d’annotation électronique des textes, et de faire en sorte que, par le biais d’un logiciel auteur, comme on dit dans le monde informatique, les lecteurs d’un même texte puissent partager leurs lectures, les échanger, les confronter, mais aussi et surtout baliser informatiquement, et avec des métadonnées, les textes lus, en sorte que d’autres lecteurs puissent bénéficier des apports de ces métadonnées. Car la numérisation des textes permet à la fois d’effectuer sur eux des opérations d’analyse de toutes sortes, par exemple extraire des cartographies sémantiques, produire automatiquement des index et des bases de données textuelles, mais aussi et surtout, laisser, sous forme d’annotations électroniques, des traces de lecture accessibles et exploitables par d’autres personnes que le lecteur qui les a produites. Imaginez pas exemple que Claude Lévi-Strauss ou André LeroiGourhan aient encodé leurs annotations de toute la littérature ethnographique et ethnologique sur laquelle ils ont travaillé, et que ces annotations soient aujourd’hui formalisées, accessibles et utilisables par les étudiants et les chercheurs en ethnologie: ce serait magnifique. En vérité, il est à présent tout à fait possible de développer et de systématiser l’usage de tels systèmes dans les laboratoires et les écoles doctorales - mais il faudrait pour cela que les pouvoirs publics veuillent bien investir des moyens et cessent de penser que seul le marché qui doit établir les modèles fonctionnels des systèmes techniques qui doivent s’imposer. Car cela aboutit à un appauvrissement de ces modèles, qui ne proposent que les fonctionnalités pour lesquelles existe un marché immédiatement solvable. Je ne veux nullement dire que les fonctionnalités que proposent les systèmes techniques issus du marché ne sont pas intéressantes, et elles le sont souvent, et j’utilise moi-même quotidiennement Google, comme beaucoup de monde. Je veux dire en revanche que ces fonctions sont en général souvent assez limitées, très inférieures aux possibilités qu’ouvrent les systèmes numériques, et adaptées à des usages très simples, et non aux pratiques qui constituent les modes opératoires des professionnels des textes ? Ces questions ont été étudiées en profondeur par un groupe de travail que j’ai constitué et présidé, lorsque le projet de ce qui s’appelait alors la Bibliothèque de France était encore au stade de la préfiguration. Durant près de deux ans, avec les conseils d’experts et en collaboration avec des chercheurs et des écrivains travaillant sur de vastes fonds textuels [5], ce groupe de
Du consommateur à l’amateur
travail, après des mois d’expérimentations, de formalisations de pratiques de lecture savante, et d’études d’ingénierie, a rédigé un appel d’offres, puis conçu et piloté la réalisation d’un poste de lecture assistée par ordinateur [6]. Ce dispositif proposait des outils d’annotation et d’analyse automatisée ou semi-automatisée, pour une part inspirés par des logiciels existants sur le marché, ou développés par des laboratoires spécialisés [7] dans ce que l’on appelle le traitement automatique des langues [8], appuyés sur le standard de la norme SGML, qui était alors le système de production de métadonnées de l’armée américaine, et dont HTML, puis XML, sont devenus les héritiers dans le monde d’Internet, qui n’existait pas encore comme service accessible au public lorsque nous travaillions ces questions. Ce programme aboutit en 1992 à la réalisation d’un prototype industriel développé sur une station SUN, et que nous avons appelé le poste de lecture assistée par ordinateur (PLAO). Or, il fut subitement interrompu pour des raisons politiques (changement de gouvernement). Le but était que ce prototype devienne un instrument de travail commun à plusieurs équipes mises en réseau (Internet apparaissait alors) et qu’il évolue vers une version commercialisable. L’arrêt du projet fit que tout ce travail, qui avait associé deux années durant chercheurs, ingénieurs, documentalistes et spécialistes du traitement automatique des langues à une société largement reconnue dans le secteur du texte numérisé fut intégralement perdu. Avec Bruno Bachimont (à l’Université de Compiègne), nous proposâmes deux ans plus tard, un programme baptisé OPEN (outil personnalisé d’édition numérique), qui reprenait les concepts du PLAO, mais dans l’univers du réseau Internet, et qui reposait sur l’idée de ce que nous appelions des sociétés d’auteurs, qui étaient en réalité des communautés de lecteurs dotés d’outils d’inscription formalisée de leurs actes de lecture par des conventions établissant des langages d’annotations qui étaient tout aussi bien des systèmes d’indexation très avancés. Les lecteurs devenaient ainsi de facto des scripteurs, c’est-à-dire les auteurs de leurs lectures ainsi formalisées (ce qui était aussi la base de la conception du PLAO, pour lequel nous posions que lire, pour un lecteur professionnel, consiste essentiellement à inscrire, et à écrire en ce sens): parce qu’elles étaient formalisées, ces lectures devenaient accessibles et appropriables par d’autres lecteurs. Ce programme, qui a été interrompu dès son lancement, lorsque j’ai été nommé à l’INA, développait le concept de ce que nous appelions des sémantiques situées, dans le sillage de la théorie dite de la cognition située. Et il permettait dès lors d’imaginer la mise au point de systèmes de navigation et de moteurs de recherche reposant sur l’analyse automatisée des annotations de lecteurs. L’idée en était que l’intelligence que représentaient les lectures savantes formalisées par l’annotation électronique devienne la base de techniques de navigation et de moteurs de recherche très avancés. Aujourd’hui, bien plus encore qu’à cette époque, ces technologies sont tout à fait disponibles pour réaliser un vaste réseau de lecteurs-annotateurs et un service de consultation des textes numérisés, basé sur un système d’accès européen, fédérant laboratoires et universités, et qui sorte ainsi de la logique de l’audimat que met en œuvre Google. Il est incompréhensible que l’on n’ait pas en Europe une politique d’envergure dans ces domaines. On considère que c’est à Microsoft, à Lotus Notes, à IBM ou à Google de faire des offres, qu’il suffira de les reprendre pour la mise en valeur de nos fonds. Mais dès que l’on adopte ces technologies américaines, on adopte un modèle qui est précisément ce par rapport à quoi l’Europe devrait savoir et pouvoir faire rupture. Malheureusement, tout ce que vous proposez se heurte actuellement à l’ignorance technologique et à la naïveté politique des chefs d’État, des ministres de tutelle et des directeurs d’établissement, en France, mais sans doute aussi en Europe. Il s’agit de gens qui, pour l’essentiel, ne savent même pas utiliser Internet. Nous abordons les guerres culturelles actuelles avec des chefs aussi ignorants que l’était Weygand en 1939 face aux nouveaux emplois de l’arme blindée.
fi spécial été AlterIT page 66
Je ne peux malheureusement que partager votre avis. A l’Ecole Nationale d’Administration, il n’y a toujours aucune formation à ces questions, pas plus d’ailleurs que dans les grandes écoles scientifiques. La France a un très grand problème de formation des décideurs en particulier dans ces domaines, et dans tout ce qui concerne les politiques technologiques. Le concept de système technique est la base de l’intelligence technologique, qui est devenue la base du devenir social, et donc, de toute évidence, de l’intelligence économique et politique. Or, ces technologies forment des systèmes que traversent des logiques évolutives, et il existe une théorie de l’évolution des techniques, dont les parlementaires, les hauts fonctionnaires, mais également les cadres supérieurs des grandes entreprises ignorent tout. Lors de mon passage à l’INA, j’avais proposé de créer un Observatoire des évolutions technologiques dans le domaine des industries culturelles. Il faudrait créer aujourd’hui un tel observatoire au niveau européen, et dans le domaine des technologies de l’esprit dans leur ensemble. Ces mutations sont très complexes, et demandent à être observées de près par des
spécialistes. L’Europe n’a aucun outil de ce type, que ce soit au niveau des États ou des Institutions européennes. Il faudrait ainsi outiller conceptuellement une puissance publique réinventée. Cette puissance publique, qui ne saurait se réduire à un service public, devrait évidemment associer le secteur privé, mais aussi le secteur associatif et les collectivités territoriales, pour mener des réflexions sur les investissements à long terme . Elle devrait lutter contre la maladie actuelle de l’économie, qui ne sait plus mettre en œuvre que des perspectives avec retours sur investissement à court terme - et il ne s’agit pas alors de l’intérêt public, mais d’action privées, qui font certes la vie quotidienne de l’économie, mais qui ne peuvent suffire à construire une véritable prospérité. Le 3 avril 1997, la Commission Fédérale des Communications américaine, la FCC b avait recommandé à toutes les stations de radio-télévision américaines de passer au tout numérique avant 2003, et prévenu qu’en 2006, l’analogique serait supprimé aux États-Unis, et que ceux qui ne s’y seraient pas préparés disparaîtraient. Il s’agissait là d’une excellente démonstration de ce qu’est une politique publique: cette commission a créé les conditions permettant au milieu industriel de se mobiliser, en stimulant la grande industrie, et en permettant à beaucoup de petites sociétés de l’époque de s’installer, de trouver des marchés, de développer des logiciels et de nouveaux services. Pendant ce temps là, que faisaient les Européens ? Ils subissaient la situation sans aucunement mesurer la portée de l’initiative de la FCC, faute d’une politique industrielle digne de ce nom. Aujourd’hui, l’Europe n’a toujours pas de vision industrielle dans le domaine de la culture. Elle en a peut-être dans le domaine militaire ou dans le domaine des infrastructures parce que là existent des ingénieurs et des traditions qui le permettent. Mais de nos jours, il ne suffit plus de faire des TGV ou des Airbus: il faut développer des industries du symbolique.
Du consommateur à l’amateur
Votre message est très convaincant. Mais comment le faire passer ? Je crois qu’il faut organiser des mouvements citoyens, qui associent au niveau européen des gens de tous milieux, industriels, universitaires, scientifiques et représentants des publics désireux de s’investir dans la construction de quelque chose de nouveau. Un sommet mondial de l’ONU autour de la société de l’information aura lieu à Tunis du 15 au 17 novembre 2005. Il s’agit d’un point de rendez-vous important. Il faudrait organiser d’ici là une mobilisation des bonnes volontés, fédérant des investisseurs, des concepteurs et des créateurs de toutes origines. Malheureusement, du côté des grandes entreprises et du pouvoir politique, c’est le silence. La plupart des acteurs économiques et politiques ne se sentent plus capables de prendre aucune autre décision que pour gérer le lendemain comme s’il n’était plus possible de voir plus loin que le bout de son nez. Or, l’avenir, surtout dans le contexte de compétition internationale qui s’intensifie chaque jour, appartient à ceux qui sauront voir loin, en prenant suffisamment de hauteur. La lutte contre l’avilissement et la démotivation généralisée passe par là, d’abord par là. Il est tout à fait possible d’agir - à condition de ne pas se contenter d’idées toutes faites. L’Europe devrait être le cadre d’une nouvelle capacité d’action. Mais cela nécessite d’apprendre à penser tout autrement.
Références N.B.: Cet article fait partie d’une réflexion que Bernard Stiegler développera dans un ouvrage à paraître prochainement, Le motif européen, tome 2 de Constituer l’Europe.
[1] [2] [3]
[4] [5] [6] [7] [8]
fi spécial été AlterIT page 67
Sur ce lien entre l’amateur et l’instrument en musique, De la misère symbolique, tome 2: La Catastrophè du sensible, Galilée. En particulier Jean-Pierre Mabille et Xavier Lemarchand. MPEG (Moving Picture Experts Groups) est un groupe de travail sous ISO/IEC, fondé en 1988, responsable du développement des normes internationales pour la compression, la décompression, le traitement et la représentation codée d’images mobiles, de l’audio et de leur combinaison. Ce groupe de travail est à l’origine de nombreuses normes dans le domaine du multimédia. Quand Google défie l’Europe: Plaidoyer pour un sursaut, Jean-Noël Jeanneney, Mille et une nuits. hellénistes, comme Christian Jacob, archéologues, comme Jean-Paul Demoule, poéticiens, comme Jacques Roubaud, traducteurs, comme Jean-Pierre Lefèvre et Jean Gattegno, philosophes, comme Bruno Paradis et moi-même. en particulier avec la société AIS de Berger-Levrault et son directeur, François Chahuneau. ainsi du logiciel Candide, développé par l’Inist et l’Ecole des Mines. qui est un stade de ce que j’ai analysé, en m’inspirant des travaux de Sylvain Auroux, comme processus de grammatisation, et qui constitue l’époque de ce qu’Auroux lui-même appelle les industries de la langue. ■
Editorial Jacqueline Dousson EPFL – Domaine IT
jacqueline.dousson @epfl.ch
sur le Web dit.epfl.ch/publications-spip/rubrique. php3?id_rubrique=167
fi spécial été AlterIT page 68
AlterIT,
une autre informatique, pour reprendre le jeu de mots qui nous est venu à l’esprit quand le thème du numéro spécial fut choisi. Il y aurait dans ce monde informatique autre chose que Microsoft, le plus connu du grand public, SAP, un progiciel qui couvre tous les domaines de gestion (comptabilité, finances, ressources humaines, gestion académique, etc.), LabVIEW, incontournable quand on parle d’acquisition et de traitements de données techniques et scientifiques, et pourquoi pas, Matlab l’outil universel de calcul mathématique. Loin de moi l’idée de critiquer ces produits; s’ils sont utilisés sur toute la planète, c’est qu’ils répondent globalement à un besoin. Il existe aussi une foule d’individus qui construisent ensemble un nouvel espace numérique. Qu'on ne s'y trompe pas, ils ne sont pas minoritaires; les phénomènes de musique à la carte et de blogs touchent de plus en plus de monde. Ce serait aussi une erreur de croire que ce ne sont que de gentils bricoleurs, regardez avec quel sérieux les développeurs de Plone ou de l’équipe GGWin font passer de véritables épreuves initiatiques avant d’accepter un nouveau venu. Et si le caractère ouvert de l’encyclopédie Wikipédia en fait toute l’originalité, ce n’est pas le joyeux chaos qu’on pourrait attendre, la définition des catégories, des régions, des portails est plus rigoureuse qu'il n'y paraît. À une époque où il est de bon ton de regretter le non-engagement des jeunes, découvrez certaines expériences, vous y verrez une vraie générosité! Et même si les psychologues du travail mettent un bémol sur la qualité des échanges tout numériques, on ne peut ignorer le fait que tous ces travaux collaboratifs n’ont été rendus possibles que grâce aux mails, Web, et autres techniques venues se greffer par la suite. Jusque dans le domaine très sérieux du calcul scientifique, de nouveaux modes de travail apparaissent, là aussi on parle de partage de codes, de récupération de puissance inexploitée, on dirait presque de l’écologie! Aujourd’hui quand nombre de certitudes risquent de s’effondrer le regard de deux intellectuels est là pour nous éclairer. René Berger qui depuis toujours traque, commente et nous alerte sur ces mutations et Bernard Stiegler qui incite les démocraties européennes à prendre urgemment conscience de ces nouveaux enjeux. Les techniques et expériences décrites dans ce journal feront le monde de demain, ce serait irresponsable de ne pas les considérer aujourd’hui. Que nous réserve le futur?, saurons-nous éviter les pièges de la techneurologie décrits dans le Salon de nuit ? En attendant, entrez dans ce numéro spécial, découvrez l’autre face de l’informatique et parions ensemble qu’ensuite vous ne regarderez plus de la même façon votre écran d’ordinateur! ■
Sommaire 1 Le dessin d’Esteban Rosales 2 Mutation(s) / Métamorphose(s)? René Berger 7 GGWin: historique et outils Andreas Jaggi, Vittoria Rezzonico & Stephan Walter 11 Wikipédia Jean-Denis Vauguet 14 Le fabuleux destin de Plone Olivier Deckmyn & Kamon Ayeva 18 Communiquer et collaborer à distancemythes et réalités Adrian Bangerter & Sophie Bettex 24 Jabber, un système alternatif de messagerie instantanée Marc Poulhies 27 Les blogs: au delà du phénomène de mode Stephanie Booth 32 Tisser sa toile à l’aide de fils choisis Laurent Boatto & Anne Possoz 35 Concours de nouvelles: Salon de nuit Sébastien Cevey 38 PolyPhone, communication polyphonique pour l’ETH Zurich Michele De Lorenzi & Armin Brunner 40 Ma radio, où, quand et comme je veux Pascal Bernheim 43 CocoaJT, l’information en images sur votre Mac François Roulet 44 Myotis, le rêve d’utopie Jérôme Knobl 48 CIEL – serveur de publication pour les codes de recherches scientifiques Violaine Louvet 51 Vers un outil Peer-To-Peer orienté calcul intensif Nabil Abdennadher & Régis Boesch 54 WOS: la Grille avant la grille Kevin Cristiano & Pierre Kuonen 56 le colophon 57 Des petits hommes verts au numéro 1 du top500 Vincent Keller & Michela Spada 61 Du consommateur à l’amateur Bernard Stiegler 68 Editorial Jacqueline Dousson
ISSN 1420-7192