Flash Informatique 2007 - no spécial été - IMAGES

Page 1

images

spécial été 2 0 0 7


en guise d’édito Analyse d’images Dans ce domaine, l’être humain est bien supérieur à l’ordinateur. Voir par exemple CAPTCHA (Completely Automated Public Turing test to Tell Computers and Humans Apart ), programme écrit par Luis von Ahn, Professeur au CMU, qui fabrique une image distordue avec des lettres ou des chiffres que seul un humain peut déchiffrer; c’est utilisé pour se prémunir contre les soumissions automatisées et intensives de robots malveillants. (source Wikipedia)

Sphère privée

De plus en plus de données privées vont se retrouver accessibles à tous, à l’insu de leur propriétaire; cela commence déjà avec les photos de StreetView disponibles sur Google. blog.wired.com/ 27bstroke6/2007/06/want_ off_street.html . +

Parlons d’images une estimation de 250 milliards de photographies numériques en 2007!

102 + hecto 103 + kilo 6 10 + mega (million) 109 + giga (milliard) 1012 + tera (billion) 1015 + petta 1018 + exa 1021 + zetta 1024 + yotta

Vers une écologie de l’information Bientôt on ne pourra plus stocker toutes les données produites, il va falloir choisir, trier, jeter. En 2006, la quantité de données numériques produites (161 exaBytes) est équivalente à 12 piles de livres joignant la terre au soleil. Il faudrait 2 milliards de iPods les plus puissants d’aujourd’hui pour garder toute cette information. cela fait environ 2.5GB par être humain, une simple clé USB en quelque sorte! En 2020, certains annoncent une production de 1000 exaBytes. miklos.blog.lemonde.fr/ (message du 06-03-07)

The ESP game Je vous suggère le jeu inventé par L. von Ahn déjà cité: une fois inscrit, le jeu vous assigne un partenaire dont vous ne connaîtrez rien, et avec lequel vous ne pourrez communiquer. A tous deux, on propose la même image issue de Google Images, il s’agit de lui attribuer un label; chacun de son côté propose une liste de mots, quand le même terme apparaît dans les 2 listes, il est choisi comme label de l’image et on passe à l’image suivante. Quand on tombe sur une image avec déjà des labels, ceux-ci deviennent tabous, il faut faire appel à son imagination ou bien passer à l’image suivante. L’inventeur de ESP game estime que si son jeu devient suffisamment populaire, les images de Google Images pourraient être labellisées en quelques semaines (aujourd’hui déjà 10 millions d’images ont reçu au moins un label). Un regret quand même, pour l’instant seul l’anglais est supporté. www.espgame.org/ FI spécial été 2007 – 28 août 2007 – page

Flash informatique Les articles ne reflètent que l’opinion de leurs auteurs. Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs.

Abonnement à la version électronique du fi en envoyant un courrier à: fi-subscribe@listes.epfl.ch

Rédacteur en chef: Jacqueline Dousson Mise en page & graphisme: Appoline Raposo Comité de rédaction: Omar Abou Khaled, Aristide Boisseau, Jean-Daniel Bonjour, Milan Crvcanin, Jean-Damien Humair, Laurent Kling, Pierre Kuonen, Daniel Rappo, Vittoria Rezzonico, François Roulet, Christophe Salzmann, Predrag Viceic & Jacques Virchaux Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse: DIT EPFL, CP 121, CH-1015 Lausanne 15 Courriel: fi@epfl.ch Adresse Web: dit.epfl.ch/fi-spip/ Téléphone: +4121 69 32246 & 32247


Simulation de foules d’humains virtuels en temps réel Introduction Ces dernières années, l’industrie cinématographique a développé de nouveaux effets spéciaux dans le but de représenter des foules convaincantes. Dans des films tels que Le Seigneur des Anneaux, nous avons pu observer d’immenses foules de guerriers réalistes qui nous ont littéralement scotchés sur nos fauteuils. Pour produire ces images impressionnantes, les studios d’effets spéciaux ont fait appel à une puissance de calcul considérable. En effet, une unique image peut demander plusieurs minutes, voire plusieurs heures de calcul pour être créée. Pour les professionnels des effets spéciaux, la contrainte de temps réel n’est donc pas le principal problème. Au VRlab, par contre, nous nous intéressons à ce challenge afin de créer des foules réactives à l’utilisateur. Pour satisfaire cette contrainte, les algorithmes utilisés doivent être capables d’être exploités plusieurs dizaines de fois par seconde. Les modèles développés peuvent ainsi être utilisés directement dans les jeux vidéo ou, par exemple, pour prévisualiser une séquence de film d’effets spéciaux de foules avant le coûteux rendu final. Dans cet article, nous décrivons plusieurs concepts qui nous permettent d’obtenir des foules imposantes et variées en temps réel, sur des ordinateurs conventionnels munis de GPU (Graphics Processing Unit).

Jonathan.Maim@epfl.ch EPFL – IC – Laboratoire de réalité virtuelle

Barbara.Yersin@epfl.ch EPFL – IC – Laboratoire de réalité virtuelle

fig.1– six modèles d’humains virtuels sont utilisés pour générer une foule. Des techniques de variété de couleur ainsi que des accessoires sont appliqués pour obtenir de la diversité. Dans un monde idéal, les GPU seraient capables d’effectuer le rendu d’une infinité de triangles, chacun d’eux muni d’un ombrage complexe, et ceci pour chaque image. Pour visualiser des foules d’humains virtuels, nous utiliserions simplement des milliers de différents maillages de triangles déformables très détaillés (suffisamment pour, par exemple, animer le visage et les mains). Malheureusement, en dépit des avancées technologiques dans le domaine du hardware graphique programmable, nous sommes toujours limités par un certain budget de triangles à dépenser pour chaque image. Les maillages polygonaux très détaillés sont donc exploités en nombre limité et seulement s’ils sont proches de la caméra. De plus, il n’est pas envisageable de créer un maillage par humain virtuel composant la foule, car cela nécessiterait, d’une part, un travail énorme requérant une armée d’artistes habiles et, d’autre part, un stockage considérable en mémoire. Nous utilisons donc seulement une série limitée d’humains qui nous servent de modèles. À partir de ces modèles, grâce à différentes techniques de variété que nous décrirons plus loin dans cet article, nous générons des milliers d’instances uniques. Un exemple de foule variée est montré dans la figure 1. IMAGES – 28 août 2007 – page


Simulation de foules d’humains virtuels en temps réel

Représentations d’humains virtuels Le concept des niveaux de détails est très utile pour effectuer un rendu efficace de la foule. Lorsqu’un humain virtuel s’éloigne du point d’intérêt, typiquement la caméra, nous allons progressivement remplacer son maillage détaillé par d’autres maillages, de plus en plus grossiers, puis ensuite encore par des représentations alternatives d’humains virtuels plus économiques en temps de calcul. Ceci nous permet d’afficher des foules imposantes de plusieurs milliers de personnes. Parmi les représentations alternatives d’humains virtuels, citons les maillages rigides. Ceux-ci possèdent exactement la même apparence que les maillages déformables, la seule différence étant que les déformations dues à l’animation ont été précalculées. Les temps de calcul sont donc considérablement réduits. Il est possible d’afficher environ dix fois plus de maillages rigides que de maillages déformables. En contre-partie, le catalogue d’animation jouable en ligne est limité à celui préalablement calculé. Par exemple, des animations procédurales telles que les mouvements faciaux ne sont plus envisageables. fig. 2 – une texture 1024X1024 stockant l’UV map et la normal map d’une Finalement, les imposteurs sont souvent posture d’un imposteur sous plusieurs points de vue. utilisés dans les simulations de foules en temps réel. Un imposteur représente un humain virtuel avec seulement deux triangles texturés formant un rectangle, donnant ainsi l’illusion voulue à une certaine distance. Similairement à un maillage rigide, les animations d’un imposteur sont précalculées, car la création en ligne serait trop fastidieuse. En effet, chaque posture de l’animation est stockée sur le GPU dans une texture différente et contient tous les points de vue nécessaires pour conserver l’illusion lorsque la caméra ou l’humain bouge. Un exemple de posture est montré dans la figure 2. Chaque texture est composée de deux parties distinctes : z une normal map, qui stocke dans chacun de ses triplets RGB les normales de l’humain virtuel. La composante x de la normale est stockée dans le canal R, la composante y dans le canal G, et la composante z dans le canal B. Cette normal map est nécessaire pour appliquer un ombrage correct sur les humains virtuels rendus comme imposteurs; z une UV map, laquelle stocke dans ses texels les coordonnées U et V des textures dans ses canaux R et G. Cette information supplémentaire est très importante, car elle permet d’appliquer sur chaque pixel de l’humain virtuel la texture correcte. Sans elle, il serait nécessaire de stocker une posture par texture d’humain virtuel disponible, et cela entraînerait un coût prohibitif en mémoire. Comme les imposteurs sont simplement des rectangles 2D, leur affichage est très rapide. Par exemple, il est possible d’afficher une foule de 20’000 personnes grâce aux imposteurs et ceci 30 fois par seconde. Leur désavantage principal est le stockage des animations qui est fig. 3 – une foule virtuelle dans un parc d’attractions exploitant les différentrès coûteux, à cause du nombre élevé d’images tes représentations d’humains virtuels pour afficher un nombre conséquent qu’il faut garder sur le GPU. d’individus. FI spécial été 2007 – 28 août 2007 – page


Simulation de foules d’humains virtuels en temps réel

Techniques de Variété Chaque modèle d’humain virtuel est utilisé pour instancier plusieurs milliers d’individus. Il est ainsi nécessaire de pouvoir varier les couleurs et la forme de chaque instance. La variation de couleur est basée sur l’idée de segmenter un humain virtuel en plusieurs parties. Cette segmentation peut se faire dans un des canaux d’une texture. Plus précisément, chaque partie de corps est représentée par un niveau d’intensité défini dans ce canal. Sachant que l’intensité dans un canal varie de 0 à 255, la partie de corps cheveux, par exemple, pourrait être attribuée à la valeur d’intensité 32, et ainsi de suite pour les autres parties de corps. Nous avons repris cette idée et l’avons appliquée à l’exploitation des segmentation maps pour obtenir une plus grande variété d’apparence. Par exemple, des transitions douces entre les parties de corps permettent d’obtenir une meilleure qualité de rendu pour les humains du premier plan. Les effets subtils de maquillage pour les personnages féminins, les motifs variés de textile, et les effets spectaculaires différents sur chaque partie de corps ne sont pas en reste comme on le voit dans la figure 4. Il est important de rappeler que créer des modèles d’humains virtuels demande beaucoup de temps à un artiste. C’est pourquoi l’ajout des accessoires nous permet de varier encore l’aspect des instances générées. En effet, dans la vie réelle, les gens ont des coupes de cheveux différentes, portent des lunettes et des sacs, utilisent des téléphones portables, etc. Ces particularités sont des détails tout aussi importants que la variété de couleur, car la somme de ces détails permet de rendre uniques les humains virtuels composant la foule. Nous travaillons essentiellement avec des accessoires simples, c’est-à-dire des accessoires pouvant être juste posés sur l’humain virtuel et n’impliquant aucun changement dans son comportement. Par exemple, un chapeau posé sur la tête du personnage, ou une montre à son poignet, un sac à dos à ses épaules. Pour l’affichage des accessoires, la technique utilisée pour les maillages déformables et rigides est similaire. Chaque accessoire est attaché à un endroit spécifique de l’humain virtuel. Prenons l’exemple d’un chapeau : il est généralement attaché au crâne des personnages et peut être orienté différemment selon le modèle d’humain virtuel le portant. Pour les imposteurs, les accessoires sont générés à l’avance, car ils sont eux aussi des imposteurs comme l’illustre la figure 5. Un problème important survient lorsque l’on exploite un imposteur humain et un imposteur accessoire : les occlusions. En effet, représenter chaque humain virtuel et chaque accessoire avec un rectangle 2D uniquement implique qu’on ne peut les afficher que de deux manières : soit l’accessoire est devant l’humain virtuel, soit c’est l’humain virtuel qui est devant l’accessoire. Cela peut créer d’importantes anomalies. Heureusement, grâce aux parties programmables du pipeline des cartes graphiques d’aujourd’hui, il est possible de traiter ce problème (cf. fig. 6). Une des actions prépondérantes des foules est la locomotion. C’est pourquoi nous nous sommes aussi intéressés à pouvoir y introduire de la variété. Pour cela, nous utilisons un moteur de locomotion capable de générer des cycles de marche et de course à vitesses variables. Cela donne déjà une

fig. 4 – exemples d’effets envisageables avec les segmentation maps : maquillage, taches de rousseur, motifs sur textiles, etc. Les valeurs de spécularité par partie de corps permettent d’obtenir par exemple des chaussures cirées ou des lèvres brillantes.

fig. 5 – un maillage de chapeau de cow-boy est transformé en imposteur. Des parties d’images sont échantillonnées tout autour du maillage pour créer les textures qui seront stockées sur le GPU. IMAGES – 28 août 2007 – page


Simulation de foules d’humains virtuels en temps réel

fig. 6 – à gauche: problèmes d’occlusion dus aux imposteurs; à droite: occlusions traitées grâce au GPU

fig. 7 – exemple de variété de mouvements introduite dans les foules : mains dans les poches, appel téléphonique, main sur la hanche, etc. impression de variété, car les gens ne marchent pas tous au même rythme. Pour accentuer encore la variété de mouvement des individus composant la foule, les cycles de locomotion sont passés au travers d’un moteur de cinématique inverse à priorités pour créer des animations secondaires telles que celles illustrées dans la figure 7.

Conclusion La simulation de foules en temps réel est un domaine de recherche qui propose de nombreux défis, notamment, car elle demande l’utilisation performante des processeurs (CPU et GPU) pour obtenir des résultats convainquants. Nous avons décrit les différentes représentations utilisées couramment dans les simulations de foules en temps réel, ainsi que les différentes techniques permettant une variété accrue dans la génération des individus composant la foule. Il est pourtant très important de comprendre qu’il existe beaucoup d’autres domaines touchant aux simulations de foules en temps réel. Parmi tant d’autres, citons la planification des mouvements de foules dans différents environnements, leur comportement, leur interaction même avec l’environnement, ou encore les simulations d’évacuation, qui peuvent être exploitées pour valider de réels plans architecturaux.

Remerciements

Nous remercions Mireille Clavien pour son excellent travail sur le design des humains virtuels et des scènes. n FI spécial été 2007 – 28 août 2007 – page


CAVE du VRLab Introduction Avez-vous vu le film Matrix? Dans cette histoire de science-fiction, les protagonistes pouvaient accéder à un univers virtuel en branchant une (menaçante) prise pointue de plusieurs centimètres directement dans leur cerveau. Cette connexion leur permettait de ressentir l’environnement fictif comme s’ils y étaient vraiment, tout en y percevant les sensations visuelles, tactiles, auditives, etc. La réalité virtuelle, en tant que science plutôt que science-fiction dans notre cas, essaie depuis une cinquantaine d’années d’obtenir un effet semblable, mais en utilisant des moyens moins invasifs qu’une pointe de dix centimètres enfoncée dans la tête des utilisateurs. Or, un des buts de la réalité virtuelle est de tromper de la façon la plus réaliste et convaincante possible nos sens, afin de nous donner l’illusion d’être dans un endroit, une situation ou un moment différent par rapport à la réalité matérielle. Vu que de véritables interfaces cérébrales pour réalité virtuelle ne sont pas encore vraiment disponibles, nous devons nous contenter de générer des images qui seront vues par nos yeux et analysées par notre cerveau. Pour satisfaire à ce besoin, différents moyens, allant de l’écran d’ordinateur jusqu’aux systèmes plus raffinés qui projettent des rayons laser directement sur la rétine de l’utilisateur [8], ont été développés. Le fait que la plus grande partie des vertébrés (homme inclus) possède une paire d’yeux qui envoie deux images à notre cerveau pour qu’elles y soient analysées afin de reconstruire une vision mentale spatiale à trois dimensions de l’environnement demande, par contre, la génération de signaux spécifiques pour chaque œil. En réalité virtuelle, on utilise donc couramment des systèmes de visualisation stéréographiques capables d’afficher au même temps des images différentes pour chacun des yeux. Parmi ces systèmes on dénote les écrans d’ordinateur couplés avec des lunettes 3D (qui peuvent être des simples filtres colorés rouge/bleu ou de plus sophistiqués obturateurs synchronisés avec le taux de rafraichissement des écrans cathodiques), les Head-Mounted Displays (des petits écrans qui peuvent être portées comme des lunettes, un écran par œil) et des installations nommées Cave Automatic Virtual Environment (CAVE).

Achille.Peternier@epfl.ch, EPFL – IC – Laboratoire de réalité virtuelle

Qu’est-ce qu’un CAVE? Un CAVE est un périphérique pour réalité virtuelle immersive composé de plusieurs parois-écrans (généralement quatre ou plus, bien que des versions minimales avec deux ou trois seulement existent [1]) qui forment une chambre cubique dans laquelle l’utilisateur peut entrer. Ce périphérique a été présenté pour la première fois en 1992 par Cruz-Neira et al. [2]. Des images synthétisées par des ordinateurs sont projetées sur ces parois-écrans qui, couplées avec des lunettes stéréographiques, permettent d’entourer l’utilisateur avec un rendu en trois dimensions. Pour calculer correctement ces images, la position de la tête de l’utilisateur est suivie à l’aide d’un système de tracking en temps réel. Cet appareil permet donc à un ou plusieurs utilisateurs d’entrer physiquement dans un environnement virtuel, contrairement aux écrans simples ou aux Head-Mounted Displays qui limitent le champ de vision et excluent d’autres utilisateurs ainsi que leur corps de la simulation 3D. Les CAVEs, et tout système basé sur des grands écrans, permettent donc une meilleure sensation d’immersion dans un environnement virtuel et améliorent l’interaction cognitive avec un scénario 3D [3, 4]. Malheureusement, la dissémination de ce genre d’appareil est limitée par trois facteurs aperçu du CAVE dans le Laboratoire de Réalité Virtuelle principaux [5] : leur taille (qui nécessite l’utiIMAGES – 28 août 2007 – page


CAVE du VRLab lisation d’une grande salle où les installer), leur difficulté d’utilisation (autant pour leur construction que pour la carence de plates-formes logicielles) et leur prix (notamment pour des solutions commercialisées comme celles de Barco [www.barco.com] ou VRCO [www. vrco.com] qui coûtent plusieurs centaines de milliers de francs).

VRLab CAVE Vu les avantages et applications au domaine de la réalité virtuelle que ce genre de périphériques apporte, le Laboratoire de Réalité Virtuelle (VRLab, vrlab.epfl.ch) a décidé de s’équiper d’un CAVE aussi. La solution adoptée par notre laboratoire est un hybride entre une version artisanale (comme décrit dans [1]) et professionnelle, afin de réduire de manière significative les coûts sans pour autant renoncer à un appareil moderne et de haute qualité [6]. Le CAVE du VRLab se compose de trois parois et un sol qui forment un semi-cube de 2.2 m de haut, 2.5 m de large et 1.8 m de profondeur. Le hardware est basé sur des produits standards qu’on peut acheter n’importe où dans le marché à des prix fort raisonnables par rapport aux équipements des CAVE commerciaux. Les trois parois sont constituées d’une toile de home-cinéma avec un cadre en fer, pliée sur les côtés avec un fil de nylon transparent. Le sol est une simple planche de bois peinte en blanc. Les images pour chaque paroi et le sol sont générées par quatre PC standards (Xeon 3 GHz, avec des cartes graphiques NVidia Geforce 7800), avec deux projecteurs LCD Canon LV-7210 par PC. Ces PC synthétisent en temps réel deux images séparées (pour l’œil droit et gauche) qui sont superposées sur les faces du CAVE en faisant converger les images projetées par les beamers. Un cinquième ordinateur fait office de maître du système et dirige les quatre PC via un réseau local privé à 1 Gigabit. Des haut-parleurs Dolby 5.1, reliés au PC serveur, ont été montés autour du CAVE pour produire de l’audio 3D. Côté software, nous avons adapté un moteur graphique crée dans notre laboratoire (appelé MVisio [vrlab.epfl.ch/~apeternier]) très compact et intuitif [7] en rajoutant le rendu dans le CAVE à ses capacités, tout en gardant sa transparence d’utilisation. Même si le CAVE est un outil principalement scientifique (comme un microscope ou utilisateur dans le CAVE avec rendu stéréographique un oscillographe), il faut une bonne quantité d’esprit pratique et de savoir-faire (aussi logiciel) pour en construire un en utilisant du matériel pas explicitement conçu pour et pour réadapter des logiciels déjà existants afin qu’ils fonctionnent dans une architecture client-serveur. Comme tout instrument optique, le CAVE nécessite une extrême précision de réglage pour assurer un rendu qualitativement bon. L’obstacle principal est constitué par le manque de réglage fin des projecteurs bon marché. Pour contourner cet obstacle, nous avons construit des supports en fer qui permettent de tourner et faire converger les projecteurs vers un même point sur les écrans. Ce réglage matériel n’étant pas suffisant, nous avons aussi développé un logiciel de calibration qui résout les lacunes persistantes du matériel. Le rendu des images est donc fait dans des textures qui sont ensuite mappées sur une grille de forme variable. Cette dernière peut être modifiée en déplaçant simplement des points de contrôle pour lui donner une bonne forme qui suit parfaitement les contours de la toile afin de corriger avec une précision au pixel près la superposition des deux images pour le rendu stéréographique et la continuité des images entre parois adjacentes. L’effet stéréographique est obtenu en utilisant deux projecteurs LCD pour chaque paroi. Contrairement à des solutions CAVE commerciales, qui utilisent d’habitude un seul (très cher) projecteur CRT par écran capable d’atteindre 120 Hz en balayage horizontal et donc 60 Hz par œil avec des lunettes synchronisées, nous avons placé des obturateurs LCD à 120 Hz devant les deux projecteurs pour obtenir ce même résultat, tout en gagnant aussi FI spécial été 2007 – 28 août 2007 – page


CAVE du VRLab en luminosité globale du système. Ces obturateurs bloquent le faisceau lumineux émis par un projecteur de façon synchrone avec les obturateurs portés par l’utilisateur. Lors de l’adaptation du moteur graphique, nous avons privilégié la simplicité d’utilisation aux prestations du système sans pour autant sacrifier une très bonne réactivité. Nous avons ainsi créé une plate-forme logicielle qui permet de passer d’un rendu standard sur un PC vers un rendu dans le CAVE sans rien changer du côté de l’utilisateur : MVisio se charge de synchroniser toutes les données et modifications entre le PC principal (serveur) et les PC du CAVE de façon complètement automatique. Passer d’un rendu PC à un rendu dans le CAVE est donc histoire de quelque minute, facteur qui facilite considérablement l’utilisation de ce périphérique en annulant les temps de développement normalement causés par le portage et l’adaptation d’une application pour la faire tourner dans cet appareil.

Conclusion La versatilité et l’utilité d’un CAVE, dans tous les domaines qui demandent une visualisation graphique d’éléments ou environnements fictifs, sont limitées par les difficultés d’accès (d’ordre logistique, économique ou technique) à de tels appareils. Grâce à notre solution, nous pouvons aujourd’hui bénéficier au VRLab de cet outil de travail avec un très bon compromis entre qualité et contraintes. Notre CAVE a déjà été et est continuellement utilisé pour plusieurs projets, allant de la modélisation de la marche humaine à la vulgarisation scientifique à l’aide de démos pour enfants et audience non spécialisée. D’ailleurs, que vous soyez chercheur ou pas, n’hésitez pas venir voir et essayer notre CAVE lors d’une des nombreuses visites et démos qui se déroulent tout au long de l’année!

humain virtuel mimant les postures de l’utilisateur dans le CAVE

Références [1] Jacobson J. et Hwang Z. 2002. Unreal Tournament for Immersive Interactive Theater. Communications of the ACM. 45, 1 (2002), 39-42. [2] Cruz-Neira C., Sandin D. J., DeFanti T. A., Kenyon R. et Hart J. C. 1992. The CAVE, Audio Visual Experience Automatic Virtual Environment. Communications of the ACM, June 1992, pp. 64-72. [3] Tyndiuk F., Thomas G., Lespinet-Najib V. et Schlick C. 2005. Cognitive comparison of 3D interaction in front of large vs. small displays. In Proceedings of the ACM Symposium on Virtual Reality Software and Technology, Monterey, CA, USA (Nov. 2005). [4] Buxton B. et Fitzmaurice G. W. 1998. HMDs, Caves & chameleon : a humancentric analysis of interaction in virtual space. SIGGRAPH Comput. Graph. 32, 4 (Nov. 1998), 69-74. [5] Hibbard B. 2000. Visualization spaces. SIGGRAPH Comput. Graph. 34, 4 (Nov. 2000), 8-10. [6] Peternier A., Cardin S., Vexo F. et Thalmann D., Practical Design and Implementation of a CAVE system, 2nd International Conference on Computer Graphics, Theory and Applications, GRAPP 2007, Barcelona, 2007. [7] Peternier A., Thalmann D. et Vexo F., Mental Vision : a computer graphics teaching platform, In Lecture Notes in Computer Science, Springer-Verlag Berlin, 2006. [8] www.cs.nps.navy.mil/people/faculty/capps/4473/projects/fiambolis/vrd/vrd_full.html n

IMAGES – 28 août 2007 – page


Tous photographes ! côté labo

L’arrivée

de la photographie numérique a révolutionné notre rapport à la prise de vue. Nous prenons beaucoup plus de clichés qu’avant, Daniel.Tamburino@epfl.ch, n’hésitons pas à faire plusieurs prises de vue de la même scène, ou à photographier des EPFL – LCAV – Images and choses insolites. Nous réfléchissons moins avant de déclencher, car au final cela ne coûte Visual Representation Group pas plus cher de faire 36 ou 360 photos. La photo numérique s’est démocratisée. Les nouvelles possibilités offertes à tout un chacun ont certes modifié la photographie dite amateur, mais pas seulement. Il arrive en effet que les photographes amateurs viennent empiéter sur le terrain des professionnels. N’importe qui peut ainsi se trouver sur le lieu d’un événement exceptionnel, prendre une photo sensation, avec son téléphone portable ou son compact numérique. Cette photo Collaborations exclusive intéressera peut-être les médias, qui la publieront. Un exemple marquant est l’attentat du 11 septembre 2001, dont les photos et vidéos amateurs ont fait le w Sabine Süsstrunk tour du monde ; sur Internet, mais aussi dans la presse écrite et les journaux télévisés. (IVRG, EPFL) Aujourd’hui, il existe des sociétés telles que Scoopt (www.scoopt.com) qui proposent w Patrick Schönmann aux internautes de vendre leurs photos sensations à la presse. (EPFL) Face à cette évolution rapide, le musée de l’Elysée a décidé d’organiser une expow Patrick Vandewalle sition autour de la mutation de la photographie amateur à l’ère du numérique. Ce (IVRG, EPFL) musée lausannois souhaitait garder une trace de ce qu’est la photographie amateur à w Mathieu Bernard-Reymond notre époque, ainsi que son rapport avec la photographie professionnelle. L’idée de (photographe) l’exposition Tous photographes ! était née. w Musée de l’Elysée, Lausanne Cette profusion d’images n’intéresse cependant pas que le monde artistique. Vu le nombre croissant d’images disponibles chez soi ou sur Internet, il est facile de s’y perdre, de ne pas retrouver la photo que l’on cherche. Beaucoup d’études ou de recherches sont menées afin d’étudier, analyser, classer, trier, retrouver ces images. Ces recherches ont toutes un point commun: la nécessité d’utiliser une bonne base de données d’images pour tester ou entraîner les algorithmes. L’accès à une telle base de données est souvent difficile: trop petite, trop chère, ne correspondant pas aux besoins spécifiques. Il faut donc en créer une. Le faire soi-même ? La base de données sera influencée par les besoins du chercheur et ne contiendra probablement pas un nombre suffisant d’images. Internet regorge de photos numériques. Pourquoi ne pas les télécharger ? Un site communautaire comme Flickr permet même aux utilisateurs d’associer des mots clés aux images. Il serait ainsi facile de se créer une grande base de données à moindres frais. Cette méthode pose cependant des problèmes d’aspect juridique, les images téléchargées l’étant sans le consentement de leur auteur. Face à ce grand besoin d’images est née l’idée du Flux. Ce projet est une collaboration entre le musée de l’Elysée et l’Image and Visual Representation Group de l’EPFL. Le but était de collecter un grand nombre de photos avec des tags et des mots-clés. L’idée principale était que chaque photographe amateur puisse envoyer ses photos sur un site Web. Bien entendu, il fallait donner une motivation à ces amateurs, car peu de gens l’auraient fait pour la beauté de la recherche. Nous avons donc proposé, dans le cadre de l’exposition Tous photographes !, de projeter les photos envoyées dans le musée. De plus, nous avons pris un instantané des photos dans leur contexte (une vue d’exposition) avec une webcam et renvoyé ces images à leurs auteurs via email. Pour tout un chacun, être exposé dans un musée, ne fusse que quelques secondes, est une motivation suffisante pour envoyer sa photo et donner quelques tags et mots-clés. Pour pouvoir soumettre une photo, il fallait remplir quelques champs, incluant Titre, Description, Lieu, Catégorie et Date. Les mots-clés étaient optionnels. Il fallait également accepter les conditions qui nous autorisent à exploiter ces photos dans le cadre de la recherche à l’EPFL. Ces informations permettront d’étudier comment les gens taguent leurs propres images. L’information donnée peut être très précise ou au contraire totalement subjective. Le champ Lieu peut contenir toute sorte d’informations, allant de maison à Lausanne ou encore des coordonnées GPS. vue d’exposition prise avec une webcam et renvoyée à l’auteur de la photo FI spécial été 2007 – 28 août 2007 – page 10


Tous photographes! côté labo

Un peu de technique Pour réaliser un tel projet, il faut premièrement créer un site Web permettant aux gens d’envoyer leur photo. Ces photos et les données les accompagnant doivent être stockées dans une base de données. Les fichiers pouvant aller jusqu’à 6 Mo, une version adaptée aux dimensions de projection est créée afin de diminuer la bande passante. Les photos doivent ensuite être validées manuellement avant d’être disponibles pour la diffusion au musée. Il faut sélectionner les photos à diffuser de manière pseudoaléatoire pour que chaque photo soit affichée au moins une fois. Ensuite, il faut synchroniser la prise de vue de la webcam avec Nicephor[e] était un autre module de la diffusion de la photo. Finalement, il faut envoyer la vue l’exposition Tous Photographes ! développé à d’exposition par email à l’auteur de la photo. l’IVRG. Ce projet, réalisé conjointement avec Le système mis en place se compose d’un ordinateur prinl’École des Sciences Criminelles de l’Univercipal, situé à l’EPFL, sur lequel tourne le serveur Web Apache sité de Lausanne, est un cours en ligne sur la ainsi qu’une base de données MySQL. Un second ordinateur, photographie scientifique et forensique. Conçu placé au musée, gère le diaporama de photos et commande de manière modulable, son contenu peut être la prise de vue de la webcam via une page Web sous Firefox. adapté pour différents cours et différentes Une requête AJAX va périodiquement télécharger une série de institutions. Il a déjà été utilisé avec succès photos sur le serveur central et les affiche pendant 5 secondes dans plusieurs cours, dont notamment le cours chacune avec le nom du photographe et son pays en surimDigital Photography du Prof. Sabine Süsstrunk pression. Parallèlement, une requête vers la webcam capture à l’EPFL. une vue d’exposition qu’elle associe à la photo diffusée grâce Une sélection de sujets allant de la physique à un marqueur temporel. Les emails ne sont pas envoyés tout de la lumière à l’image numérique était dispode suite, mais une fois par semaine lorsque le musée est fermé, nible pour le public lors de l’exposition. Les afin de ne pas surcharger le serveur principal. personnes intéressées pouvaient consulter sur Au premier abord, cinq secondes peuvent sembler peu pour des bornes Internet un site Web spécialement regarder une photo. Un temps plus long pourrait cependant créé pour l’occasion. ennuyer le spectateur, si la photo ne plaît pas. Au contraire, si la photo plaît, le spectateur est intéressé et regarde la suite, dans l’attente d’une nouvelle découverte. Ainsi, plus de 5000 photos sont diffusées chaque jour, captivant un grand nombre de visiteurs, qui restent parfois des heures à regarder ce flux d’images, pour découvrir ces multiples créations, ou peut-être espèrent-ils secrètement voir leurs propres œuvres s’afficher !

Autoriser les images Les images doivent toutes être validées manuellement. L’exposition étant ouverte à tout public, y compris les enfants, il a été décidé de bannir les images pornographiques ou trop violentes. La page de validation utilise des requêtes AJAX pour optimiser l’affichage dynamique des images à valider. Une fonction permet de détecter automatiquement les doubles, en comparant le nom des photos envoyées par un même photographe. Sur les plus de 34’000 photos reçues, 482 ont été bannies, soit environ 1.5%. Ce chiffre est relativement faible, et d’autant plus surprenant que 90% des images bannies l’ont été car il s’agissait de doubles. Les gens ont envoyé plusieurs fois la même photo, par erreur ou intentionnellement. Il reste donc moins de 50 images bannies pour leur contenu pornographique ou non approprié. Parmi ces images, il y en a aussi qui n’étaient pas des photos, mais des captures d’écran de personnages sur Second Life, le monde parallèle virtuel qui fait tant parler de lui. Il est intéressant de voir que certaines personnes associent ces captures d’écran à des photos, et donc le monde virtuel au monde réel. page permettant la validation des photos avant diffusion IMAGES – 28 août 2007 – page 11


Tous photographes! côté labo

Quelques chiffres

Perspectives

Nombre de photos envoyées quotidiennement

4% –

3%

Ita lie Roy aum e-U ni

Pendant les 14 semaines qu’a duré l’exposition, de février à mai 2007, nous avons recueilli plus de 33’000 images uniques JPEG avec des tags et mots-clés. Toutes les informations données par le photographe ont été collectées dans une base de données MySQL avec la photo originale. Cette dernière peut aussi contenir des informations EXIF si l’image n’a pas été éditée ou que le processus d’édition ne les a pas supprimées. Les photos ont été prises par 9042 photographes de 133 pays. Les 36% – Autres 30% – Suisse principaux contributeurs viennent de Suisse (30%), USA (14%), France, Grande-Bretagne, Italie et Allemagne. Chaque photographe a envoyé en moyenne 3.75 photos. Bien que les mots-clés n’étaient pas obligatoires, ne ag lem 69% des participants en ont donné, avec une moyenne de 3.3 mots-clés par l A 14% – USA – photo. Les dix mots-clés qui reviennent le plus souvent sont: nature, portrait, 3% art, lumière, noir, blanc, eau, ciel, coucher de soleil et architecture. Le nombre de photos envoyées chaque jour varie considérablement. Grâce 10% – France à une bonne couverture médiatique, le site Internet tousphotographes.ch s’est provenance des photographies rapidement fait connaître, en Suisse comme à l’étranger. Les grands pics d’affluence correspondent à des parutions dans la presse écrite ou télévisée. Avec le temps, le nombre de photos 1600 envoyées quotidiennement a progressivement 1400 diminué. Il est cependant intéressant de noter un regain d’intérêt tous les lundis : c’est ce jour 1200 que les photographes recevaient l’email avec la photo de la vue d’exposition et cela les motivait 1000 certainement à envoyer d’autres photos. 800

600

400

Cette importante base de données dont 200 nous disposons maintenant ouvre d’intéressantes perspectives en matière de recherche. 0 0 20 40 60 80 Plusieurs projets vont démarrer. Nous sommes Jours depuis le début de l'exposition intéressés par la relation qu’ont les gens avec nombre de photos envoyées quotidiennement leurs photos. Quels types de mots-clés leur attribuent-ils ? Peut-on associer ces mots-clés au contenu de l’image pour optimiser leur classification et faciliter leur recherche ? La pointe de la recherche permet actuellement d’extraire des caractéristiques objectives d’une image, c’est-à-dire de l’analyser et d’en extraire des mots-clés tels que ciel bleu ou portrait. Ces mots-clés sont-ils les même que ceux utilisés par les humains ? Beaucoup de questions auxquelles nous espérons répondre. Le projet du Flux, et plus généralement l’exposition Tous Photographes ! a été un véritable succès: une des expositions les plus visitées du musée de l’Elysée. Au-delà du grand nombre d’images récoltées, nous pouvons voir le rayonnement de cette exposition sur les blogs d’internautes qui partagent fièrement leur vue d’exposition. Une simple recherche sur Flickr avec comme mots-clés tousphotographes et allphotographersnow (nom de l’expo en anglais) permet de trouver plus de 1300 vues d’expositions que les photographes ont décidé de partager avec la communauté Internet. Cette réussite ouvre d’autres perspectives. Pour augmenter la taille de la base de données, il est possible que ce projet s’exporte dans un musée à l’étranger. En attendant, pendant la lecture de cet article, plusieurs millions de photos numériques ont été prises !

Liens z z z z

ivrg.epfl.ch www.tousphotographes.ch www.elysee.ch nicephore.unil.ch n

FI spécial été 2007 – 28 août 2007 – page 12

100

120


Tous photographes! côté expo

L’exposition

Tous photographes qui s’est tenue au Musée de l’Elysée, Lausanne, du 8 février au 20 mai 2007, avait pour thème la mutation de la photographie amateur à l’ère numérique. L’exposition s’est voulue interactive et de nombreux amateurs y ont participé en envoyant leurs photos. Nous nous sommes rendues sur place le vendredi 23 février pour en savoir plus sur les coulisses de l’exposition. Le musée de l’Elysée s’est mis en quatre pour informer nos lecteurs : w Jean-Jean Clivaz, médiamaticien, responsable des installations techniques w Pierre Fürer, responsable de la lisibilité de l’exposition, donc du graphisme et de la signalisation w Hervé Wagner, civiliste w André Rouvinez, responsable logistique et muséographie.

Jacqueline.Dousson@epfl.ch, EPFL – Domaine IT

Appoline.Raposo@epfl.ch, EPFL – Domaine IT

Donnez-nous quelques chiffres à propos du matériel Une grande partie du matériel a été prêté par HP, partenaire de l’exposition, dont les imprimantes et principalement celle pour les posters : z 10 écrans plats z 10 ordinateurs z 10 téléphones portables z 4 photo-cadres z 1 imprimante HP Designjet 3100 z 4 imprimantes photosmart HP De plus, nous avons vu dans chaque pièce des clés USB fixées au mur qui relèvent température et humidité de l’air ; il suffit de les planter sur notre ordinateur pour avoir des courbes de température sur une année et demie. de gauche à droite : Messieurs Clivaz, Fürer, Wagner et Rouvinez Dites-nous deux mots sur l’exposition Notre exposition se veut avant tout un concept, une expérience, un laboratoire. Vous y verrez la photographie vue par un site communautaire : Flickr, par une agence : Scoopt et par un site de publication : Lulu. Nous abordons le phénomène du photo-journalisme citoyen à travers les blogs, les albums électroniques. Notre but est de présenter les nouvelles technologies, d’analyser leur répercussion sur notre quotidien – 250 milliards de photographies numériques seront prises en 2007 dans le monde -, de les expliquer de manière interactive. Cette exposition n’est pas classique pour nous, nous avons besoin d’un support texte très important. Les visiteurs aiment que tout soit évident tout de suite. Nous essayons donc d’attirer leur attention avec ces panneaux de couleur orange ou gris. Dans chaque salle, une citation vieille de plus de 100 ans proche de la thématique exposée fait un rappel historique comme cette lettre d’un lecteur au Daily News en 1895 : Le parlement ne pourrait-il pas faire quelque chose pour diminuer les nuisances causées par les personnes qui se promènent avec des le tableau des appareils appareils photographiques portables ? IMAGES – 28 août 2007 – page 13


Tous photographes! côté expo

Quelques informations glanées au cours de la visite des différentes salles

JPG Magazine JPG Magazine est à la fois un magazine imprimé vendu en kiosque et une communauté en ligne. Sa particularité est d’être créé par ses lecteurs qui contribuent, sans rémunération, en envoyant des photographies. Les lecteurs votent pour leurs préférées qui sont imprimées dans le numéro suivant. Concours citoyen Yahoo Japon propose un concours pour augmenter la participation aux élections. La photographie est utilisée comme un moyen de développer un esprit civique. Les autorités japonaises essaient par le biais d’un concours, axé sur les valeurs d’environnement, de santé publique, etc. d’inciter les électeurs à se rendre aux urnes. Et cette petite boîte noire avec un bouton ? Le procédé est simple, le bouton déclenche l’envoi d’un message à un serveur qui renvoie quelques minutes ou quelques heures plus tard, une photographie de Flickr prise à la seconde même où vous avez appuyé sur le bouton. C’est un peu comme si l’instant était le facteur déterminant de la photographie et non la scène que vous avez sous les yeux. Encore un bouton à presser ? Il s’agit d’un gag contenu dans la première publicité de Kodak fin des années 1880 pour montrer que la photographie devient accessible à tous : Vous appuyez sur le bouton, nous faisons le reste ! Ici en appuyant sur le bouton croyant prendre une photo, vous enclenchez un petit magnétophone et le plus petit haut-parleur au monde diffuse un chant de l’époque. Et ces photos de presse ? Dans cette salle nous apportons le regard des professionnels sur les photos d’amateurs témoins. Le fait n’est pas nouveau, déjà en avril 1951, le grand journal japonais Mainichi a publié une photographie prise par un témoin d’un terrible accident de train. L’événement a eu un écho important au Japon et est à l’origine de la fondation de l’Association japonaise des photo reporters. On voit ici une photographie d’un crash pendant un meeting aérien; cette photographie d’amateur a été repérée par l’agence SIPA lors de son développement; après négociation, elle a été vendue dans le monde entier. Depuis le 11 septembre 2001, les photos d’amateurs relatant l’actualité se sont multipliées à grande des exemples d’images réalisées par des reporters citoyens vitesse et sont devenues un élément incontournable de l’actualité journalistique, le badaud étant sur place devient reporter. La photo prise par un téléphone portable par un passager du métro lors des attentats terroristes de juillet 2005 à Londres a fait la une de beaucoup de journaux dans le monde. Quoique d’une qualité technique très mauvaise, signature de l’outil qui l’a prise, elle a un poids émotionnel plus important que beaucoup de photos prises par des appareils professionnels. Susciter la réflexion plutôt qu’un discours moraliste, là est notre propos. Voici une photographie reçue par un journaliste sur son téléphone portable pendant son séjour à Gaza. La photographie lui montre ce qu’il est en train de regarder; il se retourne et voit l’auteur de la photographie qui lui demande de l’aide pour sortir du pays. FI spécial été 2007 – 28 août 2007 – page 14


Tous photographes! côté expo Concours de la meilleure photo amateur faite à partir d’un téléphone portable Nous montrons ici le concours d’Ericsson pour aborder le sujet, mais il en existe de nombreux autres. Tous paparazzi ? Splash émet des appels sur le Net pour recevoir des photos de stars faites par des amateurs; chaque semaine nous recevons de leur part une image qu’ils ont choisie pour nous. Nous voici arrivés dans le lieu qui a donné son nom à l’exposion : Tous photographes Les images téléchargées sur le site tousphotographes. ch arrivent sur le serveur du Laboratoire de communications audiovisuelles de l’EPFL, responsable de cette partie de l’exposition. A partir de 11h00 du matin, le flux d’images qui arrive est projeté; chaque image, projetée à raison d’une toutes les quatre secondes, est filmée par une caméra et le participant reçoit une image prise par webcam de sa photo telle que montrée au public du Musée. Les images arrivent du monde entier. Chaque semaine l’ordinateur choisit 100 images pour en faire un poster qui est imprimé sur l’imprimante HP Designjet 3100; elles entreront dans la collection du musée.

l’image, chargée sur le site tousphotographes.ch, diffusée sur le mur du Musée

Outre ses aspects culturel et technologique, cette démarche a aussi un objectif scientifique : collecter un grand nombre d’images avec leurs informations respectives. Cela doit permettre aux chercheurs de l’EPFL, d’une part d’évaluer comment le public annote ses photos, et d’autre part de développer de nouveaux algorithmes pour l’indexation automatique des images. La professeure Sabine Süsstrunk qui dirige le projet pense pouvoir disposer de la plus vaste banque d’images existante à des fins de recherche après l’exposition. Son laboratoire est aussi responsables des aspects éducatifs sur la technologie numérique. Chaque semaine, de 150 à 200 photographies seront collectées et imprimées en grand format sur l’imprimante HP Designjet 3100. Ces épreuves, présentées dans une exposition dynamique, seront renouvelées chaque semaine, un exemplaire étant conservé dans la collection du musée. Nous voilà 150 ans en arrière ? Dès le début de la photographie, les amateurs ont été légion. Le musée de Vevey nous a prêté cet appareil miniature, un des premier Kodak miniature, merveille de technologie avec un film qui nous montre que les appareils miniatures ne datent pas d’aujourd’hui.

première image du soleil prise en1845

Tabou ou choquante Comment montrer la pornographie ou les images de chirurgien ? Ici on voit que dès le début de la photographie, les images licencieuses ou choquantes existent. Art ou exhibitionnisme Natacha Merritt provoque l’émoi du milieu artistique pour avoir osé choisir sa propre sexualité comme sujet de photographie numérique. Hier, ses photographies semblaient relever de l’exhibitionnisme et demain, elles seront exposées IMAGES – 28 août 2007 – page 15


Tous photographes! côté expo dans des biennales d’art contemporain. Au sous-sol ne marchons pas sur ces petits écrans… que projettent-ils donc ? Ce sont des images saisies dans le cadre du projet iLake. Ce projet consistait à demander aux nombreux touristes qui prennent des photos depuis le bateau sur le Lac des Quatre-Cantons, haut lieu touristique suisse, l’autorisation de faire une copie instantanée de leur photo. Le but de ce projet est d’initier une réflexion sur le thème de l’image touristique. Et ce mur d’images ? Ici, ce sont les noms de fichiers qui ont retenu l’attention d’Adrien Cater. Après une recherche de img_001.jpg sur Google images, nous avons sélectionné les 1500 premières et les avons imprimées sur ces petites imprimantes HP. Ici, le facteur déterminant n’est pas le temps, mais le numéro : img_001.jpg indique en général la première photo prise par un appareil numérique. installation d’Adrien Cater, Random Access Memory Copyright protected ? Le photographe Arthur During a remarqué qu’une de ses œuvres : raindrops apparaissait sur de nombreux sites Web sans son accord. En réponse, il a réalisé une installation à partir de saisies d’écrans montrant l’utilisation de raindrops dans différents contextes. Amateur ou professionnel ? C’est un des thèmes de réflexion de l’exposition. Il y a d’un côté ces professionnels qui font des photos comme des amateurs, avec un pixel grossier, un éclairage peu sophistiqué, qui inventent une nouvelle esthétique plus dans l’air du temps. Il y a aussi des professionnels qui, comme Dag Nordbrenden, reprennent la même scène, avec les mêmes meubles et les mêmes personnes que des photos amateurs prises une quinzaine d’années plus tôt. Au visiteur de savoir détecter la différence du regard. Un jeune New-Yorkais a pris en photo tous les jours pendant 6 ans sont visage sous le même angle et avec la même expression. Il en résulte une vidéo étonnante projetée sur les murs du musée (il suffit de taper Noah dans Youtube pour la voir). Etes vous surpris du succès ? Naturellement, au début nous étions très inquiets. Le démarrage a été un peu lent. Ensuite nous avons eu un pic et maintenant nous nous considérons en vitesse de croisière. Nous pouvons dire aujourd’hui que c’est une exposition qui attire beaucoup de visiteurs. C’est une exposition sur le phénomène photo amateur – photo professionnelle. Le musée de l’Elysée fonctionne comme un laboratoire. D’autres musées s’intéressent au concept. Nous verrons quel type de débat cela a suscité. Au-delà de la fréquentation physique du musée, nous avons vécu une véritable révolution via le Web. En effet, un débat s’est créé au sein de la blogosphère et en cela cette expérience est une réussite pour nous puisqu’elle a dépassé le cadre du musée. Quant aux chiffres, un peu plus de 34’000 images ont été chargées sur le site de l’exposition en provenance de 133 pays différents. L’autre aspect très intéressant, c’est que les participants ont eu une démarche très artistique, c’est-à-dire qu’ils choisissaient clairement leurs plus belles images puisqu’elles devaient être exposées dans un musée. Ce n’est donc pas du tout le même type d’images que celles que l’on pouvait voir dans l’installation d’Adrien Cater. n

FI spécial été 2007 – 28 août 2007 – page 16


Partage de photos dans l’esprit Web 2.0

Qu’attend-on

d’un site de partage de photos ? Deux cas peuvent se présenter. Premièrement, vous avez envie de partager de belles photos que vous avez prises avec un utilisateur quelconque. Deuxièmement, vous avez, par exemple, les photos d’un repas de famille que vous souhaitez partager avec votre famille. Vous pourriez alors les mettre à disposition sur un site de partage de photos. Flickr1 est probablement le service de partage de photos le plus utilisé sur Internet. Il permet de publier ses photos et de les classer. Flickr appartenant à Yahoo! Inc., pour s’inscrire sur Flickr, un compte Yahoo! ID est nécessaire. En vous rendant à la page de gestion des comptes 2, vous pouvez voir votre profil. Il est possible entre autres d’ajouter un avatar et de changer le nom d’écran. Vous pouvez aussi modifier l’adresse de votre page personnelle Flickr pour en avoir une plus facilement mémorisable, par exemple : www.flickr.com/photos/epfl (pour les photos) et www.flickr.com/people/epfl (pour le profil). Pour envoyer des photos sur Flickr, plusieurs méthodes sont possibles. La première est d’utiliser l’interface du site3. Une deuxième serait par exemple d’utiliser Flickr uploadr et autres outils4.

Matthieu.Taggiasco@epfl.ch étudiant EPFL – section d’Informatique

Taguer les photos C’est probablement l’étape la plus importante pour le partage de photos. En effet, en taguant correctement vos photos, vous allez permettre aux autres utilisateurs de trouver vos photos sur le site. D’autre part, cela vous permet également de vous y retrouver si vous avez une grande quantité de photos. Flickr permet d’ajouter jusqu’à 75 tags à une image, alors autant ne pas s’en priver, ça ne peut qu’être un plus. Mais comment bien taguer vos photos ? Il faut faire la distinction entre la partie descriptive et la partie symbolique. Pour la partie descriptive, il vous suffit de répondre aux questions : qui (personne, plusieurs ?), quoi (objets principal et secondaire), quand (jour, nuit, saison ?), où (quelle ville ? Nature ?) et comment (quelle action). Vous pouvez également spécifier le style (flou, en couleur, noir et blanc) ainsi que le format (horizontal, carré,...). La partie symbolique est peut-être moins évidente. Y a-t-il un état d’esprit associé ou un concept associé à l’image ? Elle peut également être classée dans des catégories thématiques. D’autres fonctionnalités de Flickr permettent notamment d’ajouter une information sur une partie de l’image, de taguer une photo en indiquant l’endroit où elle a été prise, ou encore de créer des albums afin de classer ses photos (3 albums pour les comptes gratuits).

Partage en dehors de Flickr Pour utiliser une de vos photos sur votre site, votre blog ou autre, il vous suffit de cliquer sur Afficher les différentes tailles. Deux solutions vous sont proposées, la première vous donne directement le code html à copier et coller, la deuxième vous donne l’URL de l’image. 1

3 4 2

www.flickr.com www.flickr.com/account www.flickr.com/photos/votrenom Pour voir une liste des différents outils disponibles : www.flickr.com/tools/

IMAGES – 28 août 2007 – page 17


Partage de photos dans l’esprit Web 2.0 Au dessus de chaque photo, vous avez également un lien Bloguer cette photo qui permet d’envoyer directement la photo sur votre blog après configuration. L’aspect communautaire de Flickr permet de créer des groupes et de partager vos photos à l’intérieur du groupe uniquement. Vous pouvez également faire une recherche sur les groupes existants et vous y inscrire. Flickr fournit également une API, www.flickr.com/services/api/. Comme beaucoup d’API, il vous faut d’abord vous enregistrer afin d’obtenir une clé. Plusieurs kits API sont proposés pour différents langages de programmation, notamment pour Java, .NET, etc. L’API est assez bien détaillée sur le site.

Flickr est un site en constante évolution. Des nouvelles fonctions sont ajoutées régulièrement. Il permet également de garder contact avec les autres utilisateurs du site. Vous pouvez rechercher des utilisateurs, et gérer votre liste de contacts. C’est donc un outil de qualité pour partager vos photos. Vous pouvez ajouter des tags à vos photos et choisir leur visibilité.

D’autres sites D’autres sites permettent le partage de photos. Riya propose le partage de photos comme Flickr, mais permet également de détecter les personnes présentes sur les photos via un apprentissage rapide. Il effectue un traitement sur des critères tels que les couleurs des cheveux et de la peau, des vêtements, etc. Fotolia est moins porté sur le partage de photos, mais plutôt l’achat/vente de photo numérique. Les photographes peuvent définir leur prix. C’est une mine d’or pour les designers puisque des photos de bonne qualité peuvent être vendues à très bas prix. n

Chemins de traverse © Charles Duboux & Uli Doepper Disposées au fil des pages des illustrations vous racontent la construction d’une image qui a gagné sur concours le droit d’être exposée publiquement dans le cadre de la manifestation Jardins urbains 2004, Lausanne. Infographie du Projet pour le concours Jardins urbains

FI spécial été 2007 – 28 août 2007 – page 18


Post Tenebra Lux Introduction Dans notre société de l’apparence, il existe une quête incessante pour produire des images de plus en plus réalistes, intitulées photo-réalistes. Après une phase académique, où pratiquement tous les algorithmes de représentation actuellement utilisés ont été imaginés, on se trouve dans une période d’exploitation des capacités du processeur graphique (GPU, Graphics Processors Unit) qui atteignent des performances remarquables. Comme souvent, ce n’est pas le public cible qui a permis de développer ces technologies : z pour la vidéo VHS, ce n’est pas le cinéphile, mais c’est bien plus l’industrie des films X, z pour les DVD, le même phénomène s’est reproduit, z pour les cartes graphiques 3D, ce ne sont pas les technologies de représentation comme l’architecture, le dessin mécanique ou la biologie, mais l’industrie des jeux. Actuellement, un processeur graphique présente des capacités de traitement vertigineuses dans une logique massivement parallèle. Cette débauche de puissance n’intéresse pas uniquement les amateurs de jeu. Récemment, Google a racheté PeakStream pour sa technologie de virtualisation du calcul parallèle. Ainsi, il est possible de développer des algorithmes qui s’adaptent au matériel, processeurs mono & multi cœurs, y compris ceux inclus dans les cartes graphiques. Si cette capacité de calcul est disponible, il peut être utile de se poser la question de la qualité des résultats obtenus. Le cadre de cet article se situe dans le domaine de l’architecture, et plus particulièrement dans celui de sa représentation dans l’espace. Pour illustrer mon propos, j’ai utilisé une maquette numérique simplifiée, semblable à celle que l’on construirait en carton, d’un bâtiment remarquable du célèbre architecte japonais Tadao Ando.

Laurent.Kling@epfl.ch, EPFL – STI

La maison Azuma de Tadao Ando Dans le quartier de Sumiyoshi Ku, au centre d’Osaka, ville méridionale du Japon, cet édifice se situe sur un terrain particulièrement réduit de 49 m2. Cette minuscule parcelle étroite et allongée, 3.5m x14.5m, a permis la construction d’une maison de 57m2 habitable. Construit en béton armé en seulement 6 mois, de 1975 à 1976. La qualité architecturale a été récompensée par le prix de l’institut de l’architecture au Japon en 1979. La maison est divisée en 3 volumes égaux, 2 blocs séparés par un patio, le tout isolé de l’environnement extérieur. L’unique ouverture sur l’extérieur est le ciel du patio central. Elle est composée de deux étages : le rez-de-chaussée, un patio intérieur et son escalier reliant deux espaces, le salon et une cuisine/salle de bain ; au 1er étage, le patio central avec sa coursive distribuant deux chambres. Sous une apparence simple, cette typologie représente un défi intéressant pour les algorithmes utilisés en image de synthèse.

perspective centrale de la maison Azuma de Tadao Ando IMAGES – 28 août 2007 – page 19


Post Tenebra Lux

De l’espace au plan Faute de média satisfaisant, la quasi-totalité des représentations de l’espace se fait à travers l’utilisation de la perspective ou des axonométries. Cette vision du monde consiste à transposer sur un espace plan, la feuille de papier, le tableau ou l’écran de l’ordinateur une vue réelle ou imaginaire. La perspective connue depuis la Renaissance, traitée par l’informatique est singulièrement simplifiée : z un trou comme objectif, z une netteté infinie, z une exposition indéterminée, z une vision limitée à un prisme rectangulaire. de la couleur à la teinte La peinture est le point de départ d’un artiste pour représenter le monde. Pour les images de synthèse, la nature est imitée par la conjonction de trois éléments : z la surface une couleur uniforme des caractéristiques physiques de celle-ci z la lumière une couleur des caractéristiques géométriques z la scène. une caméra virtuelle Ainsi, il est possible de calculer dans une scène définie, pour chaque pixel qui la représente, une teinte résultant de la projection de l’ensemble des surfaces la composant. la lumière Au coeur des processeurs graphiques, les algorithmes maintenant câblés réalisent pour chaque pixel : Sur un triangle (tout objet polygonal peut être décomposé en triangle) z calcul de sa projection en plan, z tri de sa profondeur dans l’espace, z définition de la couleur de chacun de ses sommets, z interpolation entre ses couleurs, z application d’une texture, z calcul des ombres (par le calcul des surfaces visibles vues avec chaque lumière), z lissage du résultat. Pour un jeu, ou une simulation guerrière qui vont souvent de pair, où on désire s’immerger dans un environnement, il est nécessaire de reproduire ce travail pour l’ensemble de la résolution de l’affichage, au minimum 15x par seconde. Ainsi, le joueur, le soldat, ou accessoirement le mécanicien ou l’architecte peut se promener ou manipuler des objets sur un écran plan avec l’illusion de l’espace. Les algorithmes utilisés pour calculer le résultat de la lumière sur une surface utilisent une approximation douteuse. Par simplification, on ajoute à chaque objet de la scène une intensité lumineuse qui se substitue à la pénombre. Ainsi, l’éclairage naturel du soleil se décompose en : z une lumière directionnelle à l’infini, qui est capable de projeter une ombre directe. z une lumière ambiante arbitraire attribuée à l’ensemble des objets qui ne possèdent pas d’ombre ou de pénombre. Si cette scène est reconnaissable, on peut difficilement la qualifier de réaliste. En pratique, on utilise des artifices, comme le plaquage de texture, et la multiplication des sources lumineuses pour tenter de pallier ce manque originel. perspective intérieure, lumière ambiante arbitraire

FI spécial été 2007 – 28 août 2007 – page 20


Post Tenebra Lux

De la lumière à la pénombre Il existe heureusement des méthodes qui permettent de resituer à la scène sa complexité. Le calcul des inter réflexions lumineuses évite cet ajout arbitraire de lumière ambiante. Ainsi, l’espace sous une table ne passe plus brutalement de la clarté à l’ombre avec une limite précise, mais la pénombre peut s’établir et tenir compte de l’influence des surfaces entre elles. Un canapé rouge entouré de murs blancs apporte un peu de sa couleur et permet de créer une ambiance. Historiquement, ces algorithmes sont issus de recherches militaires, comme évaluer l’énergie thermique émise par un char pour optimiser le capteur infrarouge d’un missile. Heureusement, ces méthodes ont quitté ce monde guerrier. Maintenant, de nombreux outils gratuits ou commerciaux proposent cette possibilité de calculer la pénombre de manière réaliste. Intitulés radiosité, lancer de rayon inversé (backward ray-tracing) ou placage de photon (photon-mapping), ces logiciels offrent tous un résultat quasi physique. Leurs avantages sont indéniables malgré un temps de calcul important : z rendu réaliste des lumières z ombre et pénombre correctes z absence d’astuces et de manipulations pour obtenir l’image. Tirée d’une monographie sur Tadao Ando, l’image cicontre, semble authentique. En pratique, deux détails attirent notre attention : z un éclat inhabituel du plafonnier de la cuisine z l’ombre de la coursive sur le sol. Ces deux éléments trahissent un temps de pose excessif, confronté au même problème d’un espace clos, le photographe n’a pas hésité à surexposer sa pellicule pour obtenir cette image réaliste. Avec un calcul qui tient compte des relations énergétiques des surfaces entre elles, la même perspective prend rapidement (un jour de calcul) un aspect nettement plus agréable dans l’image en bas à gauche. Pour l’image de droite, la peinture du sol en blanc permet une modification radicale du résultat. Dans ces deux images, l’unique source lumineuse est le soleil. Le changement de matériaux pour le sol et l’escalier explique cette différence de image photographique surexposée, Tadao Ando, Complete luminosité. Works, Francesco, Dal Co, ISBN 071483471

pénombre

pénombre avec changement de sol IMAGES – 28 août 2007 – page 21


Post Tenebra Lux

la maturité des images offre des simulations du parcours du soleil. Par exemple, visualiser la qualité de la pénombre dans l’ensemble de sa complexité le long d’une journée Cette technique s’applique facilement dans la réalité, pour éclaircir une pièce sombre, la peinture des murs en blanc et l’ajout d’un parquet brillant est généralement suffisant.

Immersion en temps réel, un monde de texture

Pour un joueur, le réalisme et la fluidité de l’animation sont des critères de choix pour l’évaluation de la qualité d’une carte graphique (GPU). Sur les images ci-dessous, on peut

Company of Heroes, image texturée FI spécial été 2007 – 28 août 2007 – page 22

Company of Heroes, image modèle géométrique


Post Tenebra Lux croire que la complexité du modèle est élevée, mais dans la réalité, il est basé sur la géométrie en fil de fer. Ce décalage est provoqué par l’emploi massif de textures précalculées pour offrir un réalisme impressionnant. Dans un jeu, plus de 80 % de la mémoire d’une carte graphique sont consacrés aux textures. Si les techniques de pénombre ne sont évidemment pas utilisées en regard de leur temps de calcul prohibitif. Il est amusant de constater que sans le savoir, les joueurs bénéficient quand même de ce type de résultat. Dans un espace, la radiosité divise la scène en zone rectangulaire, elle-même subdivisée récursivement en fonction de la lumière. Le résultat d’une scène calculé par radiosité est un ensemble de surfaces colorées. Sans calcul d’éclairage supplémentaire, il est facile de se déplacer en temps réel. Appliquée à des textures, ou utilisée directement, cette méthode offre une touche de réalisme sans coût immédiat, car l’ensemble du travail de conception s’est déroulé sur plusieurs années.

Persistance de la vision Si les artifices employés dans la représentation informatique sont importants pour donner l’illusion de la réalité, on peut s’interroger sur cette course technologique. Sur un plan artistique, on ne peut qu’être ébloui par les oeuvres d’Andy Goldsworthy. Utilisant la nature dans sa singularité et dans son aspect éphémère, il est incontestablement un des chantres du Land Art. La nature et ses matériaux sont la base de son travail, la mise en scène, un regard acéré et comme résultat ultime fragment du souvenir, un montage photographique. Si on compare cette démarche aux images de synthèse généralement produites, la limite de la technologie apparaît brutalement. Dans un autre registre, les photogrammes ou rayogrammes représentent la transformation directe d’une pellicule en objet photographié, expositions.bnf.fr/objets/grand/187.htm. À ces références prestigieuses, la vacuité des images informatiques apparaît rapidement. La quête du photo-réalisme nous interroge sur la pertinence de la figuration. Auteur de science-fiction, Walter Jon Williams décrit parfaitement cette limite de la représentation vis-à-vis de l’émotion dans deux de ses ouvrages, parfaite lecture d’été : Ils se croient en sécurité parce qu’ils peuvent traiter des données plus vite que la concurrence. Mais les données ne sont jamais que des chiffres qui représentent une façon de voir les choses. Les Destinariens confondent cela avec la réalité alors que cela n’est pas la réalité. Ce n’est jamais que l’ordonnancement de leurs préjugés. Le souffle du cyclone, ISBN 2-207-30478 Cette vêture n’était pas uniquement décorative. Il n’en existait rien dans le monde réalisé - elle était purement onirochronique -, mais elle faisait la démonstration de ses talents de programmeur. La texture rêche des brocarts devait différer sensiblement de la douceur du couvre-chef, des chatouillis de la plume, de la masse souple des cheveux cuivrés, de la chaleur pesante de la chair. L’aspect luisant des bottes cirées devait différer de l’éclat soutenu des joyaux, de la lueur joyeuse des yeux, du moiré délicat de la veste et du dessin tarabiscoté des fils dorés des brocarts. Les glands se reflétaient sur le cuir noir des bottes et projetaient des ombres complexes au gré de leurs mouvements. Aristoï, ISBN 2-227-23869 n

© Andy Goldsworthy Beech leaves collected only the deepest orange from within the undergrowth protected from sunlight unfaded each leaf threaded to the next by its own stalk

Feuilles de hêtre ayant absorbé seulement l’orange le plus profond des broussailles protégées du soleil non fanées chaque feuille enfilée à la suivante par sa propre tige

Hampstaed Heath London, 26.12.1985 Hand to Earth, Andy Goldsworthy Sculpture 1976-1990, ISBN 90128629

Man Ray, rayogrammes 1930 IMAGES – 28 août 2007 – page 23


VMS une architecture logicielle pour le développement rapide d’applications de traitement de l’image ou du son

Aicha.Rizzotti@he-arc.ch, Haute Ecole Arc Ingénierie Institut des systèmes d’information et de communication (ISIC-ARC)

Motivation et choix initiaux Le développement et le test de nouveaux algorithmes de traitement du son et/ou de l’image nécessitent de pouvoir développer rapidement une application permettant de tester une large gamme de conditions. Actuellement cela est obtenu la plupart du temps à l’aide d’un logiciel de simulation genre Matlab ou à l’aide d’un petit démonstrateur écrit en C++. La première solution permet un prototypage rapide, mais ne permet pas de s’approcher des conditions réelles d’utilisation (contraintes de mémoire, puissance de calcul, ...). De plus, le résultat ne peut pas être mis à disposition tel quel pour des questions de licences. La deuxième solution est plus facile à mettre à disposition et se rapproche des conditions réelles d’utilisation de l’application, mais nécessite de redévelopper à chaque fois beaucoup de code n’étant pas directement lié aux algorithmes à tester, telle que l’interface utilisateur, ou les fonctions permettant l’accès au matériel. De plus, chaque démonstraCam 1 Processing teur utilisant sa propre logique, Video Human outils et formats de stockage, acquisition detection Processing il est très difficile de combiner Image Draw sound Copier volume on plusieurs de ces algorithmes. image Mic 1 Les choses empirent encore Sound lorsque l’algorithme nécessite acquisition un traitement synchronisé de plusieurs canaux audio et/ou viProcessing Cam 2 déo (traitements multimodaux, 2 images Video Human position vision stéréo, ...), ou lorsque acquisition detection 1 Processing des calculs lourds nécessitent Image 2 images splitter une parallélisation sur pluin 1 Processing Cam 2 sieurs machines. Pour ces cas 2 images Video Human position là, l’architecture nécessite des acquisition detection 2 spécialistes du calcul réparti ou de la synchronisation et ne peut Room 2 Mic 2 en général pas être conçue par Sound Sound la personne qui développe les Storage acquisition algorithmes, ce qui rend déjà très complexe le développement combinaisons de modules d’un premier démonstrateur. Le projet VMS (Visual Media Studio) vise le développement d’une architecture logicielle réutilisable sous la forme d’un cadre de travail bien conçu qui permettrait la réutilisation facilitée des modules précédemment développés, en gardant toutes les possibilités d’interfaçage et de temps réel d’un langage de programmation. Il devient alors rentable schéma d’une application multimodale simple de passer du temps à développer FI spécial été 2007 – 28 août 2007 – page 24

Display

Room1 Images Storage

Image joiner

Room 2 Sound Storage


VMS: une architecture logicielle pour le développement rapide d’applications de traitement de l’image ou du son des modules stables et documentés, dans la mesure où ces derniers pourront être réutilisés plusieurs fois. Pour pouvoir remplir son rôle, VMS doit avoir les caractéristiques suivantes : Modulaire : afin d’assurer une bonne réutilisabilité du code et la mise en œuvre rapide de nouveaux algorithmes. Une nouvelle application doit pouvoir être créée en combinant plusieurs modules selon une configuration décrite dans un document XML. Chaque module de l’application pouvant être un module d’acquisition, de traitement, d’affichage,… Un module peut avoir une ou plusieurs entrées, un module peut avoir une ou plusieurs sorties. Parallélisable : VMS doit faciliter la répartition des calculs entre plusieurs machines pour les applications nécessitant une grande puissance de calcul, ce qui est très fréquent lors de traitement de flux vidéo. Multimodal : VMS facilite le traitement simultané de plusieurs flux différents (audio, vidéo ou autre). Synchronisation des flux : le fait d’avoir des applications multimodales, réparties, voire parallélisées, nécessite dans bien des cas de synchroniser les données. Par exemple, si un module reçoit un flux vidéo et un flux sonore, il devra pouvoir synchroniser les deux flux afin de leur appliquer un traitement synchrone. Le framework VMS répond à cette attente, premièrement par la possibilité d’attacher aux données des différents flux une indication temporelle, mais également en mettant à disposition des outils ou des techniques de synchronisation des flux audio ou vidéo. Open Source : dans le but d’assurer la pérennité du système et de simplifier les problèmes de licences. Afin de rendre la parallélisation la plus performante possible, VMS utilise le langage POP-C++ développé à l’école d’ingénieurs de Fribourg. POP-C++ est une extension au langage C++ et il ne diffère de lui que de peu syntaxiquement. Mais de nouveaux concepts rendent POP-C++ adapté aux applications parallèles. Si l’utilisation de POP-C++ s’avère la meilleure et la plus adéquate au niveau performance et fiabilité, nous allons également offrir la possibilité d’implémenter des modules sous forme de services Web lorsque la portabilité prime ou si ce module doit être utilisé hors VMS. Nous avons évalué plusieurs librairies de traitement d’images pouvant être utilisées pour la réalisation de modules VMS et avons finalement choisi de développer les premiers modules à l’aide de la librairie OpenCV qui est Open Source, très complète, et s’est révélée être également très performante. Cette librairie n’est cependant pas imposée par VMS et un développeur peut très bien choisir de développer de nouveaux modules en utilisant d’autres librairies. Nous avons évalué les librairies suivantes, toutes (et d’autres) sont utilisables avec VMS : Intel IPP : complète et performante mais licence payante, elle ne nous a servi que comme référence pour la comparaison. Intel OpenCV : librairie Open Source plutôt performante et très complète, offrant également des fonctionnalités de Machine learning. Cette librairie a la particularité d’utiliser IPP à l’exécution si cette dernière est installée. IDIAP Torch3Vision : librairie Open Source développée à Martigny par l’IDIAP, il s’agit d’une extension de la librairie de Machine Learning Torch3 au domaine de la vision. LTI-Lib : une autre librairie Open Source qui pourrait être intéressante, malheureusement la documentation est insuffisante et le support incertain. Matrox MIL : librairie performante, mais payante. Euresys Evision : librairie payante orientée vision industrielle. Lorsque nous parlons du framework VMS nous incluons les éléments suivants : z une bibliothèque de modules en POP-C++ pouvant être incluse dans n’importe quelle nouvelle application et servant de modèles pour le développement rapide de nouveaux modules; z un outil VMSDesigner permettant de construire une application de manière graphique par combinaison de modules existants; z un environnement d’exécution basé sur POP-C++ permettant l’exécution des modules en environnement distribué.

IMAGES – 28 août 2007 – page 25


VMS: une architecture logicielle pour le développement rapide d’applications de traitement de l’image ou du son

Historique et état du projet L’idée d’un tel développement est née en 2004 de réflexions entre le prof. Jean-Philippe Thiran de l’Institut de traitement de signaux de l’EPFL et quelques professeurs de la Haute École Arc Ingénierie, à St-Imier. Les premiers tests de faisabilité ont été réalisés dans le cadre de travaux d’étudiants. Ce projet étant bien en phase avec les activités de l’institut des Systèmes d’Information et de Communication de la HE-Arc (ISIC-Arc) et le framework résultant pouvant servir aussi bien pour des activités R&D que comme support d’enseignement, il a été décidé de continuer le développement en cherchant une source de financement complémentaire, ce qui a finalement abouti à un financement de 24 mois par la réserve stratégique de la HES-SO (RCSO-TIC) en 2006. Le projet passe donc la vitesse supérieure en juin 2006, en impliquant les 5 établissements de la HES-SO. Actuellement le framework comprend : z quelques modules d’acquisition, de traitement ou de stockage d’images pouvant facilement être utilisés comme base pour l’écriture de nouveaux modules; z un outil graphique VMS Designer permettant de combiner plusieurs modules, de les configurer, puis de générer l’application; z un environnement d’exécution permettant l’exécution des modules répartie sur différentes machines. Une première application Mélanome a été développée à l’aide de VMS, elle est détaillée plus loin. Les prochaines étapes seront : z possibilité d’intégrer à une application des modules écrits sous forme de Services Web afin d’offrir une ouverture maximum sur le monde ; z prise en charge de flux audio et synchronisation entre flux permettant le développement d’applications multimodales; z possibilité d’intégrer à une application des modules s’exécutant sur une plate-forme spécialisée DSP. En parallèle à la mise en place de ces améliorations nous allons continuer à développer de nouveaux modules de base pour étendre la bibliothèque existante et allons développer d’autres applications dans des domaines tels que surveillance automatique ou indexation semi-automatique d’images.

L’outil VMSDesigner VMSDesigner est l’outil graphique permettant de construire une application par combinaison de modules existants. VMSDesigner est un outil développé en Java afin de pouvoir être utilisé sous MS-Windows ou sous Linux, il utilise les librairies JDOM pour la manipulation des fichiers XML et JGraph pour la génération des diagrammes. La fenêtre principale est séparée en deux parties. Celle de droite contient le schéma de l’application du projet en cours. Cette partie de l’interface permet à l’utilisateur de lier les modules entre eux et de donner ainsi la structure voulue à l’application multimédia à réaliser. La partie de gauche permet de paramétrer le module sélectionné sur le schéma. VMSDesigner permet au développeur de combiner facilement plusieurs modules écrits sous forme de classes parallèles POP-C++ ou de Web services. Chaque module ou application est représenté par les fichiers XML correspondants. Un module est représenté sous la forme graphique d’un composant. Les attributs du composant correspondent aux paramètres du module, ainsi la valeur machineURL correspond à l’emplacement sur lequel le module devra être exécuté. Les entrées des modules

Melanome A img_color machineURL:String = "localhost"

img_color

VMSDesigner FI spécial été 2007 – 28 août 2007 – page 26

image_in

Melanome B machineURL:String = "localh… Algorithm: int = "0"

VMSModuleImageDisplay machineURL:String = "localhost"

image_out

img_color

VMSModuleImageDisplay machineURL:String = "localhost"


VMS: une architecture logicielle pour le développement rapide d’applications de traitement de l’image ou du son sont représentées par les interfaces requises du composant. Le nom de l’entrée est inscrit en dessous. La couleur de l’interface correspond au type de données requis par cette interface. Lorsqu’une entrée n’est pas liée à une sortie, son nom est écrit en une couleur spécifique. Les sorties des modules sont représentées par les interfaces fournies du composant comme pour les entrées. L’utilisateur peut lier une entrée d’un module à une sortie d’un autre module afin de définir le flux. Les liens entre les modules sont des associations entre les interfaces fournies et requises des composants. Une sortie peut être associée à plusieurs entrées, ce qui veut dire que les données sont envoyées à plusieurs modules. Par contre, une entrée ne peut être liée qu’à une seule sortie. VMSDesigner offre encore une multitude de fonctionnalités comme le paramétrage ou la configuration d’un module.

Générer les sources Une fois tous les modules connectés il est possible de générer les fichiers sources de l’application POP-C++ puis de lancer la compilation. La génération des fichiers sources se base sur les différents fichiers XML contenant la configuration des modules et l’ensemble des interconnexions. Le premier fichier généré est VMSApplication.cc qui contient toute la logique de connexion des modules. Il reste ensuite à générer quelques fichiers servant de colle entre les modules.

Exemple d’application : cartographie pour le dépistage du mélanome

Le mélanome malin est le plus grave des cancers de la peau, car il donne lieu à des métastases. La moitié des cas apparaît en peau saine et l’autre moitié sur des grains de beauté existants. L’objectif de cette application est de dresser une cartographie des grains de beauté de la peau afin de permettre un suivi de leurs évolutions. Cette application est donc destinée à devenir une aide au diagnostic pour le praticien. Les test des algorithmes de dépistage de mélanome avec VMS méthodologies utilisées sont respectivement l’acquisition d’image, le traitement d’image (filtrage, segmentation, analyse multirésolution et recalage) afin d’extraire les grains de beauté et l’analyse statistique afin de déterminer si leurs évolutions sont anormales. Cette application est développée par l’école d’ingénieurs de Genève pour les Hôpitaux Universitaires Genevois. L’application doit prendre en entrée une paire d’images et Image acquired at time t1 fournir en sortie une liste de lésions suspectes. Le système doit éviter totalement les faux négatifs et minimiser les faux positifs. Lesions En pratique, seules les lésions de plus de 5mm sont intéressantes detection pour le praticien. La première étape consiste à détecter les lésions sur chaque Visual information Detection Matching image, pour cela il faut tout d’abord convertir les couleurs dans for pratician of change of lesions l’espace HSV (Hue Saturation Value). Le canal S (saturation) permet une bonne séparation entre les lésions et la peau, mais Lesions il faut une analyse supplémentaire sur la forme et la luminosité detection pour obtenir une détection robuste. La deuxième étape consiste à mettre en correspondance Image acquired les lésions détectées sur chacune des 2 images en se basant sur at time t2 les centres de gravité des lésions et des diagrammes polaires de correspondance des lésions et détection de changement voisinage. Il reste ensuite à mesurer les changements pour chaque lésion et à marquer celles qui semblent suspectes.n IMAGES – 28 août 2007 – page 27


NeoBrain Contexte À l’heure où l’on cartographie les génomes humains, le cerveau, organe de la pensée, n’échappe pas au phénomène. Franz Joseph Gall fut le premier cartographe de nos fonctions cognitives en 1881. Sa théorie est tombée dans les oubliettes à la fin du XIXe siècle. Il était autrefois trop difficile d’aller à la pêche aux images dans les tréfonds de notre cerveau en activité. Depuis, la technologie et la science ont fait bien des progrès, y compris en cartographie cérébrale. On peut récupérer l’anatomie de notre cerveau grâce aux scanners IRM. Ces scanners ont fait leur apparition dans les années 1980. Les données produites sont fort précieuses, notamment pour des détections de cancer, mais insuffisantes pour permettre d’analyser le fonctionnement de notre cerveau, qui n’est pas statique, mais vit et évolue à chaque milliseconde.

Cedric.Bilat@he-arc.ch, Haute Ecole ARC Ingénierie, filière Informatique, Le Locle

le maillage anatomique 3D est obtenu pas une segmentation des voxels (pixels 3D) d’un IRM Le domaine de recherche s’intéressant aux fonctionnements du cerveau s’appelle l’imagerie fonctionnelle cérébrale. Cette imagerie rassemble des techniques permettant d’obtenir une image du cerveau en activité, et pas seulement de décrire une anatomie figée comme le fait l’IRM. Cette science a produit ses premiers résultats dans les années 1950 déjà, grâce à la tomographie par émission de positrons TEP. Cette modalité d’imagerie fonctionnelle repose sur l’administration d’un traceur légèrement radioactif. Bien que jugé non dangereux, cet aspect invasif laisse quelque peu perplexe. En particulier les doses de radioactivité injectées soulèvent des problèmes de répétitivité des séances de scanning. La précision temporelle de la TEP est par ailleurs médiocre. Deux minutes sont nécessaires entre chaque mesure. Sa précision spatiale n’est pas bien meilleure. Elle est de l’ordre de 1000 mm3. Pour les années 50 il s’agissait néanmoins d’un résultat extraordinaire! De nos jours, l’imagerie fonctionnelle tente d’exploiter au mieux, individuellement ou en les combinant, les scanners fonctionnels suivants se disputant le marché : l’IRMF et le MEG (MagnétoEncéphaloGraphie). Ils sont tous les deux non invasifs et ne présentent aucun risque pour le patient. L’IRMF a une résolution temporelle comprise entre 1.5 et 6 secondes, et une résolution spatiale de 15 mm3. Nous allons nous intéresser dans ce papier plus particulièrement au MEG dont les propriétés sont bien meilleures.

Le scanner fonctionnel MEG Le MEG représente un fleuron de la technologie moderne. Sa résolution temporelle est de l’ordre de la milliseconde, ce qui est exceptionnel et en parfaite harmonie avec l’unité de réaction de nos neurones. FI spécial été 2007 – 28 août 2007 – page 28

scanner MEG mesurant l’activité neuronale


NeoBrain Le principal domaine d’application du MEG est le diagnostic pré-opératoire en épilepsie. En effet, les capacités de localisation du MEG ainsi que sa commodité d’utilisation en font un outil de choix pour confirmer et localiser le (ou les) foyer(s) épileptogène(s) déclencheurs de la crise avant résection chirurgicale. Rappelons que la principale méthode employée en 2006 reste l’implantation intracrânienne d’électrodes, ce qui nécessite pour ce seul diagnostic une opération chirurgicale délicate et fort invasive. Le MEG est évidemment très onéreux et encore peu répandu aujourd’hui. On en recense par exemple trois en France et encore aucun sur le territoire Suisse. Ce scanner n’a pas encore atteint le rang d’outil de routine clinique, mais son usage se répand. Mis à part son prix prohibitif, il souffre d’un problème majeur. Il ne fabrique pas de cartes neuronales exploitables, mais se contente de mesurer périodiquement des champs magnétiques de faible intensité. L’output est une matrice où les lignes représentent les capteurs et où les colonnes représentent l’intensité temporelle. Cette matrice est déjà extrêmement précieuse, ceci d’autant plus que le pas temporel est la milliseconde. Il serait toutefois bien plus agréable de disposer d’une même matrice où les lignes représenteraient cette fois-ci les sommets du maillage obtenu par segmentation des voxels d’une IRM. C’est à ce niveau qu’intervient le projet NeoBrain, dont le but est de déterminer cette matrice!

implantation d’électrodes invasives, 2006

Le projet NeoBrain La construction de la matrice sommet x intensité à partir de la matrice capteur x intensité est connue sous le nom du problème inverse, que l’on rencontre en imagerie fonctionnelle cérébrale, mais aussi par exemple en physique des plasmas. Ce problème est très complexe. Les champs magnétiques sont déformés par les tissus cellulaires traversés entre les foyers d’émission neuronaux (apparentés aux sommets du maillage) et leur point de mesures externes (les capteurs). L’information mesurée par les capteurs est de surcroît fortement bruitée, par la faible intensité du champ (proche du champ magnétique terrestre), par l’électronique des capteurs, et par les micromouvements du patient. champ magnétique émis par les neurones (intérieur) et mesuré Les données fonctionnelles d’activités neuronales sont ainsi par les capteurs MEG (extérieur) très bruitées, mais possèdent la qualité non négligeable d’être obtenues de manière non invasive ! La grande difficulté du problème inverse est donc d’effectuer un recalage des données fonctionnelles sur les données anatomiques, tout en tenant compte de la déformation du champ magnétique et du bruit greffé au signal mesuré.

Carte Neuronale Un des principaux objectifs du projet NeoBrain est le développement d’un modèle mathématique permettant la fabrication des cartes neuronales du cortex, avec pour input des données anatomiques provenant d’un IRM et des données fonctionnelles issues d’un scanner MEG dont la fenêtre de temps est de l’ordre de la milliseconde. NeoBrain se propose donc de résoudre le problème inverse, ie de relocaliser les foyers sources d’où sont issus les champs magnétiques. Il s’agit de répondre aux interrogations suivantes : si un capteur se trouve en (x, y, z) et qu’il mesure une intensité k, quel groupe de neurones en est la cause ? Quelle valeur d’intensité associer à ces neurones ? Toutes les mêmes ? Est-il judicieux de tenir compte des capteurs voisins? Est-il nécessaire de tenir compte de l’intensité antérieure ou postérieure ? Si oui, quelle dimension associer à cette notion de voisinage spatial et de voisinage temporel ? ... IMAGES – 28 août 2007 – page 29


NeoBrain

Résultats Le modèle stochastique développé a été imputé de contraintes relaxables décrivant des corrélations spatiales et temporelles sur l’espace des activités neuronales. Autrement dit, deux capteurs proches, dans l’espace ou le temps, devraient selon notre bon sens posséder des valeurs proches, ou tout du moins corrélées. Le modèle stochastique sur champs de Markov développé dans NeoBrain produit à un temps t fixé, une carte neuronale comme celle de la figure ci-dessous. Un grand challenge a été relevé. Notre cerveau nous délivre ses secrets, enfin, presque: Il reste au spécialiste de neurosciences cognitives un long travail périlleux d’interprétation. Ce chemin-là est encore long et sinueux.

MEG+IRM+NeoBrain = Carte neuronale HSB L2

Analyse des Résultats Le talon d’Achille des cartes dynamiques produites par NeoBrain est de fonctionner dans un spectre restreint en neuroscience, ou les variations neuronales temporelles ne sont pas brusques. Des simulations ont montré une légère tendance du modèle à gommer les brefs pics intenses d’activités neuronales présentes lors des crises d’épilepsie par exemple. Ces crises sont donc pour l’instant en dehors du domaine de validité de NeoBrain. Pour les autres pathologies où les variations temporelles sont plus lisses et moins brusques, le modèle mis en place actuellement est fonctionnel. Malheureusement, les traitements numériques nécessaires à la construction de la carte temporelle effectuée sur une seule machine nécessitent de longues heures de calculs pour des cortex à 6000 sommets et 2000 mesures d’intensité pour capteur MEG. La complexité de l’algorithme est estimée élevée. La tendance à utiliser des scanneurs offrant une finesse spatiale supérieure tend à se généraliser aujourd’hui. Dès lors, le besoin en calcul sera encore plus important demain. Il s’agit d’un vrai problème de haute performance, nécessitant une parallélisation du modèle, pour une exploitation en un temps raisonnable.

Visualisations des cartes neuronales Le projet NeoBrain ne se contente pas de calculer des cartes neuronales. Il offre aussi une plate-forme de visualisation et d’exploitation ergonomique des cartes neuronales. Il permet de naviguer dans l’espace et le temps avec un taux de rafraîchissement de l’ordre de 60 FPS. Des périphériques issus du monde aéronautique ont été interfacés pour piloter finement les scènes infographiques et le player de neurones. Le retour de force permet d’informer le clinicien d’une pathologie particulière. Différentes cartes et cortex peuvent être synchronisés pour des analyses comparatives d’évolution d’une pathologie. Son module de vision stéréo permet une immersion totale. L’interface permet de monter autant de scènes que l’on souhaite, ajouter ou retirer des cartes neuronales, d’effectuer des rendus temps réel sur des PC distants chez un ou plusieurs collègues pour obtenir des contre-expertises. De nombreuses autres fonctionnalités sont disponibles, comme le mapping bipolaire, par exemple. Arrêtons-nous sur l’une d’elles : les algorithmes de lissage anatomique. FI spécial été 2007 – 28 août 2007 – page 30


NeoBrain

NeoBrain : BrainDisplayer

Déformation élastique du cortex Une grande partie de l’activité neuronale est enfouie au fond des sillons corticaux (60 % environ). L’activité cérébrale y siégeant n’est donc pas ou peu visible au moyen d’une simple vue 3D du cortex. Plusieurs algorithmes ont été développés pour transformer de manière élastique le cortex afin d’étirer et d’aplatir les sillons corticaux.

lissage faible lissage plus fort

lissage total, le cortex est une sphère sans pli

Ces algorithmes de lissage ne sont pour l’instant applicables que pour les maillages où chaque hémisphère est homéomorphe à une sphère. Ces algorithmes ne conservent ni les angles, ni les aires, mais ont l’avantage de rendre visible toute la surface du cortex, donc l’intégralité de la carte neuronale. Malheureusement, les algorithmes de segmentations fabriquant le maillage à partir des voxels (pixels 3D) d’un scanner IRM ont tendance à produire des surfaces homéomorphes à la famille des tores. Les micros tunnels ci-dessous en sont la cause. Le prochain challenge est donc de supprimer ces tunnels de l’anatomie, afin de pouvoir utiliser les algorithmes de lissage et ainsi disposer d’un outil permettant de visualiser la totalité de la carte neuronale. tunnel issu de la segmentation imparfaite des voxels d’un IRM IMAGES – 28 août 2007 – page 31


NeoBrain

Pertinence des résultats pour l’économie En Suisse, plus de 70’000 patients souffrent de crises d’épilepsie, dont 20% résistent au traitement pharmaceutique (Seeck, Villemure, Praxis 2002). Les accidents vasculaires cérébraux (AVC) sont la 2ème cause de mortalité en Occident. Vendredi 2 septembre 2005, Jacques Chirac était victime d’un AVC. Chaque année en France, 130 000 personnes sont victimes d’un tel accident et près de 50 000 en meurent. Il s’agit d’un véritable fléau. Communément appelés attaques cérébrales, les AVC représentent la troisième cause de mortalité derrière les maladies cardiovasculaires et le cancer. Mais c’est la première cause d’invalidité lourde et la deuxième cause de démence dans le monde occidental. Le nombre d’AVC est en pleine croissance et représente dès aujourd’hui un grave problème de santé publique. «Les atteintes du corps, la honte des chutes, la confiscation du temps, la limitation des plaisirs, le voile sur l’intelligence, les entraves à la liberté, le rejet des autres, les difficultés scolaires, la peine des parents participent à la souffrance des épileptiques.» (Prof. René Souleyrol)

Réseau de compétences Ce projet s’inscrit dans l’axe de recherche environnement intelligent du centre de compétences RCSO-TIC de la HES-SO, qui en a assuré le financement. Les travaux ont été dirigés par la HE-ARC. Les résultats obtenus sont néanmoins le fruit d’une union de savoir-faire très divers, couvrant un large domaine interdisciplinaire de compétences, réunissant statisticiens, physiciens, mathématiciens, neurologues ou encore informaticiens. En particulier, citons le professeur Sylvain Sardy de l’université de Genève, qui est à l’origine du modèle stochastique pour la résolution du problème inverse et Sylvain Baillet, un chargé de recherche du CNRS qui a modélisé la propagation et déformation des champs magnétiques à travers les tissus cellulaires cérébraux.

Neuroweb.ch L’amélioration de la qualité des cartes neuronales et la diminution du temps de calcul sont en phase de développement au travers du projet Neuroweb.ch, qui constitue une suite au module de calcul de carte neuronale. Les brusques et intenses variations temporelles des activités neuronales présentes par exemple lors de crise d’épilepsie, sont trop amorties, voire complètement gommées dans les cartes neuronales de NeoBrain. Ce point faible peut être amélioré en dotant l’espace topologique des données neuronales non pas de la métrique euclidienne, mais de la topologie L1. Des simulations sur des signaux 1D et 2D ont montré que les pics épileptiques sont conservés. Nous espérons que cette intéressante propriété soit préservée dans le cadre du problème inverse et la reconstruction de la carte complète. Une architecture peer to peer (P2P) basée sur la plate-forme xtremweb.ch (www. xtremwebch.net/) est mise en place pour permettre une distribution efficace des calculs. L’objectif est de tendre vers un calcul temps réel des cartes neuronales. Les cartes L1 sont très gourmandes en calcul et requièrent une importante infrastructure pour être calculées en un temps raisonnable.

Perspective d’avenir L’imagerie fonctionnelle cérébrale a un bel avenir devant elle. On pense immédiatement aux pathologies neurodégénératives. La recherche liée aux maladies d’Alzheimer et de Parkinson se voit dotée ici d’un formidable outil d’analyse. L’étude des conséquences d’un traumatisme crânien ou d’une ischémie cérébrale transitoire et l’assistance aux neurochirurgiens dans la stratégie opératoire vont faire un bond en avant. Chaque avancée importante dans la science fait apparaître inévitablement des problèmes éthiques. Le côté non invasif de ces techniques d’imagerie permet leur exploitation dans des domaines non médicaux. Comment ne pas penser à une modernisation des détecteurs de mensonges dont le premier date de 1935 ? Dispose t’on aujourd’hui grâce à l’imagerie fonctionnelle d’un outil fiable ? Aucune accréditation légale n’a été décernée à ce jour à l’imagerie cérébrale dans un domaine d’exploitation judiciaire et ne le sera peut-être jamais. FI spécial été 2007 – 28 août 2007 – page 32


NeoBrain Si légalement l’imagerie fonctionnelle n’a pas un avenir assuré, il n’en est pas de même d’une utilisation dérivée dans un spectre d’utilisation privée. Ce détecteur de mensonge neuronal pourrait être exploité pour démasquer la falsification d’informations importantes par exemple lors d’entretiens d’embauches, ou lors de calcul de prime de risque chez un nouvel assuré. Le marketing pourra lui aussi bénéficier de la non invasivité de ces techniques. L’impact des publicités chez le consommateur pourra être mesuré. Le NeuroMarketing permettra ainsi d’optimiser la rentabilité des campagnes publicitaires. On croirait presque à une bande-annonce de la prochaine grosse production hollywoodienne, alors qu’en ce moment même certains paraplégiques peuvent déjà par la pensée piloter des prothèses mécaniques ou contrôler un curseur d’ordinateur. L’imagerie fonctionnelle cérébrale leur permet ainsi de retrouver une certaine mobilité et autonomie. D’énormes progrès doivent encore être réalisés, certes, et aucun faux espoir ne doit être donné ici, mais la technologie est en marche ! «In future, you can do anything by just thinking about it, whitout laying a hand on them.» R. Maya et S.G. Aparna (CMRIT)n

Chemins de traverse

Réalisation pour la manifestation Jardins urbains, Lausanne, Sévelin, 2004. Impressions jet d’encre sur bâche de camion, 12 x 2 x 2 m.

Pose des 12 impressions sur le bâtiment choisi à Lausanne

IMAGES – 28 août 2007 – page 33


L’image et quelques détails non négligeables

À l’ère

de l’image électronique omniprésente, il n’est peut-être pas inutile de se pencher sur la nature même de l’image avant de la confondre trop souvent avec la réalité. Toute image suppose un point de vue et, si elle n’est pas omnidirectionnelle (ce qu’elle est très rarement), un cadrage. Point de vue et cadrage de l’image constituent deux facteurs de distorsion de la réalité. Il en existe d’autres: les limites techniques des optiques, des cibles et supports photographiques (films, capteurs CCD, papiers photo, impression, écrans, etc.) telles que plage colorimétrique, dynamique, etc. L’une des moins perceptibles est peut-être la distorsion spatio-temporelle.

tourisme ...

tragédie ...

Valentin Chareyron, v.chareyron@span.ch.

ou symbole ? source: US NAtional Park Service

De la distorsion spatio-temporelle L’image perçue par nos yeux, qui en convertissent la forme optique en signaux destinés à notre cerveau, est le résultat de la fin simultanée d’une multitude de voyages – de quelques centimètres (comme la flamme d’une bougie) à quelques millions d’années-lumière (comme la lueur d’une galaxie) – des rayons lumineux qui la composent. Dans un univers dans lequel la vitesse de la lumière serait infinie, une image du ciel étoilé nous montrerait la projection de la position réelle des astres à l’instant considéré dans les deux dimensions du plan. Mais dans notre univers, dans lequel la lumière se déplace à environ 300’000 km/s, cette image du ciel est affectée d’une distorsion spatio-temporelle qui se traduit par le fait que certains astres, qui émettent pourtant de la lumière depuis déjà fort longtemps, ne nous sont pas encore visibles et que d’autres, qui ont cessé de luire, nous sont encore visibles. Et que la plupart ne sont pas à leur place. Ainsi, une certaine idée d’une image en deux dimensions du ciel étoilé à un instant t nous échappe au profit d’une image en trois dimensions, composée de deux dimensions spatiales1 et de la dimension temporelle. Dans l’image, la position apparente de chaque source lumineuse est fonction de sa position réelle et de son éloignement – donc de la durée du voyage de la lumière – qui concourent à former cette image (indépendamment, notamment, des déviations gravitationnelles). Plus près de nous ? Lorsque nous admirons un coucher de soleil en bord de mer, nous pouvons mieux appréhender les distorsions qu’instaure la dimension temporelle dans les images. Le Soleil étant distant d’environ 150 millions de km de la Terre 2, la lumière parcourt cette distance en 8 min 20 3. À l’équateur, cela correspond à un écart d’environ 2° entre la position réelle et la position apparente. Le diamètre apparent du Soleil correspond à 1

Dans ce cas, aux distances en jeu, la vision binoculaire n’est d’aucun recours pour appréhender une troisième dimension spatiale. Toutes les données astronomiques: D. H. Menzel, J. M. Pasachoff, Guide des étoiles et planètes , Delachaux et Niestlé, Neuchâtel et Paris, 3ème éd., 1989. 3 15 x 107 km / 3 x 105 km/s = 5 x 102 s = 8.333 min = 8 min 20. 2

FI spécial été 2007 – 28 août 2007 – page 34


L’image et quelques détails non négligeables environ 0.5°, soit environ 2 min 4 de son déplacement apparent. Ainsi, lorsque le Soleil semble toucher la surface de la mer, il est en réalité déjà entièrement caché par l’horizon marin depuis 6 min 20  5. Plus près encore, cela devient humainement indécelable, mais pas nul. L’image de la Lune, à environ 384’500 km de distance, est en retard d’environ 1%6 de son diamètre apparent, qui est quasiment 8 min 20 identique à celui du Soleil. L’avion de ligne volant à 800 km/h, à 10’000 m au-dessus de nos têtes, nous apparaît avec un retard d’environ 7.4 mm 7. Le train roulant à 120 km/h, à 100 m, est dans la réalité en avance de 11µm (11 millièmes de millimètre)8 par rapport à son image. Si les objets mobiles nous permettent de nous représenter l’effet de la distorsion spatio-temporelle des images dans sa dimension spatiale, dans le cas du Soleil notamment (le sujet n’est pas à sa place réelle), il est moins évident d’en percevoir l’effet dans sa dimension temporelle. Essayons ... Deux amoureux courant l’un vers l’autre verront l’autre vieillir plus rapidement que lorsqu’ils déjeunent assis face à face. Au fur et à mesure qu’ils se rapprochent, la lumière réfléchie par chacun d’eux met moins de temps à parvenir à l’autre, formant une image de moins en moins jeune, la lumière reçue étant de moins en moins ancienne (son voyage depuis l’autre étant de plus en plus court). À l’inverse, ils pourront se regarder vieillir moins rapidement 9 lorsqu’ils s’éloigneront l’un de l’autre. Ce dernier effet, a priori positif, n’a toutefois pas beaucoup de succès sur les quais des gares ... Globalement, ce phénomène s’apparente aux effets Doppler (décalage vers le grave ou l’aigu selon la direction de déplacement d’une source sonore) et de redshift de Hubble (décalage vers le rouge de la lumière des galaxies s’éloignant les unes des autres). La simple reproduction d’un tableau subit également une telle distorsion. Les angles du tableau, plus éloignés du plan du film ou de la cible électronique que le centre, seront reproduits un peu plus jeunes que le centre. En effet, lorsque la lumière réfléchie par le centre du tableau a frappé la cible photographique, la lumière réfléchie par les angles avait parcouru une distance supérieure à celle provenant du centre; elle était donc plus ancienne, véhiculant une information relative à des angles plus jeunes que le centre. Dans l’absolu, lorsque vous regardez un tableau (ou tout autre objet plan de face), vous voyez en fait, sans vous en apercevoir ni même pouvoir le détecter, le temps s’écouler du centre vers les bords de manière concentrique, toute la surface plane n’étant jamais perceptible en un tout simultané. La seule certitude que nous puissions formaliser est que la réalité d’un instant est différente de l’image que nous en percevons faute d’obtenir une image du présent mais seulement du passé, et encore, cette image-là est-elle victime de distorsions spatio-temporelles.

Soleil: position apparente Mer

6 min 20

Soleil: position réelle

Des couleurs Nous sommes tous trop habitués aux photographies en noir et blanc 10 pour les regarder comme une curiosité. Et pourtant, il ne va pas de soi que ces images-là – qui n’enregistrent que la luminosité du sujet, sans les couleurs quasiment omniprésentes dans notre perception de notre environnement – restent suffisamment parlantes aux yeux humains, au point d’apporter parfois même un surcroît d’émotion par rapport aux images en couleur. Aurions-nous spontanément recherché à produire de telles images en noir et blanc si l’évolution technologique de la photographie et de la télévision ne nous avait pas imposé cette étape ? Et ces images-là auraient-elles eu autant de succès ? Pas sûr. Les daltoniens mis à part, il semble que nous percevions tous notre univers avec à peu près les mêmes couleurs. Nous pouvons discuter de tons chauds, ou froids, des nuances des bleus lavande, des verts émeraude et des rouges pivoine; préférer associer telle cravate à telle chemise, tel pull à telle jupe. 4

6 7 8 9

24 h x 60 min / (360° / 0.5°) = 1’440 min / 720 = 2 min = 120 s. 8 min 20 s - 2 min = 6 min 20 s. 3’845 x 102 km / 3 x 105 km/s = 1.282 s; 2 min = 120 s; 1.282 s / 120 s = ~ 1%. 104 m / 3 x 108 m/s x 8 x 105 m / 36 x 102 s = 74 x 10-4 m = 7.4 mm. (102 m / 3 x 108 m/s) x (12 x 104 m / 36 x 102 s) = 11 x 10-6 m = 11µm. Mais pas rajeunir (faut pas rêver !). 10 Le terme monochrome parfois utilisé n’est pas approprié: une image monochrome, bleue ou rouge par exemple, n’est assurément pas en noir et blanc. 5

IMAGES – 28 août 2007 – page 35


L’image et quelques détails non négligeables Nous sommes persuadés de vivre dans un monde en couleur. Mais est-ce si sûr ? La lumière blanche peut être vue comme un spectre de fréquence continu de 3.85 à 7.50 x 1014 Hz (avec les longueurs d’onde correspondantes de 780 à 400 nm). Lorsque cette lumière frappe les molécules d’un objet, une partie des fréquences est plus ou moins absorbée et le reste est réfléchi. La lumière réfléchie, ne contenant qu’une partie du spectre de la lumière blanche initiale, est de ce fait différente. Peut-on dire pour autant, à ce stade, qu’elle soit intrinsèquement colorée ? Imaginons notre univers comme uniformément gris, les variations d’absorption de la lumière par les objets étant seules à le modeler visuellement parlant (un peu comme une photographie en noir et blanc nous le restituerait). Nos yeux captant les lumières blanches et autres lumières réfléchies encodent alors l’image en fonction de l’intensité par le biais des bâtonnets et des longueurs d’ondes grâce aux cônes. Ensuite notre cerveau calculerait notre représentation mentale de l’image en associant des couleurs, inventées par lui, en fonction des longueurs d’onde reçues. Sur Terre, l’évolution des espèces aurait abouti progressivement à cette formidable invention qu’est le codage des fréquences en couleurs d’un univers par ailleurs peut-être incolore. La beauté du monde, parfois apparemment si riche en couleurs, n’existerait donc que dans l’esprit de certains animaux, dont les humains. Les cibles photographiques qui, dans un premier élan, nous donnent à penser que les couleurs existent telles quelles dans la nature (puisque le résultat photographique ressemble tant à notre perception), ont en fait été conçues pour restituer une image que, par-delà nos yeux, notre cerveau encodera de façon similaire à l’encodage de l’image oculaire du sujet initial. Les couleurs, qui ne naîtraient que dans le cerveau, ne sont donc pas plus ou moins fidèlement reproduites, mais les réflexions qui en sont à l’origine (spectre et intensité) plus ou moins bien simulées. En cela, toute image en couleur, issue d’une image d’origine oculaire ou photographique, serait, en fait, une image de synthèse produite par le cerveau.

Petite expérience colorée à la portée de tous De jour, disposez une table avec une lampe de bureau près d’une fenêtre. Placez deux feuilles de papier blanc A4 à plat sur la table, l’une éclairée seulement par la lumière du jour, l’autre, autant que possible, seulement par la lampe. Maintenant, prévenez vos éventuels amis présents que vous faites une expérience, sinon ils risquent de se poser des questions à votre sujet ! Ok ? Allons-y. Masquez avec la main votre œil le plus proche de la feuille exposée à la lumière du jour et, avec l’autre œil, regardez quelques secondes la feuille sous la lampe, assez près pour que la feuille remplisse suffisamment votre champ de vision. Aussitôt après, faites l’inverse: masquez votre œil le plus proche de la feuille sous la lampe et, avec l’autre œil, regardez quelques secondes la feuille exposée à la lumière du jour. Répétez l’opération plusieurs fois de suite ... Finalement, toujours en masquant un œil, regardez la feuille sous la lampe avec l’œil qui n’a vu jusque-là que la feuille exposée à la lumière du jour (la feuille devrait paraître jaune-orangée) et vice-versa (l’autre feuille devrait paraître bleutée). Conclusion: votre cerveau fait le blanc en fonction du spectre de la lumière, comme une caméra vidéo (température de couleur automatique), mais – et c’est ce qui est étonnant – de manière indépendante pour chaque œil ! n

FI spécial été 2007 – 28 août 2007 – page 36


L’image polytechnique

De ce voyage

en Allemagne alors de l’Est, de ce périple architectural et urbanistique entre Berlin, Bernau, Dessau, Iena et Magdeburg, j’ai gardé en tête les images d’une maison en particulier : celle construite entre 1926 et 27 à Dahlewitz par Bruno Taut, architecte né à Könisberg en 1880. Deux de ses autres réalisations avaient alors attiré l’attention sur lui : le pavillon de l’Acier à l’Exposition commerciale de Leipzig, en 1913, et surtout, le pavillon du Verre, à l’exposition du Werkbund de Cologne en 1914. L’expressionisme allait s’en inspirer largement tant en architecture qu’au cinéma : les décors du film Le Cabinet du docteur Caligari de Robert Wiene, en sont un exemple parlant. Bruno Taut décédait à Ankara en 1938. En fin de ce siècle, de sa maison n’était visible que l’extérieur : une impressionnante façade cadrée d’un intense liseré bleu Klein. Façade noire, captatrice d’énergie, incurvée en quart de cercle, telle le soleil dans sa course, selon une formule empruntée à Ledoux. Par les fenêtres, voyeur et voleur, je photographiai l’intimité des habitants absents du moment. Ces quelques images développées révélèrent la vue désirée, mais aussi le paysage environnant et le photographe lui-même, tous acteurs et témoins du crime, pétrifiés et ainsi piégés par les chambres obscures de Bruno.

Charles.Duboux@epfl.ch, EPFL – ENAC – Chaire de représentation et d’expression & haute École Pédagogique de Lausanne – UER – Art et Technologie

du côté de chez Bruno, à Dahlewitz Impression jet d’encre, 80 x 120 cm

La technique comme médium Une image est le résultat additionné de formes toutes reconnaissables : point, traits, surfaces ; cercle, triangle, carré et leurs combinatoires. Puis de formes mises en scène au moyen de conventions qui se sont petit à petit cristallisées dans le temps : projection orthogonale pour les plans, coupes et élévations des architectes, ingénieurs, designers; perspectives parallèles pour la construction et les plans de montage ; perspective conique pour les dessins scénographiques ou photographies de tout utilisateur potentiel, qu’il soit amateur, scientifique ou artiste. Ensuite de formes et conventions convoquées sur des thématiques. Pour les principales : l’être humain, l’animal, la nature, l’architecture. Et enfin, de formes, conventions et thématiques véhiculées par des techniques, techniques de visualisation qui nous intéressent ici. Redonner aux mots leur sens premier émoussé par le temps et parler de technique plutôt que des technologies, de médium plutôt que des médias, autorise à poser l’équation : technique = médium. Même si la mesure de son influence peut égaler celle de l’eau dans une vue aquarellée de William Turner, comme partie de ce tout complexe qu’est l’image, la technique en est le médium inévitable. C’est elle en effet qui permet de rendre visible l’information. IMAGES – 28 août 2007 – page 37


L’image polytechnique Les techniques de visualisation ont bien sûr évolué dans le temps. Fruit du hasard ou de la nécessité, chacune a tenté de couvrir l’entier du champ précédent et a pu avoir comme action de faire disparaître quelques procédés devenus obsolètes tel que par exemple l’héliographie. Les premières techniques ont perduré en se requalifiant à l’apparition des nouvelles qui, en contrepartie, ont été contraintes de préciser leur propre présence. Les techniques existantes encore aujourd’hui sont de ce fait interdépendantes, des premières aux dernières. Ces techniques de visualisation qui précipitent littéralement l’une dans l’autre, quelles sont-elles ?

du côté de chez Bruno, autoportrait Impression jet d’encre , 80 x120 cm

Les techniques comme media Au début, des terres de couleur, des morceaux de pierre, des bouts de bois brûlés, permettent de laisser des traces qui ouvrent la voie aux techniques de peinture et de dessin. L’image, qu’elle soit tracée au sol ou sur les murs d’une grotte, est une représentation symbolique d’une idée, ce mot venant du grec eidos qui signifie image. Les techniques de dessin (crayon, fusain, pierre noire, plume,...) et peinture (détrempe, tempéra, huile, acrylique, vinylique,...) permettent de produire un original. La xylographie, la gravure sur bois, la typographie (ou techniques en relief ) apportent à notre culture au début du XVe siècle la possibilité de la reproduction du texte et des images, d’abord en

du côté de chez Bruno, levé d’architecture Impression jet d’encre, 80 x120 cm FI spécial été 2007 – 28 août 2007 – page 38


L’image polytechnique noir et blanc, et ensuite en couleur. Puis le burin, la pointe-sèche, l’eau-forte, l’aquatinte, l’héliogravure (ou techniques en creux) permettent une reproduction de plus grande finesse. Ensuite la lithographie, l’offset (ou techniques à plat) permettent des tirages en grandes quantités. Enfin le pochoir et la sérigraphie (ou techniques à travers) permettent même de reproduire textes et images sur n’importe quels supports ainsi que en relief sur les volumes. Chacune de ces techniques a ses propres spécificités en termes d’économie d’usage, de mise en œuvre, d’expression, de dessin faisant jamais de l’une le simple sosie de l’autre. Elles cœxistent à travers et en creux encore toutes aujourd’hui. couleurs En fin du XIXe siècle, la photographie se superpose entièrement à ces précédentes techniques sans pouvoir simplement les à plat remplacer. Elle permet alors, par exemple, de saisir les peintures des grottes de Lascaux et de les reproduire grâce à cette technique photographique à plat qu’est l’offset. La lithographie sera alors récupérée moins par les imprimeurs que par les illustrateurs ou des artistes comme Honoré informatique Daumier. En fin de XXe siècle, l’informatique se superpose en une couche à venir... supplémentaire. L’ancienne photographie des peintures de Lascaux peut être numérisée et encore reproduite en offset. techniques de visualisation XVe, XIXe, XXe siècle, peut-être qu’émergera dans un futur proche une nouvelle technique qui ait autant de succès que l’imprimerie (typographique), la photographie ou l’informatique : le scanner-laser permet de photographier des objets pour l’instant encore et aussi immobiles que ceux fixés par les premières photographies de la fin du XIXe siècle. Il attribue à chacun des points de ces objets 3 dimensions dans un espace référencé, permettant ainsi, avec un programme adéquat, de les restituer sous forme de géométral, en projection orthogonale, donc de pouvoir en prendre les vraies mesures. Il pourrait être le messager annonciateur de ce futur nouveau medium de visualisation.

Les sens des media Les réalisations alors peu accessibles de plusieurs architectes remarquables des années 20-30 du siècle passé devaient être documentées. Il s’agissait en fait d’un travail dit de levé. Les images de cet article font partie du lot la maison de l’architecte Bruno Taut à Dahlewitz. Elles devaient aussi offrir quatre vues de l’intérieur de la maison. Elles ont été produites en appliquant l’objectif de l’appareil photographique (un appareil réflex muni d’un objectif de 55 mm à décentrement, permettant de rendre parallèles les fuyantes verticales) contre les quatre ouvertures vitrées de la maison. Le résultat découvert une fois le film développé fut surprenant puisque se trouvèrent réunis sur chacune de ces quatre photographies : l’intérieur de la maison de Bruno Taut (en fait l’image recherchée), mais aussi le paysage que le photographe avait derrière son

du côté de chez Bruno, le paysage Impression jet d’encre, 80 x120 cm IMAGES – 28 août 2007 – page 39


L’image polytechnique dos et le photographe lui-même. Peut-être que le miroir de l’appareil réflex conjugué avec le double vitrage des ouvertures de la maison avaient provoqué ce résultat inattendu. L’image fixait le sujet recherché, le contexte et l’opérateur. Les négatifs de ces 4 images ont été scannés, et ont permis ainsi de réaliser au moyen d’une imprimante à jet d’encre de grand format des agrandissements de 80 par 120 cm. Pour reproduire ces images couleurs dans ce document imprimé, il a fallu les transmettre sous la forme de cette nouvelle technique qu’est l’informatique. L’impression du document a été réalisée au moyen de l’offset, cette ancienne technique à plat qui, comme la lithographie, a cette spécificité de devoir fondamentalement sa présence au fait physique que l’eau (sur un support poreux, pierre ou métal grainé) repousse le gras (du dessin et de l’encre). Quant à la reproduction (offset) des couleurs, la quadrichromie est une application pratique de la théorie de Newton : en effet, en synthèse soustractive, pour obtenir à peu près toutes les couleurs du spectre chromatique visible non pas avec de la lumière mais avec des pigments, il faut ajouter à trois primaires un noir supplémentaire. Si la sélection de ces quatre couleurs s’est faite d’abord au jugé, la photographie et aujourd’hui la photographie numérique ont permis de l’objectiver. Pour ce levé d’architecture, la technique photographique avait été entre autres préconisée parce que c’est la seule qui contient le célèbre ça a été énoncé par Roland Barthes dans La chambre claire. Ces images photographiques disent qu’à un moment donné ceci a existé comme ça. Et au fond, ces images, telles qu’elles apparaissent aujourd’hui, parlent moins du sujet architectural recherché que de la technique photographique même : bien que ces quatre images sont elles aussi des photos-témoins (elles n’ont pas été retouchées ou reconstruites) ce qu’elles prouvent ou démontrent est plutôt l’essence même du moyen de représentation utilisé, ce qu’est, au fond, la vérité de la photographie. Elles disent en fait la vérité sur elles même, disent qui elles sont, en le montrant : elles sont l’autoportrait de celui qui les a réalisées, l’autoportrait de l’être humain compris entre culture (ici : l’architecture) et nature (ici : le paysage), l’être subjectif pris au piège de la machine objective. Elles posent ainsi une réflexion sur le concept scientifique d’objectivité de l’image. Elles nous donnent cet avertissement que l’on rencontre aux abords des passages à niveaux et qui concerne d’habitude les trains : Attention, une image peut en cacher une autre !. Ainsi l’image produite aujourd’hui dévoile à des degrés divers celui qui l’a faite, soit parce que comme ici on y voit simplement l’auteur, soit qu’elle soit le fruit du geste le plus automatique possible ; elle est (toujours) autobiographique. L’image mettant en relation un ou des auteurs à des lecteurs-spectateurs, elle témoigne d’une situation sociale particulière. Comme véhicule d’une thématique telle que l’homme ou la nature par exemple, elle ne peut que prendre position ; elle est (toujours) politique. Les messages même des panneaux de signalisation routière n’arrivant pas à rester monosémiques (le panneau chute de pierres peut avertir d’au moins deux dangers, celui de recevoir des pierres sur le véhicule et/ou celui de rencontrer de la roche tombée sur la chaussée), l’image cache la plupart du temps plusieurs sens à découvrir ; elle est (toujours) polysémique. Enfin l’image est le résultat de formes, conventions, thématiques et le condensat de plusieurs techniques conjuguées (de dessin et peinture-couleur, de procédés en relief, en creux, à plat, à travers, photographiques, informatiques) ; elle est (toujours) polytechnique. n

Chemins de traverse

Cadrage et anamorphose de la prise de vue photographique

FI spécial été 2007 – 28 août 2007 – page 40


Sécurité via téléphones portables un exemple pratique

Le

développement fulgurant des moyens de communication modernes a permis une Sviatoslav Voloshynovskiy, large distribution des téléphones portables et PDA. Actuellement, la plupart des svolos@cui.unige.ch personnes possèdent un téléphone mobile. Bien que ces dispositifs soient connus en tant UNIGE – Centre Universitaire que téléphones dus à leur fonction d’origine, les capacités de ces appareils ont été élargies d’Informatique ces dernières années à de nombreux autres domaines. Par exemple, les fonctions multimédias des téléphones mobiles modernes permettent de prendre des photos, d’enregistrer de la vidéo et du son, de jouer de la musique, de surfer sur Internet et d’échanger du courrier. L’acceptation toujours plus rapide de ces appareils et l’avancement encore plus rapide des technologies utilisées contribuent à voir sur le marché de nouvelles applications et services à un rythme impressionnant. Ceci permet de considérer ces appareils en tant que de puissants outils de multimédia Oleskiy Koval, avec des fonctionnalités de communication, imaging et calcul comparables aux PC d’il y a Oleksiy.Koval@cui.unige.ch quelques années. D’ailleurs, des téléphones portables peuvent être également utilisés comme UNIGE – Centre Universitaire bornes sécurisées pour l’authentification d’objets, de produits ou de marchandises. d’Informatique Le groupe de chercheurs de l’université de Genève dirigé par le professeur S. Voloshynovskiy et le Dr O. Koval en collaboration étroite avec professeur T. Pun a développé une technologie unique qui permet d’interagir avec virtuellement tous les objets physiques via les téléphones portables. Cette technologie d’interaction permet d’obtenir l’information sur l’objet via le téléphone et de l’employer pour le marketing mobile, la sécurité et la traçabilité. Cette technologie peut être employée pour l’interaction visuelle et sonore. Dans cet article nous considérerons seulement le cas d’interaction visuelle pour des applications de sécurité. L’architecture du système est présentée sur la figure 1. L’information acquise par le téléphone portable via sa caméra est envoyée au serveur, qui enregistre et traite la demande. Les données traitées sont comServer parées à l’information stockée Portable device dans la base de données et le Database Request Object résultat de cette comparaison est (acquired data) envoyé en retour. Le traitement peut se faire également directeObject information ment sur le téléphone portable après l’installation du logiciel spécifique. fig. 1 – architecture d’interaction via le téléphone portable La technologie développée prévoit deux formes d’interaction : active et passive. La forme active d’interaction est basée sur le principe de stockage invisible de données digitales, qui permet le codage et l’insertion invisible d’information codée dans des images numériques, des documents texte ou des signes graphiques. D’ailleurs, l’information codée peut être incluse directement dans un document numérique contenant des images et du texte avant d’être imprimé ou elle pourrait être imprimée sur le document existant. Dans les deux cas, l’invisibilité perceptuelle d’information rajoutée est garantie par l’utilisation des particularités et des imperfections du système visuel humain. L’information cachée peut se mélanger avec des caractéristiques d’intensité, de couleur, de texture, de forme, de position ou de tramage fig. 2 – exemple d’une interface pour le contrôle d’authenticité des cartes pendant l’impression. Elle peut être extraite plastiques en utilisant la technologie développée. L’image à gauche est la carte uniquement en connaissant la clef secrète authentique, l’image au centre correspond à la carte modifiée et l’image à droite utilisée pour le codage. Le document imprimé montre les zones identifiées comme truquées. IMAGES – 28 août 2007 – page 41


Sécurité via téléphones portables, un exemple pratique peut être numérisé en utilisant un scanner, une caméra Web, un téléphone mobile ou un PDA avec une résolution minimale VGA. L’extraction et la vérification des données sont effectuées soit directement sur l’appareil ou à distance sur un serveur. La technologie développée permet de fournir l’identification (par qui, quand, où, pour qui le document a été créé et qui en est le propriétaire) et l’authentification (est-ce que le document est authentique ou pas). La figure 2 montre un exemple d’application de la technologie à l’authentification des images et la figure 3 à l’authentification de documents textes.

(a)

(b)

fig. 3 – exemple du document texte protégé par la technologie développée : (a) le résultat de l’authentification dans le cas du document original et (b) les modifications détectées du document truqué. La forme passive d’interaction est basée sur des propriétés naturellement aléatoires de surfaces d’objets qui peuvent être considérées comme une sorte d’empreinte digitale (fig. 4). Dans ce cas, aucun codage supplémentaire d’information n’est nécessaire. L’image acquise peut être comparée à toutes les images stockées dans la base de données pour identifier l’objet. Cependant, en raison de la complexité élevée des calculs dans cette approche, une autre approche a été développée qui répond aux contraintes de temps. Dans cette dernière, l’image de la surface d’objet sert d’entrée à une fonction spéciale connue sous le nom de hashing robuste. Cette fonction produit un résultat binaire unique (hash) de longueur fixe pour chaque image d’entrée et une clef donnée de telle manière qu’il ne soit pas possible de reconstruire l’image entière en se basant seulement sur ce résultat. À l’étape de la fabrication, les images des surfaces d’objet sont prises à des endroits différents et les valeurs correspondantes de hash sont calculées et stockées dans des bases de données avec des numéros d’identification d’objet (fig. 5). Dans des applications d’authentification, la valeur de hash peut être directement imprimée sur la surface d’objet, codée dans un code-barre ou le filigrane mentionné ci-dessus. De cette façon, il est possible d’authentifier l’objet sans avoir accès à la base de données. FI spécial été 2007 – 28 août 2007 – page 42


Sécurité via téléphones portables, un exemple pratique

(a)

(b)

(d)

(c)

(e)

(f)

fig. 4 – exemples des images de microstructures prises par téléphone mobile de la surface de : (a) papier, (b) image halftone sur emballage, (c), (d), (e) les pieces d’une montre et (f) cuir

Hash database 1 2

Binary hash

. . .

Hashing M

Key

fig. 5 – calcul de hash à partir de la microstructure de la surface et son stockage dans la base de données

Verification rule Hashing

Hash database Min. Hamming distance <T

Key

1 2

M

. . .

fig. 6 – identification de l’objet à partir de hash calculé sur la microsurface

L’interaction avec l’objet et sa vérification sont effectuées de manière simple (fig 6). Le téléphone avec objectif macro acquiert une image de la microstructure extérieure et l’envoie au serveur par message MMS. Le serveur, qui a accès à la clef secrète, calcule la valeur de hash et recherche l’information correspondante dans la base de données. Une fois que la correspondance est trouvée, le message de confirmation est envoye par SMS pour informer l’utilisateur de l’authenticité de l’objet ou fournissant un lien à une information supplémentaire sur le produit. Le défi principal consiste en la création d’un algorithme de hashing approprié qui devrait être robuste aux conditions d’acquisition, aux distorsions introduites par la caméra, IMAGES – 28 août 2007 – page 43


Sécurité via téléphones portables, un exemple pratique

fig. 7‑ authentification d’une montre basée sur la microstructure de la surface photographiée par un téléphone mobile

au sous-échantillonnage et à la compression. Les chercheurs de Genève ont développé le modèle théorique du hashing perceptuel qui découle de plusieurs développements de la théorie de l’information, de l’apprentissage automatique, de la vision par ordinateur et du traitement d’images stochastique. Basés sur ce modèle théorique, ils ont conçu avec succès plusieurs algorithmes de hashing optimisés pour la majorité des modèles de téléphones. Les images montrent l’authentification des montres qui se basent sur le hashing perceptuel proposé. En raison de la microstructure unique de la surface de la montre, la montre peut être authentifiée facilement et sûrement par le fabricant de montres ou par un client dans un quelconque pays où le service de MMS est offert. Ceci peut être considéré comme une autre mesure pour combattre la recrudescence de contrefaçons. Une autre application de la technologie développée permet l’interaction avec les affiches ou posters et les matériaux de publicité qui peuvent être employés pour le marketing mobile. Cette technologie est utilisée par une société www. anteleon.com sous licence de l’Université de Genève. Les lecteurs intéressés peuvent trouver plus de détails au sujet de cette technologie à sip. unige.ch n

fig. 8 ‑ le résultat de l’authentication pour une montre authentique et une montre contrefaite

fig. 9 ‑ les copies d’écran montrent l’interface du serveur qui enregistre des demandes MMS. La surface de la montre authentifiée est montrée également

FI spécial été 2007 – 28 août 2007 – page 44


La main et la souris

Nombreuses

sont les machines qui nous permettent de voir ce que l’œil nu ne peut voir, et que nous pouvons afficher, clic clic la souris, sur l’écran de notre ordinateur, que ce soit le monde à l’échelle microou macro-scopique, un détail anatomique ou le ciel profond. Ces images, il est possible ensuite de les matérialiser, clic clic la souris, en passant par une imprimante : impression à deux dimensions sur papier, toile, tissu..., ou des machines à commandes numériques : réalisation d’objets tridimensionnels en plastique, métal, pierre...

Marie-Pierre.Zufferey@epfl.ch EPFL – ENAC – Chaire de Représentation et Expression – CRE

Et la main, alors! Obsolète, désuète, archaïque!

Quelques doigts suffisent pour faire clic, à la limite aucun doigt n’est nécessaire, il y a des commandes vocales... et pour tracer des géométries complexes, ellipses et autres raccords de courbe, rien de plus précis que le dessin sur ordinateur... et pour fabriquer des objets à une échelle micrométrique, avec rapidité et en série, la main est battue à plate couture; bien plus, les ordinateurs peuvent réaliser ce que la main ne peut pas faire, comme les composants mêmes qui forment son cœur, circuits imprimés, microprocesseurs, etc. Il ne s’agit pas ici de s’enferrer dans une querelle sans issue entre la main et la souris, entre le hand-made et le computer-made, mais de montrer que les deux sont intimement, profondément liés, et en particulier dans le domaine de l’image ; le dessin scientifique ou artistique (ce découpage n’est-il d’ailleurs pas un cliché?), ne se réduit pas à une simple opposition entre raison et sentiment, mais exprime avant tout une manière de toucher le monde et de se l’approprier, d’en faire l’expérience, et la main et la souris, toutes les deux, ensemble, veulent et comprendre et ressentir.

Martin Pierre Gauthier Les plus beaux édifices de la ville de Gênes Paris 1818/1832, Villa Pallavicino delle Peschiere, planches gravées, coupe et plan de la salle de bain (images scannées) & modélisation sur Alias (m.-p. z.), puis, avec l’aide du Professeur Georges Abou Jaoudé, réalisation d’un prototype en plâtre par une machine à commande numérique (photo numérique de la maquette) Notre main devant un ordinateur, se réduit, disparaît, remplacée par une souris, un mulot, cobaye (souris sans fil), un capteur vocal, visuel, qui nous permet de donner des instructions à l’ordinateur, clic, clic, oui, non, le courant passe ou ne passe pas, allume ou éteint les pixels qui font naître une image sur l’écran. L’image apparaissant sur la surface uniformément lisse, pour la regarder des yeux suffisent, il ne viendrait à l’idée de personne de toucher l’écran pour mieux voir, sinon par accident en pointant le doigt. Et pourtant, n’avez-vous pas fait l’expérience que ce sont aussi vos mains qui regardent l’image ? Devant des fresques de Pompéi, dans un coin reculé, n’avez-vous pas cédé à la tentation de les toucher ?

Rouge Pompéi, photographies argentiques des fresques, images scannées ( m.-p. z., 2003) IMAGES – 28 août 2007 – page 45


La main et la souris Dans un musée, n’avez-vous pas dû vous faire violence pour ne pas trop approcher du tableau (ah! si seulement il n’y avait pas le gardien, ni ces caméras partout), pour ne pas glisser le doigt sur une œuvre de Patinir, de Guardi, etc. Quel monde étrange lorsqu’on s’approche trop de l’écran, lorsque l’on zoome l’image, les pixels s’agrandissent, la forme générale se perd, la lumière, tout se réduit à de petites surfaces juxtaposées parfaitement remplies, chacune avec ses couleurs, que ce soit une image de synthèse ou la reproduction à l’écran d’une œuvre d’art traditionnelle, toute image à la fin n’est plus qu’une somme de petites lueurs, le portrait du Sphinx, comme le paysage sublime, ou la nature morte au sablier. Il est fascinant pour l’esprit de manipuler (le terme est-il approprié?) cette matière lumineuse quasi immatérielle, inodore (peut-être juste un parfum de silicium), impalpable, pour réaliser toutes les images imaginables. Clic, clic, clic, clic, clic, clic, clic, clic… dans le silence de ma chambre, l’image se construit; on se croirait presque dans un monde libéré de la matière tel que le rêvaient les défenseurs de la sphère légère, de la bulle de savon irisée théorique, idéal... Plus de supports à apprêter, de pigments à broyer, de poussières toxiques et salissantes, plus de crissement du burin sur le métal, plus de senteurs, ni le parfum de l’encre d’imprimerie, ni l’odeur de la térébenthine, plus de taches malencontreuses difficiles à réparer... ici, en un millième de seconde, il suffit d’appuyer sur la touche (encore un mot en rapport avec la main !) delete pour retrouver la pureté originelle, tout faux pas est définitivement annihilé, ici, ni remords ni repentirs.

La pensée immatérielle triomphe, la main se rebelle

solide platonicien selon L. de Nous sommes esprits, mais nous sommes avant tout corps, c’est avec lui que nous enVinci pour l’ouvrage de Luca trons dans la vie, que nous touchons le monde avant de le voir ; c’est par le toucher d’abord, Pacioli De divina proportione, et non par la vue, que nous faisons l’expérience de ce qui nous est hostile ou non, c’est la 1509 main qui établit tout lien d’amitié avec le monde, des choses et des personnes. Ici, devant l’image-ordinateur, elle se sent exclue, et tous les filtres proposés ne la consolent pas. Pourtant, l’informatique tente de se raccrocher au monde pictural traditionnel ; on parle de format portrait, paysage, on propose des effets artistiques, on réintroduit le coup de main de l’artiste, on offre la possibilité d’ajout de poussière, de salissures, de grain, de craquelures, c’est-à-dire le charme de la patine des ans, le temps qui passe, la matière qui nous touche, et c’est bien cela dont il s’agit. Mais la coupure n’est pas si nette entre main et souris, prenons par exemple le domaine de l’imagerie scientifique ou les aller et retour entre les deux sont constants ; les machines électroniques nous donnent des informations invisibles à l’œil nu, comme une coupe sur un neurone et que l’on ne peut toucher avec le doigt ; ces données brutes sont traduites en images, sont interprétées, redessinées pour les faire mieux comprendre, comme pour mieux entrer en contact avec la chose, l’apprivoiser, et la confronter avec le réel, son propre corps. Là aussi il y a émotion devant l’image, mais encore plus devant l’image rendue avec l’épaisseur du réel; avec les prolongements de l’ordinateur, on peut imprimer sur différents supports, les reprendre ensuite avec d’autres techniques manuelles, travailler la matière et fabriquer des objets en trois dimensions, avec une matière choisie, et c’est fascinant. Actuellement il y a neurone reconstitué à partir de séries de coupes des machines qui peuvent visualiser, fabriquer ce que nous ne fournies par le Professeur H. Markram, EPFL, pouvons pas faire nous-mêmes avec la main, mais seulement par neurosciences (m.-p.z.) le biais de la souris; cependant, n’est-il pas plus réjouissant de faire que de faire faire...

Et la main est peut-être parfois jalouse de la souris. Et parfois la souris aimerait avoir la liberté de la main.

Les images sont belles, mais elles sont plus attachantes quand elles ont passé entre des mains, même si à une étape ou une autre, les outils furent bien utiles. Ne soyons pas si rigides; va-t-on dénigrer les œuvres du Lorrain, de Vermeer, de Canaletto, des artistes, parce qu’ils ont utilisé pour réaliser leurs œuvres d’art un miroir, une chambre claire, une chambre noire? non, et pourtant on ne peut nier une certaine déception, l’homme aime FI spécial été 2007 – 28 août 2007 – page 46


La main et la souris mieux se penser comme un génie, ne nécessitant aucun intermédiaire, aucune prothèse, pour réaliser son œuvre. Va-t-on incriminer l’ordinateur parce qu’il a profité des siècles d’expériences faites à la main? on a plutôt tendance à oublier sa belle histoire, tous les bricolages ingénieux qui furent à l’origine de sa création, les premiers transistors et autres composants... En guise de conclusion, je vous propose de méditer sur cette parole de Jean-Luc Godard :Ce n’est pas une image juste, c’est juste une image. n

Hubble ultra deep field, image du ciel profond que nos yeux contemplent grâce aux dernières technologies de l’imagerie informatique! cf.www.astro.uio

Chemins de traverse

Données informatiques pour impression jet d’encre de 2x2m

IMAGES – 28 août 2007 – page 47


La magie de la transformation

Nous

avons tous en tête une scène baignée de lumière rouge où une main trempe un papier dans un bac pour faire apparaître une photo. C’était le bon vieux temps. Je descendais à la cave avec plaisir en pensant aux feuilles qui sécheraient ensuite le long du fil, après un processus qui me semblait proche de l’alchimie, comme une magicienne qui jongle avec des fioles dans son laboratoire. Parfois, une fausse manœuvre, que j’essayais de reproduire ensuite, donnait des effets psychédéliques, mais la plupart du temps tout était minutieusement minuté et contrôlé, pour déposer le lendemain des épreuves dans la boîte aux lettres d’un quotidien. Le climax de l’euphorie était d’assister à la révélation entre la surface vierge et l’image finale. Puis est arrivé le numérique. Comme beaucoup, j’ai commencé par classer les photos, mettre des étiquettes, enlever des yeux rouges, ajuster un contraste, éclaircir un paysage. J’étais loin de la magie jusqu’au jour où je suis repartie d’un magasin avec Photoshop. Si j’étais vous, je choisirais l’autre logiciel, avait dit la vendeuse, celui-là est compliqué. J’ai choisi le compliqué. En fait, en tant que néophyte, il m’a fallu des heures pour expérimenter et connaître les fonctions de ce programme. Tant et si bien que je passais mon temps accrochée au clavier au détriment de la chasse aux images au grand air, un passe-temps pourtant plus

Petites fleurs – photo originale utilisée pour Face-to-face © Veronia

Face-to-face – tirée de Petites fleurs © Veronia FI spécial été 2007 – 28 août 2007 – page 48

Veronique.Bauler@gmail.ch, alias Veronia – EPFL – ENAC – Laboratoire de pollution atmosphérique et du sol


La magie de la transformation

L’homme à la cape – tirée de Aspahlte © Veronia

Asphalte – photo originale utilisée pour l’Homme à la cape © Veronia sain et ressourçant que de rester penchée sur un écran qui fatigue les yeux. Lorsqu’une nuit je me suis demandée quelle était cette espèce bizarre d’oiseaux qui chantent dans le noir (il était en réalité 5 heures du matin), j’ai dû prendre des mesures disciplinaires. Mais voilà, avec Photoshop, j’ai retrouvé la magie de la transformation. Changer une teinte, appliquer un filtre de déformation, retourner la photo, accentuer les contours... Les combinaisons sont infinies. Le résultat n’est pas toujours à la hauteur de l’attente, mais il arrive qu’un sentiment irrationnel prenne le dessus, qu’une photo déjà affectionnée au départ, à laquelle sont données plusieurs formes successives, se révèle finalement comme une apparition différente et tout aussi plaisante. C’est comme si on la sentait venir, comme si l’intention était reliée à un hasard bienheureux. Le travail de recherche est soudain récompensé. Mettre du rêve dans la réalité et vice versa, quel joli but ! Balayée la nostalgie du labo, le constat est positif : l’image numérique permet de créer des visions nouvelles et la magie y est toujours vivante. n IMAGES – 28 août 2007 – page 49


Une image aérienne de 20 milliards de pixels pour Neuchâtel Introduction

Marc.Riedo@epfl.ch Système d’Information du Territoire Neuchâtelois (www. ne.ch/sitn) et chargé de cours EPFL – ENAC – Laboratoire de systèmes d’information géographique

L’accès à des images satellites et aériennes s’est démocratisé de manière fulgurante ces deux dernières années avec l’arrivée remarquée de solutions de cartographie Internet comme Google et Yahoo maps et les globes virtuels (Google Earth, NASA World Wind, Microsoft Virtual Earth). Les centaines de millions de personnes qui se sont approprié ces logiciels peuvent désormais visualiser des images de ce type jusque-là souvent réservées à un équipement informatique spécialisé et à une utilisation par des scientifiques ou des professionnels. Ces solutions ont notamment pu voir le jour grâce à une évolution importante des techniques d’acquisition de données géographiques, dont voici quelques étapes : Dès 1990 : photogrammétrie numérique et GPS. La photogrammétrie est une technique permettant, à partir d’un couple stéréoscopique de photographies, d’étudier et de définir avec précision les formes, les dimensions et la position dans l’espace d’un phénomène. Le GPS est un système de géolocalisation par satellites. Dès 1995 : géoréférencement direct (GPS-INS). En combinant une localisation de type GPS et une station inertielle (ensemble d’accéléromètres et de gyroscopes capables de mesurer les accélérations et les vitesses de rotation selon les trois axes de l’espace) dans un aéronef, il est possible de connaître en temps réel son positionnement et donc de la caméra embarquée. Fin des années 1990 et début 2000 : laser scanner et radar aéroporté ou héliporté. Ces deux technologies permettent système Scan2map de réaliser rapidement et presque automatiquement des modèles numériques de terrain sur de grandes surfaces. Space Radar Topographic Mission1 (SRTM) en 2001 a permis de déterminer le modèle numérique de terrain (MNT) le plus précis à l’échelle de la planète (1 point XYZ tous les 30m). Ce modèle fut déterminé par interférométrie radar à partie de la navette spatiale Endeavour. Il est utilisé comme relief dans les globes virtuels. Dès 2002 : Imagerie numérique à très haute résolution (20 cm ou mieux pour les images aériennes, submétrique pour les images satellites – Ikonos, Quickbird) et combinaison de capteurs. On voit apparaître les premières caméras numériques aériennes de plus de 20 millions de pixels par cliché. Une autre tendance est l’intégration de plusieurs capteurs sur un même système, images et laser. Pour couvrir de petits secteurs, l’EPFL a par exemple développé le système scan2map2 commercialisé depuis 2005 sous le nom Helimap3. Ce système héliporté combine balayage laser (jusqu’à 8 points/m2) et image aérienne numérique (jusqu’à 5 cm de résolution). orthophoto 5cm à Bevaix

1

Projet SRTM : www2.jpl.nasa.gov/srtm/ Projet scan2map : topo.epfl.ch/laserscanning/ 3 Projet Helimap : www.helimap.ch 2

FI spécial été 2007 – 28 août 2007 – page 50


Une image aérienne de 20 milliards de pixels pour Neuchâtel Les systèmes les plus classiques pour photographier la terre sont les avions et les satellites. D’autres systèmes aériens prennent de plus en plus d’importance : navette spatiale (SRTM), hélicoptère, hélicoptère télécommandé 4, drônes (UAVs – Unmanned Airborne Vehicles), aérostats (LTA – Lighter Than Air Vehicle 5). La production et la gestion de ces images de la terre nécessitent tout de même de relever un certain nombre de défis (météo, positionnement, calibration, qualité et précision, stockage et gestion de volumes importants de données, etc.) et de maîtriser un matériel et des logiciels sophistiqués. L’objectif de cet article est de présenter brièvement les étapes et les caractéristiques d’un projet de réalisation d’une couverture de photos aériennes – orthophotographies – à l’échelle d’un canton suisse. Les orthophotographies (ou orthoimages) sont des images aériennes ou satellitaires de la surface terrestre rectifiées géométriquement et égalisées radiométriquement. La correction géométrique des images permet d’éliminer les déformations inhérentes au système de prise de vue et au relief ce qui permet de les utiliser comme un plan sur lequel on peut mesurer des distances et des surfaces. Ces images peuvent ainsi être superposées avec d’autres données cartographiques. Il est donc nécessaire d’avoir une information précise sur le positionnement de la caméra, le système de prise de vue (calibration) et sur le relief (modèle numérique de terrain).

Réalisation d’une orthophoto aérienne pour le canton de Neuchâtel Le canton de Neuchâtel a fait une première acquisition de photo aérienne en 1998 auprès de Swisstopo : le produit Swissimage6 d’une résolution de 50 cm réalisé avec une caméra analogique. Son utilisation s’est généralisée dans de nombreux domaines : aménagement du territoire, environnement, forêt, agriculture, viticulture, cadastre, routes, services d’intervention, etc. Comme le territoire évolue rapidement, une mise à jour s’est imposée et il a été décidé de réaliser une orthophoto quatre fois plus précise en utilisant les nouvelles caméras numériques et une modélisation très précise du relief. Un autre projet financé par la confédération (topographie et agriculture) et les cantons (cadastre) a permis d’établir en 2002 (pour le canton de Neuchâtel) un modèle numérique de terrain par balayage laser aéroporté à très haute résolution (~1 point connu en XYZ tous les mètres, alors que le modèle le plus précis jusque-là à l’échelle de la Suisse était de 1 point par 25 mètres).

modèle numérique de terrain par balayage laser La conjonction de l’utilisation des nouvelles caméras numériques et la disponibilité d’un modèle de terrain très précis apportent un certain nombre d’avantages. Cela permet une réduction du coût et du temps de production grâce au système GPS+INS embarqué, la suppression de l’étape de scannage des images qui impliquent aussi une perte de qualité même avec les meilleurs scanners, une amélioration de la précision grâce à un modèle numérique de terrain plus précis et une amélioration de la qualité liée à la meilleure dyna4

Projet EPFZ : www.photogrammetry.ethz.ch/research/heli/index.html Article sur les aérostats : www.geoinformatics.com/asp/ ?t=article&newsid=3045 6 Produit Swissimage : www.swisstopo.ch/fr/products/digital/ortho/swissimage 5

IMAGES – 28 août 2007 – page 51


Une image aérienne de 20 milliards de pixels pour Neuchâtel mique des images réalisées par des caméras numériques. Un autre avantage non négligeable est la disponibilité simultanée d’images couleur et proche infrarouge. Voici quelques caractéristiques du projet d’orthophotos numériques pour le canton de Neuchâtel :

Orthophoto Nom du produit : ImageOne2006 (http ://www.ne.ch/sitn/plaquettes) Résolution : 20 cm Couleurs : RGB 24 bits, Proche Infrarouge (CIR) et panchromatique Précision planimétrique : moins de 30 cm Taille de l’orthophoto totale : ~20 milliards de pixels Volume total du projet : 3 Terabytes (soit environ 3000 cdroms) Système de coordonnées : Système suisse MN03 / MN95 MNT utilisé pour la rectification des images : MNT-MO modèle lidar 2002, 1 point par m2 Entreprise mandatée et coûts du mandat Orthophotos : Flotron AG Vol : ILV Fernerkundung Gmbh Coût approximatif du mandat : ~120 KF Caméra et clichés Type de caméra : caméra numérique (CCD) DMC Zeiss/Intergraph Focale : 120 mm Dynamique des clichés : 12 bits par canal (R, G, B, IR, Pan) Nbre de pixels par cliché : 7680 x 13824, soit ~100 millions de pixels par cliché Résolution spectrale : bleu : 400-580 nm, vert : 500-650 nm, rouge : 590-675 nm, proche IR : 675850 nm Avion et caractéristiques du vol Type d’avion : Cessna 404 Vitesse de vol : 230 km/h GPS/INS : DGPS / INS Trimble 5700, 0.1 sec, Aerocontrol (IGI) Hauteur de vol (msm) : 2700-3100m Date de vol : 11 juin 2006 Résolution photo sur terrain : 18 cm Recouvrement longitudinal et latéral des clichés : 70/55 Type d’ajustement : Aérotriangulation (Bundle Block), Orthophoto ( bicubique)

Les grandes étapes de production d’une telle orthophoto furent :

Planification du vol

Le choix d’une période de vol n’est pas évident, car l’interprétation des images et les utilisations possibles en dépendent. La saison est notamment déterminante pour l’analyse de la végétation. La présence de neige l’hiver peut également masquer certains éléments importants de la couverture du sol. Pour obtenir des belles images avec des arbres en feuilles, les vols sont généralement planifiés dès le mois de mai. L’heure du vol a aussi une importance particulière puisqu’elle conditionne la présence plus ou moins prononcée des ombres. Les prises de vues sont effectuées à la mi-journée afin de réduire les ombres au minimum. Ces contraintes ne sont pas évidentes à respecter, car il faut trouver à cette période un jour ensoleillé, de bonne visibilité, sans vent et sans nuages en altitude (vol à 3000m). Le projet initial était prévu pour le mois de juin 2005. Suite à plusieurs tentatives infructueuses liées à des conditions météorologiques particulièrement défavorables pour la photographie aérienne, il a été nécessaire de reporter le vol d’une année. La planification du vol doit être préparée de manière rigoureuse pour garantir la précision planimétrique, la résolution et le recouvrement minimal souhaité des clichés. Cette planification qui tient compte du secteur à couvrir, des caractéristiques de la caméra, du FI spécial été 2007 – 28 août 2007 – page 52


Une image aérienne de 20 milliards de pixels pour Neuchâtel

planification du vol : lignes de vol et centres de projection des clichés (CN500, Swisstopo) relief, détermine précisément les lignes de vol et les centres de projection de clichés (voir ci-dessus). La planification a été déterminée à l’aide d’un logiciel spécifique7 développé par la société Flotron. Une campagne de détermination et matérialisation de points de signalisation au sol est aussi nécessaire pour garantir la précision au sol exigée (< 30cm).

Vol et photographie du territoire

Le vol définitif a eu lieu le 11 juin 2006 sur l’ensemble du canton avec des conditions météorologiques excellentes. Les premières caméras numériques aériennes professionnelles ont été mises en exploitation il y a 5 ans. Même si elles ont tendance à supplanter les caméras analogiques, le nombre d’exemplaires en exploitation au niveau mondial est encore réduit à moins d’une centaine étant donné le coût d’acquisition de l’ordre du million de francs. La caméra retenue par la société Flotron (DMC, Digital Mapping Camera de Zeiss-Inter-

matériel à bord de l’avion

caméra numérique DMC

7

www.topoflight.com/

IMAGES – 28 août 2007 – page 53


Une image aérienne de 20 milliards de pixels pour Neuchâtel graph) 8 est un capteur de type surfacique (4 capteurs CCD de 7000 * 4000 pixels), avec une résolution radiométrique de 12 bits et une taille de pixel de 12 µm. Le vol a produit 1600 clichés (couleurs et infrarouge) de 100 millions de pixels par cliché.

Correction géométrique et

radiométrique des images La correction géométrique des images est une partie importante d’un projet de production d’orthophotos. Les principales étapes sont : z le calcul de l’orientation dans l’espace de chaque cliché pour prendre en compte des déformations introduites par la distorsion de l’appareil photo, l’inclinaison lors de la prise de vue et lors de la numérisation. Les mesures GPS/INS du vol sont enregistrées en tant que valeurs approximatives pour l’orientation des images;

cliché (a), résultat de l’orthorectification (b) et assemblage d’orthophotos (c)

mosaïque d’orthophotos corrigées radiométriquement

orthophoto au centre de Neuchâtel

z le calcul du relief; z l’orthorectification des images pour corriger les erreurs inhérentes au relief; z le mosaïquage et la correction radiométrique. L’étape du calcul du relief a pu être évitée grâce à la disponibilité du modèle de terrain réalisé par balayage laser effectué en 2002. Un certain nombre de corrections de ce modèle ont cependant dû être effectuées manuellement (ouvrages, ponts, nouveaux tronçons d’autoroute). Les vues aériennes doivent encore être assemblées (mosaïque) et corrigées radiométriquement de sorte que l’ensemble de la zone couverte par le projet soit représenté sur une photo dont les couleurs sont équilibrées. 8

www.intergraph.com/dmc/

FI spécial été 2007 – 28 août 2007 – page 54


Une image aérienne de 20 milliards de pixels pour Neuchâtel Ces étapes font appel à un ensemble de procédures en grande partie automatisées et de logiciels spécifiques (pour ce projet, aérotriangulation : KLT, Photo-T et Bingo, orthorectification : OrthoMaster, mosaïquage et correction radiométrique : OrthoVista, retouche d’images : Photoshop). La résolution finale de 20cm au sol permet une plage d’utilisation très importante, soit de l’échelle cantonale 1 :500’000 jusqu’à une échelle détaillée du 1 :500.

Compression, publication et archivage des images

Le traitement, la gestion et la publication d’images de cette taille nécessitent des capacités importantes de calcul. Grâce à des algorithmes de compression très efficaces, dont la compression par ondelettes9, il est possible de réduire drastiquement le volume total quasiment sans perte de qualité visuelle. Une orthophoto globale de 20 milliards de pixels peut ainsi être comprimée de manière à être fournie sur un seul DVD. Ces données sont aussi accessibles sur une application Internet de cartographie interactive : www.ne.ch/sitn ou directement sitn.ne.ch/ ?theme=orthophotos. De plus, les images peuvent être appelées par des services Web, par exemple en passant en paramètres, les coordonnées du centre, l’échelle et la taille de l’image souhaitée : sitn.ne.ch?theme=orthophotos&Y=562400&X=205000&echelle=2000&taille=3 sitn.ne.ch?theme=orthophotos&Y=539100&X=197650&echelle=1000&taille=3 sitn.ne.ch?theme=orthophotos&Y=553700&X=216210&echelle=4000&taille=2 sitn.ne.ch?theme=orthophotos&Y=555570&X=200600&echelle=5000 sitn.ne.ch?theme=orthophotos&Y=534000&X=195300&echelle=30000 L’archivage numérique des trois terabytes de données du projet a été complété par un archivage sur support papier longue durée ILFOCHROME.

Utilisation des données Les orthophotos aériennes sont utilisées régulièrement par des centaines d’utilisateurs au niveau cantonal. Elles permettent de localiser les événements, de donner le contexte, de voir l’évolution du territoire, de simuler l’impact de modifications du territoire, de saisir d’autres données cartographiques dérivées ou pour des analyses plus sophistiquées (par exemple du traitement d’images proche-infrarouge pour la distinction des feuillus résineux en foresterie). Elles sont aussi très souvent utilisées conjointement avec une représentation précise du relief. Voici quelques exemples d’utilisation dans différents domaines :

Services d’intervention Localiser les sinistres pour les services d’intervention (pompiers, police, ...) Planifier les interventions Gestion et suivi de catastrophes Aménagement du territoire Analyse de l’évolution du territoire Etablissement de plans de quartiers Suivi des demandes de permis de construire Avant projets routiers Modèle 3D urbains Foresterie Calculs des taux de boisements pour les paiements directs Planification forestière : reconnaissance des essences forestières avec le proche infrarouge, analyse de l’état sanitaire de la forêt (détermination d’arbres malades), analyse de dégâts Environnement Planification et réalisation des mesures d’entretien et d’aménagement dans les marais Inventaire cantonal des objets méritant protection (ICOP) Cartographie des dangers naturels 9

FI4/01 : Compression d’images en télédétection et systèmes d’information géographique par Marc Riedo et Abram Pointet, ditwww.epfl. ch/SIC/SA/SPIP/Publications/spip.php ?article570

IMAGES – 28 août 2007 – page 55


Une image aérienne de 20 milliards de pixels pour Neuchâtel

Gestion foncière Vérification et mise à jour de la mensuration officielle Réalisation d’améliorations foncières Production de données cartographiques Vectorisation des réseaux routiers et hydrographiques Réalisation du plan topographique au 1 :5000

glissement de terrain de Travers (à gauche), superposition de l’orthophoto avec des données cadastrales (à droite)

Conclusions Chaque année qui passe, de nouvelles technologies d’acquisition et de traitement de données permettent de construire une représentation plus détaillée de notre planète. Avec le vol d’Endeavour en 2001, nous disposons d’une information 1000 fois plus précise qu’auparavant du relief de notre planète. Les images satellites (Landsat est capable de faire une image complète du globe toutes les deux semaines), les images aériennes et les autres capteurs se complètent pour alimenter des représentations tridimensionnelles des plus en plus efficaces de notre territoire. Petite goutte d’eau à l’échelle mondiale (1 millionième de la surface), la réalisation d’une image aérienne à l’échelle d’un canton fut un projet exigeant qui a permis d’exploiter les technologies d’acquisition et de traitement de données les plus novatrices. Le résultat est un produit qui a pour vocation de répondre aux exigences grandissantes des utilisateurs en terme de qualité, de précision, d’actualité et de facilité d’accès. Il doit apporter un gain de temps significatif dans de nombreuses tâches en lien avec le territoire et contribuer à mieux appréhender son évolution.n

Chemins de traverse

Saturation de l’image photographique après cadrage et anamorphose

FI spécial été 2007 – 28 août 2007 – page 56


Presque banal

Je dois

me rendre à un vernissage dans le Learning Center. Je ne peux pas dire que ça m’enchante. Il y en a toutes les deux semaines, généralement des travaux d’étudiants pas vraiment intéressants. Pourquoi ces jeunes, souvent brillants dans leur matière, s’acharnent-t-ils à faire du touche à tout ? Ne comprennent-ils pas qu’ils Flavien.Rouiller@epfl.ch, sont plus que médiocres en dessin et en photographie ? étudiant EPFL Je soupire légèrement et m’y résigne : en tant que responsable qualité de vie du Learning Center je suis tenu de m’y rendre. Je suppose que ça fait partie du job, même si ça tombe sur mon jour de congé. À l’arrêt Cerisaie une horde de jeunes embarque dans mon wagon, deux des filles arborent cette coiffure rouge tellement populaire en cette fin d’hiver 2015. En écoutant distraitement leur conversation, je comprends qu’ils sont de sortie pour l’une des fêtes estudiantines du jeudi soir. La rame entame un long virage puis stoppe. C’est mon arrêt. – Pardon ! excusez-moi ! En poussant un peu les passagers restés debout vers les portes, je parviens à sortir du TSOL, ce vieux métro de capacité complètement dépassée. Heureusement qu’un bon nombre d’étudiants sont à portée de vélo ou habitent le campus. Je me mets en marche vers le Learning Center. J’opte pour un itinéraire abrité : je ne veux pas que la pluie abime ma Flavien Rouiller remporte le prix de 1000 francs pour sa veste achetée l’heure précédente. Je dois quand nouvelle Presque banal que nous avons le plaisir de présenter même me mouiller avant d’atteindre mon but, ici et sur le Web à l’adresse: ditwww.epfl.ch/SIC/SA/SPIP/Pule passage à couvert jusqu’au centre n’est pas blications/spip.php?article1321. La nouvelle de cette année encore achevé. Habituellement les principaux visiteurs de devait se passer en 2015 dans le Learning Center de l’EPFL ces vernissages sont les amis et la famille de et donner un rôle prédominant dans le déroulement de son l’exposant, éventuellement quelques badauds histoire au thème du FI spécial été: Images. attirés par une affiche ou un flyer. Au nombre de personnes présentes dans le centre je conclus D’autres nouvelles ont retenu l’attention du jury par leur que notre jeune artiste n’a que peu de relations qualité, nous les publions sur le Web. Ce sont: et que sa famille n’a pas fait le déplacement. Le prospectus disponible à l’entrée ne m’apu Le fromage de l’architecte de Frédéric Rauss porte pas beaucoup de précisions sur ce qui ditwww.epfl.ch/SIC/SA/SPIP/Publications/spip.php?article1324 est exposé : u Melissa de Blaise D’Hont Sertifus Racloïla, jeune talent tant en ma ditwww.epfl.ch/SIC/SA/SPIP/Publications/spip.php?article1325 thématique qu’en photographie, expose pour la u Je, tu,… ils de Nicolas Guerin première fois sa série de... ditwww.epfl.ch/SIC/SA/SPIP/Publications/spip.php?article1327 blablabla, la tartine habituelle de compliments et de commentaires creux. Mais quand u La vengeance de Joël Stadelmann même, quel nom étrange ! Je suis pourtant ditwww.epfl.ch/SIC/SA/SPIP/Publications/spip.php?article1329 habitué aux origines les plus diverses, ici on rencontre des gens d’absolument partout. À Bravo et merci à tous ceux qui ont participé à ce concours. tel point que je suis convaincu que si des extraVous n’avez pas gagné cette année, la chance vous sourira peutterrestres visitaient cette planète, ils passeraient être l’an prochain. par là. Avant de me lancer seul dans l’observation d’une cinquantaine d’œuvres d’art je jette un regard au dehors pour vérifier si une connaissance ne serait pas sur le point d’arriver. Mais non, personne pour m’accompagner dans cette corvée, je constate juste qu’il s’est mis à neiger. Sale temps pour un mois d’avril. L’hiver semble ne plus vouloir finir, certains y voient une manifestation du réchauffement, allez savoir...

Concours de la meilleure nouvelle

Je me balade nonchalamment dans les couloirs (couloirs n’est pas approprié, l’architecte ne s’est pas soucié d’inventer un nom pour les lieux de déambulation à l’intérieur du centre : un couloir est par définition rectiligne et si possible défini par un début et une fin. Ici rien de tel, tout est arrondi, on ne sait jamais vraiment si l’on est dans une salle ou IMAGES – 28 août 2007 – page 57


Presque banal dans un lieu de passage séparant deux salles. Mais si cela est troublant au début, je m’y suis vite habitué et je dois avouer que c’est assez plaisant.) Quant aux photos, aucune ne me marque, ni même n’attire mon attention plus de quelques secondes. Elles montrent des lieux de l’EPFL, généralement le Learning Center. Le cadrage me semble souvent douteux et les couleurs mal équilibrées. On y aperçoit toujours des personnes, mais aucune ne m’est familière. La seule fantaisie que semble s’être accordée l’artiste se situe dans la datation des images. Certains écrans-étiquettes affichent hier ou il y a un mois, ce qui peut être compréhensible. D’autres œuvres sont datées demain ou probablement en juillet, après comparaison de l’heure à la montre du personnage de gauche avec la position des ombres, bref des datations fantaisistes. Je tentais de découvrir si les photographies contenaient des anachronismes soigneusement dissimulés ou quelque chose de semblable quand soudain quelqu’un m’interpella : – Monsieur Leandro ! Vous êtes aussi venu. Alors que pensez-vous de ça ? Surprenant ! Révolutionnaire ! Ne trouvez-vous pas ? J’identifie la voix rapidement et me retourne pour reconnaître M. Paxos, un habitué du lieu. Je me demande un instant s’il plaisante, mais ça ne collerait pas avec le personnage. Non, son visage en lame de couteau semble réellement enthousiasmé. Devant mon expression incompréhensive, il semble déçu. Moi je saisis de moins en moins. Habituellement ce vieux professeur de physique se montre encore plus critique que moi au sujet de ces expositions. Celle-ci entre -selon moi- incontestablement dans la catégorie des plus mauvaises. – Ah, fit le professeur un peu déçu. Alors, vous n’avez pas réalisé ? Venez par ici. – J’avoue ne pas être aussi séduit que vous... – Suivez-moi ! suivez-moi ! vous allez comprendre, gesticula-t-il. Je m’exécute et me laisse entraîner vers une image devant laquelle je n’étais pas encore passé. Je regarde distraitement. Je n’aspire plus qu’à féliciter l’artiste, lui demander hypocritement la liste de prix de ses œuvres et, enfin, rentrer chez moi. Il m’apparaît que je reconnais certains des trois personnages de l’image. L’un est M. Paxos, le second est une femme brune que je ne connais pas. Et entre eux : c’est moi ! Puis je regarde le décor et crois comprendre ce qui enthousiasme tant M. Paxos : c’est une mise en abîme. Sur la photo on nous voit en train de regarder une image nous montrant en train de regarder une image, elle-même nous montrant en train de regarder une image, etc. Je regarde la date : aujourd’hui. Bon oui je dois concéder que c’est amusant, mais il n’est pas secret que M. Paxos et moi-même sommes toujours présents à ces vernissages. De plus avec la technologie actuelle il aura été extrêmement facile de créer l’image que nous voyons en greffant une photo de nous sur un cliché du Learning Center. Et il y a au minimum une erreur : cette femme. J’allais me retourner pour le dire à M. Paxos quand un détail attira mon regard sans que je parvienne vraiment à dire quoi. Je me penche pour mieux voir. Ça me saute aux yeux, littéralement, ça explose. J’ai un mouvement de recul. Non c’est impossible. La veste ! ! J’apparais avec la veste que je viens d’acheter ! ! Comment avait-il pu deviner ? Mon cerveau sembla se bloquer. Un petit cri étrange et aigu sortit de ma gorge. J’entendis des pas sur ma droite. – Tout va bien ? je vous ai entendu crier... FI spécial été 2007 – 28 août 2007 – page 58


Presque banal Un flash me fait légèrement sursauter, bien que je suppose m’y être inconsciemment attendu. Je me détourne péniblement de l’image et découvre une femme à ma droite qui me toise d’un air inquiet. C’est évidemment LA femme. Celle de l’image, bien sûr. Je ne parviens pas à prononcer un seul son cohérent. M. Paxos sourit, la femme me dévisage. Je me retourne complètement et découvre un jeune homme qui observe sur l’écran de son appareil photo le cliché qu’il vient de prendre. Il lève les yeux vers la photo accrochée au mur, les rabaisse sur son écran et hoche la tête d’un air satisfait. Je balbutie un « Où...Où est la cam... caméra cachée ? » avec peine. – Alors mon ami, révolutionnaire non ? triomphe Paxos en me donnant une légère claque dans le dos. Il doit être aussi secoué que moi pour se permettre une telle familiarité, lui d’habitude si austère. Je regarde l’artiste ou celui que je suppose tel. (Cette fois je pèse mes mots, personne ne m’avait autant marqué avec une image jusqu’à aujourd’hui), je lui demande une explication. – Oh c’est assez compliqué, êtes-vous familier de la physique des trous de vers et des mathématiques relativistes ? – Eh bien assez peu à vrai dire, j’avoue. Mais vulgarisez je vous prie, j’ai besoin de comprendre. Quel est le truc ? – Mh, je... c’est assez difficile, hésite le jeune homme. Premièrement, il n’y a pas d’astuce ni de trucage comme vous dites... – Alors concrètement, comment faites-vous ? – La partie la plus ardue est de repérer les lieux et les dates des images pour être présent à temps pour prendre la photo. A mon expression Sertifus Racloïla se sentit obligé de préciser ses explications : – Vous comprenez quand je reçois les images, je ne sais pas encore quand je les ai prises. Racloïla l’exposait comme si c’était parfaitement évident. – Mais si vous les avez déjà, pourquoi les prendre ? – Mais enfin, comment voulez-vous que je les fasse suivre si je ne les prends pas ? Ce serait du vol, du plagiat. – Aha, les faire suivre, répondis-je pour ne pas paraître trop idiot, avant de me raviser et de demander encore : – Mais à qui ? – Enfin monsieur, si personne ne me les envoyait je ne les aurais pas, il me faut donc rendre la pareille. – Euh, oui... certes. J’en ai assez entendu pour ce soir, je décide de partir. Je vous souhaite une excellente soirée, j’ai beaucoup apprécié votre exposition. Je tourne les talons et sors au plus vite de ce lieu. Je me demande qui est fou, lui ou moi ? Sûrement lui... Pourtant, M.Paxos semblait trouver son discours parfaitement cohérent. Je franchis la porte automatique brusquement et manque de glisser sur la petite couche de neige. Je me dirigeai d’un pas rapide et robotique vers le TSOL, le cerveau en position off.n

Chemins de traverse

Masque superposé à chaque partie de l’image

IMAGES – 28 août 2007 – page 59


Du sens de la vue à la construction du regard ou l’enfant dans le partage de sa vision du monde

Accompagnant

depuis 4 ans des enseignants et leurs classes dans des projets multimédias1, les auteurs du texte ci-dessous ont choisi de rapporter leurs réflexions suite aux observations des moments vécus avec des élèves réalisant des images.

L’image à l’école :

de la forme au contenu

Valerie.Jaton@hepl.ch, Chargée de formation UER Médias et TIC dans l’enseignement, Haute École Pédagogique de Lausanne

?

Introduction: cadrer, vous avez dit cadrer ?

Premier essai photographique à l’école enfantine (4 ans). Un cadrage est rarement prémédité... D’où vient le problème ? Flou de bougé, manque de stabilité ? Même si c’est Philippe.Ramel@hepl.ch, souvent le cas, il y a aussi une raison principale : tout à la joie de pouvoir photographier Chargé de formation et ne sachant pas trop comment s’y prendre, un jeune enfant n’est pas réellement attentif UER Médias et TIC dans à son cadrage. Il voit bel et bien son sujet à travers le viseur ou sur l’écran de l’appareil l’enseignement, Haute École photo, mais pour lui, regarder est un apprentissage : cela demande de l’anticipation, une Pédagogique de Lausanne capacité à former mentalement l’image de l’image, à guider la prise de vue pour que ce qu’il voit sur l’écran corresponde à ce qu’il voit dans sa tête. Considérant souvent comme une erreur la prise de vue telle que ci-contre, l’enfant y remédie2, et essaie d’en réaliser autre meilleure, c’est à dire avec un sujet placé de manière bien visible et au centre de l’image. Il la compose alors telle qu’il veut la montrer aux autres. Cet apprentissage de recomposition se fait dans la mesure où le jeune photographe comprend aussi comment revenir sur une séquence d’images, en passant du mode prise de vues au mode lecture de son appareil de photo numérique. Le geste de recomposition relève d’un apprentissage chez le tout jeune élève : revenir sur ce que j’ai fait, l’analyser, le réaliser une nouvelle fois autrement et le donner à voir aux autres. Il passe alors progressivement de la compétence innée du voir à celle construite du regarder. Cet apprentissage se poursuivra tout au long de la scolarité obligatoire, voire postobligatoire. Sa compétence première s’enrichit de nombreuses notions propres à ce domaine : le sens de l’espace et la composition, la grammaire de l’image et les règles de cadrage, la gestion de la couleur et des valeurs du noir et blanc, les aspects du droit à l’image, la responsabilité de l’auteur vis-à-vis de son public, etc. résultat fréquemment obtenu lorsqu’un enfant utilise pour la Il devient auteur et non plus simple copiste ou photocopiste. première fois un appareil de prise de vue photographique à Élargissant le cercle de ses compétences, il parcourt avec ses l’école enfantine (4 ans) enseignants l’immensité de cet environnement habité par les images et leurs re-présentations, et conjointement à la découverte des autres environnements culturels ou conceptuels, il se dote, comme futur citoyen et être communicant, d’un niveau de conscience plus vaste dans la faculté de devenir auteur de sa propre vie.

Corps de la leçon: l’atelier des images

La notion de photomontage, ou de phototrucage est certainement partiellement intégrée chez un enfant de 4 ans s’il participe à une activité qui en dévoile les secrets de fabrication. Dans quelques classes enfantines vaudoises, parmi les ateliers usuels (peinture, math, jeu de raisonnement, français, ...) existe aujourd’hui, grâce à l’apparition des ordinateurs 1

Projet mediabus, le cyberbus, UER (Unité d’Enseignement et de recherches) médias et tic dans l’enseignement, HEP Lausanne, metic. hepl.ch/mediabus/ 2 Ce cadrage pourrait ne pas être considéré comme une erreur, mais bel et bien une image voulue et désirée.

FI spécial été 2007 – 28 août 2007 – page 60


Du sens de la vue à la construction du regard ou l’enfant dans le partage de sa vision du monde et des appareils de photos numériques ou scanners, un atelier photographisme. Plus qu’un Photomaton, cet atelier permet, par exemple, de réaliser une nouvelle image, une autre image : Moi, déguisé en lutin. Au programme : photographie devant un fond uni (plan moyen). Puis passage à l’ordinateur, avec apprentissage du transfert des fichiers, de l’emploi du clavier pour écrire son prénom (et gestion de la lecture des lettres en majuscules sur le clavier et leur affichage en minuscules à l’écran !). Ensuite détourage de sa photographie à l’aide d’une gomme informatiquement magique. Et enfin création de l’image qui n’existe pas, en déplaçant, translatant, redimensionnant, posant au premier plan, à l’arrière-plan, etc. Bel exercice de gestion de l’espace avec passage progressif du plan horizontal (la souris sur le tapis) au plan vertical (les éléments sur l’écran) ! Mais aussi de motricité fine, de latéralisation, d’appropriation d’une ergonomie qui aimerait bien qu’un bureau ressemble à un bureau, sans en avoir le moindre attribut tactile et tridimensionnel (Mais c’est facile, tu glisses l’image sur le bureau ...). Ce qui est nouveau dans cet atelier de photographisme , c’est que l’élève devient auteur d’une image dont les sources sont multiples. En manipulant des objets images, il découvre que le résultat final peut se composer d’éléments distincts, provenant de types différents (dessins, photographies, structures scannées, ...) et de diverses sources (enseignante, banque d’images, Internet).

parmi les ateliers usuels d’une classe enfantine existe aujourd’hui, l’atelier photographie

Synthèse partielle: Voyez-vous ce que l’on entend ?

Pour voir loin il faut y regarder de près (Pierre Dac) L’école ? Un lieu d’un travail. Travail de construction d’images, comme dans les exemples cités ci-dessus. Et aussi travail de déconstruction : par l’observation de la composition des affiches publicitaires, des œuvres d’art en photo dans les journaux ou dans les livres d’école, des cartes postales, de tout support visuel donnant accès à une forme, à un contenu dans la perspective d’entretenir la réflexion sur les buts et les moyens d’expression. Comment l’enfant appréhende-t-il le monde de la représentation ? La réalisation d’images à l’école facilitet-elle la compréhension du langage des images ? Les personnes ayant amené des réponses à ces questions ne sont pas légion. Evelyne Thommen3 et Andrée Schirtz Nägeli, dans leur article Le développement de la compréhension de la discontinuité entre l’actuel et le virtuel dans les images 4 spécifient que la compréhension de la double réalité d’une image (distinction entre le mental et le physique, ainsi que différenciation entre le fictif et le réel) se développe chez l’enfant, de 6 à 12 ans. Aussi, nous pouvons conclure en disant que les enseignants peuvent permettre aux enfants de devenir auteurs, compositeurs et interprètes, en développant chez eux tant une vision analytique que synthétique. Et qu’alors les images leur apportent une clé de lecture du monde qui les entoure et des univers dont elles sont porteuses.n 3 4

l’élève devient auteure d’une image dont les sources sont multiples

éducation aux médias: allusion à une campagne publicitaire incitant les photographes à shooter sans penser

Professeure, HES-SO, École d’études sociales et pédagogiques, Université de Fribourg ENFANCE, n°2/2002, p.117 à 139

IMAGES – 28 août 2007 – page 61


La réalité augmentée – un sixième sens au service de l’industrie

La réalité augmentée Un sixième sens au service de l’industrie La réalité, c’est bien, mais... Qui n’a pas rêvé, durant une excursion en montagne, de pouvoir contempler le panorama et observer les sommets environnants en étant capable de citer le nom de chacun d’eux et, pourquoi pas, de pouvoir mentionner son altitude et le nom de la chaîne dont il fait partie. Tout cela, naturellement, sans avoir à sortir une carte géographique et à tenter – péniblement – de s’y retrouver. Imaginez le succès qu’aurait un marchand offrant des lunettes de montagne permettant de protéger les yeux d’une part, mais également d’ajouter, en surimpression sur le panorama observé, des informations qui s’afficheraient dans le champ de vision de l’utilisateur et qui s’adapteraient en fonction de ce qu’il regarde. Ainsi équipé de ces lunettes révolutionnaires, notre randonneur pourra contempler les sommets voisins et verra s’inscrire, au-dessus de chacun d’eux, comme écrit dans l’azur, le nom et l’altitude de tous ceux qui se trouvent dans son champ de vision. En tournant son regard vers la station d’arrivée de la télécabine, il verra s’afficher l’horaire de la dernière cabine et, pourquoi pas, le menu du restaurant qui s’y trouve. Bien sûr, ce scénario est encore un peu futuriste, mais il illustre ce que nous promet le domaine de la réalité augmentée.

Réalité virtuelle

Jacques.Bapst@hefr.ch École d’Ingénieurs et d’Architectes de Fribourg – Technologies de l’information et de la communication

la scène réelle est enrichie avec des informations virtuelles

On parle de réalité virtuelle [1] quand un système crée un environnement artificiel dans lequel l’utilisateur a l’impression d’évoluer et avec lequel il peut interagir. Pour obtenir ce sentiment d’immersion dans l’environnement virtuel, il faut que le système agisse sur les différents canaux sensoriels de l’utilisateur (ses cinq sens) et que les mouvements de cet utilisateur soient pris en compte et influencent l’environnement de synthèse. La vue étant, chez les humains, le plus important des cinq sens1, on parle déjà de réalité virtuelle lorsqu’on se contente de générer des images de synthèses visionnées, de préférence, à l’aide d’un périphérique immersif : par exemple un casque de visualisation, appelé visiocasque (HMD, Head-Mounted Display) ou en projetant les images de sorte qu’elles occupent une large part du champ de vision (par exemple à l’aide d’un dispositif de type CAVE [2] ou autres équipements avec un affichage panoramique). On peut considérer que les jeux vidéo ou les simulations de mondes virtuels (par exemple l’omniprésent Second Life [3]) entrent dans le domaine de la réalité virtuelle au sens large, même si l’immersion n’est pas toujours très bonne et que tous les sens ne sont pas sollicités. 1

La vue fournit près de 90% des informations reçues par le cerveau et on estime le débit d’information à environ 108 bits/s.

FI spécial été 2007 – 28 août 2007 – page 62


La réalité augmentée – un sixième sens au service de l’industrie La réalité virtuelle permet de reproduire un environnement très proche de notre monde réel ou, au contraire, de créer des mondes synthétiques totalement imaginaires dans lesquels on rencontrera des objets et des créatures étranges qui ne se comporteront pas nécessairement comme on pourrait s’y attendre.

Immersion et présence Le sentiment d’appartenance à un univers virtuel dépend du degré d’immersion que l’on a réussi à produire et qui se décompose selon deux axes principaux. Il y a d’abord l’immersion sensorielle qui se produit lorsque – idéalement – tous nos sens sont contrôlés par le système qui gère l’environnement virtuel. Sans une connexion directe avec le système nerveux périphérique ou central, certaines sensations sont difficiles, voire impossibles à reproduire à l’aide de périphériques (par exemple, agir sur le sens de l’équilibre, simuler une accélération continue2, reproduire l’effet de conditions environnementales telles que pluie, neige, etc.). Il y a ensuite l’immersion mentale qui est caractérisée par le degré d’implication de l’utilisateur dans le monde virtuel, son sentiment d’être absorbé (accaparé) par l’histoire qui s’y déroule. Même si elle est favorisée par une immersion sensorielle, l’immersion mentale peut également être créée hors d’un environnement Environnement hybride virtuel, en lisant un livre ou visionnant un film par exemple Mixed Reality (MR) (nombre de personnes sont émues et vont jusqu’à pleurer lors de certaines scènes). Environnement L’immersion accroît le sentiment de présence à l’intérieur réel Réalité augmentée Virtualité augmentée du monde virtuel. L’utilisateur a l’impression de faire partie (AR) (AV) du monde virtuel, d’y prendre part, d’en être un acteur (firstperson view). Augmentation de la stimulation artificielle

Environnement virtuel

continuum entre environnements réel et virtuel

Réalité augmentée La réalité augmentée [4] n’est rien d’autre qu’un mélange, soigneusement dosé, entre le monde réel et la réalité virtuelle. L’environnement réel est enrichi avec des informations (stimulations) de synthèse. En fait, il existe un continuum [5] qui va d’un environnement réel jusqu’à un environnement purement virtuel. La réalité augmentée fait partie de cette zone intermédiaire qui mélange réalité et informations de synthèse et que l’on nomme parfois environnement hybride ou réalité hybride (Mixed-Reality).

Dispositifs d’affichage

principe du casque optical see-through (à gauche) et video see-through (à droite) (illustration tirée de [6])

Dans un environnement de réalité augmentée, l’utilisateur est généralement équipé avec un visiocasque qui lui permet de voir le monde réel avec les données virtuelles incrustées. Ces visiocasques peuvent être de deux types différents appelés optical see-through et video see-through. Les équipements de type optical see-through sont équipés de miroirs semi-transparents qui permettent à l’utilisateur de voir, par transparence, le monde réel et sur lesquels on peut y incruster des informations projetées par de petits moniteurs situés latéralement ou au-dessus des miroirs. Dans les équipements de type video see-through deux caméras filment le monde réel et, par traitement numérique, on y ajoute les informations virtuelles. Les images résultantes (une pour chaque œil) sont ensuite projetées sur de petits moniteurs – de type LCD (liquid crystal display) ou OLED (Organic Light-Emitting Diode) par exemple). Il existe un troisième genre d’équipement, appelé virtual retinal display ou retinal scan, qui pourrait également, à terme, jouer un rôle non négligeable dans ce domaine. Un tel dispositif, aux caractéristiques prometteuses3, trace les informations virtuelles di2

Dans certaines limites, la gravité peut être utilisée pour simuler une accélération ou une décélération. Les simulateurs de vol exploitent généralement cette technique en inclinant la cabine du simulateur sans changer le référentiel visuel du pilote. 3 Du moins sur le papier, car cette technologie a été développée en 1991 déjà, à l’Université de Washington (HIT Lab). Le fait que la société Microvision Inc en possède une licence exclusive freine probablement son développement.

IMAGES – 28 août 2007 – page 63


La réalité augmentée – un sixième sens au service de l’industrie rectement sur la rétine au moyen de trois faisceaux lumineux qui balaient la rétine à la manière des tubes cathodiques des (anciens) téléviseurs. L’utilisateur a l’impression de voir l’information virtuelle flotter à une certaine distance de lui et doit focaliser son regard à cet endroit (l’image n’existe naturellement que sur sa rétine). Malgré une certaine complexité technique, cette technologie possède a priori beaucoup d’atouts par rapport aux dispositifs d’affichage cités précédemment : z images virtuelles très lumineuses et avec une haute résolution z vaste domaine de couleur possible (gamut) z grand angle de vision z images stéréoscopiques z miniaturisation possible (intégration dans des lunettes légères).

lumus optical see-through [7] & virtual retinal display [8]

Tracking Un des problèmes clés de la réalité augmentée est de garantir, à tout instant, la synchronisation visuelle entre les informations du monde réel et les informations virtuelles associées, le tout étant dépendant de la scène observée par l’utilisateur. Le système doit donc connaître, en permanence, la position et l’orientation4 de la tête de l’utilisateur afin d’adapter les informations affichées en fonction de son champ de vision actuel. Le suivi, en continu, de la position et de l’orientation de la tête est appelé tracking. Pour que le système de réalité augmentée soit utilisable et constitue une interface naturelle, il suivi de l’orientation de la tête de l’observateur est impératif que la précision du tracking et que la vitesse de rafraichissement soient suffisantes (c’est-à-dire qu’elles tiennent compte des caractéristiques du système perceptif humain). L’alignement des objets virtuels par rapport au monde réel constitue actuellement l’un des défis majeurs de la réalité augmentée. Les défauts d’alignement – appelés registration error – peuvent être d’ordre statique (mauvais alignement spatial, en l’absence de tout mouvement) ou dynamique (défaut d’alignement temporel lorsque l’utilisateur ou les objets du monde réel bougent). La qualité du tracking est naturellement une des clés importantes pour garantir cet alignement à tout instant. Sans un suivi du positionnement précis et fiable, la réalité augmentée est vouée à l’échec. La réalisation d’un dispositif de tracking peut faire appel à différentes technologies. On trouve sur le marché des trackers qui sont basés sur : z des capteurs mécaniques (avec un rayon d’action limité); z les champs électromagnétiques (perturbés par les objets ferromagnétiques); z les ondes acoustiques ultrasoniques (perturbées par les obstacles entre l’émetteur et le récepteur); z des capteurs inertiels composés d’accéléromètres et de gyroscopes (avec une lente dérive, même en l’absence de mouvement); z la détection visuelle, par des caméras, de cibles placées à des endroits connus dans l’environnement (cette technique connue sous le nom de tracking optique, nécessite une importante puissance de calcul pour le traitement numérique des images). Il existe également des périphériques spécialisés dans la détection de la position de certaines parties du corps (gants détectant la position des doigts, exemple de cibles de type ARTag détection de la position du regard, détection de la position des membres, etc.). 4

On nomme pose la combinaison des informations de position et d’orientation. La pose est caractérisée par six valeurs (trois coordonnées x, y, z et trois angles nommés pitch, yaw, roll)

FI spécial été 2007 – 28 août 2007 – page 64


La réalité augmentée – un sixième sens au service de l’industrie

Tracking optique L’idée de base du tracking optique consiste à placer dans l’environnement des cibles dont le contenu, la taille, la position et l’orientation sont connus du système. L’utilisateur est équipé d’une caméra dont la fixation doit être solidaire de sa tête. Par analyse d’image, le système localise et identifie les cibles vues par la caméra. Il détermine ensuite, par calcul, la position et l’orientation de la caméra, donc celle de la tête de l’utilisateur (la taille et la déformation d’une cible connue permet de déterminer l’endroit depuis lequel on l’observe). Si ce système de tracking est utilisé seul, il impose qu’à chaque instant, au moins une cible de taille suffisante se trouve dans le champ de vision de la caméra. Par extension, on pourrait imaginer exploiter des éléments – connus et immuables – du monde réel comme cibles et de pouvoir ainsi travailler sans modifier l’environnement dans lequel on évolue.

équipement de tracking optique

Tracking hybride Les différentes techniques de tracking ayant toutes leurs avantages et inconvénients, il peut être bénéfique de combiner plusieurs méthodes dans le but d’exploiter à chaque instant les détermination de la position et de l’orientation par analyse informations qui semblent les plus pertinentes et d’améliorer d’image (ARToolKitPlus [9]) ainsi la détermination de la position et de l’orientation. On parle alors de tracking hybride. Parmi les systèmes passifs et peu invasifs, il peut être intéressant d’associer un système inertiel avec une détection optique de cibles. La dérive inévitable du système inertiel 5 peut être corrigée à chaque fois que des cibles se trouvent dans le champ visuel de la détection optique.

Projet 6ème sens Le projet baptisé 6ème Sens est un projet de recherche développé à l’École d’Ingénieurs et d’Architectes de Fribourg 6 en partenariat avec l’EPFL 7 et l’Université de Fribourg 8. Ce projet est principalement financé par la Fondation Hasler [10] dans le cadre du programme de recherche Man-Machine Interaction. Le but de ce projet est d’offrir un environnement de supervision mobile (wearable) pour les opérateurs travaillant dans des installations industrielles complexes, notamment dans l’industrie chimique. L’idée générale du projet est de développer une interface multimodale intuitive et main libre, basée sur la réalité augmentée ainsi que sur la synthèse et la reconnaissance vocale. informations virtuelles incrustées Actuellement, les installations chimiques sont fortement dans le visiocasque de l’opérateur automatisées et pilotées depuis des salles de contrôle centralisées et informatisées. Cependant, pour certaines opérations, des opérateurs sont malgré tout nécessaires à proximité de l’installation. Ces opérateurs communiquent généralement par radio avec la salle de contrôle. On peut ainsi leur transmettre les actions à entreprendre et ils peuvent également s’enquérir de certaines informations dont ils ne disposent pas sur place. Compte tenu de la qualité généralement assez médiocre de la transmission radio et de l’absence d’un protocole rigide, cette manière de faire n’est pas sans risque de confusion ou de mauvaise interprétation des informations et dans ce genre d’industrie, les erreurs peuvent avoir des conséquences funestes. 5

Cette dérive (drift) est provoquée par la double intégration nécessaire pour passer de l’accélération à la position. EIA-FR : Olivier Naef, Philippe Crausaz, Jacques Bapst 7 EPFL, Automatic Control Laboratory : Denis Gillet, Christophe Salzmann, Damien Perritaz 8 UniFR, Département d’informatique, Pervasive & Artificial Intelligence : Béat Hirsbrunner, Michèle Courant 6

IMAGES – 28 août 2007 – page 65


La réalité augmentée – un sixième sens au service de l’industrie Le projet 6ème Sens vise donc à simplifier, rationaliser et sécuriser le travail des opérateurs qui se trouvent auprès de l’installation en leur mettant à disposition les informations nécessaires. Ces opérateurs seront ainsi équipés d’un dispositif de réalité augmentée portable comprenant également un équipement audio leur permettant de commander l’installation grâce à la voix et de recevoir des informations et des quittances grâce à la synthèse vocale. Le suivi de l’opérateur est assuré par un tracking hybride (plate-forme inertielle combinée à une détection optique de cibles) et la transmission des informations (audio, vidéo, données) entre l’équipement mobile et le système de contrôle est assurée par un réseau sans fil de type WiFi avec une optimisation de la bande passante qui prend en compte le contexte courant (phases d’activité, alarmes, dangers, etc.). Dans ce projet, un accent important est également mis sur l’aspect ergonomique (l’utilisabilité) de l’interaction homme-machine ainsi que sur la prise en compte du contexte afin de n’offrir à l’opérateur que les informations pertinentes et les commandes utiles et applicables à chaque instant. Le choix des modalités et des styles d’interaction prendra en compte l’état courant du système à superviser, les conditions environnementales (installations, topologie des lieux) ainsi que les connexions sociales (présence d’autres opérateurs à proximité). La qualité des visiocasques (si l’on souhaite rester dans des domaines de prix abordables), le poids de l’équipement mobile ainsi que son autonomie constituent actuellement les défis principaux de ce projet. La fiabilité de la reconnaissance vocale en environnement bruité nécessite également une attention toute particulière afin d’éviter de fâcheuses confusions.

En conclusion Il est probable qu’avec la miniaturisation des équipements électroniques on arrive, dans un avenir raisonnablement proche, à produire des lunettes de réalité augmentée dont l’aspect, le poids et le confort ne les distingueront que peu des lunettes médicales ou lunettes de soleil actuelles. Dans un avenir un peu plus lointain, on peut raisonnablement imaginer pouvoir disposer d’un système de tracking ambiant performant, un peu à l’instar du GPS, mais avec une précision plus grande et qui soit utilisable à l’intérieur des bâtiments. Combinés aux améliorations constantes des communications mobiles, de la puissance de calcul et de l’autonomie des systèmes embarqués, ces progrès permettront l’émergence de systèmes de réalité augmentée plus confortables et performants qui trouveront, sans doute, des applications dans les domaines industriel et privé. Il sera dès lors possible d’alléger quelque peu son sac de montagne en le soulageant du poids des cartes topographiques... si tant est, naturellement, que l’équipement de réalité augmentée soit plus léger, ce qui reste encore à démontrer !

Références [1] fr.wikipedia.org/wiki/Réalité_virtuelle [2] CAVE : salle de réalité virtuelle qui, par projection d’images stéréoscopiques 3D sur chaque paroi (4 à 6 surfaces) donne l’illusion aux personnes qui se trouvent à l’intérieur d’être immergée dans l’environnement virtuel. On parle parfois de théâtre virtuel ou de voûte d’immersion. Le terme CAVE est une marque déposée de l’Université de l’Illinois à Chicago. en.wikipedia.org/wiki/Cave_Automatic_Virtual_Environment [3] secondlife.com/ [4] fr.wikipedia.org/wiki/Réalité_augmentée [5] Paul Milgram, H. Takemura, A. Utsumi and F. Kishino (1994). Augmented Reality : A class of displays on the reality-virtuality continuum. SPIE Vol. 2351-34, Telemanipulator and Telepresence Technologies [6] Holger Luczak, Matthias Rœtting, Olaf Oehme (2003). Visual Displays In : J. A. Jacko and A. Sears (Eds) The Human-Computer Interaction Handbook. www.isrc. umbc.edu/HCIHandbook/. [7] www.lumusvision.com/ [8] www.engadget.com/ [9] Wagner Daniel, Schmalstieg Dieter, ARToolKitPlus for Pose Tracking on Mobile Devices, www.icg.tu-graz.ac.at/Members/daniel/Publications/ARToolKitPlus [10] www.haslerstiftung.ch n FI spécial été 2007 – 28 août 2007 – page 66


Images sur le Web «Une image est plus qu’une image et parfois plus que la chose même dont elle est l’image» Paul Valéry

Mon propos

est de vous suggérer quelques pistes de réflexion qui vous seront utiles lorsque vous devrez placer une image sur votre site Web. Il est bon de rappeler, dans un premier temps, que, même si l’être humain réagit de manière très vive à des reproductions de ses semblables, une image placée sur une page Web occupe un espace souvent non négligeable. Une page avec beaucoup d’illustrations peut facilement donner l’impression de se trouver sur un espace publicitaire, promotionnel, et non sur un site contenant de l’information utile. Des études d’eye-tracking (suivi du regard) ont démontré que l’internaute, à la recherche d’une information écrite, tend à ignorer les images. Pour contrebalancer cette tendance, votre image doit être porteuse de sens. Votre image doit contenir de l’information. Votre image doit percuter et interpeller le visiteur de votre page. Votre image ne doit pas laisser indifférent. Votre image ne doit pas être banale, ni commune, ni interchangeable, et surtout pas de piètre qualité. Le potentiel d’une image est bien trop riche pour la réduire à un effet de fond ou de tapisserie. Rappelez-vous que l’usage des images a déclenché guerres et schismes religieux, des iconoclastes à l’affaire des caricatures de Mahomet. C’est pourquoi, lors de la création, en 2001, de la Charte Graphique pour les sites Web EPFL, un chapitre important fut consacré au choix des images. Il s’agissait, parmi la masse des universités (certaines avec des moyens bien plus considérables et des enseignants bien plus prestigieux que la nôtre), de trouver une manière originale de se démarquer et d’exister sur le Web. Le concept de visuel décalé nous a séduits par sa force d’impact et par sa facilité de mise en œuvre. J’en rappelle les termes : L’identité visuelle recherchée véhicule une notion d’originalité forte, d’humanité et de professionnalisme, et génère une image percutante qui ne laissera pas insensible les utilisateurs du site Internet. Le soin porté au visuel photographique a une grande part de responsabilité dans l’image identitaire de ce site. Chaque photographie se veut décalée, interrogative, déconcertante afin de remplir son rôle accrocheur et stimulant. L’association de cette image à un titre ou à un slogan permet d’obtenir un message teinté, si le cas le permet, d’une pointe d’ironie positive. Pour mieux comprendre la notion du décalage, j’en appelle maladroitement à un langage philosophique : bien souvent, en effet, l’image est réduite à n’être qu’une quasi-chose, un double fantomatique et la plupart du temps illusoire du réel. Mais le statut accordé aux images se modifie fondamentalement si l’on se place dans la perspective de l’événement: l’image apparaît alors comme cette irruption d’un mode nouveau de visibilité qui déchire l’horizon normal du regard, et vient bouleverser les catégories canoniques de la représentation. Le regard perd ses repères, se trouve en quelque sorte mis à nu, désemparé. C’est là ce que Didi-Huberman appelle le travail négatif de l’image, qui suppose la déconstruction ou l’effondrement de l’apparaître phénoménal immédiat. Mais ce premier moment, négatif, du visuel n’est que préparatoire. Il annonce l’émergence d’un autre mode de vision, où ce n’est plus le phénomène lui-même, déjà constitué, qui se manifeste, mais sa virtualité, le moment où s’élabore la possibilité du visible. (Laurent Lavaud) En terme plus simple, la surprise et la perplexité qu’une image décalée suscite chez celui qui la regarde déclenche un processus de réflexion et d’association d’idées qui renforcera l’impact du message. Une expérience de plus de 5 ans dans le choix du visuel pour la défunte place centrale et pour les portails et la page d’accueil EPFL m’a démontré le bien-fondé de cette stratégie. Des images surprenantes, poétiques, drôles, inattendues nous ont valu des messages d’encouragement ou d’insulte, preuves qu’elles ne laissaient personne indifférent.

Natalie.Meystre@epfl.ch EPFL – Domaine IT

IMAGES – 28 août 2007 – page 67


Images sur le Web Ce concept d’image décalée a glissé, avec le temps, vers un concept d’image métaphorique. Les images métaphoriques sont mieux perçues par les responsables des sites, elles permettent de véhiculer des valeurs partagées par les membres d’une unité. Une métaphore suppose toujours une comparaison implicite : A est utilisé avec un sens B. Cette substitution se fait sur la base de propriétés communes aux deux termes. Mais l’intérêt de la métaphore est d’attribuer au sens B les nuances qui appartiennent au terme A. Les métaphores le plus souvent demandées sont le travail d’équipe, la collaboration, le partage... le risque est grand dès lors de basculer dans la banalité et de choisir ce que les graphistes regroupent sous le terme méprisant de photos bancaires : un homme blanc serrant la main d’un homme noir qui plaisante avec une Asiatique. La particularité du service se dilue dans un répertoire de lieux communs qui permet une identification précise aussi aisée que l’emploi du prénom John aux USA ! Une autre tendance est d’utiliser les vues aériennes du campus. Or, les paysages, en vue panoramique, sans personnages et en petite dimension, sont assurément les illustrations les plus passe-partout que l’on puisse imaginer. Si tout le monde éprouve des émotions fortes en contemplant des paysages magnifiques, peu sont capables de se souvenir précisément des photos de ces mêmes lieux (surtout si les photos ont été diffusées lors de la soirée dias des vacances du voisin). Ayant ainsi écarté les images les plus banales et les plus faciles d’accès, un responsable de site comprend à ce point de mon discours que la tâche de mettre une photo en ligne va s’avérer plus complexe qu’une simple manipulation de son éditeur html. Où trouver de telles images ? Si le temps et les ressources financières manquent pour faire appel à un photographe professionnel, je déconseille vivement de puiser dans la galerie de photos de son téléphone portable ou de la dernière virée du labo. Il est frappant de constater que plus l’image est de petite dimension, plus la composition, la balance de couleur et le point de vue doivent être soignés. La miniaturisation ne pardonne pas l’amateurisme. Le Web offre fort heureusement de riches banques d’images, Gettyimages étant la plus intéressante. L’EPFL respectant les règles des droits d’auteur, il n’est pas permis de se servir sur google images sans s’informer auparavant des droits liés aux images trouvées. Le professionnalisme ayant un prix légitime, ne vous étonnez pas de débourser entre 200 et 300 francs par image. Mais la qualité de votre site se verra grandement améliorée par le prix et le soin que vous porterez à son iconographie. La satisfaction et le plaisir des internautes à vous lire, ainsi que le temps que vous avez consacré à la création de votre site, valent bien cet effort.

Références et sources z atelierweb.epfl.ch/page1108.html z Wikipedia z L’image, GF Flammarion, collection Corpus, 1999 n

Chemins de traverse

Prise de vue photographique dans la forêt de Dorigny

FI spécial été 2007 – 28 août 2007 – page 68


L’imagerie de synthèse appliquée à l’architecture

La perspective

est une question de point de vue. En dehors de la facile ironie du propos, la perspective ne tient, effectivement, que par son point de vue; c’est-à-dire par l’emplacement de la pointe du cône de visualisation et, subséquemment, de la projection de ce cône dans l’espace. À l’heure de la troisième révolution perspective, cela semble être encore le cas. Au XV e siècle la perspective géométrique est pratiquée et théorisée. Piero della Francesca et Leon Battista Alberti entrent dans l’histoire. Toute représentation de l’espace, en particulier de l’architecture, se doit désormais d’appliquer les principes énoncés par les concepts d’horizon, de point de fuite et de tableau; mais aussi les principes esthétiques, induits par l’outil, de frontalité et de verticalité. La tâche est ardue, car c’est à l’huile de coude que les images sont montées. Et, plus tard, il faudra le génie et la patience de Maurits Cornelis Escher pour offrir à la perspective de nouveaux horizons et à l’esprit de fabuleux voyages. Mécanique et chimie remplacent au XIXe siècle règle et mine de plomb. La photographie assoit la camera obscura sur le trône de la représentation. Si elle permet l’obtention plus rapide et plus précise de la représentation imagée de la réalité, elle est limitée par les contraintes spatiales du monde physique et ne permet de représenter que ce qui existe par la matière. Corollairement pourtant, le temps entre en scène. Comme le révèle fabuleusement JacquesHenri Lartigue et sa Delage au Grand Prix Automobile. Entrent en scène à la fois le temps vécu, mais aussi, et plus qu’avant, le temps de l’Histoire. La ruine photographiée rejoint le bâtiment peint et dessiné. Pourtant, le potentiel de liberté d’expérimentation permis par le développement, grâce à la photographie, de la mobilité, de la rapidité et de la quantité de la prise de vue est freiné par les us et coutumes du classicisme. Ce potentiel semble encore trop peu exploité malgré la leçon d’Aleksandr Rodchenko et de rares puzzles à la manière de David Hockney. Ce qui fait que la représentation de l’architecture exploite toutes les formes médiatiques possibles sans bien encore se départir de ses oripeaux graphiques. Frontalité et verticalité demeurent, elles se voient même renforcées dans leur incontournable usage, aidées en cela par le décentrement et la bascule. Depuis l’avènement de l’informatique, la perspective et la photographie se retrouvent dans l’imagerie de synthèse (computer-generated imagery). La construction perspective est instantanée, il n’y a plus de contrainte physique, en théorie, et la représentation de l’imaginaire se confond avec l’expérience de celle de la réalité. On en suppose même une réalité virtuelle, comme si toute représentation n’en était pas une. La base conceptuelle de l’élaboration de l’imagerie de synthèse est dans la perspective optique et photographique. Ce qui provoque l’apparition de contraintes artificielles dans un souci de réalisme ou, plus précisément, de photoréalisme. C’est-à-dire de ce réalisme inspiré par l’acte photographique. L’imagerie est surtout, en fait, photographie de synthèse. Mais, par avidité de photoréalisme, on crée de l’hyperréalisme. La référence, ainsi qu’un ambigu fil d’Ariane, est le résumé d’une épistémologie de la représentation graphique de l’architecture. Le sujet étant la réalité, ou plutôt son illusion, on en arrive à reproduire ce qu’on voulait pourtant éviter. Comme effet de réel, le flare honni est maintenant béni. Pour cette révolution perspective, le monde, dans ce qu’il a de nécessaire et de suffisant pour la représentation, est reconstruit numériquement. Comme au théâtre, on le résume par une scène. Celle-ci est plus ou moins détaillée selon que les spectateurs seront, ou non, conduits au cœur du décor. En dehors de l’apprentissage de l’outil informatique, assez rapide aujourd’hui, seul le travail algorithmique, invisible pour le commun, prouve le labeur humain. Mais ces algorithmes n’étant pas recréés à chaque instant, mobilité, rapidité, quantité, perdent leur sens phénoménologique. Seul réside l’abstraite et immédiate sensation d’ubiquité spatiale et temporelle. Ce que ni la construction au trait de la perspective ni la photographie ne permettent. Enfin plus rien ne pèse, la mouche est notre vecteur. Grâce à la disparition de l’infranchissabilité des murs, sols et plafonds, ainsi que de la pesanteur, nos habitudes visuelles et notre conformisme esthétique sont confortés (fig. 1 et 2). Les effets perspectifs sont conformés à notre expérience de la vision, les angles de vue horizontaux retrouvent l’échelle acceptable de la tradition. En contre-partie les gratte-ciel, bien verticaux, sont gigantesques et anguleux, à en faire pâlir un Hugh Ferriss. Par leur image, les bâtiments, avant de s’élever dans les airs, gravissent nos imaginaires.

Marc-Olivier Paux, architecte, photographe, infographe

IMAGES – 28 août 2007 – page 69


L’imagerie de synthèse appliquée à l’architecture Et à voir dans quels airs concourent ses olympiques tours, nos imaginaires semblent ne connaître qu’une saison : le printemps. A l’image de l’architecture de papier glacé, l’architecture de synthèse se manifeste dans un paradigme printanier : le ciel est bleu et sec, l’herbe est verte et humide, le soleil brille et il n’y a plus d’ubac. C’est dans la qualité de reproduction de la lumière, et particulièrement celle solaire, que les effets de réel sont les plus travaillés. Aux classiques ombres (propre et portée), réflexion et réfraction s’ajoutent la radiosité et les caustiques. Les objets s’éclairent l’un l’autre de surface en surface et la lumière traverse le ludique labyrinthe des transparences ou rebondit sur celui des spéculaires. Son ersatz économe en calcul informatique étant l’occlusion ambiante quand les angles de la scène sont simplement obscurcis. Ce dernier effet de réel simulant les ombres interobjets participe de la recherche photoréaliste et pallie l’impossibilité technologique à reproduire le réel dans toute sa complexité physique. D’ailleurs, pareil succédané est souvent source d’inspiration, car, si on le maîtrise, il apporte une nouvelle expérience sensible. Les artefacts de la photographie optique, avec ses contraintes matérielles, et les aléas des phénomènes physiques de la lumière n’étant plus objets de tracasseries obligeant de longs et difficiles ajustements, ils acquièrent du sens. Ils deviennent éléments de rhétorique. Ainsi du flare qui nous renseigne, avec les ombres, de la Les effets de perspective deviennent acceptables lorsque les position des sources lumineuses. Ainsi de la profondeur de murs n’empêchent plus le recul champ qui restreint le message photographique à un morceau marcol/imagina.ch de l’espace. Et d’autres éléments qui, extraits de l’imaginaire photographique, peuvent être appliqués à l’imagerie de synthèse. Si la perspective classique montrait avant ce qu’il y aurait après et la photographie après ce qu’il y avait avant, l’imagerie de synthèse permet comme la première de voir avant ce qu’il y aura après, mais de manière à nous faire croire que nous sommes déjà après ce qu’il y avait avant, comme la seconde. Motivée principalement par le marché immobilier et celui de l’architecture, cette vision rend la métaphore de l’image encore plus ambigüe. Prendre au pied de la lettre la métaphore, ce n’est plus le projet ou l’objet qui est considéré, mais un autre, issu de la métaphore, en fait un mythe. Bien sûr, in absentia, on ne se figure le projet (ou l’objet) qu’à partir de ses images physiques, de ses représentations et on s’en forme par elles une image mentale. Mais à trop croire la métaphore, à trop porter crédit au mythe qu’on se construit, c’est ignorer le projet. C’est préférer les vessies aux lanternes. En réaction à cet hyperréalisme, une certaine nostalgie d’un artisanat manuel se développe. Il n’y a donc plus uniquement la photographie comme source d’inspiration esthétique de l’imagerie de synthèse. S’ajoute aussi, bien que plus tardivement, toute la gamme de l’histoire du dessin et de la peinture. Surgissent ainsi sous nos yeux des images qui semblent être des dessins ou des peintures. Contre l’achèvement de l’imaginaire par la photographie et son affabulation synthétique, les rendus nonphotoréalistes, à la perspective néanmoins parfaite, s’ajoutent à la gamme des possibles représentations. Mais, par ces méthodes, non seulement l’esquisse serait faite après le projet, mais en plus la main n’y serait pour rien, si ce n’est son agitation de la souris. Déjà que, d’image exploratoire faite sur un coin de nappe de bistrot, l’esquisse devient une image marketing, mais la voilà automatisée par le processus de synthèse. Le tremblement du trait est calculé, de même que la touche du pinceau. Les différences phénoménales entre l’encre de Chine, le fusain, l’acrylique et l’aquarelle ne tiennent souvent qu’à leur icône cliquée dans l’interface informatique. Malgré ses éperdues recherches de reproduction de notre réalité matérielle, il est possible d’explorer ce que nous propose l’imagerie de synthèse. Désormais, les murs ne font plus mal, l’optique n’est plus aberrante. Ils sont plus que le chat de Schrödinger, car à nous d’en décider leur état. La perspective nous a offert l’expression de notre champ de vision. La photographie nous a apporté les effets de réel de la lumière et de l’optique. Explorer au-delà de leur enseignement peut nous affranchir de l’angoisse réaliste. Le point de vue est infini et sans contrainte. Il n’est plus le sommet d’un cône, il est... Mais est-il encore un unique point ? n FI spécial été 2007 – 28 août 2007 – page 70


Du point à la tache

Une

des premières applications en France, et sans doute parmi les plus populaires, de modèles 3D à des fins de calcul d’images de synthèse, fut la reconstitution en 1993 de l’église (disparue à la Révolution) de Cluny III 1 et l’inauguration de l’ère de la télévirtualité, mariage de la 3D et des réseaux 2 au salon Imagina 3. Le Père Di Falco, chaussant un vidéocasque stéréoscopique interactif devant le public de Monaco, pour rencontrer dans l’espace de l’ordinateur la conservatrice de musée Dominique Vingtain à Paris, a eu depuis de nombreux émules vivant passionnément leur second life, l’industrie de l’électronique de divertissement ne s’épargnant aucune peine, aucun investissement pour développer ce filon.

1993, ENSAM et IBM. Modèle 3D de Cluny III

Ulrich.Doepper@epfl.ch, EPFL – ENAC – Laboratoire d’informatique et de visualisation

à l’intérieur de la maquette 3D, rencontre interactive du Père Di Falco à Monaco et de Dominique Vingtain à Paris

Une autre œuvre pionnière fut réalisée en1992 sous l’égide d’Electricité de France (EDF). La régie nationale, en collaboration avec l’université de Nancy 4 procéda au relevé, à la modélisation tridimensionnelle et au calcul de l’éclairage de divers monuments et espaces monumentaux français : exemples nancéens et parisiens, dont le plus fameux est sans doute le projet d’éclairage du Pont Neuf. Le résultat de cette expérience est aussi nettement daté, les algorithmes de calcul de l’illumination s’étant passablement affinés depuis. Alors, quel chemin parcouru depuis quinze ans ?

1992, CRAI, CRIN et EDF. Modèle 3D du Pont-Neuf de Paris

simulation d’éclairage du pont, à prétention objective et scientifique

1

par le Centre d’Enseignement et de Recherche de l’École Nationale Supérieure d’Arts et Métiers de Cluny avec le soutien démonstratif de IBM. 2 imagina.ina.fr/Imagina/2000/Actu/feedback.fr.html. 3 Imagina, le forum des images qui dépassent l’imagination. 4 Le CRAI, Centre de Recherche en Architecture et Ingénierie, et le CRIN, Centre de Recherche en Informatique.

IMAGES – 28 août 2007 – page 71


Du point à la tache  La planche à dessin est au galetas. On conserve encore avec piété les instruments de dessin dans un coin du bureau. Aujourd’hui, le dessin à l’ordinateur est beaucoup plus mécanisé : les xrefs, les idrops et les objets intelligents par exemple rendent possible le travail à plusieurs sur le même dessin ; permettent l’intégration d’objets 3D du Web ; précisent le rêve d’une vraie 3D, qui consistera à rentrer le bâtiment intégral dans l’ordinateur. Mais qu’en est-il de la représentation, de l’image de l’objet ? Une fois les données rentrées dans l’ordinateur, qu’en fait-on sortir ?

Dessiner pour réfléchir Le dessin, la représentation, leur propre production graphique sont une affaire qui préoccupe beaucoup les architectes. Depuis que l’on bâtit, on trouve dans l’esquisse un support à la conceptualisation. Le dessin permet de découvrir, de vérifier, d’imaginer. L’œil de l’architecte est en constant dialogue avec sa main.

Dessiner pour transmettre La main dessine, elle tire des traits. Cette excellence du trait se retrouve dans les techniques de reproduction simple, rapide ce n’est pas le négatif d’une photo à vol d’oiseau, mais l’assemet bon marché à laquelle le contraint peu à peu la spécialisation blage des nuages de points obtenus par balayage laser. Chaque des métiers et l’organisation des chantiers. Dessin toujours, point est localisé dans l’espace, mais il est aussi muni d’une mais reproductible. Il est le dépositaire codifié des intentions, teinte: sa valeur est fonction de la capacité de la matière à des informations, des instructions de l’architecte à ses parteréfléchir le rayon laser  6 naires. Lorsqu’il a intégré l’ordinateur et ses périphériques dans son processus de production, il a commencé à se servir pour la création d’un document graphique d’une machine à la même logique vectorielle que le trait de sa main : le désespérant traceur à plumes, qui a d’ailleurs rapidement disparu au musée des monstres technologiques. L’invention et la popularisation de nouveaux procédés d’impression, l’électrophotographie en particulier, ont entraîné la mort de l’héliographie (cyanotypie, négatif bleu, jusqu’en 1945, remplacé progressivement par la diazotypie, en positif ) avec ses moyens limités pour l’expression des valeurs, des surfaces et des couleurs. Il y a de quoi être désemparé : images, textes et traits s’impriment (on devrait dire : s’expriment) à présent de la même manière, non pas d’un seul jet, mais d’une seule planche...

Dessiner pour séduire Avec l’ordinateur, la modélisation en 3D et la banalisation de l’algorithme de la projection perspective favorisent une représentation volumique, en maquette de l’objet, au détriment des catégories stéréographiques de la représentation. La représentation subjective de l’objet est plus facile à comprendre tout en se prêtant mieux à la mystification. En un mot, elle est plus flatteuse 5. Lorsque l’étudiant des Beaux-Arts montait en loge pour faire ne fût-ce qu’un exercice rapide, une bonne moitié de son temps, une fois expédié le choix du parti et du système distributif, ou même simplement le choix d’un modèle dans un recueil, était consacré au rendu, à l’embellissement de son dessin. Ironie de l’histoire : malgré la mécanisation et l’automatisation dont nous bénéficions avec l’ordinateur, ces proportions n’ont pas changé. Une moitié du temps est consacrée à la confection du modèle 3D, mais l’autre l’est au rendering. Cet effort consenti à raffiner l’aspect des choses permet-il de voir en l’ordinateur le responsable du retour des belles images ? Est-ce la revanche des Prix de Rome sur l’austérité de la Modernité ? 5

J’ai eu l’occasion de développer cet aspect dans un précédent numéro spécial de Flash informatique, du 1er septembre 1998, Maquette, panorama et rendering, pp.26-29, ditwww.epfl.ch/SIC/SA/publications/FI98/fi-sp-98/sp-98-page26.html. 6 Archéotech SA. Eglise collégiale de Neuchâtel.

FI spécial été 2007 – 28 août 2007 – page 72


Du point à la tache  Un autre changement qui est survenu, le principal peut-être, c’est que le discret ordinateur raisonne par points. La ligne est figurée sur l’écran par un alignement plus ou moins aliasé de points. L’écran est une matrice de points qui s’allument et l’imprimante ne s’exprime plus qu’en trames. Si quelque chose a disparu, et est devenu virtuel avec l’ordinateur, c’est bien la ligne ! Je ne vous ferai pas l’affront de vous rappeler ce que sont un point ou une ligne. Mais Kandinsky, qui avait des notions de géométrie, remarqua qu’un point géométrique est un être invisible. Il doit être défini comme immatériel  7. Le point, c’est un instant, le premier contact du crayon avec la surface du dessin. Pour le même Kandinsky, et tout comme pour le point, la ligne géométrique est un être invisible. Elle est la trace du point en mouvement  8. Ou tant qu’à la considérer non pas sous l’angle dynamique, mais comme un lieu, on peut distinguer comme Paul Klee trois types de lignes : la ligne active, lien entre deux points ; la ligne médiale qui définit une surface plane (passive) à la manière d’une silhouette ou d’un contour ; la ligne passive qui est la rencontre de deux plans. Cette typologie de lignes ne vous parle-t-elle pas, vous qui modélisez aujourd’hui à l’ordinateur ? La première, la ligne-profil qui, à l’instar du point en mouvement, donnera à son tour une surface, dès lors qu’elle subira un mouvement elle-même ; la médiale est la ligne-frontière qui définit une surface comprise dans ses limites ; et encore la passive, la ligne-intersection lieu commun à deux surfaces – celle que l’on ne dessine pas puisque c’est l’ordinateur qui la calcule...

Un dessin d’architecture sans lignes

Il est un autre domaine où EDF a innové en 1992, avec l’expérience du Pont Neuf, c’est que, alors qu’une partie des levés et des modèles 3D furent faits de manière conventionnelle, la plupart des données avaient été saisies par laser. Le changement fondamental par rapport à un levé topométrique conventionnel, c’est qu’on ne relève plus uniquement les points significatifs de l’objet (par exemple les quatre coins d’un rectangle), mais on le scanne, on le bombarde de manière indifférenciée, avec une densité de mesures et un niveau de précision adéquats. Le résultat, c’est un nuage de points, des millions de lieux dans l’espace. Les lignes doivent encore être dessinées. La ligne active qui précédemment passait par deux points de l’objet reconnus comme significatifs, doit maintenant être identifiée comme une ligne passive, la rupture spatiale dans le grand nuage de points. La lasergrammétrie ou lasérométrie est un procédé de scan 3D où pour chaque point mesuré on connaît non seulement sa position dans l’espace (x, y et z), mais aussi une valeur, teinte ou intensité du point. Cette valeur correspond à sa capacité à réfléchir le rayon laser et non à la couleur de l’objet mesuré. Dans ce sens, il s’agit bien d’un

modélisation 3D de l’église conventionnelle, ou à partir des nuages de points  6

couverture photographique de l’objet. On isole les images des différentes surfaces ou éléments architecturaux, pour en faire des textures photographiques dont on habillera le modèle 3D 6

au final, pour décrire l’ensemble des élévations intérieures et extérieures de la Collégiale, plus de 5000 images-textures ont été nécessaires 6

7

Wassili Kandinsky. Point et ligne sur plan. Gallimard Folio, Paris, 1991. p.25. Wassili Kandinsky. Op.cit. p.67, pour qui elle est l’action d’une force.

8

IMAGES – 28 août 2007 – page 73


Du point à la tache

coupe longitudinale vue vers le Nord. Représentation conventionnelle, codifiée du dessin d’architecture. Les couleurs sont normées et correspondent à la réalité constructive de l’objet et aux intentions graphiques (épaisseurs de traits, types de ligne) du dessin noir et blanc 6

procédé de la famille de la photographie, au sens large. Elle en a bien l’aspect, mais elle n’a ni la qualité, ni la fidélité d’une photographie au sens restreint, avec laquelle on a assez tendance, fautivement, de la comparer. Afin de saisir la couleur que possède l’objet, donc sa capacité à retenir une partie du spectre de la lumière du soleil, on peut coupler la mesure de chaque point avec la saisie par une caméra RVB numérique. Les points pourvus d’attributs ne sont plus immatériels. Si on les dilate, si on les étale comme des taches ou sphéroïdes de la dimension de leurs intervalles, on a bel et bien l’impression de se trouver en présence de surfaces éclairées, comme sur une photo 3D. Que faire d’un tel nuage ? Que faire d’une encombrante, d’une transparente myriade de taches ? Premièrement, au plus paresseux : garder le nuage brut, le contempler à l’ordinateur ou le projeter selon un plan, un faisceau perspectif, etc. Il y a quantité d’applications de la lasergrammétrie où ne se pose pas la question de la représentation codifiée d’un objet, ou bien où l’observation brute du nuage, ou statistique, donne déjà une indication suffisante de l’objet. Deuxièmement si on les relie entre eux, par facettage, par maillage, trois points voisins formant toujours une ligne médiale, on en fera des surfaces dans l’espace, propres à arrêter ou à réfléchir la lumière, il y aura un intérieur et un extérieur. Troisième étape : identifier les lignes passives, les lignes de rupture. L’ordinateur trouve les breaklines, ou le dessinateur identifiera dans le nuage les points caractéristiques nécessaires à la représentation graphique de l’objet. L’exemple du relevé par le bureau Archéotech de la collégiale de Neuchâtel en 2005, montre qu’à côté de la représentation conventionnelle, codifiée, du dessin, ces outils ouvrent la voie à de nouveaux modes d’expression graphique, qui évoquent curieusement la traFI spécial été 2007 – 28 août 2007 – page 74


Du point à la tache

même vue. Image calculée à partir d’un modèle 3D. Illumination par radiosité et textures photographiques. Bien que l’objet ne soit constitué que de photographies, le résultat n’est pas une photographie à son tour, mais possède un recul, une abstraction picturale étonnants 6

dition Beaux-Arts, et nous renvoient au souci d’une description didactique du bâtiment. Le clair-obscur des surfaces obtenu par calcul de radiosité dans un environnement 3D permet une meilleure lecture des plans et des volumes. L’application des textures photographiques, au lieu de précipiter le dessinateur dans le piège de l’hyperréalisme, l’attire plutôt dans une sorte de position de recul, de distance picturale, ou encore sur le terrain du modélisme. Un modèle réduit ne l’est pas que dans ses dimensions, il est aussi réduit dans sa prétention à se substituer au réel. Si, au sujet de la simulation d’éclairage du Pont-Neuf, on a pu nourrir quelques illusions caractéristiques pour l’époque, on était aussi conscient que l’image réalisée reste une représentation, n’est pas une garantie de réalisation et ne peut a fortiori être contractualisée  9, et on pouvait estimer néanmoins que malgré cette limite, l’image de synthèse réalisée, construite à partir des spécificités techniques des matériaux, n’est en rien comparable avec une image réalisée par palette graphique, où les sens artistique et commercial comptent au moins autant, sinon davantage, que le réalisme. Dans le cas de l’image de synthèse, si tout risque de manipulation est écarté, le risque de déception demeure. Voilà au moins un point sur lequel le travail d’Archéotech apporte un certain démenti. n

9

M. Claude Huriet, Sénateur. Office parlementaire d’évaluation des choix scientifiques et technologiques – Rapport d’information n° 169 - 1997-1998 source: senat.fr/rap/o97-169/o97-16940.html.

IMAGES – 28 août 2007 – page 75


Chemins de traverse En guise d’édito Jacqueline Dousson 2

Simulation de foules d’humains virtuels Jonathan Maim & Barbara Yersin 3 Tous photographes! côté expo Jacqueline Dousson & Appoline Raposo 13

L’image et quelques détails non négligeables Valentin Chareyron 34

Une image aérienne de 20 milliards de pixels pour Neuchâtel Marc Riedo 50

L’imagerie de synthèse appliquée à l’architecture Marc-Olivier Paux 69

CAVE du VRLab Achille Peternier 7

Partage de photos dans l’esprit Web 2.0 Matthieu Taggiasco 17

L’image polytechnique Charles Duboux 37

Tous photographes ! côté labo Daniel Tamburino 10

Post Tenebra Lux Laurent Kling 19

Sécurité via téléphones portables Sviatoslav Voloshynovskiy & Oleskiy Koval 41

Concours de la meilleure nouvelle

Du sens de la vue à la construction du regard

Presque banal Flavien Rouiller 57

Valérie Jaton & Philippe Ramel 60

Du point à la tache Ulrich Doepper 71

Charles Duboux & Ulrich Doepper 18, 33, 40, 47, 56, 59 & 68

spécial été

2007 VMS pour le développement rapide d’applications de traitement de l’image ou du son Aicha Rizzotti 24

La main et la souris Marie-Pierre Zufferey 45

NeoBrain Cédric Bilat 28

La magie de la transformation Véronique Bauler, alias Veronia 48

La réalité augmentée

Images sur le Web

Jacques Bapst 62

Natalie Meystre 67

images

ISSN 1420-7192


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.