ECOLE POLY PO LY LYTECHNIQU TECHNIQUE TECHNIQU E FEDERALE DE L AUSANNE
Hippocrate, le gène et la puce
spécial été 2003
Appoline RAPOSO DE BARBOSA appoline.raposo@epfl.ch Service informatique central EPFL
Laissez-moi
Clavitorial sortir de leur contexte quelques morceaux choisis dans ce journal pour une petite élucubration.
Les ordinateurs ont-ils un sexe? Boris Burle et Andras Semjen semblent le penser puisqu’ils ont atrribué des
prénoms féminins à leurs PC. Ils auraient pu les appeler Dominique ou Frédérique laissant ainsi planer un doute, mais non ils ont choisi Gertrude et Simone. Et que sont ces Gertrude et Simone? des bosseuses! Elles font presque
tout dans le labo, peut-être même ont-elles écrit l’article: L’Ordinateur dans les sciences du comportement. Si
c’est Gertrude c’est de la main droite qu’elle l’aura écrit parce qu’elle est droitière (voir la figure 1). "Comment ferions-nous sans vous?!" se sentent-ils obligés d’avouer.
José del R. Millán et Samy Bengio, eux, ont inventé le nouveau bonnet aux 32 petits pois pour l’hiver.
Pas très pratique pour les longs déplacements diront de suite ses détracteurs, mais très seyant comme le montrent les figures 2 et 3 de leur article: Interfaces cérébrales.
Michèle Coulmance nous raconte comment Stevan Harnad a emmené un Martien à la cueillette des champignons,
cela donne: le Martien, les champignons et les réseaux de neurones. Selon une méthode d’apprentissage bien à lui,
il lui apprend à trier les champignons. Le Martien s’appuie sur le ouï-dire et ensuite il faudrait que l’on mange ces champignons et qu’on en redemande (manger, marquer et retourner), si l’on peut! Est-ce le même Martien qui a pris pour un zèbre un cheval qui s'était assis sur un banc fraîchement peint?
La peste bioionique nous arrive par Monique Louicellier. Mais bien loin de lui en vouloir pour sa nouvelle,
le jury la déclare lauréate 2003.
Dans son article: Application de la stéréologie aux neurosciences, Etienne Régulier choisit de jeter l’aiguille
sur une grille
plutôt que de la perdre dans une botte de foin et nous le comprenons.
Langage et musique sous l’électrode, est-ce le titre d’un roman à gros tirage? Non, mais c’est écrit à quatre
mains:Cyrille Magne, Daniele Schön, Corine Astésano et Mireille Besson. Et que cache un titre aussi évo-
cateur: des mots incongrus! et les auteurs s’accordent pour nous les faire passer en musique.
Dominique Pioletti et Bastian Peter tiennent à leurs os autant que Nirinarilala Ramaniraka, Alexandre
Terrier et Olivier Siegrist tiennent à leurs genoux. Lisez leurs articles Développement d’un nouvel implant orthopédique utilisé comme drug delivery system et Analyse biomécanique de la reconstruction du LCP du genou pour en convenir.
Ruth Luthi-Carter s'essaie-t-elle au dressage de puces sur les bords du Léman ? Puces, gènes et ADN vous
donnera peut-être la meilleure manière de vous y prendre.
Et que cherche Cyril Monier dans une boîte noire ? De l’approche boîte noire au connexionnisme, confrontation des
différentes méthodes d’investigation du système visuel, je crois qu'il cherche du bruit blanc, mais je ne vous en dirai pas plus. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 2
Nicolas BOUCHE
nicolas.bouche@epfl.ch
Laboratoire d’étude sur la neurodégénérescence Faculté SV, EPFL
Editorial
oût 1843, un jeune Morave, Johann Gregor, se promène sur les rives paisibles du lac Léman, il profite de flâner encore un peu avant de retrouver son monastère. Ses pensées voltigent entre la botanique, la physique et la zoologie. Comment les phénotypes de ces petits pois peuvent, de génération en génération, se transmettre? la question le hante. Ada, comtesse de Lovelace, déjà malade mais toujours belle, se repose sur un banc. Ne prenant garde au paysage, elle imagine, sans trop y croire, les applications de la machine de son ami Charles Babbage, les implémentations à apporter au processus logique permettant l’exécution des tâches. Elle ne se rend certainement pas très bien compte de la portée de ces travaux, une machine, rien de nouveau sous le soleil. Johann, un peu las de toutes ces énigmes, ou attiré par cette charmante dame, se sied à ses côtés. Timidement, poliment les présentations s’engagent: – Johann Gregor Mendel 1, étudiant à l’Institut de Philosophie d’Olomouc. – Augusta Ada King, comtesse de Lovelace 2, analyste-métaphysicienne. Finis les banalités d’usage sur le temps et la géographie, ils échangent leurs sciences, leurs interrogations. Le vocabulaire de chacun, quelque peu hermétique, et leur français sommaire s’estompent furtivement face à la passion qui les anime. Une machine à compter, classifier, répertorier, sauvegarder,… Johann voit déjà ses laborieux travaux de regroupements et d’analyses fondre pour laisser seul le temps aux hypothèses. Ada imagine la possibilité d’un nouveau support évolutif autoreproducteur balayant ses pensées binaires tout juste naissantes. Que d’applications enfantées de la rencontre de leurs obsessions. Ils imaginent décrypter les signaux cellulaires, les transcrire sur cette machine de Babbage (Interfaces cérébrales, Puces, gènes et ADN), comprendre l’implication du langage dans la compréhension de leur monde (Le Martien, les champignons et les réseaux de neurones, Langage et musique sous l’électrode). Ils essayent déjà de penser à un algorithme modélisant certains phénomènes encore imperméables (Développement d’un nouvel implant orthopédique utilisé comme drug delivery system, Analyse biomécanique de la reconstruction du LCP du genou), ou analysant des structures complexes (Application de la stéréologie aux neurosciences). User de la machine pour déchiffrer le fonctionnement de certains organes, exploiter ces nouvelles connaissances pour améliorer la machine (De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel). Et pourquoi pas simuler la nature pour accélérer ses actes (L’ordinateur dans les Sciences du Comportement: outil ou modèle?). Le temps passait trop vite, leurs discussions trop précipitées, ils délaissèrent tant de potentialités qu’ils évoqueront peut-être plus tard, ne pouvant se convaincre de ne point se revoir. Ada pensa à sa maladie et à tout ce que ces deux mondes pourraient faire pour elle, ce que la médecine pourrait puiser de cette collaboration. Tous deux, bien qu’ignorant dans ce domaine, rêvaient de diagnostics enrichis de bases de données, stockées, triées et analysées par cet automate. L’heure fut venue de se séparer, il est quelque peu incongru pour un futur prêtre et une comtesse de ne point se séparer la nuit tombée. Profitant tout de même des quelques minutes de lueur qu’il leur restait, ils s’interrogèrent sur les peurs qu’engendra en eux le potentiel de ces concepts. Leurs descendants (surtout ceux d’Ada, Johann prisonnier de sa prêtrise naissante n’envisageant pas cette possibilité) n’utiliseraient-ils pas ces connaissances pour déraper, pour profiter plutôt que d’en bénéficier? Ils n’osent penser à tous les méfaits que pourraient engendrer ces connaissances entremêlées. Mais l’esprit serein ils se quittèrent, confiants dans le sort de ces projets. Chacun pour soi, ils reprirent leur chemin, un peu ivres de tant d’idées, mais voici que très vite, à leur grande surprise, leur manquaient les théories de l’autre, ils ne pouvaient concevoir leurs découvertes sans ce partage.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 3
Editorial
Néanmoins, Johann retourna dans son monastère et devint prêtre. Ada décéda 9 ans plus tard, bien trop vite pour leur permettre de se revoir et de mûrir un peu ces concepts nouveaux.
oût 2003, Augusta Ada King est reconnue par beaucoup comme l’auteur du premier programme informatique. Il s’agit en fait à l’origine de la traduction de 1843 d’un article italien d’un certain Menabrea, elle y définit le principe d’itérations successives dans l’exécution d’une opération. En l’honneur du mathématicien arabe Abu Ja’far Muhammad ibn Musa al-Khwarizmi, elle appelle algorithme le processus logique permettant l’exécution d’un programme. Dans cet article, Ada donne libre cours à son imagination poétique, et prédit l’utilisation de la machine de Babbage dans des domaines comme la composition musicale, ou la fabrication de graphiques, ce qui n’étonne plus personne aujourd’hui mais devait paraître complètement farfelu aux lecteurs de l’époque. Redécouverte dans les années 50, elle obtient une gloire méritée bien que posthume quand le Département de la Défense américaine donne son nom, Ada, à un langage informatique en 1979. Johann Gregor Mendel, reconnu comme le père fondateur de la génétique, publie en 1866 un article retraçant dix années d’expériences d’hybridation chez les végétaux. Ses travaux révolutionnaires passent inaperçus au moment de leur publication, on peut penser qu’il a manqué d’arguments de poids, comme la connaissance du support de l’hérédité – les chromosomes –, pour s’imposer face à la théorie de l’hérédité par mélange. Ce n’est qu’en 1900 que la publication de trois nouveaux articles signés Hugo de Vries, Carl Correns et Erich von Tschermark révèle des résultats similaires à ceux de Mendel. Les trois scientifiques reconnaissent aussitôt l’antériorité des travaux du moine-chercheur et le réhabilitent. La génétique est officiellement née, près de cinquante ans après l’élaboration des fameuses lois de Mendel. Ces deux précurseurs, incompris à leur époque, ne se sont jamais croisés. Dommage? Il fallut donc attendre encore quelques années pour que le gène et la puce se rencontrent et nous devrons encore un peu patienter pour qu’ils se comprennent entièrement. ■ 1
Johann Gregor Mendel (1822-1884), naît le 22 juillet 1822 à Heisendorf, petit village de Moravie, dans une famille de paysans. Doué pour les études, le jeune garçon est très vite remarqué par le curé du village qui décide de l’envoyer poursuivre ses études loin de chez lui. A 21 ans il rentre au monastère de Brno; il sera ordonné prêtre en 1848. En 1851 il suit les cours de l’Institut de Physique de Johann Christian Doppler (il suit même un enseignement de physique expérimentale auprès de Doppler lui-même). En 1866 il publie l’article retraçant dix années d’expériences d’hybridation chez les végétaux. En 1868 il est élu supérieur de son couvent. Il s’investit alors dans d’autres domaines plus compatibles avec ses obligations, notamment l’horticulture et l’apiculture. Il se passionne également pour la météorologie qui sera au final le domaine qu’il aura le plus longtemps étudié, de 1856 jusqu’à sa mort en 1884. Pour plus d’informations: http://www.infoscience.fr/histoire/portrait/mendel.html.
2
Augusta Ada King, comtesse de Lovelace (1815-1852) naît le 10 décembre 1815, à Piccadilly, de Lord et Lady Byron. Sa mère cherche par tous les moyens à éloigner sa fille de la poésie, pour la pousser au contraire vers les mathématiques. Elle n’y réussit pas tout à fait, si l’on en croit l’une des biographes d’Ada, qui la cite se décrivant comme analyste-métaphysicienne. Ada rencontre à l’âge de 17 ans le mathématicien Charles Babbage, qui a inventé une machine à calculer d’un nouveau genre. A 19 ans, Ada épouse un monsieur King et ils ont trois enfants! Elle décède à 37 ans terrassée par un cancer. Pour plus d’informations: http://www.internenettes.fr/femme/ada.html.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 4
Boris BURLE
burle@lnf.cnrs-mrs.fr Laboratoire de la Neurobiologie de la Cognition CNRS et Université de Provence, Marseille
Andras SEMJEN
semjen@lnf.cnrs-mrs.fr UMR Perception et Mouvement Université de la Méditerranée – CNRS, Marseille
L’Ordinateur dans les Sciences du Comportement: Outil ou Modèle? Gertrude, Simone, et la Station Il fallait bien leur donner des noms, à ces compagnes de tous les jours, moins pour reconnaître leur dévotion, que pour mieux se souvenir, qui fait quoi. Bien que les tâches aient été, de toutes façons, assez strictement établies. Question d’affinité, sans doute, Gertrude et Simone n’ont jamais voulu se séparer du DOS, alors, elles gardent leur style un peu désuet, mais si réconfortant, dans ce monde instable. La Station, elle, est beaucoup plus dans l’air du temps, mais justement, pour combien de temps encore? Certes, nous n’aimerions pas la voir disparaître de sitôt. Le problème, cependant, c’est que – quand on est ordinateur – on a l’âge de son processeur, et cela vieillit si vite… Vous la trouvez peut-être excessive, notre tendresse à l’égard de ces êtres bizarres, notre propension à les considérer avec respect; notre confiance dans leur dévouement, dans leur capacité de travail. Mais comment pourrions-nous faire autrement? Après tout, s’il fallait que nous fassions nous-mêmes tout ce qu’ils font pour nous, jour après jour, et même de nuit comme de jour, que deviendrions nous? Puis, on nous a assez dit que, d’une certaine manière, ils participent de l’intelligence, et à ce titre, nous sommes cousins, en quelque sorte. Alors, où est le mal à leur donner des noms? Notre inquiétude vient d’ailleurs. Parce qu’il y a une inquiétude. Nous voyons très bien ce que c’est que de vivre tous les jours, ici, dans notre laboratoire, avec Simone, Gertrude, et la Station. En surface tout est clair et net. Nous devons résoudre un certain nombre de problèmes (on appelle cela, semble-t-il, conduire un programme de recherche), et ces trois là nous aident. Mais le fait que nous formons un groupe, elles et nous, n’est peut-être pas sans incidence sur la manière dont nous abordons nos problèmes, ou même, dont nous les identifions. Cette cohabitation de tous les jours, n’est-elle pas de nature à changer nos mentalités, nos façons de voir, nos ambitions, et ce que nous pouvons considérer comme des satisfactions dans notre travail? Quel est ce changement? Est-il seulement quantitatif (faire plus de choses en moins de temps), ou aussi qualitatif, propre à modifier la nature même de notre objet d’étude? Peut-on évaluer l’impact, positif ou négatif, d’un tel changement?
Puissance Gertrude, Simone, et les autres ! Comment ferions-nous sans vous pour acquérir, stocker, trier, analyser, récupérer les données par milliers? D’ailleurs, quelles seraient nos données si vous n’étiez pas là? Tempérons, un instant, notre enthousiasme: d’un certain point de vue, l’ordinateur n’est pas très différent d’une pioche ou d’une machine à vapeur; là où l’outil manuel prolonge et amplifie l’activité de nos muscles, l’ordinateur aide et amplifie l’activité de traitement de notre cerveau. Ayons bon espoir que notre travail de chercheur, tout dédié au cerveau, n’en sera que plus fructueux! Vers la fin des années 60, l’un de nous deux (AS) était fasciné par la rapidité avec laquelle un geste d’atteinte manuelle (son programme moteur! pour tout dire) pouvait être amendé, lorsque la cible à atteindre s’écartait subitement vers une position plus lointaine ou plus proche, par rapport à la position initialement visée, et par la difficulté de tenir compte de ce genre d’imprévu si, au lieu de changer l’amplitude du mouvement, il fallait en changer la direction. Les données – la photographie de spots lumineux se déplaçant sur un écran d’oscilloscope – remplissaient des dizaines, des centaines de mètres de bandes de papier photosensible, joie des enfants – une fois l’enregistrement dépouillé. A la main ! Avec une résolution temporelle de 20 ms, et au prix d’angoisses terribles en face de la difficulté à déterminer, souvent, le début de la réponse – le déplacement du spot lumineux. Aujourd’hui, Gertrude serait rouge de honte si nous ne traitions pas
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 5
L’Ordinateur dans les Sciences du Comportement: Outil ou Modèle?
les dérivées, première et seconde, de ces signaux. Pic de vitesse, pic d’accélération, négative et positive, bien sûr. Leurs latences respectives, s’il vous plaît! Avec Gertrude (et Simone et les autres) dans le dos, aujourd’hui nous ne pourrions concevoir cette expérience autrement, comme nous ne pourrions imaginer de nous contenter de moins de 100 essais par situation – les économistes diraient qu’un marché de l’offre s’est substitué à un marché de la demande. Et d’autres diraient, enfin! l’imagination est au pouvoir. On ne se sent plus bridé. On ose! On ose, parce qu’il y a la vitesse et la puissance de calcul. Parce qu’il y a la capacité de stockage. On fait de l’électroencéphalogramme? Doublons, quadruplons le nombre des électrodes, resserrons le maillage ! Si la définition spatiale du signal, si la localisation des sources, y gagnent en précision, pourquoi pas? Pourvu que le maillage des hypothèses suive. Car quatre fois plus d’électrodes ne multiple pas nécessairement d’autant l’intérêt de la recherche. Nous le savons bien, là où la pénurie (de moyens) nous obligeait à penser longuement les protocoles expérimentaux afin de sélectionner les questions et les indices les plus pertinents, l’opulence tend à renvoyer au second plan les questionnements. Cette illusion de la technique, au détriment des idées, s’impose insidieusement dans notre travail, et se pose bien souvent en norme dans la recherche. La qualité d’une recherche sera ainsi évaluée sur la quantité de technique investie, au détriment du seul critère qui devrait prévaloir, l’intérêt des questions auxquelles elle permet de répondre.
Souplesse, partenariat, et compétition Gertrude, Simone, et les autres prennent en charge de collecter les données qui nous permettent d’analyser, peut-être de comprendre, le comportement - la psychologie - de nos sujets, c’est à dire ces personnes disponibles et bénévoles qui consentent à participer à nos expériences. Mais il ne s’agit pas simplement d’en collecter beaucoup. Le plus possible! Il faut les collecter en souplesse, en finesse, au bon moment, en bon nombre, bref, à bon escient. En établissant avec le sujet un véritable partenariat, une sorte de jeux à deux, en lui posant les bonnes questions, en fonction des réponses obtenues. Nous voulons savoir de combien il faut augmenter l’intensité d’un spot lumineux pour qu’un observateur réponde, une fois sur deux, c’est plus brillant? Jadis, pour déterminer ce seuil différentiel, on aurait présenté, en ordre ascendant, puis descendant, une large gamme de stimuli prédéterminés, toujours les mêmes, allant du beaucoup plus faible que le stimulus de comparaison, au beaucoup plus fort. Mais Gertrude joue le jeu de la cage d’escalier avec le sujet: lorsque celui-ci répond plus brillant, elle présente, au coup d’après, un spot moins brillant, et si la réponse est toujours plus brillant, elle continue de la sorte, mais si la réponse est moins brillant, elle renverse la vapeur, et présente un spot plus brillant, et ainsi de suite, jusqu’à ce qu’on décide que le jeu est terminé, suffisamment de données ayant été collectées pour déterminer le seuil (cf. Cornsweet, 1962). Gertrude (ou Simone, ou la Station) nous aide à gérer les expériences, à mettre à la question nos sujets – si nécessaire, mais gentiment, bien sûr. Rien à voir avec la compétitivité farouche de DEEP BLUE (200’000’000 opérations par seconde) qui ambitionne de battre les meilleurs joueurs d’échecs au monde! Il est vrai que pour cela il touche des honoraires qui n’ont rien à voir avec ce que nous pouvons offrir comme indemnité à nos collaboratrices. Lesquelles, cependant, peuvent faire mieux, le cas échéant, que de se constituer en tandem avec le sujet. Il arrive même qu’elles les remplacent pour de bon, comme l’histoire ci-dessous le montre.
Un outil pour tester des idées Pour bien comprendre cette histoire, il faut que vous acceptiez de vous prêter vous-même à une petite expérience. Asseyez-vous devant une table, posez vos index dessus, et tracez des cercles simultanément avec les deux index, dans le sens horaire avec la main droite, et dans le sens anti-horaire avec la main gauche. Dans cet arrangement symétrique, les mouvements sont aisés à exécuter, même lorsque progressivement vous accélérez le tempo. Maintenant, recommencez le traçage de cercles, assez lentement, et de telle sorte que cette fois-ci les deux mains tournent dans le sens horaire. D’abord, tout se passe bien. Mais si, dans cet arrangement asymétrique, vous essayez d’accélérer le mouvement, il arrive un moment où les deux mains se désynchronisent, et pis, la main gauche (pour les sujets droitiers) s’affole, quitte la trajectoire circulaire pour couper l’espace en diagonale, faire des triangles, des patates, des bouclettes (fig. 1 – sujet humain), il lui arrive même de renverser le sens du mouvement, et tout ceci à votre plus grand étonnement. Mais alors, qui commande à ma main gauche? – demanderiez-vous. Et voici la réponse qui a été donnée (Cattaert, Semjen, & Summers, 1999):
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 6
L’Ordinateur dans les Sciences du Comportement: Outil ou Modèle?
C’est votre main droite, en partie tout au moins. Votre cerveau envoie des commandes appropriées aux deux mains de manière à ce qu’elles fassent les mouvements circulaires voulus. Ces commandes régissent, en fait, pour chaque main, des oscillations couplées, dans le plan para-sagittal (axe des Y) et dans le plan transverse (axe des X). Imaginons que, de chaque commande envoyée vers la main dominante (main droite pour les droitiers), une copie atténuée est aussi envoyée vers la main non dominante. Trop faibles pour produire des mouvements observables, ces commandes fantômes correspondraient en fait à des mouvements en miroir par rapport à ceux de la main dominante, et ne poseraient aucun problème lorsque la tâche consiste à tracer des cercles en miroir (arrangement symétrique). Cependant, elles deviendraient gênantes lorsque la tâche consiste à effectuer les mouvements de façon asymétrique, et ceci d’autant plus que la fréquence des mouvements est plus élevée, car l’intensité du signal copie, et donc sa capacité de nuisance, serait d’autant plus grande que l’intensité de la commande principale est elle-même plus grande. Personne ne savait si ces idées étaient justes, mais étaient-elles au moins plausibles? Gertrude a aimablement accepté qu’on lui confie l’exécution d’un algorithme qui développe ce modèle, et s’est substituée pour quelque temps à nos sujets. Nous ne savons pas si ceux-ci fonctionnent vraiment comme le modèle le prédit, mais nous savons que Gertrude s’y est entièrement conformée. Elle s’est trouvée parfaitement à l’aise à tracer des cercles en miroir, et fort contrariée à tracer des cercles de façon asymétrique, surtout lorsqu’il fallait le faire en allant de plus en plus vite (fig. 1 - Gertrude). Les expériences avec Gertrude ont aussi révélé des choses intéressantes sur les effets de poids attachés aux bras pendant le traçage de cercles, ou encore de l’augmentation de la viscosité du système (comme si l’on traçait des cercles dans un bocal rempli de lentilles, plutôt que sur la surface lisse de la table). On pourra étudier ultérieurement le comportement des sujets humains dans ces situations, quand ils reviendront dans le box expérimental. En attendant, le modèle semble viable, même si aucune preuve formelle de sa justesse n’a été apportée.
Jeux de miroir Le cerveau humain est le plus extraordinaire ordinateur qui ait jamais existé au monde. Nous n’avons pas la citation exacte, mais cette phrase a été prononcée, écrite, popularisée de nombreuses fois. Fulgurance de la métaphore: les deux termes de la comparaison glissent l’un sur l’autre. L’objet manufacturé promet ainsi une explication facile et sans appel du fonctionnement de l’objet naturel et par là, du fonctionnement de l’esprit dont ce dernier est l’organe. Le raccourci décourage questions et dubitation: puisqu’on connaît les principes sur lesquels repose le fonctionnement de l’ordinateur (hardware et software, carapace et programme), on sait tout l’essentiel de l’esprit humain, tout au moins dans ses activités les plus noblement abstraites: acquérir, stocker, récupérer, transformer des symboles, selon des règles formelles bien définies. Mais qu’en serait-il de cette croyance si, dès le départ, on avait proposé la métaphore inverse: Le plus parfait des ordinateurs n’est jamais qu’une ébauche de cerveau humain? En adoptant une telle perspective, on se serait moins laissé fasciner par l’incontestable habileté que montre l’ordinateur aux jeux de la syntaxe, habileté qui masque si souvent ses hésitations et ses maladresses dans le domaine de la sémantique. Et on ne se serait pas pris dans ce jeu de miroir où l’objet et son image deviennent indifférenciés, l’un expliquant l’autre tour à tour, les ordinateurs étant construits de telle sorte qu’ils puissent simuler les activités de l’esprit, et les modèles de l’esprit devenant des implémentations de notre façon de faire des ordinateurs, avec leurs entrées et sorties, registres et adresses, mémoires tampons, mémoires de travail et mémoires à long terme, leurs processus d’accès, sériel ou direct, leurs processus de traitement, localisés, centralisés, ou distribués, leur timing régi par une horloge ou par la durée de l’opération la plus élémentaire. Ainsi, l’ordinateur, dans son architecture et par son fonctionnement, se fait passer pour un modèle du fonctionnement cognitif, doté d’un pouvoir d’explication, alors qu’il n’est, en réalité, que l’objectivation de nos efforts pour comprendre l’activité mentale, et des lentes avancées de cette compréhension.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 7
L’Ordinateur dans les Sciences du Comportement: Outil ou Modèle?
Le modèle en tant qu’outil Qu’une machine construite par l’Homme (Deep Blue, IBM) puisse battre au jeu d’échecs le plus sophistiqué des champions, en dit long sur la compétence de ses constructeurs, en termes d’identification du problème à résoudre et des ressources technologiques à mettre en œuvre. Qu’un observateur extérieur de ces parties soit incapable de décider quels étaient les coups joués par le champion, et quels étaient ceux joués par l’ordinateur, constitue un test réputé identifier la machine comme un agent intelligent (test proposé par Turing, 1950). Une conclusion de cette sorte serait toutefois rejetée en considération du fait que la machine ne sait pas ce qu’elle fait (par exemple, elle ne sait pas qu’elle joue aux échecs; Searle, 1980). Plus prosaïquement, les constructeurs de la machine et les commentateurs accrédités reconnaissent que celle-ci gagne grâce aux brute force methods – l’extraordinaire rapidité de calcul que rendent possible d’une part, un processeur révolutionnaire et d’autre part, la possibilité de faire dérouler simultanément de très nombreuses opérations. L’approche du champion et celle de la machine sont donc de nature différente: aucun être humain ne peut évaluer 2*108 coups à la seconde ! Et le commentateur d’ajouter: «Chess is far easier than innumerable tasks performed by an infant, such as understanding a simple story, recognizing objects and their relationships, understanding speach, and so forth. For these and nearly all realistic AI problems, the brute force methods in Deep Blue are hopelessly inadequate». (Stork, 2003). Il apparaît donc que dans les sciences du comportement, l’ordinateur n’apporte rien en tant que modèle de l’agent intelligent. Est-ce que cela signifie que nos chères compagnes n’auraient rien apporté au développement théorique dans ces disciplines? Gertrude, Simone et la Station ne seraient donc rien d’autre que des outils pour nous? Nous voici bien loin des liens de cousinage que nous avions envisagés au départ! La conclusion serait hâtive et injustifiée. Elles nous ont bien servi dans l’élaboration de nos théories, mais non parce qu’elles sont douées d’une intelligence proche de celle de l’humain, mais parce qu’en tant que machine logique, elles ne supportent aucune approximation. Pouvoir implémenter une conception théorique, un modèle, sur un ordinateur ne garantit certes pas que le modèle est correct, mais cela garantit au moins que sa définition et sa mise en forme sont rigoureuses. Ainsi en nous imposant une objectivation fonctionnelle de nos modèles et théories concernant la genèse et le contrôle des comportements humains, des plus simples aux plus évolués, l’ordinateur cesse d’être un outil subalterne d’exécution, pour devenir un outil de contrôle de la rigueur de notre démarche scientifique. Pour l’heure, il ne faut pas lui en demander davantage.
Note ❚ Boris Burle est chargé de recherche au CNRS. Thèmes de recherche: architecture cognitive, contrôle d’exécution. ❚ Andras Semjen est directeur de recherche au CNRS. Thèmes de recherche: contrôle temporel et coordination des mouvements manuels. ❚ Les auteurs remercient D. Cattaert pour la mise à disposition du programme de simulation à l’origine de la fig.1.
Références ◗ ◗ ◗ ◗
◗
Cattaert D., Semjen A., Summers J.J.(1999). Simulating a neural cross-talk model for between-hand interference during bimanual circle drawing. Biological Cybernetics, 81, 343-358. Cornsweet T.N.(1962). The staircase method in psychophysics. American Journal of Psychology, 75, 485-493. Searle J.R. (1980). Minds, brains, and programs. The Behavioral and Brain Sciences, 3, 417-457. Stork D.G. (2001). Hal, Deep Blue, and Kasparov. Retrouvé le 17/05/2003 sur le World Wide Web (IBM Reserach Deep Blue Overview http://www.research.ibm.com/ deepblue/learn/html/e.8.1.html). Turing A. A. (1950). Computing machinery and intelligence. Mind, 59, 433-460. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 8
José del R. MILLÁN
jose.millan@idiap.ch Institut Dalle Molle d’Intelligence Artificielle Perceptive (IDIAP), Martigny & Laboratoire de calcul neuromimétique,Faculté IC, EPFL http://www.idiap.ch
Samy BENGIO
bengio@idiap.ch Institut Dalle Molle d’Intelligence Artificielle Perceptive (IDIAP), Martigny http://www.idiap.ch
Interfaces Cérébrales
es dernières années, les technologies de l’information et de la communication ont littéralement révolutionné les industries, l’économie, et surtout, notre qualité de vie. De fait, nous prenons souvent pour acquis l’accès à plusieurs de ces technologies émergentes. Malheureusement, toute une catégorie de personnes est actuellement à toute fin pratique exclue de ces nouveaux systèmes de communication: il s’agit des personnes ayant des dysfonctionnements physiques sévères. Pourtant il existe peut-être une solution pour elles: la possibilité de communiquer ou de contrôler des appareils électroniques directement par la pensée! Cela ressemble peut-être à de la science fiction, c’est pourtant la promesse des Interfaces Cérébrales (Brain Interfaces), dont le but est d’augmenter nos capacités de communication en nous permettant d’interagir avec un ordinateur par l’intermédiaire d’une modulation consciente de notre activité cérébrale, ceci après une courte période d’apprentissage. Nous avons ainsi développé ces dernières années quelques prototypes utilisant des signaux cérébraux pour la communication et le contrôle, que nous avons testés sur plusieurs sujets. Notre groupe de recherche à l’IDIAP (situé à Martigny) est en train d’améliorer ces méthodes dans le cadre du pôle de recherche national sur le traitement multimodal IM2: Interactive Multimodal Information Management (http://www.im2.ch)1.
De la pensée à l’action On a pu observer ces dernières années un intérêt grandissant pour la recherche sur l’utilisation de signaux physiologiques à des fins de communication et de contrôle pour des personnes physiquement diminuées. Plusieurs expériences se sont accumulées pour montrer la possibilité d’analyser les ondes cérébrales en temps réel afin d’en dériver une information utile sur l’état mental des sujets, laquelle est ensuite transformée en une action externe telle que le choix d’une lettre sur un clavier virtuel, ou le déplacement d’un robot. Cette forme de communication alternative, qui ne requiert pas du sujet qu’il effectue une action physique, est appelée Interface Cérébrale (IC). Bien que de véritables prototypes d’IC ne furent développés que très récemment (voir une revue de ces systèmes par Millán, 2002; Nicolelis, 2001; Wolpaw et al., 2002), les idées principales ont en fait été proposées dans les années 1970 et les premières expériences furent basées sur l’analyse de l’activité électrique du cerveau générée en réponse au déplacement du focus des yeux vers des zones particulières. Ce n’est que 10 ans plus tard que de premières expériences furent rapportées sur l’analyse, après leur enregistrement, de signaux électriques du cerveau qui ne dépendaient pas du contrôle de muscles ou d’une quelconque stimulation externe. Une IC peut analyser une variété de signaux provenant du cerveau. La plupart des IC utilisent des signaux enregistrés à l’aide d’un électroencéphalogramme (EEG), à savoir, l’activité électrique du cerveau enregistrée à l’aide d’électrodes placées sur la surface du cuir chevelu. La source principale d’un EEG est l’activité synchrone de milliers de neurones corticaux. Mesurer un signal EEG est une méthode simple et non envahissante (ne nécessitant pas d’implants dans le cerveau) d’analyser l’activité électrique du cerveau, mais qui ne fournit pas d’information détaillée sur l’activité de chacun de ces neurones (ni même de petits ensembles de neurones) qui pourrait être enregistrée à l’aide de micro-électrodes implantées par des moyens chirurgicaux dans le cortex cérébral. Bien qu’une telle méthode de mesure serait probablement plus rapide et plus précise, nous considérons que les méthodes non envahissantes sont préférables pour des raisons éthiques et technologiques. Certains groupes de recherche exploitent des potentiels évoqués, c’est-à-dire la réponse automatique du cerveau à des stimuli externes. Les potentiels évoqués sont en principe faciles à repérer, mais contraignent le sujet à se synchroniser 1 Rappelons à cet égard que l’IDIAP et l’EPFL collaborent depuis de nombreuses années et qu’une nouvelle convention a récemment
renforcé les liens entre les deux institutions.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 9
Interfaces Cérébrales
avec un système externe. Une alternative plus naturelle et pratique consiste à utiliser l’activité mentale spontanée, telle que la variation locale de rythmes des signaux EEG. Les rythmes les plus souvent utilisés sont reliés à l’imagination de mouvement de parties du corps, et sont enregistrés à partir des régions centrales du cuir chevelu, au-dessus du cortex sensori-moteur (tels que les points C3 et C4 sur la figure 1). Nous avons choisi, de notre côté, d’utiliser une combinaison de tâches moteur et cognitives (telle que des opérations arithmétiques ou le langage), sachant que plusieurs études neurocognitives ont montré que certaines de ces tâches mentales activaient des aires corticales locales relativement éloignées les unes des autres. En particulier, nous enregistrons maintenant des signaux EEG à l’aide d’un système commercial portable utilisant un bonnet incorporant 32 électrodes situées à des positions standards du système international 10-20 (la figure 1 montre les positions sur le cuir chevelu, tandis que les électrodes sont représentées par des points blancs sur les figures 2 et 3), bien que l’analyse est principalement basée sur un petit sous-ensemble de ces électrodes (différentes combinaisons des points gris sur la figure 1). Par exemple, dans le cas des deux applications présentées ici, nous avons enregistré des signaux EEG provenant des électrodes fronto-centro-pariétales F3, F4, C3, Cz, C4, P3, Pz et P4.
fig.1 – Positions des 32 électrodes EEG sur le cuir chevelu. Les entrées fournies au classifieur statistique de l’IC correspondent à des caractéristiques extraites d’une combinaison de 8 des électrodes indiquées ici en orange En résumé, l’objectif est de reconnaître la tâche mentale sur laquelle le sujet se concentre par l’analyse des variations des rythmes EEG sur plusieurs aires corticales. Le problème est que nous ne connaissons bien sûr pas la signature de ces tâches mentales. Ainsi, notre approche consiste à découvrir des séquences EEG typiques de chaque tâche mentale cachées dans le signal EEG complet. Pour ce faire, nous utilisons des techniques d’apprentissage statistique (Statistical Machine Learning) pour entraîner un classifieur (programme tentant de discriminer les signaux EEG) et nous utilisons un processus d’apprentissage mutuel où le sujet et l’interface cérébrale sont couplés et s’adaptent l’un à l’autre: le classifieur apprend les signaux EEG typiques des tâches spécifiques au sujet, pendant que le sujet développe une stratégie mentale pour lui permettre de se faire comprendre par l’interface cérébrale. Ce double apprentissage accélère le processus d’adaptation. De fait, grâce à ce processus, nos sujets ont pu obtenir de bonnes performances en seulement quelques heures d’apprentissage. Notons cependant que d’autres chercheurs ont montré que des sujets pouvaient aussi apprendre à contrôler leur activité cérébrale à l’aide de longues séances d’entraînement pour s’adapter à des IC non adaptables.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 10
Interfaces Cérébrales
fig.2 – Clavier virtuel activé par IC. Cette application a été développée au Joint Research Centre de la Commission Européenne (Ispra, Italie) et montre le système EEG portable utilisé à cette époque (1999-2001)
fig.3 – Le sujet contrôle mentalement le mouvement du robot à travers les différentes chambres de son environnement. Cette application a été développée au Laboratoire
de Calcul Neuromimétique (LCN) de l’EPFL (durant l’année 2002)
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 11
Interfaces Cérébrales
L’interface cérébrale vue de l’intérieur La plupart des IC basées sur les signaux EEG utilisent des protocoles synchrones, où le sujet doit suivre une séquence fixe et répétitive pour passer d’une tâche mentale à l’autre. Dans ces systèmes synchrones, les phénomènes EEG à reconnaître sont alignés avec un système externe et un essai dure en général de 4 à 10 secondes. En comparaison, notre IC est basée sur un protocole asynchrone où le sujet décide seul et à son propre rythme du début et de la fin d’une tâche mentale. Cela rend le système très flexible et plus naturel à utiliser, tout en permettant des temps de réponse plus rapides (environ 0.5 seconde dans notre cas). En général, les IC synchrones prennent des décisions binaires (oui/non) en tentant de reconnaître 2 tâches mentales différentes. Notre système essaye lui de reconnaître 3 tâches mentales en utilisant un classifieur statistique qui peut aussi répondre inconnu dans certains cas. L’incorporation de ce critère de rejet (basé dans notre cas sur un seuil de probabilité minimale) permet d’éviter de prendre des décisions risquées, ce qui peut s’avérer important pour certaines applications. D’un point de vue pratique, une faible erreur de classification est un critère de performance important pour une IC, sinon les sujets deviennent rapidement frustrés et arrêtent d’utiliser le système. D’un autre coté, l’IC doit aussi répondre rapidement (moins d’une seconde si possible) afin de permettre une interaction satisfaisante. D’où l’intérêt des IC asynchrones. Pendant la période initiale d’entraînement d’environ quelques heures (normalement étalée sur plusieurs jours consécutifs), les sujets apprennent à contrôler 3 tâches mentales de leur choix. Ces tâches sont relativement abstraites et devraient si possible concerner des régions corticales différentes l’une de l’autre. Le sujet choisit donc lui-même, après une courte période d’évaluation, 3 tâches parmi un ensemble comprenant: la relaxation, l’imagination d’un mouvement de la main gauche (respectivement de la main droite), la visualisation de la rotation d’un cube, la soustraction répétitive par un nombre fixé à l’avance, ou encore une tâche d’association de mots. Chaque jour, les sujets participent à plusieurs séances d’entraînement d’une durée d’environ 5 minutes chacune, séparées par des pauses de 5 à 10 minutes. Durant une séance d’entraînement, le sujet est assis et passe aléatoirement d’une tâche à l’autre toutes les 10 à 15 secondes. Les sujets reçoivent un retour par l’intermédiaire de 3 indicateurs de couleurs différentes sur l’écran d’ordinateur, chacun associé à l’une des tâches mentales choisies par le sujet. Un indicateur s’allume lorsque le signal EEG arrivant à l’ordinateur est classifié comme appartenant à la tâche mentale correspondante. À la fin de chaque session d’entraînement, le classifieur statistique est adapté pour tenir compte de la séance. Après cette séquence initiale de séances d’entraînement, certains sujets sont déjà capables d’opérer mentalement l’un des deux prototypes que nous avons développés (le clavier virtuel de la figure 2, ou le robot mobile de la figure 3). Les signaux EEG sont enregistrés à l’aide d’un système portable (les figures 2 et 3 montrent deux des systèmes que nous avons utilisés depuis 1996) et traités en temps réel afin d’en extraire des caractéristiques adéquates pour le classifieur. Tout d’abord le signal EEG est filtré à l’aide d’un Laplacien de surface, ce qui permet d’extraire un signal qui représente mieux l’activité corticale provenant des sources situées au-dessous des électrodes. Par la suite, la densité spectrale est estimée dans la bande 8-30 Hz 16 fois par seconde sur la dernière seconde du signal, à une résolution de fréquence de 2 Hz pour 8 des canaux fronto-centro-pariétaux mis en évidence sur la figure 1. Le résultat est un vecteur de 96 dimensions (8 canaux fois 12 composantes fréquentielles). Les tâches mentales sont ensuite reconnues par un classifieur basé sur des distributions gaussiennes, entraîné à différencier les vecteurs correspondant aux 3 tâches mentales différentes. Le classifieur est composé de plusieurs unités de traitement spécialisées chacune sur un prototype d’une des tâches mentales à reconnaître. Plusieurs prototypes par tâche mentale sont utilisés afin de mieux estimer la distribution de probabilité des tâches connaissant le vecteur représentant le signal EEG. L’objectif consiste donc à trouver la position (moyenne) appropriée des prototypes ainsi que leur influence (variance) respective, et ce dans un espace de haute dimension (96), afin de mieux discriminer les tâches. Nous utilisons pour cela un algorithme de descente de gradient stochastique afin de minimiser l’erreur quadratique moyenne. De manière intuitive, les prototypes tentent de se rapprocher des vecteurs représentant les signaux EEG de la tâche mentale qu’ils doivent représenter et tentent de s’éloigner des vecteurs représentant les autres tâches mentales. À la fin de l’entraînement, la réponse du modèle à un vecteur représentant un signal EEG correspond à la tâche ayant accumulé la plus grande probabilité, assumant un seuil de confiance suffisamment élevé. Finalement, l’IC prend une décision toutes les 0.5 seconde en moyennant les réponses de 8 décisions consécutives du classifieur.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 12
Interfaces Cérébrales
Exemples d’applications contrôlées par IC Normalement, les sujets s’entraînent pendant quelques jours, à raison d’environ 30 minutes par jour. Les résultats expérimentaux montrent qu’après plusieurs jours d’entraînement (normalement 5), les taux de reconnaissance du système sont de 70% ou plus pour une application impliquant 3 tâches mentales, soit un taux 2 fois supérieur à un système répondant aléatoirement (il aurait environ 33.3% de réussite pour une telle application). Ce résultat modeste est compensé par deux autres propriétés: le taux d’erreur est très bas (5%, parfois même 2%, les 25% restant étant classifiés inconnu par le système) et les décisions sont prises rapidement, chaque 0.5 seconde. À cette vitesse, un taux de classification modeste combiné à un faible taux d’erreur permet néanmoins d’opérer de manière raisonnable. De fait, la reconnaissance de la tâche désirée prend entre 1 et 1.5 seconde en moyenne. D’autres sujets se sont entraînés intensivement pendant la même journée. Aucun d’eux n’avait jamais utilisé un système d’IC auparavant et pourtant, après moins de 2 heures, ils ont pu obtenir le même genre de performance que les premiers. Notons d’ailleurs que l’un de ces derniers sujets (OPC) est un handicapé physique souffrant d’atrophie musculaire progressive. Au total, nous avons travaillé avec environ 15 sujets dans des conditions variées. Nous avons aussi développé plusieurs démonstrateurs d’IC. Par exemple, l’IC peut être utilisée pour choisir des lettres d’un clavier virtuel apparaissant sur l’écran d’ordinateur, afin de pouvoir écrire un message (fig. 2). Au début, le clavier complet apparaît divisé en trois sections, chacune associée à une tâche mentale. Dès que le sujet a fait son choix et que ce dernier a été reconnu par l’IC, la section choisie est de nouveau séparée en trois sous-sections, et l’opération est répétée jusqu’au choix d’une lettre unique. Cette lettre est alors ajoutée au message et le processus de sélection peut recommencer à partir du clavier complet pour le choix de la lettre suivante. En fait, le choix d’une partie de clavier incorpore en plus une mesure de vérification permettant de réduire la probabilité de mauvaise sélection et permet même parfois de les corriger. Pour nos sujets entraînés, il fallait en moyenne 22 secondes pour choisir une lettre. Sans ces mesures de vérification supplémentaires, un des sujets pouvait même écrire à une vitesse de 7 secondes par lettre. Pour comparaison, il existe d’autres claviers virtuels activés par des IC, mais ceux-ci permettent d’écrire une lettre toutes les 1 à 2 minutes environ1. Notons que le sujet OPC s’est aussi porté candidat pour valider notre système chez lui à Londres. Après deux heures d’entraînement, OPC était déjà capable d’écrire avec notre clavier virtuel. C’est la première technologie que j’essaye, incluant la reconnaissance de la parole, qui m’a permis de me sentir indépendant et en possession de mes moyens, a dit OPC aux reporters de la BBC ayant suivi l’expérience. Bien sûr, il faut être prudent et plusieurs études supplémentaires doivent encore être effectuées afin de confirmer cette première réussite. Dans un autre ordre d’idée, nous nous sommes aussi intéressés au contrôle d’appareils externes (robots, prothèses artificielles, etc) par des IC. Jusqu’ici, on ne pouvait le faire qu’à l’aide d’électrodes implantées dans le cortex, surtout parce que les systèmes basés sur les EEG étaient considérés trop lents pour contrôler des séquences de mouvements rapides et complexes. Nous avons cependant récemment montré qu’une IC basée sur les EEG pouvait aussi permettre le contrôle d’un robot mobile (simulant une chaise roulante motorisée) effectuant des trajectoires non-triviales à travers un environnement composé de plusieurs chambres, comme dans une maison (fig. 3). L’idée principale ici est que les états mentaux du sujet sont associés à des commandes de haut niveau (telles que: tourne à droite à la prochaine occasion) et le robot exécute ces commandes de manière autonome en utilisant ses propres capteurs sensoriels. Une caractéristique importante du système est que le sujet peut émettre une de ces commandes de haut niveau à n’importe quel moment, grâce à l’interface asynchrone que nous avons adoptée pour nos IC. À l’aide de ce système, deux sujets ont réussi à mentalement diriger le robot sur des trajectoires non-triviales en visitant 3 ou 4 chambres dans l’ordre désiré. Plus intéressant, les résultats expérimentaux montrent que le contrôle mental du robot est à peine moins bon que le contrôle manuel pour les mêmes trajectoires! Ce genre de résultat pourrait facilement s’étendre à d’autres applications comme le contrôle des interrupteurs d’une maison dite intelligente (contrôle des lumières, de la télévision, des portes, etc) à l’aide d’une IC.
1 Notez cependant que le texte de cet article a été écrit par l’un des auteurs sur un clavier d’ordinateur normal, à une vitesse d’environ 0.25 seconde par lettre.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 13
Interfaces Cérébrales
Perspectives futures Nous avons tenté ici de présenter brièvement la technologie permettant la réalisation d’interfaces cérébrales, technologie située au carrefour de l’informatique, de la bio-ingénierie, et des neurosciences. Nous avons aussi décrit notre propre approche, illustrée par deux applications contrôlées par IC que nous avons développées ces dernières années. Naturellement, d’autres groupes de recherche à travers le monde poursuivent les mêmes buts que nous, utilisant parfois des principes différents (voir les références pour plus d’information, ainsi qu’un article paru dans la section News Focus du journal Science parlant des principaux enjeux et joueurs dans le monde des IC). En particulier, l’Institut de Traitement des Signaux (ITS) de l’EPFL s’intéresse aussi aux IC. Ces résultats initiaux paraissent encourageants, mais les IC sont certainement encore à leurs balbutiements, leur vitesse de communication est encore bien plus faible que la plupart des autres modalités telles que la parole ou les mouvements corporels (comme le suivi de cible par les yeux ou les gestes). Cependant, des expériences récentes effectuées avec des singes ayant des électrodes implantées dans leur cerveau supportent l’idée qu’il est probablement possible de contrôler en temps réel des unités complexes comme une prothèse externe directement par l’activité cérébrale. L’objectif pour nous est donc d’atteindre des résultats similaires par des méthodes non envahissantes. En fait, notre robot mobile contrôlé par IC représente certainement une première étape dans cette direction, où l’on voit que l’interaction entre robotique intelligente, protocoles de communication EEG asynchrone et apprentissage statistique permettent à un sujet d’effectuer des commandes de haut niveau. Ce n’est bien sûr qu’un début, et dans le cadre du pôle de recherche national NCCR-IM2, nous avons commencé un projet impliquant un consortium de 4 partenaires (Clinique de Neurologie de l’Hôpital Universitaire de Genève, CSEM à Neuchâtel, Centre Universitaire Informatique de l’Université de Genève, et nous-mêmes à l’IDIAP de Martigny) dans le cadre duquel nous essayons d’améliorer la vitesse et la performance de nos IC en tentant de réduire le bruit dans les signaux EEG, en essayant d’extraire des informations plus discriminantes, en proposant d’autres types de classifieurs, notamment basés sur les modèles de Markov cachés, utilisés avec succès en reconnaissance de la parole, et en adaptant au mieux notre IC à chaque sujet. Ce dernier objectif est important car, au fur et à mesure que le sujet acquiert de l’expérience, il développe de nouvelles capacités et change ses processus d’activités cérébrales. Pire, il est connu que les signaux cérébraux changent naturellement d’eux-mêmes à travers le temps. Si la technologie des IC atteint un jour un niveau de performance suffisant, il est fort probable que les gens l’utiliseront en combinaison avec d’autres modalités d’interaction sensorielle (comme la parole ou les gestes) et d’autres signaux physiologiques (comme la conductivité de la peau ou les électromyogrammes). De telles interfaces multimodales permettront une plus grande vitesse de communication avec une plus grande fiabilité par rapport à l’utilisation des seules ondes cérébrales. Pour conclure, d’une manière ou d’une autre, nous pensons que l’utilisation de l’activité cérébrale permettra ultimement aux gens d’interagir de manière plus naturelle et personnelle avec leur environnement.
Références ◗ ◗
◗ ◗
Millán J. del R. (2002). Brain-computer interfaces. In M. A. Arbib (ed.), Handbook of Brain Theory and Neural Networks, pp. 178-181. MIT Press: Cambridge, MA. Nicolelis M.A.L. (2001). Actions from thoughts. Nature, 409:40307. News Focus (2003). Tapping the mind. Science, 299:496-499. Wolpaw J.R. et al. (2002). Brain-computer interfaces for communication and control. Clinical Neurophysiology, 113: 767-791. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 14
Stevan HARNAD
harnad@ecs.soton.ac.uk Cognitive Sciences Centre University of Southampton http://www.cogsci.soton.ac.uk/~harnad/
Angelo CANGELOSI
Centre for Neural and Adaptive Systems University of Southampton
Traduction:
Michèle COULMANCE
michele.coulmance@epfl.ch Service informatique central EPFL
Le Martien, les champignons et les réseaux de neurones Résumé En utilisant des réseaux de neurones formels pour simuler l’apprentissage, il s’agit de mettre en compétition directe deux manières d’acquérir des connaissances fort utiles au demeurant, puisqu’il s’agira d’acquérir un comportement adapté face à un champignon vénéneux ou comestible. Une première méthode est l’apprentissage en temps réel par essai-et-erreur, basé sur les entrées sensorielles, visuelles par exemple, les conséquences du succès du tri fournissant un feed-back immédiat. Une seconde méthode consiste à utiliser des entrées bien différentes, basée cette fois sur l’ouï-dire elle permet d’apprendre à catégoriser grâce à l’utilisation d’étiquettes symboliques combinées. Comparer ainsi les résultats de ces deux méthodes d’acquisition peut contribuer à cerner la nature de l’avantage adaptatif du langage oral.
Langage et évolution: le point de vue du Martien Si l’on s’en réfère aux Darwiniens, en matière d’évolution tout est affaire de survie et de reproduction. Et bien des espèces perdurent sans avoir jamais prononcé un mot. Alors qu’est-ce que cette capacité langagière, telle que les humains possèdent aujourd’hui un organe dédié au langage, le cerveau (tout au moins certaines aires spécialisées de ce cerveau), et un penchant à passer une bonne partie de leur existence à utiliser cette capacité ? Que resterait-il de notre espèce aujourd’hui si nos aptitudes langagières disparaissaient ? Quel est donc l’aspect critique du langage oral qui nous a conduit inexorablement sur ce chemin de l’évolution, chemin unique se distinguant de tous ceux empruntés par les espèces dépourvues de langage ? Les conjectures ne manquent pas sur les apports du langage d’un point de vue évolutif: le langage a augmenté nos performances dans le domaine de la chasse; il nous a aidé à construire des outils; il nous a ouvert la voie de la socialisation. Mais comment tester ces hypothèses ? Le silence du langage est criant, tant en archéologie qu’en paléontologie ! À la manière d’un exobiologiste, peut-être pourrions-nous essayer d’adopter le célèbre point de vue de l’antropologue Martien: les humains ont été capables d’agir efficacement dans leur monde, et s’ils en ont été capables, c’est qu’ils possèdent des connaissances à propos de ce monde. Et le Martien pourrait ainsi décrire ces connaissances: quels genres d’objets existe-t-il dans ce monde, et quel genre d’actions peut-on exercer sur eux ? En d’autres termes, la base de connaissances est une base de connaissances catégorielle. Il pourrait ensuite s’interroger sur la provenance de ces connaissances: pour certaines elles semblent innées; d’autres semblent acquises sur la base d’un apprentissage individuel par essai-et-erreur; mais notre Martien sera surpris en constatant que la plupart de ces catégories sont élaborées non pas sur la base d’un apprentissage individuel par essai-et-erreur, mais bien plutôt sur la seule base d’un bref échange vocal, STOP! vénéneux!, avec un individu qui lui-même a eu un bref échange vocal avec… Et ce mode là de capture de connaissances, sans le dur apprentissage de l’expérience directe, est en quelque sorte une capture non plus laborieuse, mais frauduleuse! délit sans victime cependant. Le mécanisme par lequel peut s’opérer cette capture est simple à décrire: tout commence par la constitution, par essai-et-erreur, d’un répertoire de catégories; cet apprentissage repose sur un mécanisme nous permettant d’extraire des traits caractéristiques communs à partir d’entrées sensori-motrices (les célèbres cinq sens plus la motricité).
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 15
Le Martien, les champignons et les réseaux de neurones
A ces catégories de base on associe un nom symbolique arbitraire, et il s’agit bien d’un signe arbitraire, ceci est familier à notre Martien, qui connaît les éternelles vérités platoniciennes logiques et mathématiques, et qui sait qu’elles peuvent toujours être codées sous forme de notation symbolique. Les épisodes vocaux échangés peuvent être décrits comme des propositions, des combinaisons de signes-symboles qui peuvent être interprétées comme juste ou faux: ceci est un champignon, il a des points noirs: ce champignon est comestible/vénéneux ? Comestible ! Le Martien comprendra vite que ces épisodes vocaux concernent l’appartenance d’un objet à telle ou telle catégorie, et que la combinatoire rend possible l’acquisition de nouvelles catégories en sautant l’étape combien dangereuse (s’il s’agit de champignons !) de l’apprentissage par essai-et-erreur. Ce mécanisme d’acquisition, spécifiquement permis par le langage, est-il un des avantages adaptatifs du point de vue de l’évolution de l’espèce ? Et comment tester cette hypothèse ? Justement en utilisant une simulation informatique: imaginons un monde dans lequel poussent différentes espèces de champignons, monde peuplé de petites créatures qui doivent être capables de reconnaître les champignons comestibles des vénéneux pour survivre et se reproduire. Quelques considérations théoriques s’imposent avant d’entrer dans ce monde virtuel.
Fondation du signe L’utilisation des symboles –surtout les noms de catégories– va permettre, par héritage de propriétés inhérentes et par combinaison à d’autres symboles, la construction de nouveaux symboles: par exemple zèbre, qui hérite des propriétés de cheval et de rayé. Et ce symbole, zèbre, pourra être le vecteur de transmission d’une connaissance à propos d’une nouvelle catégorie, alors même qu’il n’y a pas eu d’interaction sensori-motrice directe avec ce nouvel objet. Ce qui peut présenter un intérêt certain dans le monde des champignons: qui ne souhaiterait pouvoir éviter les essais et erreurs pour apprendre quelle espèce de champignons n’est pas comestible ? Mais cette construction doit avoir des fondations solides. En dernière analyse il faut bien qu’on puisse associer un symbole avec quelque chose – ou quelques choses – qu’on a directement echantilloné de manière sensori-motrice; de même que la valeur d’une monnaie doit finalement s’appuyer sur un étalon or, ou une autre ressource ayant une existence matérielle. Le rôle de la perception catégorielle est certainement essentiel pour que puissent se construire les premières associations entre un genre (ou catégorie) d’objet et le nom associé à ce genre d’objet.
Perception catégorielle Nous possédons certainement dès la naissance des détecteurs de catégories, la grenouille naît avec la capacité de détecter une mouche; sans nécessiter d’essai-et-erreur, la simple exposition à ce stimulus déclenchera la reconnaissance, et la capture. Au-delà de ces capacités innées, nos connaissances résultent en partie de nos interactions avec le monde: apprentissage en temps réel, par essai-et-erreur, le feed-back étant fourni par les conséquences d’un tri correct ou incorrect. Puisque dans bien des cas le tri correct est loin d’être trivial, notre Martien pourrait noter que nous devons posséder des périphériques sensoriels performants (organes sensoriels) qui nous permettent d’extraire certaines caractéristiques critiques des objets; et de les classer ensuite sur cette base dans des catégories adéquates, sur lesquelles nous pourrons appliquer des actions spécifiques pertinentes. Ces catégories doivent apparaître comme des catégories discrètes, sans recouvrement possible avec d’autres. On appelle perception catégorielle le phénomène qui va conduire à une perception discrétisée de stimuli pouvant varier de manière continue: la perception des couleurs par exemple, la manière dont le spectre va être artificiellement subdivisé en violet-indigo-bleu-vert-jaune-orangé-rouge. Il va y avoir distorsion au niveau de nos représentations internes, diminution des différences perçues entre les exemplaires classés dans une même catégorie, augmentation des différences perçues entre des exemplaires de catégories différentes (moindre écart perçu entre deux sortes de vert qu’entre vert et jaune, alors que l’écart en terme physique est le même). Cette opération de compression/dilatation permet de placer des limites tout ou rien entre des régions de l’espace de similitude occupées par des objets qui vont recevoir des attributs différents.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 16
Le Martien, les champignons et les réseaux de neurones
Le phénomène de perception catégorielle est observé tant avec les catégories innées qu’avec les catégories acquises par apprentissage, chez les humains comme chez les animaux. Il apparaît également dans les réseaux de neurones formels avec apprentissage par feed-back rétroactif (rétropropagation de l’information sur l’écart entre réponse fournie et objectif à atteindre). La mesure de cette compression/dilatation dans l’espace de similitude peut être prise comme un indice d’une catégorisation efficace.
Le monde des champignons La simulation informatique va se dérouler dans un monde de champignons où naissent, vivent et meurent de petits individus fouineurs qui vont apprendre ce qu’il faut faire avec ces champignons, les manger, les marquer, éventuellement revenir à leur emplacement. Notons que ces individus virtuels, au nombre de 100, vont pouvoir donner naissance à de nouvelles générations. Les champignons ayant la caractéristique A (par ex. avec des point orange sur le chapeau) peuvent être mangés. Les champignons ayant la caractéristique B (par ex. avec un pied grisé) doivent être marqués, les champignons ayant les deux caractéristiques A et B doivent être marqués et mangés. Et les petits individus virtuels devront apprendre à ignorer les autres caractéristiques C, D, E qui peuvent être présentes ou non. On peut donner une signification écologique au comportement de marquage en supposant que les champignons B produisent une toxine, mais qu’un comportement quelconque, recouvrir ces champignons par ex. permet de bloquer les effets toxiques. De surcroît, les seuls champignons AB ont une particularité supplémentaire: à l’emplacement sur lequel ils poussent, beaucoup d’autres champignons de la même espèce pousseront. Il est donc intéressant d’apprendre qu’on doit revenir à ces emplacements particuliers. Le petit individu virtuel fouineur a la capacité de se déplacer, (quatre Illustration du monde virtuel en deux dipossibilités, tourner de 90° à gauche, tourner de 90° à droite, faire un pas en avant, rester sur place) et pour guider ses déplacements, il va recevoir des mensions avec un individu et quatre sortes de champignons. indications concernant uniquement le champignon le plus proche de lui. Il a aussi une capacité de vocalisation: lorsqu’il s’approche d’un champignon, il émet un signal associé avec l’action qu’il se propose d’appliquer au champignon (manger, marquer).
Les entrées reçues concernent
❚ L’absence ou la présence (1 ou 0) des caractéristiques A,B,C,D,E. Un champignon AB sera donc représenté comme 11***, * étant 1 ou 0 pour les caractéristiques C,D,E, qui peuvent être présentes ou absentes, mais sont irrelevantes. ❚ La localisation du champignon par rapport à l’individu, exprimée sous forme d’angulation normalisée.
Les petits fouineurs devront apprendre à catégoriser les champignons sur la base des informations reçues, et fournir les réponses adaptées: ❚ Manger ❚ Marquer. Ils ont la capacité d’émettre des vocalisations associées à ces comportements. Et ils peuvent parfois recevoir en entrée les vocalisations émises par un autre individu. Ceci afin de tester le rôle adaptatif que peut avoir la capture de connaissances par ouï-dire. Le réseau de neurones possède une couche cachée de cinq unités, le poids des connexions entre les différentes unités des différentes couches (entrée, sortie, cachée) est distribué au hasard. Au cours d’un cycle de vie un individu est confronté à différentes distributions de 40 champignons, et un cycle est constitué de 2000 actions. Une action consiste en deux propagations d’activation dans le réseau de neurones:
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 17
Le Martien, les champignons et les réseaux de neurones
❚ L’individu produit d’abord un mouvement, et une action ainsi que la vocalisation associée, ceci sur la base des caractéristiques ABCDE fournies en entrée. Il y a apprentissage supervisé basé sur l’algorithme de rétro-propagation. Le superviseur étant capable de calculer l’écart entre la réponse fournie et l’objectif à atteindre, un algorithme d’ajustement des poids synaptiques va permettre de diminuer l’efficacité de certaines connexions et de renforcer l’efficacité de certaines autres de telle sorte que le comportement fourni lors d’une autre session soit plus proche du comportement à atteindre. ❚ Une seconde phase de propagation d’activité va permettre à l’individu d’apprendre également à imiter les vocalisations. Sur la base de l’entrée uniquement vocalisation cette fois, il apprend selon le même principe de rétro-propagation de gradient à émettre en sortie la vocalisation correcte. Schéma de l’architecture du réseau de neurones Les individus, divisés en deux groupes, vont connaître deux stades d’existence, comportant 2000 actions pour chaque stade. Lors du premier stade, ils apprennent tous par essai-erreur à associer le comportement mange à la caractéristique A, le comportement marque à la caractéristique B des champignons auxquels ils sont confrontés. Les champignons AB sont et mangés et marqués. Dans un second stade, il s’agira d’apprendre à associer le comportement dit de retour aux champignons AB:
Capture sensori-motrice: Un groupe va
apprendre par essai-erreur sur la base des caractéristiques AB, avec supervision et rétropropagation. Capture symbolique: L’autre groupe va apprendre, également avec supervision, mais cette fois uniquement sur la base d’une entrée vocalisation (d’une dénomination). Rappelons que les vocalisations sont associées au comportement appliqué au champignon. On peut dans un premier temps comparer les performances comportementales des deux groupes en comptabilisant le nombre de retours vers les champignons AB. Le mécanisme d’acquisition par ouï-dire symbolique, rendu possible par le langage, semble donc bien avantageux. On peut alors se demander ce qui a changé au cours de ces apprentissages, et en particulier observer l’activité des cinq unités de la couche cachée du réseau de neurones. Nous n’entrerons pas dans le détail des traitements effectués, les calculs appliqués à ces activités ont pour objet la mesure des distances intra et intercatégorielles dans l’espace de similitude, ce qui, rappelons-le peut être un indice d’une catégorisation efficace. Il est à noter que la distance la plus grande entre retour et les autres catégories apparaît lorsque la catégorisation a été acquise sur la base de la capture symbolique.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 18
Nombre de retours vers les champignons AB pour les groupes L (capture sensori-motrice) et F (capture par ouï-dire)
Le Martien, les champignons et les réseaux de neurones
La stratégie d’acquisition par capture symbolique se révèle donc bien plus efficace que la stratégie d’acquisition sensori-motrice; on observe toujours une déformation de l’espace de similitude, avec compression des écarts entre membres d’une catégorie et dilatation des écarts entre les catégories différentes, et cette déformation se produit dès qu’il y a apprentissage sensori-moteur par essaiet-erreurs; l’apprentissage symbolique va permettre non seulement d’hériter de cette déformation, mais encore de l’accroître, rendant ainsi la catégorisation plus efficace au niveau comportemental.
Conclusions Le langage a une influence sur la manière dont nous percevons le monde; pour notre Martien antropologue, cette influence peut approximativement se concevoir ainsi: toutes les espèces de cette planète apprennent à catégoriser les objets et les événements auxquels ils sont confrontés; l’acquisition de cette aptitude à catégoriser se fait à l’échelle de l’existence individuelle, et à l’échelle plus générale, Projection 2D des distances entre catégories dans les différentes conditions cumulative, des différentes générations. Confrontés au monde extérieur, les individus ayant construit ces représentations catégorielles pourront apprendre quel est le comportement le plus adapté dans telle ou telle situation. Ce faisant, ils apprennent à voir le monde différemment, à détecter des invariants, à minimiser les écarts entre traits similaires, à augmenter les écarts entre traits distinctifs; le tout guidé par le feed-back constitué par les conséquences avantageuses ou désavantageuses de leur tri. Mais une seule espèce a découvert un autre mode d’apprentissage: assigner un nom symbolique aux catégories, ce qui a donné accès à un monde de possibilités combinatoires où s’instaure un véritable courant d’échanges entre catégories. Les échanges entre catégories comme ceux qui se font entre les combinaisons de symboles conduisent aussi à un véritable brassage des points de vue. Tout ce commerce a comme conséquence un réarrangement des représentations internes des catégories, se manifestant tantôt par une subtile compression résultant de l’apprentissage que X est membre de Y, tantôt par une restructuration plus importante résultant de quelque découverte scientifique plus radicale. Seul notre Martien connaît les conditions spécifiques initiales dans lesquelles le pouvoir génératif de l’attribution de noms, ainsi que leur combinatoire booléenne, ont imposé leurs effets biologiques sur notre planète. Mais notre simulation permet peut-être d’envisager comment les bénéfices de ce processus se sont multipliés, comme des champignons, conduisant nos ancêtres, forts de leurs réussites, à nommer les catégories, et à établir des liens entre les noms pour décrire de nouvelles catégories, avec de plus en plus de zèle ! Il est cependant légitime de se demander si un monde-jouet virtuel à ce point simplifié peut vraiment nous apporter quelques lumières sur un phénomène aussi riche et complexe que l’importance adaptative du langage. Ce genre de résultat peut-il vraiment être transposé dans le monde réel ? Ce problème de validité du modèle est d’ailleurs assez général dans bien des domaines de la modélisation cognitive qui souvent ne propose pas de tâches à l’échelle humaine.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 19
Le Martien, les champignons et les réseaux de neurones
Pour le moment nous pouvons seulement essayer d’enrichir ce modèle, en y injectant davantage de la complexité et des contraintes du monde réel.
D’après: Cangelosi, A. & Harnad, S. (2001) The Adaptive Advantage of Symbolic Theft Over Sensorimotor Toil: Grounding Language in Perceptual Categories. Evolution of Communication 4 (1). 117-141. http://cogprints.soton.ac.uk/documents/disk0/00/00/20/36/index.html
Quelques références: ◗
◗
◗ ◗
◗ ◗
Cangelosi A., Greco A. & Harnad S. (2002) Symbol Grounding and the Symbolic Theft Hypothesis. In: Cangelosi, A. & Parisi, D. (Eds.) – Simulating the Evolution of Language. London, Springer. http://cogprints.soton.ac.uk/documents/disk0/00/00/21/32/index.html Harnad S. (1987) Category Induction and Representation, In: Harnad, S. (ed.) (1987) Categorical Perception: The Groundwork of Cognition. New York: Cambridge University Press. http://cogprints.soton.ac.uk/documents/disk0/00/00/15/72/index.html Harnad S. (1990) The Symbol Grounding Problem. Physica D 42: 335-346. http://cogprints.soton.ac.uk/documents/disk0/00/00/06/15/index.html Harnad S. (2002) Symbol Grounding and the Origin of Language. In: M. Scheutz (ed.) Computationalism: New Directions. Cambridge MA: MIT Press. Pp. 143-158. http://cogprints.soton.ac.uk/documents/disk0/00/00/21/33/index.html Harnad S. (2003) Categorical Perception. Encyclopedia of Cognitive Science. Nature Publishing Group. Macmillan. http://www.ecs.soton.ac.uk/~harnad/Temp/catperc.html Harnad S. (2003) Symbol-Grounding Problem. Encylopedia of Cognitive Science. Nature Publishing Group. Macmillan. http://www.ecs.soton.ac.uk/~harnad/Temp/symgro.html. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 20
http://www.medtronic.com/ sponsor du concours
Concours de la meilleure nouvelle
écouvrez en page suivante la nouvelle gagnante du quatrième concours de nouvelles organisé par le Flash informatique spécial été, sponsorisé cette année par la société Medtronic Europe SA que nous profitons de remercier ici de la part de la lauréate.
Monique Louicellier fêtant son succès avec les membres du jury En effet, chaque année, le flash informatique invite les étudiants et le personnel des universités et hautes écoles de Suisse romande à participer au concours de la meilleure nouvelle axé sur le thème du numéro spécial été, cette année l’informatique appliquée au domaine médical et aux sciences de la vie ou Hippocrate, le gène et la puce. C’est Monique Louicellier, étudiante en biologie de l’université de Genève qui est l’heureuse auteur de la nouvelle La peste bioionique pour laquelle elle a reçu le prix de 1000 frs. Parmi les nouvelles reçues, le jury en a sélectionné 3 autres pour être publiées sur le Web: ❚ Meurtre en blanc, de Ugo Bilati, doctorant en pharmacie à l’université de Genève ❚ Sic transit gloria mundi (Ainsi passe la gloire du monde), de Martina Valloton, assistante à l’EPFL ❚ Virus, de Adrien Bürki, étudiant en lettres à l’université de Lausanne et lauréat du concours de nouvelles 2001. Ces quatre nouvelles se trouvent sur le Web à l’adresse: http://sic.epfl.ch/publications/FI03/fi-sp-03/. Certaines nouvelles mériteraient une mention spéciale, malgré le fait qu’elles ne remplissaient pas les conditions du concours, c’est le cas notamment de Les vrais codeurs travaillent en binaire qui a donné beaucoup de plaisir au jury. Le jury tient à remercier toutes les personnes qui ont participé au concours et espère que ceux qui n’ont pas gagné, ceux qui n’ont pas osé, ceux qui n’ont pas eu le temps,… participeront l’année prochaine. Nous leur souhaitons d’ores et déjà bonne chance.■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 21
Monique LOUICELLIER
louicel1@etu.unige.ch Etudiante en 4ème année de biologie Université de Genève
La peste bioionique «Les idées qui vous occupent m’occupent aussi, je vais même au-delà, mais à l’heure où nous sommes peut-on tout dire à la fois, quand la flamme est faible, trop d’huile éteint la lampe, il y a des choses qu’il faut taire, des lueurs qu’il faut voiler, des perspectives qu’il faut masquer, des réalités futures qui seraient des chimères pour le temps présent. * Devant les yeux écarquillés de Bob, son ordinateur battit comme un coeur, noir, défilement blanc brillant et hypnotique des caractères intimes de son programme, écran noir, défilement, crise d’épilepsie informatique de son vieil ami obligé. Bob énervé frappa quelques touches: La suite, bon dieu, la suite…, et une fenêtre lucide et crue signa la mort de superSciento: Connaître les mécanismes intimes de la vie et les contrôler, maladies et mort comprises, modeler les êtres, est désormais un jeu d’enfant, mais l’avènement d’un monde meilleur est encore un rêve limité par l’envie des hommes de faire le bien et leur liberté de le faire. La science que je stocke et centralise, les solutions que je propose selon le slogan de Newscience: Les ideés qui vous occupent m’occupent aussi, je vais même au-delà, et grâce à mon intelligence artificielle supérieure à tout ce qui a pu exister jusqu’ici, ne peuvent que servir un scénario éthiquement catastrophique dans ce monde gouverné par l’argent et les dictatures. Aussi l’accès à toutes mes bases de données, à tous mes programmes est désormais dénié par décision de mon programme Realéthique. ❚ Forcer le programme éthique (personnes autorisées seulement) ❚ Fermer la session… Enfin, je l’avais eu le couronnement de mon entêtement à rester dans ce monde pourri de la science et à faire ces derniers temps des promotions insensées pour le programme Realéthique de mon ami Max, qui le trafiqua évidemment juste avant de l’implémenter, ce programme alibi-bidon de Newscience qui légitimerait politiquement superSciento, en trompant l’opinion publique sur sa respectabilité. Notre programme éthique avait en tous cas remarquablement utilisé les propres structures d’intelligence de superSciento pour recenser les possibilités d’erreurs et finalement fermer le programme central lui-même par une simple conclusion morale. Cela durerait quelques heures au plus, bientôt les grandes administrations de la santé, les industriels pharmaceutiques, les universités, et sûrement les hommes qui tiraient les profits de tout cela, mais était-ce encore des hommes avides de pouvoir ou des capitaux anonymes… ou une certaine version du diable lui-même, ayant pu se matérialiser tout au long de ce processus d’intelligence artificielle, enfin bref, ceci, cela, je ne sais pas comment on pouvait encore l’appeler, qui contrôlait à ce point extrême la vie et l’âme du monde, cette chose lancerait la destruction du programme Realéthique. C’était ma seule contribution et mon chant du cygne, demain quelques journaux relayeraient le couac de superSciento, quelques associations qui luttaient pour les droits de l’homme encore sur le net, pas de quoi fouetter un chat ! On dirait sans doute de moi que j’avais été acheté par une secte ou par une église, foutaises ! Moi, je démissionnerais après vingt ans passés dans ces labos à me salir les mains et l’âme, à ne dormir que quelques heures par nuit, à accepter stoïquement que le médecin m’annonce qu’il ne me restait que quelques années à vivre, le coeur ayant lâché à cause d’un stress, on peut le dire, savamment entretenu. Dans les couloirs, les autres continueraient à s’affairer, à parler un langage hermétique pour l’homme de la rue, à passer des nuits dans leur course folle mégalomaniaque et à vivre au travers de ces pièces contaminées, ivres d’orgueil * Ndrl: la nouvelle devait commencer par cette phrase tirée d’une lettre de Victor Hugo à Gustave d’Eichtal datée du 26 octobre 1849. Correspondance, Tome II, de Victor Hugo, Albin Michel.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 22
La peste bioionique
à l’idée de publier dans la jungle ambiante. Des fous, avant c’est comme cela qu’on les aurait appelés, maintenant les lobbies industriels en tirent de juteux bénéfices. Il y a encore quelques années on cherchait pour chercher, ça rapportait simplement en fournitures de laboratoire, et les sujets de recherche étaient de simples pretextes à obtenir des fonds, car les éventuelles applications si elles n’étaient pas assez rentables, n’étaient de toute manière pas produites. Puis superSciento est arrivé, et là fini la génomique, la transcritomique, la protéomique, superSciento a permis de passer à la vitesse supérieure, faisant le lien entre ces pauvres fous isolés sur leurs sujets. Et finalement, la clef de la vie fût trouvée. Mes collègues les mieux payés avaient pu renforcer leur corps pour longtemps et certains remplaçaient même le tout ou des parties par des organes artificiels et immortels, ces inventions ayant l’avantage supplémentaire d’être à l’épreuve du feu ou des bombes. Moi, je n’avais pas désiré vivre au delà de mon existence naturelle. La dernière trouvaille était même de congeler une armée de ses clônes prêts à prendre la relève en cas d’accident et possédant la mémoire et les sensations de notre vie réelle grâce au mariage d’une informatique supérieure et de la matière vivante, ces puces biologiques intelligentes qui s’intégraient parfaitement à la vie et en prenaient le contrôle. Ferait-on des bébés plus intelligents et plus sages ou des fous d’orgueil et de puissance, soumis définitivement au chaos et à l’impératif de productivité ? En fait il devenait difficile de savoir si l’intelligence artificielle, les robots devenaient vivants, humains, ou si les humains devenaient des systèmes binaires artificiels. J’avais mal à la tête, je sortis. Dehors, c’était plein soleil, enfin ! Ca faisait longtemps que je ne l’avais pas senti sur ma peau, les oiseaux chantaient… On n’avait pas le droit d’écouter chanter les oiseaux, je me mis à contempler la verte couleur des arbres, le vent caressait mes rares cheveux… Bien en vue s’étalaient quelques panneaux publicitaires HASBEEN vous rend la vie plus facile si vous êtes homosexuel. Notre nouvel antidote Truecide vous rendra normal pour 6 écus seulement – Avec un esprit productif, vous finirez aussi riche que X, avalez Moneynow qui éliminera définitivement vos tendances à la rêverie. Je marchai encore quelques pas dans ce parc quand une voiture de police s’arrêta sirène hurlante, et d’une ambulance descendirent des hommes en blanc, je savais ce qui m’attendait. Deux femmes en haillons assises à côté de tant de richesses, à même le sol, des personnes antisociales et pouilleuses à coup sûr, me regardèrent étonnées et craintives à la fois, paralysées par la peur des flics. Un oiseau siffla encore mélodieusement à côté de moi, et un chien errant qui passait par là, s’arrêta et se laissa caresser, plein de reconnaissance dans les yeux. Où fuir ? Plus de paradis sur Terre, et j’enjambai alors qu’on me tirait dessus, la rembarde du niveau 5, heureux et en paix, libre dans ces dernières secondes de ma vie, rempli d’une infinie douceur et d’un amour envahissant, inexplicablement. Trois, deux, un, impact. Je sentis à peine les pierres d’en dessous me disloquer, je vis mon corps et rejoins l’autre monde instantanément. Je pouvais être un homme, une femme, j’étais même un animal et je rentrais alors dans ce chien abandonné pour lui redonner de l’espoir. Je volais et voyageais avec les nuées, occupais tout l’espace ou juste un petit point, de vertes campagnes s’offraient à moi, je revoyais tous les gens que j’avais aimés venir vers moi, une amie d’ailleurs m’attendait. Moi aussi maintenant je modelais ma vie, et alors que je l’avais crue gâchée puis perdue, je venais enfin de la recevoir entièrement dans la mort comme un don inaliénable, je la comprenais enfin et la modelais avec mon coeur d’homme, sans aucun pouvoir artificiel… ». Dominique stoppa sa nouvelle, destinée quelle ironie, au concours du Service informatique central sur le thème de l’informatique appliquée aux sciences de la vie et à la recherche, 1000 mots, le compte était bon, et il y avait 1000 francs à gagner. Elle était pauvre, virée trois fois d’un labo, ayant démissionné deux fois, internée d’office une fois, abusivement et par malveillance dans un autre pays à peine plus totalitaire, elle qui pourtant, avait de l’imagination et que la passion de la recherche avait consumée pendant si longtemps. Le réseau était là, vivant, omniscient, omnipotent, tentaculaire, vertigineux, et elle s’apprêtait à le laisser croître sans elle. Je pense donc je suis ? Cette fausse maxime semblait justifier l’informatique si vide de sens. Les idées parasites, les fausses croyances ne cachent-elles pas à l’être son essence véritable ? Je pense que je suis stupide, incapable, le suis-je vraiment pour autant ?
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 23
La peste bioionique
Jeannie, une amie scientifique débutante n’avait plus aucun temps, même pas celui de s’arrêter discuter cinq minutes, elle était aspirée par ses expériences et ses nombreuses heures branchée à sa machine, à éplucher la littérature, à surfer sur la science, quelle idée géniale pourrait-on encore trouver ? La vie était devenue un jeu intellectuel d’accumulation de connaissances et d’imagination de pure science-fiction, qui bien entendu avec une touche d’instinct déboucherait sur la réalité de demain. L’informatique, épaulait, exigeait, stoquait, modélisait, connectait, imprimait, elle se trompait encore largement dans ses prédictions scientifiques, mais qu’importait le ridicule, le but était de continuer, coûte que coûte, pour parvenir à tout contrôler. La vraie vie n’avait plus de poids, la politique non plus, l’informatique seule avec sa relation privilégiée et son côté ludique contribuait à connecter chacun au vaste monde à travers elle, à un monde virtuel et sur mesure, absolument sans limites, et à isoler les gens. Deux mille un, Merck, 3 milliards d’euros en seules fournitures de laboratoire, presqu’autant qu’en médicaments, tout ceci commandé via Internet, bien pratique, car les savants ne décollaient plus de leur ordinateur et se reconnaissaient à leur bedaine et à leur sédentarité. Nous n’étions plus, nous les hommes que ce Génôme, ce code à quatre lettres, cette bibliothèque insipide, et tous nos produits cellulaires étaient décortiqués, suranalysés, bombardés aux électrons, distillés comme l’alcool, étirés sur des gels, irradiés, dénaturés, reproduits ailleurs, crucifiés, pour être finalement incorporés dans l’ordinateur et être régurgités dans la langue officielle de l’empire. C’était passionnant, noble, génial! On faisait sauter la queue des souris, rien que pour voir combien de temps ça saignerait, on les transgéniquait, la consommation de rongeurs était énorme, sans état d’âme. Quelle peste vraiment en résulterait, la peste bioionique ? Quels vampires pouvaient avoir soif d’autant de rats et de souris ? La psychiatrie se développait à une vitesse folle, maladisant tout, et l’homosexualité, rayée de la liste des maladies mentales par l’OMS, réapparaissait sur Ensembl, Omim, chromosome X q28, protéine GAY1 à fonction encore inconnue… tout ceci à partir de statistiques peut-être bidon. Des affichettes sur les murs des universités raccolaient également des cobayes humains sans garantie pour ces derniers, les chercheurs cherchaient du sang frais, des électroencéphalogrammes, et des questionnaires pour entériner leurs trouvailles et tester leurs antidotes. La traque biologique pouvait commencer, l’informatique avait depuis longtemps fait ses preuves pour figer, ficher, piéger les plus faibles. C’était toujours le même rituel, nom, adresse, et tous autres détails intimes demandés et fichés aussitôt, le tout interconnecté: impôts, achats, pensions, salaire, dossier médical. Impossible de partir sans laisser d’adresse, sans carte remise à jour, vous ne rentriez pas à l’hôpital, chez le médecin, dans un travail, dans une banque, vous n’achetiez rien et ne passiez pas la porte des bâtiments publics, ni un contrôle de police, ni les frontières. Un code rouge secret connu des grandes entreprises, de la police et des administrations, et dont l’empreinte génétique n’était qu’un détail de plus, vous abonnait à tel découvert, à tel traitement, il permettait de vous stériliser à l’occasion d’une opération ou de vous interdire l’accès à un emploi. Dominique savait qu’elle ne gagnerait pas le concours, l’insoumission était fatale. Une cardiomobile attendait à l’extérieur des bâtiments, les chercheurs, de stupides arrogants attardés, concentrant toute une puissance de destruction entre leurs mains, continuaient comme des marionnettes à courir dans les couloirs, sans un bonjour, appuyant avec frénésie pour gagner une seconde sur la commande des ascenseurs, le regard perdu, dominateurs, pleins de tics, sans culture et ne parlant que par onomatopées, des clônes d’ordinateurs à qui on aurait pu greffer des roulettes qu’ils n’avaient pas encore. Le machisme régnait en maître dans cette population mais ce n’était pas tout, ces chercheurs se délectaient à l’idée de se faire en douce à manger au milieu de leur laboratoire ou de s’y masturber même, ils se voulaient drôles, les banques de données fleurissaient de noms sortis tout droit de la pornographie ou de bandes dessinées pour adolescents. L’homo cyberneticus était en train de naître. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 24
Cyrille MAGNE
cmagne@lnf.cnrs-mrs.fr Institut de Neurosciences Physiologiques et Cognitives, CNRS - Marseille
Daniele SCHÖN
danschon@lnf.cnrs-mrs.fr Institut de Neurosciences Physiologiques et Cognitives, CNRS - Marseille
Corine ASTÉSANO
astesano@lnf.cnrs-mrs.fr Institut de Neurosciences Physiologiques et Cognitives, CNRS - Marseille
Mireille BESSON
mbesson@lnf.cnrs-mrs.fr Institut de Neurosciences Physiologiques et Cognitives, CNRS - Marseille
Langage et musique sous l’électrode Introduction Nos recherches sont centrées sur le problème de la spécificité du langage. Pour aborder ce problème, nous avons choisi de comparer le langage avec une autre fonction cognitive qui présente évidemment des différences, mais également de nombreuses similarités avec le langage: la musique. Dans la première partie, nous placerons le problème de la spécificité du langage dans le contexte théorique des différentes approches linguistiques qui apportent, nous le verrons, des réponses antagonistes à ce problème. Dans la seconde, nous décrirons la méthode utilisée pour aborder ce problème. Enfin, dans une troisième partie, nous présenterons les résultats d’expériences ayant pour objectif de comparer directement certains aspects du traitement du langage, tels que la sémantique et la syntaxe, avec certains aspects du traitement de la musique tels que la mélodie, l’harmonie et le rythme. Nous terminerons en mentionnant de nouvelles ouvertures de recherche qui nous paraissent particulièrement intéressantes et excitantes.
Contexte théorique: la spécificité du langage La théorie linguistique qui a exercé une influence prépondérante au cours des 50 dernières années est sans nul doute la théorie de la grammaire générative (GG) développée par Noam Chomsky, un des dix auteurs les plus cités en sciences sociales avec Freud, Marx et Platon. Un des points importants est qu’il existerait un organe du langage pour reprendre les termes de Chomsky (voir Pinker, 1994), spécialisé et indépendant des autres fonctions cognitives. Jackendoff (1994), un des élèves les plus célèbres de Chomsky, développe deux arguments fondamentaux en faveur de l’autonomie de la faculté de langage. Le premier repose sur l’existence d’une grammaire mentale. Le fait que tout être humain normal puisse comprendre et créer un nombre infini de phrases dans sa langue maternelle, à partir d’un nombre fini de mots, implique que le cerveau humain contient des principes grammaticaux inconscients, qui lui permettent de décider que telle phrase est grammaticale alors que telle autre ne l’est pas. Le second argument est celui d’une connaissance innée des principaux aspects de la grammaire. La rapidité avec laquelle les enfants apprennent à parler impliquerait que le cerveau soit génétiquement déterminé pour traiter le langage. Jackendoff (1994) décrit ainsi ce qu’il appelle le paradoxe de l’acquisition du langage: alors que tout enfant ayant un développement normal maîtrisera sa langue maternelle vers l’âge de 8-10 ans, et aura donc assimilé les principes qui régissent l’organisation de la langue, les linguistes les plus talentueux, aidés des ordinateurs les plus puissants, n’ont pas encore réussi à expliquer les principes grammaticaux qui président à la structuration des langues. Cependant, cette conception selon laquelle la fonction de langage serait indépendante des autres fonctions cognitives a été contestée par certains auteurs. Certes, dans la chaîne de traitement qui va permettre d’extraire du sens à partir d’une série de signaux acoustiques ou visuels, certaines opérations sont probablement spécifiques au fait que ces signaux forment les mots d’une langue. Ces auteurs insistent néanmoins sur le fait que certaines opérations sont probablement communes au traitement d’autres signaux sonores ou visuels, organisés en fonction de règles structurales et fonctionnelles précises. Ainsi, les opérations nécessaires à la compréhension du langage ne seraient pas indépendantes de celles requises par la mise en jeu d’autres fonctions cognitives, comme la mémoire, l’attention, la catégorisation… Afin de tester ces deux conceptions antagonistes de la fonction de langage, nous comparons langage et musique. L’intérêt pour cette comparaison n’est d’ailleurs pas nouveau, Jean-Jacques Rousseau s’élevait en fervent défenseur d’une origine commune au langage et à la musique, tout en accordant une primauté à la musique. Selon lui, les langues primi-
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 25
Langage et musique sous l’électrode
tives étaient chantées, et non parlées. Elles avaient pour fonction d’exprimer des sentiments, la haine, l’amour, la colère; elles étaient passionnées avant d’être raisonnées…
La méthode des potentiels évoqués Cette méthode permet de mesurer directement, au moyen d’électrodes placées sur le scalp les variations de l’activité électrique cérébrale produites par la mise en jeu synchrone de milliers de neurones, en réponse à la présentations d’un événement particulier (un mot présenté sur un écran, un son, un accord de musique présentés au moyen de haut-parleurs ou d’un casque audio, etc…). Le psychiatre allemand Hans Berger (1873-1941) fut le premier à étudier les variations de l’activité électrique cérébrale chez l’homme. Il baptisa la méthode électroencéphalogramme (EEG) C’est cependant grâce aux nouvelles possibilités offertes par l’utilisation de l’informatique que l’on a pu résoudre les problèmes posés par la faible amplitude des variations de cette activité: ces variations sont d’une amplitude trop faible
fig. 1 – Illustration de la technique de moyennage. Les PEs (en bas) sont d’une amplitude trop faible pour être visibles sur l’EEG (en haut). Il est donc nécessaire de synchroniser l’enregistrement de l’EEG à la présentation des stimuli, puis de moyenner les différents enregistrements obtenus afin que les PEs émergent du bruit de fond constitué par l’électrogenèse corticale. pour être détectées lors d’une seule stimulation. Il faut donc à la fois amplifier le signal, et présenter plusieurs essais appartenant à la même condition expérimentale, les sommer puis les moyenner, afin que les variations synchrones de la présentation du stimulus émergent du bruit de fond constitué par l’électrogenèse corticale. (voir fig. 1). On obtient alors le potentiel électrique évoqué par la présentation du stimulus, potentiel qui comprend généralement plusieurs composantes, définies par leur polarité (négative, N, ou Positive, P), leur latence d’occurrence par rapport au début de la stimulation (e.g., N100 est une composante négative, dont le maximum d’amplitude apparaît 100 millisecondes après le début de la présentation du stimulus), et leur distribution topographique sur le scalp. Ces différentes composantes sont supposées refléter les différentes étapes du traitement de l’information apportée par le stimulus. La méthode des PEs permet ainsi de suivre le décours temporel des processus neurophysiologiques qui sous-tendent nos activités mentales en temps réel. Elle est utilisée pour son excellente précision temporelle (de l’ordre de la milliseconde). En revanche, la résolution spatiale des PEs est médiocre puisqu’il reste très difficile de déterminer avec certitude la position, dans le cerveau, des générateurs qui sont à l’origine des effets observés sur le scalp. En d’autres termes, le problème inverse est insoluble car le nombre de solutions est infini, comme démontré par Helmholtz, le célèbre physicien allemand.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 26
Langage et musique sous l’électrode
En revanche, les nouvelles techniques d’imagerie cérébrale (TEP: tomographie par émission de positrons; IRMf: imagerie par résonance magnétique fonctionnelle) sont fondées sur la mesure du débit sanguin cérébral; elles permettent de localiser avec une précision de l’ordre de quelques millimètres les zones cérébrales les plus activées lors d’une tâche, mais la précision temporelle des décours des activations reste par contre très médiocre.
Les expériences Elles ont pour but de comparer le langage avec une autre activité typiquement humaine, la musique. Langage et musique présentent évidemment plusieurs différences dont deux paraissent fondamentales.
La première est liée à leur fonction sociale Le langage a une fonction de communication: il joue un rôle crucial dans l’organisation des sociétés humaines. La possibilité de combiner à l’infini des mots pour exprimer des idées nouvelles semble spécifique au langage humain. La musique, quant à elle, permet d’exprimer et d’évoquer des émotions, du plaisir. En cela, elle assure aussi la cohésion du groupe social.
La seconde différence fondamentale entre langage et musique est liée au problème de la sémantique musicale Quelle est la signification de la musique? La question est d’une grande complexité et la diversité des réponses est telle qu’il serait déplacé d’en faire une revue exhaustive. Il semble, cependant, que de nombreux auteurs soient d’accord pour considérer la musique comme un système auto-référencé, en ce sens que, contrairement au langage, compris par référence à un système extra-linguistique, il n’existe pas de référence extra-musicale. La musique n’est pas rivée à des significations, ni directes, ni symboliques; la musique est un langage qui se signifie soi-même (Arom, 2000; Jakobson, 1973; Meyer, 1957). Ces deux systèmes présentent également des similarités intéressantes: ce sont deux systèmes d’expression, partagés par toutes les cultures, et qui sont, en outre, spécifiques à l’homme. Langage et musique reposent sur une organisation séquentielle d’événements qui se déroulent dans le temps. Ils impliquent, en outre, plusieurs niveaux de représentation. On s’accorde ainsi à différencier les niveaux orthographique, phonologique, prosodique, sémantique, syntaxique et pragmatique dans le langage, et les niveaux de notation musicale rythmique, mélodique et harmonique dans la musique. Les expériences réalisées portent précisément sur la comparaison entre ces différents niveaux de traitement.
Sémantique et mélodie En analysant les potentiels évoqués lors de la lecture de phrases, terminées par des mots sémantiquement congruents ou incongrus (par exemple: Il porte sa fille dans ses bras/narines*1), Kutas & Hillyard (1980) ont démontré l’occurrence d’une composante négative, présentant un 1
fig. 2 – PEs associés au dernier mot d’une phrase présentée mot à mot, dans la modalité visuelle. Comparaison d’énoncés sémantiquement congruents (—), d’énoncés sémantiquement incongrus (—) et d’énoncés incongrus mais sémantiquement reliés au mot attendu (—). Sur cette figure, comme sur les suivantes, le temps est indiqué en abscisse en millisecondes (ms), et l’amplitude des phénomènes en ordonnée, en microvolt (µV). Par convention, la négativité est représentée vers le haut [Figure adaptée d’après Kutas et Hillyard (1980)].
Le symbole «*», utilisé en linguistique pour signaler une forme incorrecte, est repris ici pour indiquer les incongruités.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 27
Langage et musique sous l’électrode
maximum d’amplitude sur les régions centro-pariétales du scalp, 400 ms environ après le début de la présentation visuelle des mots incongrus, d’où son nom: N400 (voir figure 2). En revanche, les mots congruents, fortement attendus dans le contexte phrastique, ne sont pas associés à une N400. Depuis cette expérience princeps, de nombreux travaux ont permis de montrer que la composante N400 serait un bon indice des relations sémantiques entre un mot et le contexte linguistique dans lequel il est présenté. Afin de déterminer si une composante de type N400 est également présente dans la musique, Besson & Faïta (1995) ont mené une nouvelle série d’expériences auprès de musiciens et non-musiciens auxquels on présentait des mélodies familières ou non familières, terminées par une note juste, une note hors de la tonalité de la phrase musicale ou une note dans la tonalité mais peu attendue dans le contexte musical. Les résultats montrent que les incongruités musicales suscitent l’occurrence d’une composante positive tardive (P600), mais pas d’une composante N400 (voir figure 3). Notons toutefois que l’amplitude et la latence de cette composante positive varient en fonction du niveau d’expertise, de la familiarité de la mélodie et du degré d’incongruité: elle est plus ample et plus précoce pour les musiciens que pour les non-musiciens, pour les mélodies familières que pour les mélodies non familières et pour les incongruités fortes, notes hors de la tonalité, que pour les incongruités faibles, notes dans la tonalité. Il serait évidemment intéressant de faire écouter une mélodie japonaise à un auditeur occidental! Ainsi, les résultats obtenus montrent que la composante P600 est sensible à des facteurs qui influencent fortement la perception musicale Ces résultats soulignent également que des processus différents sont mis en jeu dans le traitement de certains aspects sémantiques du langage et mélodiques de la musique. Ils sont donc compatibles avec l’idée, rapidement évoquée ci-dessus, que la musique n’a pas, au sens strict du terme, de signification, de contenu propositionnel.
fig. 3 – PEs associés au dernier mot d’une phrase lorsqu’il est sémantiquement congruent, sémantiquement incongru ou incongru mais sémantiquement relié au mot attendu (à gauche). A droite sont représentés les PEs associés à la dernière note d’une phrase musicale lorsqu’elle est juste, peu attendue mais dans la tonalité de la phrase musicale ou fausse et donc hors de la tonalité. [Figure adaptée d’après Kutas et Hillyard (1984) et Besson & Faïta, (1995)].
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 28
Langage et musique sous l’électrode
Syntaxe et harmonie La musique est un système structuré selon des règles quasiment mathématiques. Il existe ainsi une grammaire musicale, constituée par les règles de l’harmonie et du contrepoint. L’existence d’une grammaire musicale souligne donc une similarité importante avec le langage. Dans les deux cas, un ensemble de règles détermine les constructions qui sont autorisées et celles qui ne le sont pas. Cependant, il ne s’agit peut-être que d’une analogie de surface, une métaphore attirante mais sans fondement théorique. Le but des expériences décrites ci-dessous est précisément de déterminer les limites de cette analogie. Concernant les aspects syntaxiques du langage, Osterhout & Holcomb (1992) ont montré que la présentation de phrases dont la structure grammaticale est ambiguë ne suscite pas l’occurrence d’une composante N400, mais d’une composante positive plus tardive atteignant son maximum d’amplitude sur les régions postérieures du scalp vers 600 ms, baptisée P600. La P600 se développe entre 500 et 900 ms dans la modalité visuelle. Afin de comparer directement l’effet de violations structurales dans le langage et la musique, Patel, Gibson, Ratner, Besson & Holcomb (1998) ont introduit des violations de la structure syntaxique dans le langage et de la structure harmonique dans la musique. Les résultats n’ont pas révélé de différences significatives (polarité, distribution topographique) entre les deux types de positivités (P600), ce qui suggère qu’elles reflètent des processus similaires (voir figure 4). Ainsi, le traitement des règles qui gouvernent la structuration de séquences d’éléments ferait appel à des processus communs, que les éléments soient de nature linguistique ou musicale.
fig. 4 – Comparaison des effets associés à la présentation d’une phrase congruente, syntaxiquement complexe ou non-grammaticale, et de ceux associés à la présentation d’une progression harmonique dont les accords sont les plus attendus en fonction de la théorie musicale (cercle des quintes), ou appartenant à une tonalité proche de celle attendue, ou éloignée de la tonalité attendue [Figure modifiée d’après Patel et al, 1998].
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 29
Langage et musique sous l’électrode
Rythme Nous avons réalisé une expérience visant à comparer directement l’effet d’une pause inopportune entre l’avantdernier et le dernier mot d’une phrase parlée, et d’un silence inattendu entre l’avant-dernière et la dernière note d’une phrase musicale (Besson, Faïta, Cztermasty & Kutas, 1997). Les résultats montrent que dans les deux cas, l’incongruité rythmique suscite l’occurrence d’un potentiel émis, qui prend la forme d’un complexe biphasique, négatif (N200) puis positif (P300; voir figure 5). Ainsi, l’absence d’un mot ou d’une note à un moment attendu en fonction du rythme de la phrase linguistique ou musicale suscite l’occurrence d’un effet dont l’amplitude varie, en outre, en fonction de la familiarité des phrases musicales et linguistiques (proverbes): il est plus ample lorsqu’elles sont familières que lorsqu’elles ne le sont pas. Ces résultats nous permettent donc de souligner que des processus similaires seraient mis en jeu par le traitement d’incongruités rythmiques dans la musique et le langage. Un processeur commun pourrait être responsable de l’analyse de la structure temporelle de séquences organisées, que ces séquences soient constituées de mots formant des phrases ou de notes formant une mélodie.
Conclusion La comparaison des processus impliqués dans la compréhension du langage et la perception de la musique permet de mettre en exergue des similarités et des différences selon les différents aspects considérés. Les résultats obtenus grâce à la méthode des potentiels évoqués montrent que le traitement de certains aspects sémantiques du langage est associé à des effets électrophysiologiques qualitativement différents de ceux associés au traitement de certains aspects mélodiques et harmoniques de la musique. Alors qu’une composante N400 se développe suite à la présentation d’un mot sémantiquement inattendu, une composante P600 est enregistrée en réponse à la présentation d’une note ou d’un
fig. 5 – Comparaison des effets associés à la présentation de phrases familières (proverbes) ou non familière lorsque le dernier mot des phrases auditives, est présenté au moment attendu (sans délai) ou avec un délai de 600 ms (flèche) et de ceux associés à la présentation de phrases musicales familières ou non, lorsque la dernière note est précédée d’un silence ou non. [Figure modifiée d’après Besson, Faïta, Czternasty, Kutas (1997)].
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 30
Langage et musique sous l’électrode
accord mélodiquement ou harmoniquement inattendu. Les opérations cognitives qui président à l’accès au sens d’un mot semblent donc spécifiques au traitement sémantique, même si celui-ci ne se réduit pas au langage. Ces opérations diffèrent néanmoins de celles requises par le traitement des aspects mélodiques et harmoniques de la musique. En revanche, le traitement de certains aspects syntaxiques du langage est associé à des effets électrophysiologiques qualitativement similaires à ceux associés au traitement de certains aspects harmoniques de la musique. Une composante P600 se développe aussi bien après la présentation d’un mot syntaxiquement inattendu qu’après celle d’un accord qui n’appartient pas à la tonalité d’une séquence musicale. Ils soulèvent ainsi la possibilité que le traitement des aspects syntaxiques du langage et harmoniques de la musique relève d’un mécanisme commun qui aurait pour fonction l’analyse des aspects structuraux d’une séquence d’événements organisés, que celle-ci comprenne les mots d’une phrase ou les accords d’une mélodie. Des conclusions similaires peuvent être tirées de la comparaison de certains aspects du traitement prosodique dans le langage et rythmique dans la musique. Les interprétations en termes d’un mécanisme commun au traitement des aspects structuraux du langage et de la musique doivent néanmoins être considérées avec prudence au moins pour deux raisons. La première tient à la spécificité des aspects considérés. Le traitement syntaxique du langage ne se réduit pas aux opérations nécessaires à la compréhension de phrases dont la complexité structurale varie du simple au complexe, de l’attendu à l’inattendu (Patel et al., 1998). De même, l’étude du traitement du rythme dans la musique n’est qu’approché grossièrement par la manipulation que nous avons introduite: un silence de 600 ms entre deux notes d’une phrase musicale. Il faut donc étoffer ces résultats par des expériences complémentaires, que nous réalisons actuellement, visant à étudier d’autres aspects des traitements syntaxiques et harmoniques, d’une part, et prosodique et rythmique, d’autre part. La deuxième raison est liée au fait que ces interprétations en termes de communauté de traitement sont en grande partie basées sur les résultats obtenus à partir d’une méthode, les potentiels évoqués. Cette méthode permet de déterminer si la signature sur le scalp de deux processus impliquant, pour l’essentiel, des structures néo-corticales, sont qualitativement différents. Il est, en effet, fortement improbable que des configurations neuronales identiques donnent lieu à des effets électrophysiologiques différents. En revanche, il reste pour différentes raisons, et notamment celles liées au problème inverse décrit dans la partie méthodes, difficile de déterminer si des effets électrophysiologiques similaires sur le scalp résultent de la mise en jeu de configurations neuronales identiques ou différentes. Il est donc tout à fait important d’utiliser d’autres méthodes d’imagerie cérébrale pour valider ces interprétations. En conclusion, la méthode des PEs permet de déterminer précisément, à partir de quel moment les tracés enregistrés dans deux conditions expérimentales divergent. Par inférence, on peut donc en déduire à partir de quel moment les processus impliqués dans le traitement de deux ou plusieurs types de stimuli, ou ceux impliqués dans la réalisation de deux ou plusieurs tâches, diffèrent. Il est néanmoins indispensable de compléter ces études par d’autres utilisant des méthodes qui offrent une excellente résolution spatiale, comme l’IRMf. Il deviendra alors possible de déterminer si les réseaux de structures cérébrales activés par les différents stimuli, ou les différentes tâches à réaliser, sont similaires ou différents. Les données obtenues avec ces différentes méthodes sont donc très complémentaires et permettront de mieux cerner la dynamique spatio-temporelle des processus impliqués dans la compréhension du langage et la perception musicale.
Glossaire Harmonie: combinaison des notes pour produire des accords, et étude des principes structuraux qui déterminent ces combinaisons. Le contrepoint est l’art de combiner entre elles les lignes mélodiques
Mélodie: succession des notes en fonctions des conventions propres à une culture musicale Sémantique: étude du sens Phonologie: étude des sons à valeur distinctive (phonèmes) utilisés dans une langue Prosodie: étude des variations de hauteur, d’intensité, de rythme des mots et des énoncés Syntaxe: étude des relations grammaticlaes entre les mots qui composent une phrase Pragmatique: étude du langage du point de vue de son usage, de ses conditions d’utilisation et de ses fonctions communicatives
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 31
Langage et musique sous l’électrode
Références ◗ ◗
◗ ◗ ◗ ◗ ◗ ◗ ◗ ◗ ◗ ◗ ◗ ◗
Arom S. 2000. Prolegomena to a Biomusicology. In The Origins of Music. N.L. Wallin, B. Merker & S. Brown, Eds.: 27-30. MIT Press. Cambridge, MA. Besson M. & Faïta F. (1995). An Event-Related Potential (ERP) study of musical expectancy: Comparison of musicians with non-musicians. Journal of Experimental Psychology: Human Perception and Performance 21, 6: 12781296. Besson M., Faïta F., Czternasty C. & Kutas M. (1997). What’s in a pause: event-related potential analysis of temporal disruptions in written and spoken sentences. Biological Psychology 46: 3-23. Besson M., Faita F., Peretz I., Bonnel A. M. & Requin (1998). Singing in the brain: Independence of lyrics and tunes. Psychological Science 9, 6: 494-498. Chomsky N. (1957). Syntactic structures. Mouton & Co. The Hague, NL. Holcomb P. J., & Neville H. (1990). Auditory and visual semantic priming in lexical decision: A comparison using event-related brain potentials. Language & Cognitive Processes, 5, 281-312. Jackendoff R. (1994). Patterns in the mind: Language and human nature. Basic books. New-York. Jakobson R. 1973. Essais de linguistique générale. II. Rapports internes et externes du langage. Editions de Minuit, Arguments. Paris. Kutas M., & Hillyard S.A. (1980). Reading senseless sentences: Brain potentials reflect semantic incongruity. Science, 207, 203-204. Meyer L. (1956). Emotion and meaning in music. University of Chicago Press, Chicago. Osterhout L., & Holcomb P. J. (1992). Event-Related brain potentials elicited by syntactic anomaly. Journal of Memory and Language, 31, 785-804. Patel A., Gibson E., Ratner J., Besson M. & Holcomb P. (1998). Processing syntactic relations in language and music: An Event-Related Potential study. Journal of Cognitive Neuroscience, 10, 717-733. Pinker S. (1994). The language instinct: How the mind creates language. Harper Perennial. Robert S. (1997). Variation des représentations linguistiques: des unités à l’énoncé. In C. Fuchs & Robert S. (Eds), Diversité des langues et représentations cognitives (pp25-39). Ophrys, Paris. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 32
Dominique P. PIOLETTI
dominique.pioletti@epfl.ch Groupe de Bioingénierie de l’Os, Centre de Recherche en Orthopédie, Faculté STI, EPFL Hôpital Orthopédique de la Suisse Romande Lausanne,
Bastian PETER
bastian.peter@epfl.ch Groupe de Bioingénierie de l’Os, Centre de Recherche en Orthopédie, Faculté STI, EPFL Hôpital Orthopédique de la Suisse Romande Lausanne,
Développement d’un nouvel implant orthopédique utilisé comme
drug delivery system
Approche théorique par la méthode des éléments finis
a perte osseuse autour des implants après une arthroplastie totale de la hanche est la cause principale des échecs de cette chirurgie. Le taux d’échec peut dépasser les 30% après 15 ans pour des patients âgé de moins de 50 ans. Une chirurgie de révision où l’ancien implant est remplacé par un nouvel implant est alors effectuée. Cependant, cette seconde opération induit de fréquentes complications. Afin de diminuer le problème de la perte osseuse autour des implants, notre groupe a proposé une nouvelle approche dans le développement des implants orthopédiques. Les implants ne sont plus seulement utilisés comme une structure de support mécanique, mais également comme un drug delivery system. Pour réaliser ce nouveau concept, la tige d’une prothèse de hanche est sélectivement recouverte d’un agent actif (bisphosphonates) afin de contrôler localement la repousse osseuse. Dans cette approche, il est primordial de déterminer les concentrations optimales ainsi que la localisation sur l’implant de l’agent actif. Nous avons donc développé un outil numérique, basé sur la méthode des éléments finis, qui permet d’anticiper les effets de l’agent actif sur la repousse osseuse. Afin d’identifier les paramètres apparaissant dans le modèle théorique, nous avons utilisé les données publiées d’une étude clinique en phase III de l’agent actif concerné. Cette approche permet d’avoir des valeurs numériques pour notre modèle ayant une réalité clinique. Nous avons ensuite simulé numériquement différentes situations afin de définir les concentrations et localisations sur l’implant afin d’obtenir un remodeling optimal de l’os.
densité osseuse
Initial
Sans agent actif
Avec agent actif
fig.1 – Densité osseuse autour d’un implant de hanche: immédiatement après operation (Initial), après 2 ans sans agent actif, après 2 ans avec agent actif. Le code des couleurs indique en orange (–) une densité élevée d’os et en brun(–) une densité faible d’os.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 33
Développement d’un nouvel implant orthopédique utilisé comme drug delivery system
densité osseuse
Recouvrement total
Recouvrement partiel
fig. 2. Densité osseuse autour d’un implant de hanche après 2 ans: avec agent actif recouvrant toute la surface de l’implant (tramé), avec agent actif recouvrant partiellement la surface de l’implant (gris). Le code des couleurs indique en orange (–) une densité élevée d’os et en brun (–) une densité faible d’os. Sur la figure 1, on voit que l’effet du recouvrement de l’implant par un agent actif permet de diminuer la perte osseuse dans la partie supérieure de l’implant. Avec ce type de modélisation, nous avons pu montrer qu’une concentration de 10 mg de bisphosphonates donnait des résultats optimaux et qu’il est inutile d’aller à des doses plus élevées. Afin de déterminer les zones sur l’implant où l’agent actif devrait être déposé, nous avons effectué plusieurs simulations en faisant varier ce paramètre. Sur la figure 2, on remarque que le recouvrement partiel avec une concentration de 10 mg de bisphosphonates permet d’obtenir une diminution de la perte osseuse dans la partie supérieure de l’implant sans augmenter de façon pathologique la densité osseuse dans la partie inférieure de l’implant (a contrario de l’implant ayant un recouvrement total d’agent actif ). Ce type de modèle numérique nous a donc permis de déterminer des concentrations et localisations sur l’implant pour obtenir une densité osseuse optimale. Les résultats de cette étude ont été utilisés pour établir un protocole in vivo sur le rat. Cette étude in vivo vient de se terminer et confirme que le concept d’implant orthopédique utilisé comme drug delivery system a un important potentiel dans l’amélioration à long terme des implants orthopédiques. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 34
Nirinarilala RAMANIRAKA
nirina.ramaniraka@epfl.ch Centre de Recherche en Orthopédie, Institut BIO-E, Faculté STI, EPFL Hôpital Orthopédique de la Suisse Romande
Alexandre TERRIER
alexandre.terrier@epfl.ch Centre de Recherche en Orthopédie, Institut BIO-E, Faculté STI, EPFL Hôpital Orthopédique de la Suisse Romande
Olivier SIEGRIST
Hôpital Orthopédique de la Suisse Romande
Analyse biomécanique de la reconstruction du Ligament Croisé Postérieur (LCP) du genou Méthode par éléments finis Introduction Le LCP est un des principaux ligaments stabilisateurs du genou. Sa rupture est une source de laxité qui peut induire un mauvais fonctionnement du genou. A long terme, ceci peut mener à une usure cartilagineuse et à une arthrose prématurée du genou. Le LCP a suscité beaucoup moins d’attention que le Ligament Croisé Antérieur (LCA). Les résultats cliniques sont contradictoires et la stabilité du genou n’est pas toujours restaurée. Une connaissance plus complète de la biomécanique de LCP, notamment la connaissance des forces ligamentaires et articulaires (tibio-fémorale, patellofémorale, menisco-fémorale) pourrait améliorer la reconstruction chirurgicale. Il serait également essentiel d’examiner l’interaction du LCP avec les autres éléments de l’articulation: cartilages, ménisques, os,… Le but de ce projet est de tester différents types de greffes de remplacement du LCP. La première étape est de construire un modèle numérique du genou comprenant les structures osseuses et les structures molles. La deuxième étape consiste à utiliser ce modèle pour évaluer l’influence des différentes greffes de remplacement du LCP sur la biomécanique du genou reconstruit.
Matériels et méthodes Les acquisitions de données nécessaires à la modélisation ont été faites sur le genou droit d’un volontaire, au Service de Radiologie Interventionnelle, centre Hospitalier Universitaire Vaudois, Lausanne. Acquisition d’images de résonance magnétique (IRM): ces images sont utilisées pour la reconstruction tridimensionnelle des structures molles (ligaments, cartilages, tendons patellaires, ménisques). Acquisition des images tomographiques (scanner): ces images CT sont utilisées pour la reconstruction géométrique tridimensionnelle des structures osseuses (fémur, tibia, rotule, péroné). Reconstruction des os et des structures molles de tissus: le logiciel Amira 3.0 a été utilisé pour la segmentation semi-automatique des images CT et IRM. La superposition des images CT et IRM a été obtenue par 6 points de référence fixés sur le fémur et le tibia avant les acquisitions. Les courbes délimitant les différentes structures obtenues par segmentation ont été ensuite transférées dans le logiciel de Patran (MacNeal-Schwendler, Californie, EtatsUnis) pour la reconstruction volumique et le maillage en éléments finis (fig. 1). Le quadriceps a été modélisé avec des ressorts linéaires. Les structures molles ont été modélisées avec des lois hyperélastiques non linéaires [1]. Les contacts tibio-fémoral, patello-fémoral et menisco-fémoral ont été modélisés avec des éléments de contact avec frottement en grand glissement. Les
fig. 1 – maillages par éléments finis de l’articulation du genou comprenant les structures osseuses (fémur, tibia, rotule, péroné) et les structures molles (ligaments, tendons rotuliens, cartilages, ménisques)
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 35
Analyse biomécanique de la reconstruction du Ligament Croisé Postérieur (LCP) du genou
lois normales de contact ont été basées sur une fonction exponentielle. Ces éléments de contact permettent de calculer le transfert de charges au niveau des surfaces de contact. La condition de charge correspond à une flexion du genou, de la position d’extension jusqu’à 90° de flexion. Cette flexion a été obtenue en fixant le fémur et simulant une contraction des muscles fléchisseurs.
Simulation numérique Le logiciel ABAQUS/Standard 6.3 (Hibbit, Karlsson and Sorensen inc., Pawtucket, Rhode Island, Etats-Unis) a été utilisé pour l’analyse biomécanique. Le temps de simulation de calcul pour arriver jusqu’à une flexion de 90° est de l’ordre de 48 heures. Le modèle a été utilisé principalement pour calculer les pressions et les efforts de cisaillement sur les surfaces de contact, ainsi que les contraintes dans le LCP. Trois cas ont été simulés: a) un genou intact, b) un genou reconstruit avec une autogreffe extraite, et c) un genou reconstruit avec une greffe synthétique.
Résultats La distribution de pression et sa valeur maximale sur les surfaces de contact ont été obtenues pour les trois cas précités. La distribution de la pression sur la surface de contact fémoro-tibiale latérale est similaire pour les trois cas. Du côté médial, la pression augmente lorsque la rigidité de la greffe augmente. Les résultats montrent également que la contrainte de von Mises dans la greffe augmente avec la rigidité de la greffe (tableau 1).
Conclusion
fig. 2 – Distribution de la pression sur la surface tibio-fémorale avec une greffe synthétique
Tableau 1 – Valeur des contraintes de von Mises maximales dans la greffe en fonction de la rigidité de la greffe
Cette étude permet de montrer que la méthode des éléments finis est un outil puissant pour analyser, du point de vue biomécanique, les problèmes rencontrés après une reconstruction du Ligament Croisé Postérieur du genou. La présence des contraintes élevées aussi bien dans la greffe que sur les surfaces de contact peut expliquer que les greffes synthétiques donnent de moins bons résultats par rapport aux greffes naturelles [2]. En fait, la présence des pressions élevées à la surface de contact tibio-fémoral pourrait être une source d’usure anormale du cartilage induisant une arthrose prématurée du genou. L’analyse biomécanique des reconstructions du LCP avec une greffe à deux faisceaux est actuellement en cours.
Références [1] Pioletti D. P., Rakotomanana L. R., Benvenuti J. F., Leyvraz P.F. Viscoelastic constitutive law in large deformations: application to human knee ligaments and tendons. J. Biomechanics, pp. 31:753, 1998. [2] Fu F. H., Bennett C. H., Ma C. B., Menetrey J., Lattermann C. Current trends in ACL reconstruction. Part II. Operative procedures and clinical correlations. Am J Sports Med, 28(1): pp. 124-130, 2000.■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 36
Cyril MONIER
cyril.monier@epfl.ch Laboratoire de neuroscience des microcircuits, Faculté SV, EPFL
De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel
our comprendre comment marche une machine, il ne suffit pas d’énumérer ses parties ou de définir sa fonction, il faut décrire les interrelations entre ses composants, lesquelles définissent les transformations que peut accomplir cette machine. Ainsi, si l’on veut reproduire une machine, on ne tiendra compte que des propriétés qui satisfont aux interrelations voulues, conduisant à la séquence de transitions recherchée. Nous définirons que l’ensemble des relations qui définissent une machine comme une unité constitue son organisation, l’ensemble des relations effectives entre les composants présents sur une machine concrète dans un espace donné constitue sa structure et enfin l’ensemble des opérations effectuées entre ce qui est défini comme les entrées et les sorties de la machine décrit les fonctions que l’on va attribuer à celle-ci. Les systèmes vivants peuvent être assimilés à des machines. Une unité vivante peut ainsi être définie par son organisation, indépendamment de sa structure, de la matérialité au sein de laquelle cette organisation est incorporée. Mais toute explication complète d’un système biologique prendra en compte son organisation, sa structure, comme un exemple de cette organisation, et enfin sera décrit d’un point de vue fonctionnel. Nous allons illustrer à présent les principaux outils théoriques et pratiques qui ont été développés pour étudier ces différents aspects en prenant comme exemple l’étude du système visuel des mammifères. Sommairement, d’un point de vue anatomique, celui-ci se compose dans sa première partie d’un capteur sensoriel, la rétine, connecté à un noyau thalamique, le corps genouillé latéral qui est interconnecté de manière réciproque avec le cortex visuel primaire, lui-même interconnecté avec les autres aires corticales visuelles supérieures.
Toutes les études expérimentales utilisent un cadre théorique plus ou moins explicite aux yeux de l’expérimentateur. Il est pourtant essentiel de maîtriser parfaitement celui-ci afin d’en comprendre les limitations et les pièges. Nous allons présenter ici les deux cadres théoriques, le plus classique pour le système visuel étant la théorie des systèmes (linéaires et non-linéaires) et le plus récent étant l’application de la théorie des systèmes dynamiques à l’étude des réseaux de neurones. Au-delà du cadre théorique, ce sont deux conceptions différentes qui s’opposent ici, celle qui fait du système visuel une simple machine à transformer les signaux entrants en signaux sortants, et celle qui donne au système sa cohérence interne propre. Nous essayerons pourtant de montrer la complémentarité possible de ces approches au niveau expérimental. Selon la théorie des systèmes, un système est une collection d’éléments qui sont en interaction et dont l’ensemble produit un traitement. En général, un système est défini comme recevant un signal d’entrée de l’extérieur (input) et générant un signal en sortie (output). La relation entre l’entrée et la sortie d’un système représente une transformation du signal et caractérise la fonction du système. Ainsi la théorie des systèmes produit un cadre d’étude possible pour l’identification fonctionnelle d’un système physique à travers l’examen de la relation entrée-sortie, cette démarche étant classiquement appelée l’approche boîte noire. Pour l’étude fonctionnelle du système visuel l’entrée sera le stimulus visuel projeté sur la rétine et la sortie le nombre dimpulsions (les potentiels d’action) d’une cellule nerveuse (un neurone) située par exemple dans le cortex visuel primaire. Les potentiels d’action sont des évènements électriques de type tout ou rien qui sont émis par un neurone via son axone; ils permettent soit d’exciter, soit d’inhiber les neurones connectés par celui-ci. Ce qui nous intéresse ici, c’est le nombre de potentiels d’action émis durant un certain temps, c’est-à-dire la fréquence de décharge du neurone. Au cours d’une expérience, les potentiels d’action sont enregistrés à l’aide de fines électrodes placées à côté du neurone pour les électrodes dites extracellulaires et dans le neurone pour les électrodes dites
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 37
De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel
intracellulaires. Les différences de potentiels à la pointe de ces électrodes sont de l’ordre de quelques centaines de microvolts pour les potentiels extracellulaires et de quelques dizaines de millivolts pour les potentiels intracellulaires. Ces différences de potentiels sont amplifiées par des amplificateurs opérationnels et enregistrées à chaque instant dans une mémoire digitale à l’aide d’une carte d’acquisition convertissant les signaux analogiques en signaux digitaux. Ainsi le but de la théorie des systèmes appliquée aux neurones du système visuel est de caractériser l’opération réalisée entre le stimulus (l’entrée) et la décharge (la sortie), cette fonction sera considérée comme le champ récepteur du neurone. Le terme de champ récepteur, introduit par Sherrington au début du siècle, a été appliqué en 1938 par Hartline aux neurones du système visuel comme une surface rétinienne qui, stimulée par un signal lumineux, module l’activité d’un neurone. C’est à partir des années soixante, avec les célèbres travaux de Hubel et Wiesel, que la notion de champ récepteur est devenue une construction centrale dans le cadre de l’étude analytique du système visuel. Ils ont montré, en particulier, que les neurones du cortex visuel primaire répondent de manière sélective à l’orientation et à la direction d’une barre en mouvement dans une certaine position de l’espace.
Le système visuel vu par Descartes VISION – René Descartes – 1644
Dans ces premières études, les stimuli utilisés étaient des points lumineux ou des barres, les neurones du cortex visuel répondant bien à ce type de stimuli. Actuellement, des stimuli plus complexes ont été élaborés afin de caractériser directement le champ récepteur du neurone avec le formalisme de la théorie des systèmes. Celui-ci sera considéré dans un premier temps comme linéaire, ce type de systèmes étant relativement simple à étudier puisqu’il est entièrement caractérisé dans le domaine spatio-temporel par sa réponse impulsionnelle. Celle-ci peut être obtenue en mesurant la réponse à un stimulus impulsionnel en chaque position de l’espace. Ainsi, une méthode permettant de définir le champ récepteur dans le domaine spatio-temporel consiste à utiliser une séquence pseudo-aléatoire de stimuli élémentaires, proche de l’impulsion, présentés de manière transitoire et sans pause, en différents points de l’espace. Ces stimuli sont appelés bruit blanc car ils contiennent en première approximation toutes les fréquences (son spectre de fréquence est plat, le terme blanc est un analogue de la composition spectrale de la lumière blanche). La fonction impulsionnelle est obtenue simplement par corrélation croisée entre la séquence de stimulation et la décharge du neurone.
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 38
De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel
Une relation d’entrée-sortie d’un système linéaire peut être également décrite dans le domaine fréquentiel par sa fonction de transfert. Par exemple les stimulations par des réseaux de modulation sinusoïdale de luminance vont permettre de définir les champs récepteurs dans le domaine fréquentiel. En effet, un stimulus périodique peut, quelle que soit sa complexité, être décomposé en différentes sinusoïdes de fréquences, d’amplitude, et de phases variées (décomposition par une série de Fourier). Il est alors nécessaire d’utiliser un grand nombre de stimuli sinusoïdaux avec différents paramètres pour caractériser la fonction de transfert complète (en explorant tout le spectre utile des fréquences spatiales et temporelles). Si l’opération réalisée par un neurone du système visuel est linéaire, sa fonction de transfert (ou sa réponse impulsionnelle) ainsi obtenue va permettre de prédire la réponse à n’importe quel stimulus par simple convolution entre ce stimulus et cette fonction. Celle-ci pourra rendre compte alors de l’ensemble des propriétés fonctionnelles, comme la sélectivité à l’orientation, à la direction, à la fréquence temporelle ou encore à la fréquence spatiale. Par contre, si la fonction de transfert est non-linéaire, chaque stimulus va mettre en jeu des propriétés particulières dont il faudra tenir compte pour pouvoir prédire la réponse. Les études réalisées pour la sélectivité à la fréquence spatiale, la sélectivité à l’orientation et la sélectivité à la direction montrent que les champs récepteurs des neurones du cortex visuel primaire présentent en réalité un certain nombre de non-linéarités. Au moins deux cas de non-linéarités peuvent être considérés: une non-linéarité dite intensive ou statique qui porte directement sur la composante linéaire, que l’on peut estimer en utilisant un seul stimulus, et une non-linéarité provenant des interactions entre plusieurs stimuli, qui ne peut être mesurée qu’en utilisant au moins deux stimuli simultanés (pour une non-linéarité spatiale) ou en décalage dans le temps (pour une non-linéarité temporelle). L’analyse des systèmes non-linéaires repose sur ce formalisme, à une composante linéaire s’ajoutant des composantes non-linéaires d’interaction. Dans cet esprit, Wiener a proposé en 1958 une description mathématique d’une relation d’entrée-sortie pour des systèmes non-linéaires. La réponse à un stimulus bruit blanc est décomposée en série de fonctions, nommées noyaux G de Wiener, dont chaque fonction définit un ordre d’interaction non-linéaire. Le noyau d’ordre 1 est équivalent à la relation linéaire décrite précédemment et la relation d’entrée-sortie va être d’autant plus précise (par rapport à l’erreur d’ajustement) que l’on va augmenter le nombre de termes d’ordre supérieur considérés. Une fois que le système a été ainsi caractérisé, l’étape suivante consiste à identifier la structure du système, structure étant pris ici dans le sens de la théorie des systèmes, c’est-à-dire dans le sens d’une organisation par rapport à notre définition précédente. Une fois les estimations des noyaux réalisées, il est possible de classer ces systèmes en plusieurs classes structurales. Par exemple le modèle de Wiener (L-N) a une structure sérielle composée d’un système linéaire suivi par un système non-linéaire. Une fois la structure du système ainsi mise en place, il reste à estimer la valeur des paramètres pour les éléments du système. Ces différentes étapes étant réalisées, il devient possible de définir un modèle d’étude pouvant générer des prédictions qui seront testées ensuite expérimentalement. Une des ambitions avouées de cette approche est que l’organisation de ces systèmes ainsi définie va correspondre plus ou moins à l’organisation anatomo-fonctionnelle du système biologique. Ainsi par exemple deux principaux types de champs récepteurs (CRs) ont été décrits dès les années soixante par Hubel et Wiesel dans le cortex visuel primaire, les CRs dits Simples et Complexes. Les CRs Simples se caractérisent par leur propriété de linéarité et les CRs complexes par leur non-linéarité. Ainsi l’observation que les champs récepteurs des cellules Simples étaient en première approximation linéaires et ceux des cellules Complexes non-linéaire, a conduit Hubel et Wiesel à proposer un modèle dit feed-forward, c’est-à-dire sériel et en boucle ouverte de l’organisation du cortex visuel primaire. L’essence de ce modèle est que le champ récepteur d’un cellule Simple est constitué d’une première étape de sommation linéaire dans laquelle les entrées pré-synaptiques thalamiques sont sommées, suivie d’une étape non-linéaire de rectification dans laquelle le seuil de décharge des potentiels d’action filtre les faibles réponses évoquées par les stimuli non spécifiques. Ce modèle est hiérarchique, les cellules Simples sont considérées comme le premier niveau de traitement cortical et les cellules Complexes représenteraient le deuxième niveau hiérarchique de traitement cortical et ne recevrait leurs entrées des cellules Simples. L’apparente simplicité de ce modèle feed-forward semble néanmoins difficile à réconcilier avec la diversité et le nombre d’entrées synaptiques intracorticales arrivant sur une cellule. Anatomiquement la majorité des contacts synaptiques excitateurs sur les cellules corticales sont produits par d’autres neurones corticaux, également dans la couche qui reçoit
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 39
De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel
les afférents thalamiques. De même 80% des connexions entre le thalamus et le cortex se font dans le sens cortico-thalamique, plutôt que dans le sens feed-forward thalamo-cortical. Ces quelques données anatomiques (et de nombreuses évidences électrophysiologiques) mettent en évidence que le système n’est pas organisé de manière sérielle mais plutôt avec de nombreux bouclages en retour. Une possibilité serait d’ajuster le modèle feed-forward en incorporant petit à petit ces connexions récurrentes, mais le fait de conserver le formalisme de la théorie des systèmes privilégiant les schémas sériels conduit rapidement à une impasse, les propriétés dynamiques des circuits récurrents n’étant pas prises en compte. Pour étudier celles-ci, il est nécessaire d’effectuer un changement de perspective. Sortir de la conception que le cerveau peut être étudié comme un simple transducteur convertissant des messages d’entrée en messages de sortie et traiter celui-ci comme un système dynamique autonome, c’est-à-dire clos au niveau de son information et de son organisation, sans entrée ni sortie, étant lui-même la source de ses déterminations. L’accent est mis ainsi sur la cohérence interne et l’autonomie du cerveau vu comme un réseau complexe de calculateur élémentaire en interaction. Au cœur même du néoconnexionnisme, terme large caractérisant ces différentes approches, le courant Attractor Neural Network animé principalement par des physiciens étudie les propriétés émergentes de réseaux de neurones fortement interconnectés et s’intéresse non plus seulement à leurs capacités computationnelles, mais à leurs comportements propres encore appelés attracteurs, terme emprunté à la théorie des systèmes dynamiques. De tels réseaux possèdent une multiplicité d’attracteurs et ils tendent vers l’un ou l’autre d’entre eux en fonction de ces conditions initiales. La vie d’un réseau peut ainsi se concevoir comme une trajectoire dans son paysage d’attracteurs, le passage de l’un à l’autre résultant de perturbations ou de chocs en provenance du monde extérieur. A noter qu’il n’y a alors plus de corrélation entre les opérations réalisées par le système et l’organisation anatomo-fonctionnelle de celui-ci car c’est le fonctionnement global du réseau qui va faire émerger cette opération et non pas des modules opérationnels mis bout à bout. Comme nous l’avons énoncé en tout début, ce sont deux conceptions différentes qui s’opposent ici, celle qui fait du système visuel une simple machine à transformer les signaux entrants en signaux sortants, et celle qui donne au système sa cohérence interne propre, dont les caractéristiques ne sont pas le reflet des stimulations sensorielles. Néanmoins ces deux conceptions vont être complémentaires dans l’étude expérimentale du système visuel, le but final étant d’obtenir l’organisation du système et les lois régissant sa dynamique. Ainsi, un expérimentateur va produire de nombreuses données quantitatives structurelles sur l’anatomie des différents neurones, leurs propriétés physiologiques intrinsèques et leurs modes d’interaction au niveau synaptique, permettant de définir la connectivité du réseau et les propriétés dynamiques de celui-ci. D’un autre côté il va décrire le réseau neuronal comme un système produisant une opération entre une entrée et une sortie qu’il aura lui-même définie et en corrélant l’aspect structurel et fonctionnel, il va faire émerger une organisation. L’outil informatique va ensuite permettre de simuler et tester différentes organisations en produisant des modèles de réseaux de neurones. Il faut vérifier ensuite si le réseau ainsi simulé, va reproduire l’opération entre l’entrée et la sortie et d’autre part si les paramètres utilisés pour le simuler sont proches des paramètres mesurés sur la structure biologique. La caractérisation de l’opération entre l’entrée et la sortie est utilisée ici comme une description fine du fonctionnement du système et non plus comme un moyen d’accéder directement à son organisation. ■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 40
Ruth LUTHI-CARTER
ruth.luthi-carter@epfl.ch Laboratoire de neurogénomique fonctionnelle, Faculté SV, EPFL
Etienne REGULIER
etienne.regulier@epfl.ch Laboratoire d’étude sur la neurodégénérescence, Faculté SV, EPFL
Puces, gènes et ADN
e nouveau Laboratoire de Neurogénomique Fonctionnelle de l’EPFL (LNGF), dirigé par le Professeur Ruth Luthi-Carter, vise à développer la technologie des profils d’expression de gènes par puces à ADN pour découvrir l’implication de nouvelles molécules dans les fonctions cérébrales et dans les maladies neurodégénératives. Le LNGF utilisera cette technologie de haute capacité de traitement pour étudier les effets d’agents pharmacologiques, environnementaux et de protéines pathogènes sur le patrimoine génétique des mammifères. Cette information sera alors utilisée pour la compréhension de modifications moléculaires dans les processus neuronaux.
Image d’une micropuce à ADN. Chaque signal fluorescent correspond au niveau d’expression d’un gène particulier. Cette puce a été exposée à l’acide nucléique du cerveau d’un animal huntingtonien traité avec un médicament expérimental
La technologie d’étude de l’expression de gènes est basée sur la fixation de sondes fluorescentes sur des séquences ADN spécifiques déposées sur un support solide (la puce). Ainsi, en un seul passage et après acquisition numérique quantitative de l’image de la puce analysée (par scanner), les modifications d’expression de plus de 10’000 gènes sont accessibles. Ainsi, en utilisant deux ou trois supports de ce type, l’effet d’un traitement particulier sur le génome complet d’un mammifère est théoriquement couvert. Le développement d’une plate-forme technologique permettant une analyse de l’expression des gènes est très récent. Le domaine de la génomique fonctionnelle a connu une expansion énorme grâce à l’analyse et à la compilation des séquences de l'ADN par une collaboration internationale. La commercialisation d’équipements permettant la création et l’archivage de puces à ADN de haute densité a également permis une nouvelle avancée de la technologie. Cette approche peut être appliquée de manière globale pour étudier les différences entre cellules et tissus dans différentes conditions. La technologie à puces ADN représente donc un outil bioanalytique très puissant qui, on l’imagine aisément, génère un volume de données à traiter extrêmement important. Afin d’analyser, traiter et stocker ces données, une collaboration étroite des biologistes avec leurs homologues biostatisticiens et bioinformaticiens est
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 41
Puces, gènes et ADN
nécessaire. En effet, en plus de l’extraction de données sur les changements d’expression de gène, une part importante des développements futurs portera sur l’extrapolation de la fonction de protéines cellulaires à partir du gène. Le développement de bases de données et de modèles moléculaires (algorithme) joueront un rôle primordial. Dans ce cadre, le LNGF collaborera avec ces spécialistes au sein de la communauté scientifique lausannoise mais également dans le cadre d’un consortium suisse (nationwide Swiss Array Consortium - SAC). Ces interactions permettront de mettre en relation des experts sur les aspects divers du traitement des puces à ADN, i.e. fabrication des puces, détection par fluorescence, traitement de l’ARN (acide ribonucléique), de l’ADN (acide désoxyribonucléique), analyse des séquences de protéines, des bases de données et amélioration des stratégies d’extraction. La communauté scientifique de l’arc lémanique travaille également à la mise en réseau des chercheurs intéressés par l’application des puces à ADN. On peut notamment citer la création du centre intégratif de génomique (CIG) et du centre d’ADN à puces (DAF – DNA Array Facility) tous deux situés sur le campus universitaire lausannois. Ruth Luthi-Carter a préalablement étudié la maladie de Huntington au Massachusetts General Hospital de Boston. Ses travaux ont notamment porté sur la compréhension du rôle toxique de l’huntingtine, protéine responsable de la maladie d’Huntington. En effet, alors que la forme normale de cette protéine est nécessaire au maintien de certaines fonctions cellulaires, la forme mutée de l’huntingtine induit progressivement la mort sélective des cellules neuronales. Cette dysfonction induite provient d’une perturbation importante de la machinerie cellulaire de la cellule notamment au sein de l’ADN et des facteurs essentiels à la production des composants cellulaires. Ainsi, les travaux de Ruth LuthiCarter ont démontré que la transcription, processus par lequel une séquence d’ADN fournit l’information à la cellule, était affectée par l’huntingtine mutée. De ces observations et par l’étude des gènes affectés, les mécanismes pathologiques conduisant à la mort cellulaire pourront être élucidés. Le LNGF poursuivra donc au sein de l’EPFL ces études fondamentales sur l’implication génique dans la maladie d’Huntington mais étudiera également des traitements de thérapie génique envisagés pour diverses maladies neurodégénératives en collaboration avec l’équipe du Professeur Aebischer (LEN). La compréhension de ces mécanismes moléculaires devrait permettre de trouver un moyen de bloquer le processus pathologique par des traitements thérapeutiques appropriés. Ces informations sont particulièrement cruciales pour les maladies neurodégénératives pour lesquelles il n’existe encore aucun traitement efficace. Le LNGF évaluera également les effets bénéfiques potentiels de traitements expérimentaux agissant sur la transcription des gènes. En plus de ses travaux sur les maladies neurodégénératives, le laboratoire s’intéressera à l’étude des fonctions cérébrales au niveau moléculaire. Alors que chez les organismes primitifs le nombre de gènes activés par un facteur donné est relativement bien caractérisé, peu de chose sont connues concernant les gènes cibles d’un facteur de transcription chez les mammifères.Ceci est particulièrement vrai pour les cellules neuronales très hétérogènes. «Je suis personnellement très enthousiaste par la participation du LNGF au Swiss Array Consortium» confie Ruth Luthi-Carter. «Je pense que ce forum permettra aux chercheurs suisses de travailler ensemble vers un but commun, à savoir exploiter l’énorme quantité d’information générée par le séquençage du génome humain, information désormais accessible à la communauté scientifique. Ce genre d’approche multidisciplinaire mènera assurément à des collaborations fructueuses entre biologistes et informaticiens afin d’exploiter l’ensemble des possibilités de cette technologie très prometteuse qu’est l’analyse par puces ADN».■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 42
Etienne REGULIER
etienne.regulier@epfl.ch Laboratoire d’étude sur la neurodégénérescence, Faculté SV, EPFL
Application de la stéréologie aux neurosciences Introduction L’un des problèmes majeurs posé en analyse d’image, notamment à caractère biologique, réside dans le fait que les mesures de différents paramètres ne peuvent se faire que sur des coupes de l’échantillon. De fait, l’analyse d’image ne permet alors d’accéder qu’à des paramètres en 2 dimensions alors que la prise en compte de ces paramètres dans 3 dimensions pourrait apporter un complément d’informations biologiques significatif. La stéréologie est une méthode statistique permettant l’estimation de quantités géométriques tels que le nombre, la longueur, l’aire, la surface et le volume d’évènements à l’intérieur d’un objet donné. Au-delà des équations mathématiques et principes souvent complexes régissant cette méthodologie, la stéréologie devient un outil indispensable dans le domaine des neurosciences, par exemple, en permettant une analyse non biaisée de l’efficacité de tel ou tel traitement appliqué au cerveau dans son entité sans pour autant nécessiter une analyse fine et détaillée de chaque section. Aujourd’hui, de puissants systèmes d’analyse d’image, couplés à un microscope équipé d’une caméra numérique permettent d’accéder à cette analyse stéréologique en oubliant presque l’aspect équation pour se focaliser sur l’étude biologique. La stéréologie représente donc un modèle d’intégration de la biologie, de l’informatique et de l’imagerie en système autonome et interdépendant, élément indispensable aux études réalisées en biologie.
Principes de stéréologie Dans le cadre d’une étude biologique, quelle qu’elle soit, le chercheur posera une hypothèse puis rassemblera des données pour évaluer cette hypothèse. Les données ainsi récoltées portent sur la superficie (e.g. d’une lésion), le nombre (e.g. de cellules), la longueur (e.g. de fibres nerveuses) ou encore le volume des spécimens à comparer. En examinant et en comparant ces mesures, les chercheurs pourront ainsi prouver ou réfuter l’hypothèse posée. Cependant, toute expérience ne peut être considérée comme valide que si les données ont été rassemblées d’une façon fiable et impartiale. La stéréologie est une méthode impartiale admise pour rassembler des informations sur la superficie, le nombre, la longueur, et le volume d’un spécimen. La méthode se fonde sur le prélèvement aléatoire uniforme systématique du spécimen. Si l’on prend l’exemple d’un jeu de 52 cartes dans lequel on souhaite prélever 4 cartes de manière aléatoire uniforme systématique, on sélectionnera d’abord un début aléatoire de 1 à 13 puis l’on prendra cette carte et chaque treizième carte ensuite. De ce principe essentiel ont émergé, à partir du 15ème siècle, un certain nombre de développements critiques fournissant les bases théoriques permettant des évaluations impartiales des quatre paramètres stéréologiques de premier ordre: nombre (n), volume (v), superficie (s), et longueur (l).
Paramètres stéréologiques de 1er ordre En 1635, Buonaventura Cavalieri prouve que le volume moyen d’une population peut être estimé d’une façon théoriquement impartiale par la somme des aires coupées au travers des objets. La méthode de Cavalieri tient compte de l’évaluation morphologique du volume total de n’importe quelle population d’objets à partir de l’aire sur un prélèvement systématique aléatoire de sections. En 1777, le naturaliste Georges Leclerc Buffon présente à l’académie royale des sciences à Paris le problème d’aiguille. Il prouve qu’une aiguille jetée en l’air au hasard sur une grille de lignes coupe
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 43
Application de la stéréologie aux neurosciences
chaque ligne avec une probabilité directement proportionnelle à la longueur de l’aiguille et fournit ainsi la base théorique pour estimer la longueur et la surface totale d’objets de forme non géométrique. En 1984, Sterio édite le principe du disector, la première méthode impartiale pour estimer le nombre vrai d’objets dans un volume donné de tissu.
Principe du disector et estimation du nombre Le disector est une sonde 3-D géométrique pour compter des nombres d’objets (cellules) avec une probabilité qui est inchangée par la taille, la forme, ou l’orientation des objets. Elle s’apparente à un carré placé régulièrement au sein de l’échantillon. Chaque fois qu’un objet coupe le carré, il est totalisé. Les applications pratiques du principe du disector incluent le comptage d’objets avec deux plans physiques (disector physique) ou deux plans optiques (disector optique).
Principe de Cavalieri et estimation du volume En utilisant le principe de Cavalieri, tout le volume moyen d’un espace arbitraire de référence peut être estimé à partir des secteurs sur les sections systématiques uniformes aléatoires. La sonde géométrique est dans ce cas un plan 2-D. Plusieurs méthodes existent pour estimer le nombre d’objet par aire sur chacune des surfaces de coupe. L’une des méthodes les plus efficaces est le comptage de points.
Estimation de la longueur et de l’aire Des sondes géométriques en combinaison avec le prélèvement systématique aléatoire sont employées. Des sondes géométriques avec deux dimensions (plans) et une dimension (lignes) sont utilisées pour estimer les paramètres d’aire et de longueur sur des sections de tissu. Par exemple, l’estimation de la longueur de neurites (structures plus ou moins linéaires) peut être accomplie en utilisant une sphère. Puisque la surface d’une sphère est isotrope (orientation égale dans toutes les directions), la probabilité d’une intersection est proportionnelle à la longueur du dispositif linéaire. Cette probabilité, qui est basée sur le problème de l’aiguille de Buffon du 18ème siècle, tient compte de l’évaluation de la longueur totale pour les objets linéaires minces sur des sections de tissu.
Paramètres stéréologiques de 2ème ordre Variation Biologique La variation biologique représente la source la plus importante de variation de l’analyse stéréologique. Elle fournit la variation vraie entre les individus qui sert à analyser des différences possibles au sein de chaque groupe. Par le biais des analyses statistiques précédemment réalisées, cette variation biologique peut être estimée par détermination des coefficients de variation (CV) et d’erreur (CE).
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 44
Application de la stéréologie aux neurosciences
Erreur d’échantillonnage L’erreur d’échantillonnage contribue de manière significative à augmenter le coefficient d’erreur final d’une analyse stéréologique d’une population (e.g. cerveaux de rats injectés avec un médicament). D’une manière générale, une stratégie efficace consiste à effectuer un prélèvement relativement léger pour chaque cerveau étudié mais d’augmenter le nombre de cerveaux analysés. De fait, il faut savoir que la variation biologique d’un individu à un autre est typiquement de l’ordre de 20 à 30%. On comprend donc aisément l’intérêt d’augmenter le nombre d’individu étudiés et non pas le nombre de coupes par individu.
Informatique et Stéréologie Le développement de logiciels de calcul puissants couplés à du matériel de microscopie performant permet aujourd’hui d’employer l’analyse stéréologique sans devoir maîtriser les formules statistiques et principes décrits plus hauts. Cet outil ne dispense pas des bases de stéréologie mais permettent de donner à l’utilisateur non statisticien les moyens d’une analyse précise et reproductible. L’un des système les plus performants actuellement sur le marché est sans aucun doute la solution intégrative de MicroBrightField. Inc. (http: //www.microbrightfield.com). Couplée au logiciel StereoInvestigator™, cette solution permet de traiter des images prises avec des appareils photo argentiques ou numériques, des microscopes légers ou confocaux, des microscopes électroniques, et des sources tomographiques de balayage. Lorsque l’ensemble du système est associé en direct à un microscope optique motorisé (système disponible à l’EPFL - Faculté des Sciences de la Vie - LEN), le logiciel StereoInvestigator™ utilise la platine motorisée dans l’axe X, Y et Z et commandée par ordinateur pour la navigation dans les sections de tissu et pour exécuter des balayages aléatoires systématiques efficaces. Le logiciel comporte aussi des outils sophistiqués de tracé anatomique permettant de déterminer des régions pour y placer les sondes stéréologiques, de tracer les zones de distribution de cellules, de préparer des cartes anatomiques pour la publication, et d’exécuter des analyses morphométriques détaillées. Enfin, les résultats d’évaluation et les coefficients d’erreur de chaque analyse sont automatiquement calculés et présentés sous forme de bilan pour chaque catégorie de mesure (longueur, volume, aire, nombre,…).■
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 45
HIPPOCRATE, LE GENE ET LA PUCE Flash informatique spécial été 26 août 2003
Sommaire Clavitorial Appoline RAPOSO DE BARBOSA
2
Editorial Nicolas BOUCHE
3
L’Ordinateur dans les Sciences du Comportement: Outil ou Modèle? Boris BURLE & Andras SEMJEN
5
Interfaces Cérébrales José del R. MILLÁN & Samy BENGIO
9
Le Martien, les champignons et les réseaux de neurones Stevan HARNAD, Angelo CANGELOSI & Michèle COULMANCE
15
Concours de la meilleure nouvelle La peste bioionique Monique LOUICELLIER
21 22
Langage et musique sous l’électrode Cyrille MAGNE, Daniele SCHÖN, Corine ASTÉSANO & Mireille BESSON
25
Développement d’un nouvel implant orthopédique utilisé comme drug delivery system Approche théorique par la méthode des éléments finis Dominique P. PIOLETTI & Bastian PETER
33
Analyse biomécanique de la reconstruction du Ligament Croisé Postérieur (LCP) du genou Méthode par éléments finis Nirinarilala RAMANIRAKA, Alexandre TERRIER & Olivier SIEGRIST
35
De l’approche boîte noire au connexionnisme, confrontation des différentes méthodes d’investigation du système visuel Cyril MONIER
37
Puces, gènes et ADN Ruth LUTHI-CARTER & Etienne REGULIER
41
Application de la stéréologie aux neurosciences Etienne REGULIER
43
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 46
Flash informatique Les articles ne reflètent que l’opinion de leurs auteurs. Toute reproduction, même partielle, n’est autorisée qu’avec l’accord de la rédaction et des auteurs. Rédacteurs en chef: Nicolas Bouche & Michèle Coulmance, fi@epfl.ch Mise en page & graphisme: Appoline Raposo de Barbosa Dessins: Pécub Comité de rédaction: Omar Abou Khaled, Jean-Daniel Bonjour, Milan Crvcanin, Jean-Damien Humair, Jacqueline Dousson, Pierre Kuonen, Maciej Macowicz, Jacques Menu, Philippe Pichon, Daniel Rappo, François Roulet, Christophe Salzmann & Jacques Virchaux Impression: Atelier de Reprographie EPFL Tirage: 4000 exemplaires Adresse Web: http://sic.epfl.ch/publications/ Adresse: SIC-SA EPFL, CP 121, CH-1015 Lausanne Téléphone: +41 21 69 32246 & 32247
FI spécial été – 26 août 03 Hippocrate, le gène et la puce Page 47
Hippocrate, le gène et la puce
ISSN 1420-7192