INTELLIGENCE ARTIFICIELLE

Page 1

INTELLIGENCE ARTIFICIELLE Par Ahmed JEBRANE


‘’Celui qui deviendra le leader dans le domaine de l’intelligence artificielle, deviendra le souverain du monde’’. Vladimir Poutine L'intelligence artificielle est partout ces jours-ci, de l'assistant virtuel Siri, Cortana ou Alexa dans votre cuisine aux algorithmes qui décident de votre aptitude à un emploi ou à une hypothèque. Mais qu'est-ce que c'est exactement ? La définition est importante car elle dicte dans une large mesure comment nous pensons et réagissons à l'impact de l'IA. Alors que le potentiel de l'IA à améliorer le bien-être humain est incontestable, son impact sur la politique démocratique est beaucoup plus ambivalent. D'une part, nous bénéficions de plates-formes de communication basées sur l'IA qui facilitent le débat public, connectent les gens et facilitent la circulation de l'information. Toutes ces caractéristiques sont des éléments essentiels du discours et de la délibération démocratiques. Cependant, il existe des préoccupations légitimes quant au fait que les applications de l'IA peuvent être utilisées pour saper la politique démocratique. Ces préoccupations vont au-delà des inquiétudes sur l'ingérence électorale: elles vont au cœur de la politique démocratique et de nos relations les uns avec les autres en tant que citoyens, entre les citoyens et leurs élus, et entre les citoyens et les agences et organismes publics dont le rôle est de servir et de protéger le Public. Si l' IA est quelque chose qui surpasse les humains par définition, il semble logique de lui faire confiance pour identifier les personnes qui devraient être arrêtées et fouillées via la reconnaissance faciale, ou pour juger quels délinquants devraient obtenir la probation. S'il ne s'agit que d' algorithmes , il devient beaucoup plus facile de balayer les problèmes de biais et d'injustice comme de simples problèmes techniques. L'IA, loin d'être quelque chose d'abstrait et d'objectif, est à la fois matérielle et intrinsèquement liée aux structures de pouvoir. La façon dont elle est fabriquée implique d'extraire des ressources des personnes et de la planète, et la façon dont elle est utilisée reflète les croyances et les préjugés de ceux qui l'utilisent. Le débat sur les effets de l'intelligence artificielle est dominé par deux thèmes. L'un est la peur d'une singularité, un événement dans lequel


une IA dépasse l'intelligence humaine et échappe au contrôle humain, avec des conséquences potentiellement désastreuses. L'autre est l'inquiétude qu'une nouvelle révolution industrielle permette aux machines de perturber et de remplacer les humains dans tous , ou presque tous les domaines de la société, des transports aux militaires en passant par les soins de santé. Il existe également une troisième manière dont l'IA promet de remodeler le monde. En permettant aux gouvernements de surveiller, comprendre et contrôler leurs citoyens beaucoup plus étroitement que jamais auparavant, l'IA offrira aux pays autoritaires une alternative plausible à la démocratie libérale, la première depuis la fin de la guerre froide. Cela suscitera une concurrence internationale renouvelée entre les systèmes sociaux. L’intelligence artificielle est en train de révolutionner scientifiquement et technologiquement les domaines de recherches au point de bouleverser la configuration même de la société internationale, tout en imposant une nouvelle redéfinition de la puissance et de la conflictualité. Elon Musk, fondateur de SpaceX et Tesla est allé encore plus loin dans un tweet: La concurrence pour la supériorité de l'IA au niveau national serait la cause la plus probable de la 3éme guerre mondiale. En effet, les deux piliers essentiels de la démocratie, lesquels sont la liberté et l'égalité, se retrouvent de jour en jour érodés par l’intelligence artificielle. Ainsi, dans leur course vers la domination du monde, les américains et les chinois ne ménagent aucun effort pour asseoir leur pouvoir, en procédant à de véritables guerres, opérées sur différents fronts de la planète par leurs guerriers GAFAMI et BHATX. Le 11 février 2019, Donald Trump signe un décret sur le maintien du leadership américain en intelligence artificielle  avec comme condition sine qua non, la perpétuation de la domination du pays dans un champ scientifique et technologique. Or, loin d’être sans fondement, ces décisions sont le témoin du statut fondamental de la technologie dans l’histoire de la puissance des États Unis et de l’enjeu qu’elle symbolise à un moment crucial pour son avenir sur la scène internationale. Cette initiative est le résultat d’une prise de décision découlant des énormes progrès technologiques qu’enregistre la


Chine ces dernières années et, par conséquent, la menace qu’elle représenterait éventuellement pour les États-Unis. L’ascension technoscientifique de la Chine et la fonction cardinale de la technique dans la tradition politique dans la construction de l’hégémonie états-unienne, constituent l’architectonique du vieux livre de la rivalité sino-américaine. Les technologies émergentes, designées sous l’acronyme NBIC (nanotechnology, biotechnology, information technology, cognitive science), ont été choisies et imposées comme des instruments de puissance qui commandent tous les autres. l'IA est en train de déterminer un nouvel ordre international pour les décennies à venir. Elle modifiera certains axiomes de la géopolitique à travers de nouvelles relations entre territoires. L’association de multinationales, soutenues ou contrôlées à des degrés divers par les États qui ont financé le développement des bases technoscientifiques sur lesquelles ces entreprises pourraient innover et prospérer, ces nouveaux seigneurs des triades (plateforme, données, médias), sont en phase de montée en puissance. Les nouvelles technologies dotent les gouvernements de capacités sans précédent pour surveiller, suivre et surveiller les individus impactant ainsi profondément la relation entre le citoyen et l'État . Pendant que les gouvernements démocratiques ayant de fortes traditions de primauté du droit sont tentés d'abuser de ces nouvelles capacités, dans les pays autoritaires, les systèmes d'IA peuvent directement encourager le contrôle et la surveillance nationaux, aidant les forces de sécurité internes à traiter d'énormes quantités d'informations , y compris les publications sur les réseaux sociaux, les SMS, les e-mails et les appels téléphoniques , plus rapidement et plus efficacement. La police peut identifier les tendances sociales et les personnes spécifiques qui pourraient menacer le régime sur la base des informations découvertes par ces systèmes. Dans ces états où les institutions n'ont pas de comptes à rendre et les violations fréquentes des droits de l'homme comme la Chine, les systèmes d'IA causeront probablement des dommages plus importants. Ses dirigeants ont adopté avec enthousiasme les technologies d'IA et ont mis en place l' état de surveillance le plus sophistiqué au monde dans la province du Xinjiang , en suivant les


mouvements quotidiens des citoyens et l'utilisation des smartphones. Les systèmes de surveillance au Xinjiang et au Tibet ont été décrits comme orwelliens. Pour simple exemple, des entreprises chinoises comme Huawei et ZTE construisent des «villes intelligentes» au Pakistan , aux Philippines et au Kenya , dotées d'une technologie de surveillance intégrée étendue. Par exemple, Huawei a équipé Bonifacio Global City aux Philippines de caméras haute définition connectées à Internet qui fournissent une surveillance de sécurité intelligente 24h / 24 et 7j / 7 avec des analyses de données pour détecter la criminalité et aider à gérer le trafic. Hikvision , Yitu et SenseTime fournissent des caméras de reconnaissance faciale de pointe pour une utilisation dans des endroits comme Singapour , qui a annoncé la mise en place d'un programme de surveillance avec 110000 caméras montées sur des lampadaires autour de la ville-État. Le Zimbabwe est en train de créer une base de données nationale d'images qui peut être utilisée pour la reconnaissance faciale. Cependant, vendre des équipements de pointe à des fins lucratives est différent du partage de technologie dans un but géopolitique explicite. Ces nouvelles capacités peuvent semer les graines d'une surveillance mondiale: alors que les gouvernements deviennent de plus en plus dépendants de la technologie chinoise pour gérer leurs populations et maintenir le pouvoir, ils devront faire face à une pression accrue pour s'aligner sur le programme chinois. Mais pour l'instant, il semble que la motivation principale de la Chine soit de dominer le marché des nouvelles technologies et de gagner beaucoup d'argent dans le processus. L’exploitation de ces technologies présente un modèle effrayant pour les autocrates et constitue une menace directe pour les sociétés démocratiques ouvertes. Bien qu'il n'y ait aucune preuve que d'autres gouvernements aient reproduit ce niveau de surveillance de l'IA, les entreprises chinoises exportent activement les mêmes technologies sous-jacentes à travers le monde. Il est probable que l'intelligence artificielle sera utilisée pour exploiter les faiblesses inhérentes à la nature humaine à une échelle, une vitesse et un niveau d'efficacité jamais vus. Des adversaires comme la Russie pourraient poursuivre des objectifs en utilisant ces


manipulations pour remodeler subtilement la façon dont ses adversaires voient le monde qui les entoure, fabricant efficacement leur réalité. Si même certaines de nos prédictions sont exactes, toute gouvernance reposant sur l'opinion publique, la perception de masse ou la participation citoyenne est menacée, car l'une des caractéristiques humaines est la facilité avec laquelle nous pouvons redéfinir à tort ce que nous vivons. Cette faille peut aller du théorème de Thomas, à l’effet Pygmalion en passant par le constructivisme social. On peut également apprendre aux machines à exploiter ces failles plus efficacement que les humains: les algorithmes d'intelligence artificielle peuvent tester ce que le contenu fonctionne et ce qui ne fonctionne pas encore et encore sur des millions de personnes à grande vitesse, jusqu'à ce que leurs cibles réagissent comme souhaité. Considérez le rôle de la Russie dans le vote britannique de 2016 pour se retirer de l'Union européenne (Brexit). Il est prouvé que les comptes Twitter liés à la Russie ont envoyé plus d'un millier de tweets à partir de 3800 comptes faisant la promotion d'un vote pro-Brexit le jour du vote. Ces tweets semblent avoir attisé les flammes du camp pro-Brexit sur Twitter au fil du temps, le camp anti-Brexit réagissant quelques jours avant les élections. Les technologies émergentes, notamment les réseaux antagonistes génératifs ou Generative Adversarial Networks, le traitement du langage naturel et l'informatique quantique, pourraient rendre ces scénarios beaucoup plus efficaces. À l'avenir, avec de tels outils n’importe qui pourraient adapter les messages de tweets en combinant les caractéristiques des destinataires et leurs comportements sur diverses plateformes en ligne en fonction des données des utilisateurs commercialisés légalement auprès de courtiers en données, ou des données illégales acquis auprès des pirates informatiques, et les données qu'ils récupèrent eux-mêmes. Ces opportunités sont disponibles aujourd'hui, et certaines peuvent devenir de plus en plus faciles à exploiter avec l'intelligence artificielle. À l'avenir, par exemple, des puissances comme la Russie pourraient interroger ces flux de données pour adapter leurs messages et les tester sur les plateformes de médias sociaux pour identifier les messages les plus efficaces. Ces puissances pourraient


alors modifier ces messages testés en conséquence et les déployer auprès des utilisateurs et de leurs réseaux sociaux via une grande variété de médias en ligne (par exemple, les plateformes de médias sociaux traditionnels, la réalité augmentée, les dispositifs de réalité virtuelle ou les interfaces cerveau-ordinateur non invasives). Actuellement, une grande partie de cela se fait manuellement, mais l'intelligence artificielle permet un changement d'échelle. Les technologies émergentes permettront à cette boucle de raffinement itératif de se produire presque instantanément, en temps réel, et à une échelle affectant beaucoup plus de personnes que lors du vote sur le Brexit. Les humains sont et ont toujours été vulnérables à être trompés, provoqués, conditionnés, trompés ou autrement manipulés. Depuis les années 1960, l'armée soviétique et les organisations russes subséquentes ont reconnu les possibilités d'exploiter cette vulnérabilité. C'est pourquoi les Soviétiques ont développé un programme de recherche formel, appelé théorie du contrôle réflexif, pour modéliser la manière dont on pouvait manipuler les perceptions de la réalité des cibles. Vladimir Lefebvre, psychologue et mathématicien soviétique et américain, est le père du contrôle réflexif qu’il a théorisé dans les années 60. La théorie se concentre sur les moyens de transmettre stratégiquement des informations aux cibles d'une manière qui modifie subtilement les motivations et la logique de leurs décisions. L'objectif final est d'amener les gens à faire quelque chose en leur faisant croire que c'est dans leur meilleur intérêt, même si ce n'est pas le cas. L'un des principaux objectifs est d'interférer dans le processus de prise de décision d’un groupe de personnes. Cet objectif est souvent atteint par l'utilisation de la désinformation, la ruse, ou un autre stratagème. Pour la Russie, l'une des principales méthodes reste l'utilisation de la théorie du contrôle réflexif par la distraction , la surcharge, l'épuisement, la division, la tromperie, la paralysie, la dissuasion, la pression, la suggestion, la provocation.... Ce principe peut être utilisé contre des processus décisionnels humains-mentaux ou informatisés. La théorie est similaire à l’idée de gestion de la perception, sauf qu'elle tente de contrôler plus que gérer un sujet.


Le contrôle réflexif, recours à la gestion réflexive particulièrement important dans les domaines de l’activité humaine tels que la politique et la diplomatie, est défini comme un moyen de transmettre à un partenaire ou un adversaire spécialement préparé des informations pour l'incliner à prendre volontairement la décision prédéterminée souhaitée par l'initiateur de l’action. Même si la théorie a été développée il y a longtemps en Russie, elle est encore en cours de raffinement. La preuve récente en est la parution, en février 2001, d'une nouvelle revue russe connue sous le nom de Reflexive Processus et contrôle. Le journal n'est pas simplement le produit d'un groupe de scientifiques mais, comme le suggère le comité de rédaction, le produit de certains des principaux instituts de sécurité nationale de Russie, et s'enorgueillit de quelques membres étrangers également. Il existe d'innombrables exemples des Russes utilisant le contrôle réflexif. En octobre 1993, par exemple, les législateurs russes ont repris leur propre Parlement pour plaider en faveur d'un retour au communisme. Les autorités ont décidé d'autoriser les rebelles à occuper un poste de communication de la police, leur donnant ainsi accès à un canal de communication sécurisé alors utilisé par la police pour transmettre de fausses conversations entre des représentants du gouvernement au sujet d'un projet de prise d'assaut du bâtiment du Parlement occupé. Après avoir entendu ce message, l'un des chefs rebelles, le président du Parlement, Ruslan Kashbulatov, a appelé la foule de partisans à s'emparer d'une chaîne de télévision locale, première étape d'un coup d'État. En obtenant Kashbulatov de faire cette demande publique à la violence, les autorités russes ont créé une justification pour prendre d'assaut le Parlement et arrêter les dissidents . De même, les Allemands de l'Est ont reconnu le pouvoir de la réalité fabriquée pour maintenir le contrôle interne. À partir des années 1970, leur ministère de la Sécurité d'État, connu sous le nom de Stasi, a élargi la portée de son travail de l'abus physique de cibles comme la torture ou les exécutions pour inclure un certain type d'abus psychologique. La Stasi a appelé cette technique Zersetzung , qui se traduit vaguement par «décomposition». La RDA (1949-90) a créé le ministère de la Sûreté de l'Etat (Stasi) en 1950. La Stasi s'est


présentée comme le successeur des services secrets du KPD. Mais, contrairement à l'ancienne pratique communiste de Zersetzung , la tâche de la police secrète de l'Allemagne de l'Est n'était pas de saper l'autorité mais de protéger la dictature communiste. Son objectif principal était donc de dissuader les individus et les groupes d'activités considérées comme dangereuses pour l'État. Les méthodes utilisées par la Stasi étaient également différentes. Plutôt que de diffuser de la propagande dans le but de persuader les gens de changer de camp ou de collaborer, la Stasi a utilisé Zersetzung pour créer un malaise psychologique et saper la confiance entre amis et personnes partageant les mêmes idées. Il s'agissait d'un effort scientifique organisé pour collecter des informations sur les gens, puis les utiliser de manière à détruire leur sentiment de soi dans la vie privée et publique. Les agents de la Stasi sont entrés par effraction dans les maisons des cibles pour réorganiser leurs meubles, voler des vêtements ou éteindre leurs horloges. Ils envoyaient des photos compromettantes à leurs proches, discréditaient les gens sur leur lieu de travail, retiraient des enfants de parents dissidents ou leur faisaient croire qu'ils étaient malades mentaux, ce que l'on appelle aujourd'hui le gaz . Les victimes de la décomposition ont eu du mal à comprendre pourquoi leur vie devenait méconnaissable. Zersetzunga été déployée contre des dissidents et des artistes qui critiquaient l'État, des groupes d'opposition basés dans l'Église, des militants pour la paix, des candidats à l'émigration et des jeunes rebelles. Contrairement à d'autres méthodes répressives inférieures au niveau du droit pénal, Zersetzung a généralement réussi tant que ses sources n'ont pas été détectées. Cependant, Zersetzungétait tout sauf une pratique uniforme. Chaque action a été adaptée pour s'adapter au caractère individuel de la ou des cibles. Des faiblesses humaines ont été identifiées afin de les exploiter. Qu'il s'agisse de problèmes familiaux, de problèmes de santé mentale, d'homosexualité, de dépendance à l'alcool, d'ambition professionnelle, de peur de perdre ses enfants - la Stasi a ciblé le point le plus vulnérable de chaque individu. Des rumeurs et des photographies manipulées se sont répandues afin de semer la méfiance et la confusion. Les dissidents ont été confrontés à des


situations menaçantes telles que des interrogatoires arbitraires ou des dommages à leurs effets personnels. L'avancement professionnel a été bloqué, les relations familiales et autres ont été détruites, des interdictions de voyager ont été imposées. La Stasi pourrait également essayer de criminaliser ou diffamer ses victimes en tant qu'informateurs. Dans un certain nombre de cas, après de nombreuses années de Zersetzung, des individus ont été contraints d'émigrer. Détruire la carrière des gens était une méthode courante de Zersetzung . Parmi des centaines de victimes figuraient d'éminents dissidents tels que Rudolf Bahro, Jürgen Fuchs et Robert Havemann. Le traitement infligé à Wolfgang Templin, philosophe et membre éminent de plusieurs groupes de paix et de défense des droits de l'homme, caractérise les techniques de la Stasi. Templin a été limogé de son travail, empêché de recevoir son doctorat et forcé de gagner sa vie avec des petits boulots comme bibliothécaire, pompier et ouvrier forestier. Dans les coulisses, la Stasi a bloqué toutes ses candidatures. Dans le cas de Templin, cependant, la Stasi n'a pas réussi à le forcer à abandonner l'activité politique. En décembre 1985, il devient co-fondateur de l'un des groupes d'opposition les plus importants de la RDA, l'Initiative pour la paix et les droits de l'homme ( Initiative für Frieden und Menschenrechte ). Sur ce, la Stasi publia une série de fausses annonces dans les journaux et envoya de fausses lettres signées du nom de Templin. Le résultat a été une année de terreur psychologique pour toute sa famille, des étrangers frappant à leur porte presque quotidiennement. La Stasi a également diffusé des potins malveillants dans le quartier. Le plus menaçant de tous était les instructions de la Stasi au service de protection de la jeunesse de mettre les enfants de Templin en garde à vue. Pendant ce temps, la famille a reçu un grand appartement. Le but de ce privilège apparent était de créer des soupçons que Templin était un informateur de la Stasi. (En fait, lorsqu'il était étudiant et en tant que membre du Parti socialiste unitaire d'Allemagne [SED], il avait collaboré avec la Stasi, mais il s'était ouvertement et délibérément démasqué en 1975 et il avait quitté le SED en 1983.) Le discréditer davantage, la Stasi a organisé la publication de fausses interviews


dans les médias occidentaux, se plaignant que Templin essayait de dominer le mouvement d'opposition. Après que Templin ait pris part à une manifestation de protestation politique en janvier 1988, lui et sa femme ont été temporairement contraints de quitter la RDA pour l'Allemagne de l'Ouest. Pendant qu'il était là, la Stasi a continué sa Zersetzung , avec le but apparent de forcer Templin à l'exil permanent. La Stasi a déployé un certain nombre de méthodes différentes contre la paix, les droits de l'homme et les groupes environnementaux qui se sont réunis dans l'espace protégé des églises. Des informateurs ont été plantés dans de tels groupes afin d'entraver et de retarder les décisions en faisant circuler des rumeurs et en créant des divisions entre les dirigeants et le reste du groupe. La police secrète a organisé des vols et entretenu la méfiance par des arrestations arbitraires de membres du groupe dans le but de discréditer tous les membres du groupe. Dans le cas du Pankow Peace Circle indépendant ( Friedenskreis Pankow, fondé en 1981 ), des dizaines de membres du SED et de fonctionnaires d'organisations de masse ont été envoyés aux réunions du groupe pour perturber les discussions. En conséquence, le cercle de la paix sombra dans l'insignifiance. Au total, plusieurs milliers de membres de divers groupes environnementaux, de défense des droits de l'homme et de paix ont été soumis au Zersetzung . Malgré cela, de nombreux groupes sont restés en existence pendant des années et de nombreux dissidents ont poursuivi leurs activités malgré les attaques clandestines. La Stasi a utilisé des connaissances vastes et détaillées pour construire des légendes. La méfiance et la désinformation peuvent souvent avoir des effets durables. Dans de nombreux cas, les victimes n'ont pas reconnu les activités perfides de la police secrète. Beaucoup de ceux qui ont exprimé des inquiétudes n'ont pas été crus. Une fois les fichiers de la Stasi rendus accessibles, des dissidents tels que Fuchs et Templin ont pu documenter à quel point ils avaient été attaqués insidieusement et prouver qu'ils n'étaient pas paranoïaques. Cependant, il existe encore des cas douteux qui laissent un sentiment de malaise. On estime qu'environ 5 000


personnes ont subi des dommages psychologiques. Cependant, Zersetzung était tout sauf une pratique uniforme. Chaque action a été adaptée pour s'adapter au caractère individuel de la ou des cibles. Des faiblesses humaines ont été identifiées afin de les exploiter. Qu'il s'agisse de problèmes familiaux, de problèmes de santé mentale, d'homosexualité, de dépendance à l'alcool, d'ambition professionnelle, de peur de perdre ses enfants - la Stasi a ciblé le point le plus vulnérable de chaque individu. Des rumeurs et des photographies manipulées se sont répandues afin de semer la méfiance et la confusion. Les dissidents ont été confrontés à des situations menaçantes telles que des interrogatoires arbitraires ou des dommages à leurs effets personnels. L'avancement professionnel a été bloqué, les relations familiales et autres ont été détruites, des interdictions de voyager ont été imposées. La Stasi pourrait également essayer de criminaliser ou diffamer ses victimes en tant qu'informateurs. Dans un certain nombre de cas, après de nombreuses années de Zersetzung, des individus ont été contraints d'émigrer. Détruire la carrière des gens était une méthode courante de Zersetzung . Parmi des centaines de victimes figuraient d'éminents dissidents tels que Rudolf Bahro, Jürgen Fuchs et Robert Havemann. Le traitement infligé à Wolfgang Templin, philosophe et membre éminent de plusieurs groupes de paix et de défense des droits de l'homme, caractérise les techniques de la Stasi. Templin a été limogé de son travail, empêché de recevoir son doctorat et forcé de gagner sa vie avec des petits boulots comme bibliothécaire, pompier et ouvrier forestier. Dans les coulisses, la Stasi a bloqué toutes ses candidatures. Dans le cas de Templin, cependant, la Stasi n'a pas réussi à le forcer à abandonner l'activité politique. En décembre 1985, il devient co-fondateur de l'un des groupes d'opposition les plus importants de la RDA, l'Initiative pour la paix et les droits de l'homme ( Initiative für Frieden und Menschenrechte ). Sur ce, la Stasi publia une série de fausses annonces dans les journaux et envoya de fausses lettres signées du nom de Templin. Le résultat a été une année de terreur psychologique pour toute sa famille, des étrangers frappant à leur porte presque quotidiennement. La Stasi a également diffusé des


potins malveillants dans le quartier. Le plus menaçant de tous était les instructions de la Stasi au service de protection de la jeunesse de mettre les enfants de Templin en garde à vue. Pendant ce temps, la famille a reçu un grand appartement. Le but de ce privilège apparent était de créer des soupçons que Templin était un informateur de la Stasi. (En fait, lorsqu'il était étudiant et en tant que membre du Parti socialiste unitaire d'Allemagne [SED], il avait collaboré avec la Stasi, mais il s'était ouvertement et délibérément démasqué en 1975 et il avait quitté le SED en 1983.) Le discréditer davantage, la Stasi a organisé la publication de fausses interviews dans les médias occidentaux, se plaignant que Templin essayait de dominer le mouvement d'opposition. Après que Templin ait pris part à une manifestation de protestation politique en janvier 1988, lui et sa femme ont été temporairement contraints de quitter la RDA pour l'Allemagne de l'Ouest. Pendant qu'il était là, la Stasi a continué sa Zersetzung , avec le but apparent de forcer Templin à l'exil permanent. La Stasi a déployé un certain nombre de méthodes différentes contre la paix, les droits de l'homme et les groupes environnementaux qui se sont réunis dans l'espace protégé des églises. Des informateurs ont été plantés dans de tels groupes afin d'entraver et de retarder les décisions en faisant circuler des rumeurs et en créant des divisions entre les dirigeants et le reste du groupe. La police secrète a organisé des vols et entretenu la méfiance par des arrestations arbitraires de membres du groupe dans le but de discréditer tous les membres du groupe. Dans le cas du Pankow Peace Circle indépendant ( Friedenskreis Pankow, fondé en 1981 ), des dizaines de membres du SED et de fonctionnaires d'organisations de masse ont été envoyés aux réunions du groupe pour perturber les discussions. En conséquence, le cercle de la paix sombra dans l'insignifiance. A cet egard, s’il y a lieu de considérer que ces tactiques russes et de la Stasi, ont nécessité dans le temps, de longues recherches et une exécution minutieuse pour perturber ou manipuler les cibles une par une, actuelement, il est plus simple pour l'environnement d'information contemporain et les outils modernes, y compris


l'intelligence artificielle, de pouvoir largement réduire en termes de coûts de transaction de telles manipulations. D'ici 2025, certains prédisent que les humains produiront environ 463 exaoctets par jour, suffisamment pour remplir 212 millions de DVD. Leurs données personnelles circulant sur les réseaux décriront les internautes avec un niveau de détail effrayant. Avec l'accès à ces données de courtiers en données légitimes et illégitimes, l'intelligence artificielle pourrait combiner et faire correspondre leurs achats Amazon, leurs recherches Google, leurs tweets, leurs photos Facebook, leurs soldes de compte, leurs antécédents de crédit, leurs habitudes de visionnage Netflix, leurs recherches en ligne, etc…. La capacité des deepfakes, manipulations générées par l'IA des images faciales, des voix ou du contenu ou du mode de diffusion de leur discours, à permettre une ingérence dans des élections démocratiques qui vont bien au-delà des techniques d'analyse de données associées à Cambridge Analytica. Deepfakes a acquis une notoriété récente lorsqu'un discours prononcé par Nancy Pelosi, la chef des démocrates à la Chambre des représentants des États-Unis, a été modifié pour le rendre trouble et créer l'impression inexacte que Pelosi était en état d'ébriété. Une telle modification est trompeuse et peut saper la crédibilité des politiciens démocratiquement élus ou de ceux qui se préparent à se présenter à des fonctions publiques. Les Shallow Fakes sont créés en traitant manuellement des images, des vidéos ou de l'audio. Deep Fakes utilise l'intelligence artificielle pour superposer des images, des vidéos et des enregistrements sur des fichiers source afin de modifier subtilement qui fait quoi. Les «robots sociaux» basés sur l'intelligence artificielle peuvent mener des conversations comme s'ils étaient une personne réelle. L'intelligence artificielle permettra une augmentation spectaculaire du nombre de ces «personnes» inauthentiques et rendra encore plus difficile de distinguer les conversations humaines des conversations artificielles. L'une des technologies qui contribuent à rendre les deep fakes si réalistes est l'utilisation d'une classe de systèmes d'apprentissage automatique appelés réseaux antagonistes génératifs (GAN). Ces réseaux ont deux modèles de réseaux neuronaux , un générateur et


un discriminateur. Le générateur prend des données d'apprentissage et apprend à les recréer, tandis que le discriminateur essaie de distinguer les données d'apprentissage des données recréées produites par le générateur. Les deux acteurs de l'intelligence artificielle jouent au jeu à plusieurs reprises, chacun s'améliorant de manière itérative dans son travail. Pour le moment, des réseaux antagonistes génératifs sont utilisés pour créer des deep fakes pour de fausses videos porno et de la satire politique . Mais leur pouvoir de manipulation devrait nous inquiéter pour plusieurs raisons. Premièrement, ils peuvent utiliser des intrants tels que le Big Data et le marketing de précision pour faire évoluer la fabrication de contenu comme les deep fakes. Deuxièmement, la compétition itérative entre les réseaux de neurones générateurs et discriminateurs a lieu à la vitesse de la machine et est précise. Troisièmement, la même logique qui sous-tend les réseaux antagonistes génératifs peut être appliquée à d'autres pratiques. Les robots sociaux basés sur l'intelligence artificielle qui vous envoient maintenant des publicités pour votre voiture ou vos soins de la peau pourraient commencer à discuter avec vous , en fait, à expérimenter sur vous , pour tester le contenu qui suscitera les réactions les plus fortes. Vos réponses seraient réinjectées dans un système de type réseau antagoniste génératif dans lequel vous et d'innombrables autres, jouez le rôle de discriminateur, tout en aidant l'intelligence artificielle à apprendre comment mieux vous manipuler dans les stimuli futurs. Vous, ou d'autres personnes comme vous, pourriez lentement être poussés à changer vos attitudes, préférences ou comportements à l'égard d'autres groupes ou sur des questions de politique étrangère ou intérieure. Quiconque est le premier à développer et à utiliser de tels systèmes pourrait facilement s'attaquer à de larges pans du public pour les années à venir. Se défendre contre une telle manipulation massive sera particulièrement délicat étant donné le paysage actuel des médias sociaux, qui permet la multiplication facile d'individus, de personnages et de comptes inauthentiques grâce à l'utilisation de robots ou d'autres formes d'automatisation. Il existe plusieurs moyens de développer des efforts de protection contre l'utilisation de


l'intelligence artificielle pour l'expérimentation sur l'homme. La réglementation gouvernementale est un moyen. Le gouvernement pourrait réglementer les normes d'authentification de l'identité par les entreprises de médias sociaux. Cela pourrait être fait en infligeant une amende aux entreprises qui ne respectent pas ces normes, en accordant des allégements fiscaux aux entreprises qui les respectent ou en taxant les entreprises pour chaque utilisateur qui ouvre un nouveau compte sur les réseaux sociaux. En outre, la Securities and Exchange Commission des États-Unis pourrait élaborer des normes permettant aux sociétés de médias sociaux cotées en bourse de déclarer authentiques, utilisateurs actifs dans leurs dépôts. En 2016, par exemple, la Securities and Exchange Commission a exprimé des inquiétudes quant à la manière dont Twitter a signalé des utilisateurs actifs quotidiens et mensuels sur leurs plates-formes. La Securities and Exchange Commission pourrait élaborer des normes de déclaration des utilisateurs authentiques, ce qui non seulement protégerait les investisseurs, mais imposerait également la transparence pour savoir qui est derrière quel compte sur ces plates-formes. Les fournisseurs de réseaux sociaux peuvent également prendre des mesures pour limiter les comptes multiples ou non authentiques de leur propre initiative. Si ces entreprises estiment qu'il est dans leur intérêt de le faire, il existe de nombreux moyens à leur disposition pour réduire la propagation de comptes non authentiques. Ces mesures pourraient inclure une authentification et une vérification d'identité plus rigoureuses ou peut-être l'imposition d'un coût nominal associé à l'ouverture de chaque compte. Les utilisateurs légitimes ne seraient que très peu incommodés par un tel coût, mais les éleveurs de bots pourraient trouver ces coûts prohibitifs ou les obstacles procéduraux liés à l'organisation du paiement d'innombrables faux comptes un obstacle. De plus, la présence d'une trace d'argent serait un autre moyen d'identifier les comptes non authentiques ou même de remonter jusqu'aux auteurs. Combinées, de telles étapes permettraient d'aligner les coûts et les incitations sur les utilisateurs qui ouvrent des milliers de comptes non authentiques soutenus par l'intelligence artificielle. Quelles que soient les nouvelles technologies qui évoluent, les producteurs de contenu


non authentique auront toujours besoin d'un moyen de diffuser leurs messages manipulateurs. Ce sont ces canaux de distribution qui deviendront une première ligne de défense contre la militarisation de notre réalité. Malheureusement, les structures d'incitation actuelles laissent peu d'impulsion aux entreprises de médias sociaux pour qu'elles prennent de telles mesures, car la nature des revenus publicitaires récompense un plus grand nombre de comptes actifs, qu'ils soient ou non gérés par de vraies personnes ou par l'automatisation. Cependant, on pourrait imaginer des utilisateurs qui apprécient l'interaction avec des personnes authentiques récompensant les entreprises de médias sociaux qui prennent des mesures pour garantir l'authenticité des comptes avec leur entreprise et leur trafic. L'authenticité pourrait devenir un attribut de marque précieux pour certaines plateformes de médias sociaux et être motivée par le comportement des consommateurs. Si un tiers des Américains croient en fait que le gouvernement cache quelque chose à propos du «crash du Dakota du Nord» inventé, imaginez combien d'autres croiraient à cet événement fictif après avoir pataugé dans un déluge de robots, de réseaux antagonistes génératifs et Internet les ciblant avec une précision de niveau de précision? L'IA permet des décisions générées par la machine, qui sont difficiles ou impossibles à reconstruire pour les humains. De plus en plus utilisé dans un éventail de domaines, des pratiques d'embauche aux évaluations des enseignants, ce passage de la prise de décision humaine à la prise de décision par la machine sape les principes de responsabilité et de responsabilité, et est profondément problématique - après tout, qui est responsable quand une machine prend un décision? Soumettre les citoyens à des décisions sans recourir au jugement humain soulève des préoccupations plus profondes: faut-il vraiment déléguer les droits et la justice à la prise de décision informatisée? Pouvons-nous mesurer et quantifier les droits et la justice? La démocratie est-elle quantifiable et prévisible? L'impact des décisions de la boîte noire sur les individus et les communautés vulnérables ou marginalisés aggrave le problème. Par exemple, un rapport récemment publié par Philip Alston, le Rapporteur spécial des Nations Unies sur l'extrême pauvreté et les


droits de l'homme, met en garde contre une dystopie du bien-être numérique, où l'accès aux prestations d'aide sociale est basé sur l'automatisation et la prédiction des machines, les communautés vulnérables étant surveillées et punis par des algorithmes sans visage. Tout aussi inquiétant est le recours à la prise de décision automatisée dans le système de justice pénale, où l'accès à la justice est faussé par l'utilisation d'ensembles de données à caractère raciste qui perpétuent la marginalisation d'individus et de communautés déjà vulnérables. L'utilisation d'appareils basés sur l'IA dans les pratiques de surveillance étatiques telles que la technologie de reconnaissance faciale augmente et étend le pouvoir des agences étatiques, créant des espaces pour des comportements plus autoritaires. Cette technologie capture, enregistre et analyse les images faciales, sa capacité de surveillance générale a un effet dissuasif sur notre culture démocratique, et il est prouvé qu'elle peut amener les gens à ne pas assister à des événements publics ou de participer à des manifestations. Ce facteur de refroidissement est particulièrement préoccupant s'il cible de manière disproportionnée des groupes et des communautés qui se trouvent trop souvent à l'extrémité du système de police et de justice pénale. Les systèmes d'IA permettent des collaborations public-privé dans des domaines sensibles tels que l'ordre public, sécurité et renseignement, et le contrôle aux frontières, mais aussi dans la recherche et le développement. Ces collaborations peuvent brouiller les frontières entre les responsabilités des États démocratiques et les intérêts des entreprises privées, et elles peuvent saper la transparence et la capacité de responsabilité démocratique. Il y a d'autres préoccupations concernant les modèles commerciaux mondiaux des grandes entreprises technologiques, lesquelles résistent à la responsabilité juridique et démocratique, au moment où la promotion de systèmes basés sur l'IA par des lobbyistes, souvent issus du milieu universitaire, continuent à donner à ces entreprises une influence indue sur l’orientation des débats publics et la prise de décisions de notre société. Si nous pouvons espérer tirer des bénéfices considérables de l’intelligence artificielle dans bien des domaines, les capacités de


cette technologie à permettre la collecte d’informations et de données personnelles, ainsi que leur traitement en vue de la diffusion de contenus ciblés, le profilage des utilisateurs ou la facilitation des choix individuels posent question. L’IA est un outil et on ne peut pas demander à un outil d’assumer des responsabilités et de rendre des comptes. Que ce système fonctionne ou non de façon légale, éthique et responsable dépend de ceux qui le font. Il faut comprendre que l’IA s’insère dans un système sociotechnique, qu’elle est un produit de nos sociétés. L’outil existe ; mais c’est le contexte sociétal qui décide comment il faudrait s’en servir, quelles valeurs doivent être respectées et quel équilibre il faut ménager entre ces valeurs. Les partis pris, inhérents au comportement humain, se trouvent parfois institutionnalisés par les systèmes d’intelligence artificielle. Ce problème peut être cependant résolu en ajustant l’entraînement des systèmes d’intelligence artificielle, ainsi que les sources et les types de données utilisées. Le lien entre l’intelligence artificielle et la démocratie peut être envisagé sous deux angles : premièrement, la nécessité d’assurer une gouvernance démocratique de l’intelligence artificielle ; deuxièmement, les moyens de mettre l’intelligence artificielle au service des processus démocratiques. Cependant, dans ce domaine, plusieurs questions appellent des réponses. Ainsi, une démocratie autonome, où des systèmes d’IA détermineraient les décisions ou les résultats électoraux à venir sur la base des comportements passés, serait techniquement possible – mais est-elle souhaitable ? On peut utiliser les systèmes d’IA pour aider à améliorer les processus démocratiques. Mais là se posent des problèmes tels que les bulles de filtres, les bulles informationnelles et leurs effets sur le processus démocratique. Dans de nombreux pays, avant une élection, vous pouvez interroger des systèmes qui vous disent plus ou moins, selon vos opinions, pour quel parti vous feriez mieux de voter. Ils sont très utiles, mais supposent aussi que vous fassiez confiance à ce que d’autres personnes ont déjà répondu au système et à l’agrégation de ces opinions en vue d’offrir des suggestions. Quiconque se fie à ce type de système et ne vérifie plus la position exacte des partis politiques prend la décision du système pour sa propre décision.


S’agissant de démocratie directe, il est certes possible d’utiliser l’IA et les technologies internet, mais souhaitons-nous aller vers la démocratie autonome ? À condition de mener suffisamment de consultations et de référendums sur tous types de sujets, on peut proposer un système d’IA capable d’anticiper les comportements à venir sur la base des comportements passés. Est-ce cela que nous voulons ? Si oui, nous allons pouvoir nous passer des parlements et de tous les processus démocratiques. L’IA sera capable de nous indiquer la meilleure direction. Un tel scénario ne vous fait pas rêver, j’imagine, mais nous devons quand même nous pencher sur ces questions. Les développements rapides dans le domaine de l'IA, et leur impact sur potentiellement tous les domaines politiques, constituent d'énormes défis pour les décideurs. Ces défis offrent à la communauté des études politiques, l'occasion de faire entendre sa voix et de contribuer aux conversations sur ce sujet pressant. Les théoriciens politiques et les philosophes politiques ont un rôle particulier à jouer dans l'examen et l'analyse de l'interaction complexe entre l'IA, la démocratie et le pouvoir, ou pour étudier l'impact de l'IA sur l'appareil conceptuel de la politique. Les pratiques, processus et institutions démocratiques doivent être protégés, et une réglementation et une conformité efficaces de ceux qui conçoivent, développent et utilisent l'IA doivent être garanties. Compte tenu de la rapidité du développement dans le domaine de l'IA, cela nécessite un examen et une attention constants. L'antidote à l'ingérence indue de l'IA dans la politique démocratique est la gouvernance démocratique de l'IA, de sorte que l'épanouissement humain et les besoins sociétaux, l'impact social et la protection des citoyens, en particulier la protection des individus et des communautés vulnérables et marginalisés, puissent être garantis. Cependant, on craint réellement que les intérêts économiques, militaires et stratégiques en matière de sécurité puissent protéger, le développement de l'IA et le déploiement d'applications d'IA, d'un examen et contrôle démocratique et juridique. C’est nous qui devons faire en sorte que les systèmes soient fabriqués de manière responsable. Et dans des sociétés démocratiques comme les nôtres, prendre cette tâche au sérieux est un véritable devoir. Cela nous


amène aux questions de démocratie et de société. Si nous voulons que l’IA corresponde à nos valeurs, il faut poser la question : quelles valeurs ? Mais aussi : les valeurs de qui ? Des développeurs, des gouvernements, de chacun de nous ? Pour décider quelles valeurs intégrer à nos systèmes, faut-il aller jusqu’à consulter le monde entier ? Il est temps de nous demander comment nous allons nous y prendre, comment nous allons utiliser les processus démocratiques pour décider, à l’issue d’une réflexion ouverte, quelles applications de l’intelligence artificielle seraient souhaitables et bénéfiques pour nos sociétés. Les valeurs peuvent venir de nombreuses sources : la société, tous les acteurs impliqués, les lois, les normes éthiques. Cependant, certaines choses peuvent être moralement envisageables sans être autorisées par la loi ou acceptées par la société.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.