6 minute read

La gouvernance de l’intelligence artificielle

Entre possibilités, risques et urgence

Le Canada a joué un rôle majeur dans le développement de l’intelligence artificielle (IA). Deux des trois lauréats du prix Turing 2018 – considéré comme le prix Nobel de l’informatique – pour leurs travaux ayant révolutionné le domaine sont des Canadiens.

Benjamin Prud’homme LL. B. 2011

Vice-président Politiques publiques, société et affaires mondiales

Mila

Ces lauréats incluent Yoshua Bengio, professeur à l’UdeM ainsi que fondateur et directeur scientifique de Mila, un institut qui réunit à Montréal la plus grande communauté de chercheurs et chercheuses universitaires en apprentissage profond au monde. Le Canada a par ailleurs été le premier pays à se doter d’une stratégie nationale d’IA; le Québec a lui aussi largement soutenu ce domaine. Résultat, l’écosystème d’IA du pays se classe au cinquième rang mondial (index Tortoise) et Montréal se démarque particulièrement en raison d’une réputation alimentée par ses talents en recherche et son leadership éthique, notamment grâce à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, dont les travaux ont été lancés à l’UdeM en 2017. Cette trajectoire explique l’ancrage profond de cette technologie chez nous et le rôle significatif que plusieurs de nos chercheuses et chercheurs occupent actuellement dans les discussions mondiales sur son encadrement.

L’IA est appelée à transformer nos sociétés en profondeur et plusieurs percées majeures se sont récemment révélées au public, alors que ces systèmes génèrent désormais des images et des textes d’une qualité impressionnante. Plus spécifiquement, comment ignorer l’avènement des grands modèles de langage – tels que ChatGPT – qui, bien qu’ils ne soient pas fiables, montrent des capacités de maîtrise du langage qui ont surpris de nombreux spécialistes et enflammé la conversation internationale ? Ceci s’explique du fait que l’IA est une technologie à double usage, c’est-à-dire qu’elle peut être utilisée à des fins tant positives que négatives. L’équation est donc simple : plus les capacités de ces systèmes augmentent, plus les potentialités et les risques s’accroissent. Ainsi, lorsque des percées ont lieu, on imagine une pléthore de possibilités pour faire face à des enjeux comme la crise climatique, la santé ou l’administration de la justice. Mais, du même souffle, on imagine l’émergence ou l’amplification des risques que cette technologie peut entraîner.

L’année 2023 aura donc été celle où chercheuses et chercheurs, dirigeantes et dirigeants ainsi que citoyennes et citoyens ont ressenti l’urgence de répondre à la question suivante : comment encadrer l’IA ? Pour ce faire, il faut comprendre la technologie et accélérer les efforts pour la démocratiser. Il faut également en saisir les risques, incluant :

L’amplification des inégalités existantes.

Ce risque se déploie à même notre société où des groupes minorisés – par exemple les femmes, les Premiers Peuples et les personnes racisées – sont sous-représentés au sein des écosystèmes d’IA et victimes de discrimination algorithmique amplifiant les inégalités existantes. L’IA contribue également aux disparités mondiales alors que les écarts se creusent entre pays détenteurs de la technologie et pays qui en sont exclus, sans compter les conditions d’exploitation des travailleuses et travailleurs du Sud global, qui reçoivent des sommes dérisoires pour accomplir des tâches pourtant névralgiques du développement de l’IA.

La désinformation et la déstabilisation des systèmes démocratiques.

L’avènement des modèles d’IA générative simplifie la création et la diffusion de fausses informations à grande échelle. Et puisque l’entraînement de tels modèles requiert une infrastructure de pointe et d’énormes investissements financiers, seule une poignée d’entreprises en ont le contrôle, menant à une concentration extrême du pouvoir. Dans les années à venir, l’IA pourrait ainsi contribuer à déstabiliser les systèmes démocratiques, affectant notamment la qualité de l’information et l’intégrité des processus électoraux.

Le bouleversement du marché de l’emploi.

L’IA permet d’automatiser des tâches et les avancées récentes contribuent à ce phénomène. Cela mènera à des transformations majeures du marché de l’emploi et, à plus long terme, à des questionnements sur le sens que les personnes humaines souhaitent donner au travail. Les études montrent par ailleurs que les travailleuses et travailleurs déjà vulnérables seront les premiers à subir ces transformations.

Les risques majeurs émergents.

Une large part de la conversation mondiale a été consacrée à l’émergence de risques dits majeurs ou catastrophiques, notamment liés à la sécurité nationale (armes biochimiques/biologiques) ou à la perte de contrôle de l’IA. Ces questions font l’objet de vifs débats entre spécialistes et ont occupé un rôle central au Sommet sur la sécurité de l’intelligence artificielle qui s’est déroulé au Royaume-Uni. Elles continueront vraisemblablement d’occuper les communautés scientifique et politique, qui doivent évaluer la probabilité que ces risques se matérialisent et définir les stratégies requises pour les mitiger.

Dans ce contexte, il est inquiétant de constater que bien qu’il existe des lois pouvant s’appliquer à des systèmes d’IA – chartes des droits de la personne, sécurité des produits, etc. –, aucune législation n’encadre spécifiquement l’IA au Québec et au Canada. C’est dire qu’il reste un travail colossal à faire à cet égard. Le gouvernement canadien a déposé un projet de loi en ce sens (Loi sur l’intelligence artificielle et les données), lequel est actuellement étudié par un comité parlementaire. D’autres juridictions ont elles aussi démontré leur volonté de réglementer le domaine, incluant l’Union européenne avec son AI Act et les États-Unis avec l’adoption d’un décret présidentiel en octobre 2023.

Le défi qui nous guette est de taille, alors qu’on nous appelle à encadrer rapidement une technologie qui bouleverse déjà nos institutions et dont la trajectoire s’accélère. Il nous faut développer des outils réglementaires suffisamment agiles pour faire face aux défis actuels et futurs que pose l’IA. Si nous relevons ce défi, nous pourrons bénéficier de son potentiel révolutionnaire dans tous les domaines de l’activité humaine. À l’inverse, si nous échouons à cette tâche, nous risquons de voir s’ébranler des piliers de nos sociétés. Au cours des prochaines années, les juristes auront un rôle important à jouer dans cette conversation, puisqu’une large part de notre capacité à relever ce défi dépend de la mise en place de mécanismes de gouvernance robustes et innovateurs. Chacune à leur façon, les voix contenues dans le présent numéro donnent donc le ton à une réflexion qui sera au cœur des débats politiques, économiques et sociaux qui nous attendent. n

L’IA est appelée à transformer nos sociétés en profondeur et plusieurs percées majeures se sont récemment révélées au public, alors que ces systèmes génèrent désormais des images et des textes d’une qualité impressionnante.
This article is from: