Uncategorized Normativité et intelligence artificielle

Normativité et intelligence artificielle

Vol 3., no. 1., co-dirigé par Alexandra Parada et Hugo Cyr 

– Le numéro

– Le sommaire

Les effets normatifs de l’IA

L’encadrement normatif de l’IA

Éditorial

Ce numéro de Communitas se propose d’explorer la question de la normativité dans le contexte très concret et omniprésent qu’est l’intelligence artificielle (IA). Depuis plusieurs années déjà, les systèmes d’IA sont déployés dans différents secteurs de la société et de plus en plus de décisions sont en partie déléguées à ces systèmes. La disponibilité d’un grand volume de données, continuellement nourri par l’usage quotidien d’outils technologiques connectés, et le développement constant des techniques d’IA et de ses applications participent largement à faire de l’IA un thème crucial, tant du point de vue individuel que global. Les effets des systèmes d’IA sont venus modifier – et continuent de modifier – les différents éléments de notre environnement et leur fonctionnement. Parmi eux, le droit. 

C’est justement un espace de dialogue et d’analyses sur les effets de l’IA sur le droit, en tant que discipline théorique et pratique et en tant que système, que vise à offrir ce nouveau numéro de Communitas. Plus précisément, nous avons proposé à des experts et expertes en IA, issu.e.s de différentes disciplines, d’interroger la normativité liée à l’IA. Comment cette dernière, en transformant des aspects fondamentaux du quotidien et des systèmes au sein de la société, transforme-t-elle la théorie et la pratique de la normativité ? Crée-t-elle une nouvelle couche normative ? Dans l’autre sens, il convient de se questionner sur la (ou les) normativité(s) qui s’applique(nt) à l’IA. Quels cadres normatifs pour l’IA et ses enjeux ? C’est à travers l’étude de différents contextes dans lesquels se déploient les systèmes d’IA que les auteurs et autrices de ce troisième numéro apportent des éléments de nature philosophique, juridique, politique, sociologique et économique pour répondre à ces questions.

Sans prétention à l’exhaustivité, particulièrement sur un sujet aussi dynamique et vaste que l’IA, les 7 articles de ce numéro permettent de brosser un riche portrait des relations entre la question de la normativité et les réalités liées à IA. En réponse à notre appel à textes, nous avons eu la chance de recevoir des propositions de jeunes chercheur.e.s, de doctorant.e.s, de professeur.e.s et autres spécialistes en politiques publiques issu.e.s de différentes disciplines, et œuvrant dans divers groupes de recherche et organisations à travers le Canada et l’Europe. Les propositions retenues traitent de notre thématique à partir d’angles bien différents, mais peuvent tout de même être regroupées en deux approches principales, qui s’entrecroisent parfois: ainsi, une partie des articles traite de la question des effets normatifs de l’IA, tant du point de vue de la pratique de la normativité que de celui de son essence philosophique et théorique ;  l’autre partie des articles porte, elle, sur l’encadrement normatif du développement et de l’utilisation des systèmes d’IA. Ces deux approches de la question constituent les deux parties de ce numéro de Communitas sur la normativité et l’IA. 

Dans la première partie sur les effets normatifs de l’IA, un des intérêts abordés plusieurs fois, est celui des implications sur le droit de l’utilisation de systèmes d’IA dans différents contextes, à commencer par le contexte juridique lui-même. C’est ainsi que ce numéro s’ouvre avec un article des chercheur.e.s Laurence Diver et Pauline McBride, affilié.e.s au projet “Counting as a Human Being in the Era of Computational Law” (COHUBICOL) de l’Université Libre de Bruxelles, qui s’intéressent à l’introduction des techniques statistiques automatisées dans la pratique du droit et analysent l’impact de ces dernières sur la pratique des avocat.e.s. Dans leur article “Argument by Numbers: the Normative Impact of Statistical Legal Tech”(pp. 6-30), iels démontrent que l’utilisation des produits et services des Legal Tech affecte le devoir professionnel et éthique des avocat.e.s de traiter adéquatement les cas précis de leur clientèle, ce qui est pourtant central dans l’État de droit. Les auteur.rice.s estiment que malgré l’impact sur l’autonomie et la déontologie des avocat.e.s, ces dernier.e.s peuvent difficilement se passer des outils d’IA proposés par les Legal Tech. Ainsi, en plus de la conscience nécessaire des effets de ces derniers sur la pratique du droit, il impute aux fournisseurs des technologies de prouver la légitimité de leurs systèmes au-delà de leur efficacité, en répondant aux standards normatifs inhérents au système juridique.

L’analyse des effets de l’introduction en droit d’outils technologiques sur le droit lui-même continue sur le plan du droit international avec la deuxième contribution de ce numéro. Il s’agit d’un article de la candidate au doctorat en droit à l’Université libre de Bruxelles Emilie van den Hoven qui s’intitule “Making the Legal World: Normativity and International Computational Law”(pp. 31-56). Plus précisément, son article traite de l’utilisation d’algorithmes et de techniques d’IA dans les procédures et les institutions de droit international. À travers la notion de “droit algorithmique international”, l’autrice s’interroge sur les effets de la rencontre entre la normativité technologique et la normativité juridique dans le contexte de la formation de normes internationales. Elle mène une analyse des pratiques algorithmiques en création de traités, en identification de coutumes internationales et en élaboration de règlementations. La conclusion de cet exercice la conduit alors à affirmer la nécessité de définir une forme de protection juridique internationale dès la conception (international legal protection by design), au sein d’un ordre juridique international toujours plus informatisé.

Dans son article “L’influence normative de l’IA en droit de la propriété intellectuelle” (pp. 57-75), la professeure de droit privé à l’Université de Paris-Saclay Mélanie Clément-Fontaine, se penche donc sur cette branche bien précise du droit. Cette troisième contribution au nouveau numéro de Communitas démontre comment le droit de la propriété intellectuelle est amené à muer à l’ère des nouvelles technologies, et particulièrement en raison de l’utilisation de systèmes d’IA dans différents domaines. D’une part, l’autrice décrit comment les normes éthiques et juridiques spécifiques à l’IA conditionnent désormais le droit de la propriété intellectuelle. D’autre part, elle explique comment les pratiques liées au développement des nouvelles technologies créent continuellement de nouvelles réalités qui doivent être appréhendées par le droit de la propriété intellectuelle. Cette démonstration appuyée par des exemples concrets lui permet de conclure à des lacunes importantes de ce droit face aux nouveaux défis amenés par l’IA. En effet, tel qu’il existe aujourd’hui, le droit de la propriété intellectuelle ne favorise pas le développement des techniques d’IA. La professeure en droit privé note toutefois que les développements juridiques autour de l’IA, notamment au sujet du traitement des données, peuvent temporairement pallier aux manquements du droit de la propriété intellectuelle face à l’IA.

La quatrième contribution de ce numéro s’éloigne du droit pour traiter de la normativité sur le plan individuel, en s’interrogeant sur les effets des systèmes d’IA sur le développement personnel et la cultivation de l’esprit chez chacun.e, et des conséquences liées sur la collectivité. C’est Ephraim Barrera, chercheur au Centre de recherche en droit, technologie et société de l’Université d’Ottawa, qui signe cet article s’intéressant aux profils de données (data profiles) générés par les systèmes d’IA. Son article “Moral Cultivation and the Quantified Self: Assessing the Self-Understanding of Data Profiles Generated by AI with a Virtue Ethics Approach” (pp. 76-102) porte donc sur le “soi quantifié” qui, selon l’auteur, ne permet pas une vision plus précise et objective de soi, mais au contraire une image réduite et subjective de la vie humaine. Il mobilise une approche néo-aristotélicienne de l’éthique de la vertu pour démontrer comment le “soi-quantifié” que permet de construire l’IA va à l’encontre du concept de cultivation de l’esprit et entrave même le raisonnement pratique des individus. C’est cette excellente contribution qui clôt la première partie de ce numéro de Communitas portant sur la normativité et l’IA.

Comme annoncé, la seconde partie de ce numéro présente des articles qui s’intéressent à la question de l’encadrement normatif du développement et de l’utilisation des systèmes d’IA.  

La première contribution de cette partie s’intéresse aux démarches entreprises pour encadrer les effets de l’IA par l’État canadien. En effet, le candidat au doctorat en science politique à York University, Elia Rasky,se penche sur le développement de la stratégie pancanadienne en IA lancée en 2017, dans son article “Workshopping AI: Who’s at the Table?(pp. 103-125). Plus précisément, il mène une analyse critique des ateliers participatifs organisés par le gouvernement fédéral sur les défis liés à l’IA. Dans cet article, est remis en question le caractère inclusif et diversifié de ces ateliers dont l’objectif annoncé est pourtant de rassembler des individus provenant de différents milieux professionnels, socio-économiques, communautaires et disciplinaires, afin d’échanger sur leur vision des enjeux liés au déploiement de l’IA dans la société. L’auteur avance que ces ateliers participatifs excluent systématiquement les citoyen.ne.s profanes en IA, pourtant parties prenantes dans ce contexte, au profit des profils de leader considérés comme plus éduqués. Il met en lumière la nécessité d’offrir des espaces de discussions réellement inclusifs afin de faire entendre les voix des personnes directement concernées par l’utilisation de l’IA dans différentes sphères de la société. 

Les deux dernières contributions de ce numéro portent sur l’application du droit pour traiter des enjeux de l’IA et réguler l’utilisation des systèmes d’IA. 

C’est le concept de “design institutionnel” qui est abordé dans l’article de William Guay, étudiant à la maîtrise en droit à l’Université de Sherbrooke qui nous offre un article mettant en lien les enjeux normatifs de l’IA avec les écrits de Lon L. Fuller. Cette deuxième contribution, intitulée “Intelligence artificielle et application non contentieuse du droit : une réactualisation du problème du design institutionnel de Lon L. Fuller” (pp. 126-162) traite plus précisément de l’utilisation étatique de l’IA. Il décrit la nécessité d’une application managériale du droit dans ce contexte étatique, en raison de la nature normative de certains enjeux liés à l’IA. Dans son article, l’auteur analyse ces derniers en s’appuyant sur la conception duale juridique/économique de la gouvernance étatique proposée par Fuller, afin d’offrir des pistes de solution qui relèvent de l’application “non contentieuse” du droit par l’État.

La dernière contribution de cette partie et qui clôt également ce numéro de Communitas met en lumière la collaboration du droit et de l’éthique pour encadrer l’IA. Dans leur article “Droit et soft ethics dans l’encadrement normatif de l’IA : une perspective pragmatiste (pp.163-199), les professeur.e.s de philosophie Andréane Sabourin Laflamme et Frédérick Bruneault font le travail de resituer les initiatives normatives éthiques par rapports aux juridiques. C’est donc à partir d’une perspective pragmatiste qu’est étudiée la soft ethics. Leur contribution nous permet de saisir le rôle de cette dernière, mais également les caractéristiques nécessaires afin que la normativité produite soit effective au regard des effets concrets de l’IA. Les auteur.rice.s empruntent par ailleurs la perspective du pluralisme juridique pour mettre en avant la complémentarité de la soft ethics et du droit dans ce contexte.

Le nombre de propositions reçues lors de notre appel à textes, et la diversité des sujets traités attestent de la pertinence de dédier un numéro de Communitas au thème Normativité et IA. Les changements constants et les innovations qu’entraînent le développement et le vaste déploiement des systèmes d’IA impliquent nombre de questionnements importants afin de garantir le respect des droits de toutes et tous, ainsi que la stabilité de nos systèmes. À cet égard, les dynamiques en œuvre depuis quelques années autour de l’IA nécessitent une attention particulière, qui est au cœur des 7 contributions de ce numéro.

Nous sommes profondément reconnaissant.e.s envers les 9 auteurs et autrices de ce numéro pour leurs apports de grande qualité, ainsi qu’envers l’équipe de Communitas pour le travail rigoureux autour de ce numéro sur l’IA qui nous tenait à cœur. Nous espérons que les articles vous plairont et qu’ils sauront nourrir votre réflexion sur les enjeux normatifs liés à l’IA.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Related Post

LicenceLicence

Licence La revue Communitas est une revue en libre accès, c’est-à-dire que tous les contenus publiés par la revue sont attribués d’une licence CC BY-NC-ND. Si vous utilisez du contenu publié par