Communitas
Théories et pratiques de la normativité
Volume 3, numéro 1, 2022 Normativité et intelligence artificielle Artificial Intelligence and Normativity Sous la direction de Alexandra Parada et Hugo Cyr
Sommaire (8 articles)
Articles
-
Argument by Numbers: The Normative Impact of Statistical Legal Tech
Laurence Diver et Pauline McBride
p. 6–30
RésuméEN :
The introduction of statistical ‘legal tech’ raises questions about the future of law and legal practice. While technologies have always mediated the concept, practice, and texture of law, a qualitative and quantitative shift is taking place: statistical legal tech is being integrated into mainstream legal practice, and particularly that of litigators. These applications – particularly in search and document generation – mediate how practicing lawyers interact with the legal system. By shaping how law is ‘done’, the applications ultimately come to shape what law is. Where such applications impact on the creative elements of the litigator’s practice, for example via automation bias, they affect their professional and ethical duty to respond appropriately to the unique circumstances of their client’s case – a duty that is central to the Rule of Law. The statistical mediation of legal resources by machine learning applications must therefore be introduced with great care, if we are to avoid the subtle, inadvertent, but ultimately fundamental undermining of the Rule of Law. In this contribution we describe the normative effects of legal tech application design, how they are potentially (in)compatible with law and the Rule of Law as normative orders, particularly with respect to legal texts which we frame as the proper source of ‘lossless law’, uncompressed by statistical framing. We conclude that reliance on the vigilance of individual lawyers is insufficient to guard against the potentially harmful effects of such systems, given their inscrutability, and suggest that the onus is on the providers of legal technologies to demonstrate the legitimacy of their systems according to the normative standards inherent in the legal system.
FR :
L’introduction des “legal techs” statistiques amène avec elle des questions sur le futur du droit et celui de la pratique juridique. Alors que depuis toujours les technologies affectent le concept, la pratique et la texture du droit, nous pouvons constater désormais un changement qualitatif et quantitatif : les legal techs statistiques sont intégrées dans la pratique juridique courante, particulièrement en matière de litiges. Ces applications – en particulier celles qui automatisent la recherche juridique et la génération de documents – influencent la façon dont les avocat.e.s praticien.ne.s interagissent avec le système juridique. En définissant comment le droit se « fait », ces applications finissent par définir ce qu’est le droit. Ces dernières impactent la créativité des avocat.e.s en litige dans leur pratique, par exemple à travers l’automatisation des biais, et affectent par là-même leur devoir professionnel et éthique qui consiste à offrir une réponse appropriée aux circonstances particulières du cas de leur clientèle – c’est un devoir qui est central à l’État de Droit. La gestion statistique des ressources juridiques à travers des application d’apprentissage automatique doit donc être introduite avec une attention particulière afin d’éviter d’ébranler de manière certes subtile et involontaire, mais aussi fondamentale, l’État de droit. Dans cette contribution, nous décrivons les effets normatifs des applications en legal tech, ainsi que leur potentielle (in)compatibilité avec le droit et l’État de droit comme ordres normatifs, particulièrement au regard des textes juridiques que nous considérons être la source du droit préservé (lossless law), du droit qui n’est pas amputé par les approches statistiques. Nous concluons qu’afin d’éviter les potentiels effets néfastes des systèmes statistiques en droit, notamment liés à leur impénétrabilité, il n’est pas suffisant de compter sur la seule vigilance des avocat.e.s. Nous suggérons donc qu’il revient aux fournisseurs des technologies juridiques de prouver la légitimité de leurs systèmes, sur la base des standards normatifs inhérents au système juridique.
-
Making the Legal World: Normativity and International Computational Law
Émilie van den Hoven
p. 31–56
RésuméEN :
The attention devoted to so-called “computational law” has grown exponentially over recent years. However, to date, there has comparatively been much less discussion about the use of data-driven methods, including artificial intelligence, in the processes and institutions of international law. This paper discusses this in terms of “international computational law” and examines what the implications could be if the normativity of technology encounters the normativity of law in the context of international law-making processes. Will it be a smooth and fortuitous alignment or a surreptitious undermining of accepted legal practices—or something in between? To critically engage with this question, a closer look is had at current and future data-driven practices in international treaty-making, the identification of international custom and international institutional lawmaking. Consequently, three types of normativity (i.e., international legal, legal and technological) are analyzed in this context, building on an analysis of the fundamental underlying structure of law. This analysis of normativity leads to the conclusion that we cannot simply assume that these types of normativity will align organically when it comes to our international legal system. I therefore conclude this article by suggesting that more research should be conducted into an adequate conception of “international legal protection by design” to thoughtfully consider how to safeguard legal protection in an increasingly computationalized international legal order. This will be crucial if we want to ensure that international law in the algorithmic age affords us legal protection and that we design our global order with thoughtfulness, rather than encodethoughtlessness.
FR :
Ces dernières années, l’attention portée à ce qu’on appelle le « droit algorithmique » ou le « droit computationnel » a augmenté de manière exponentielle. Toutefois, il n’y a jusqu’à maintenant que très peu de discussions qui portent sur l’utilisation d’algorithmes et de techniques d’intelligence artificielle dans les procédures et les institutions de droit international. Ce papier aborde ce sujet, à travers le terme de « droit algorithmique international » et examine quelles seraient les implications d’une rencontre entre la normativité technologique et la normativité juridique, dans le contexte de la formation de normes en droit international. Est-ce que cela prendra la forme d’un alignement fluide et fortuit, ou celle d’un subtil ébranlement, ou encore d’un entre-deux ? Pour répondre à cela de manière critique, j’analyse les pratiques algorithmiques en création de traités, en identification de coutumes internationales et dans le cadre de la formation institutionnelle de normes. Trois types de normativité (i.e., juridique internationale, juridique et technologique) sont passées en revue dans ce contexte, opérant ainsi une analyse de la structure fondamentale du droit. Cette étude de la normativité permet de comprendre qu’il n’est pas possible de supposer que ces types de normativité s’aligneront naturellement dans le contexte du système juridique international. Ma conclusion suggère la nécessité de mener davantage de recherches afin de définir les éléments d’une « protection juridique internationale dès la conception » (international legal protection by design), et de considérer ainsi la question de la garantie de la protection juridique, dans le contexte d’un ordre juridique international toujours plus informatisé. Au sein de notre ère algorithmique, cela est crucial afin d’assurer la protection juridique par le droit international et de concevoir judicieusement l’ordre global.
-
L’influence normative de l’IA en droit de la propriété intellectuelle
Mélanie Clément-Fontaine
p. 57–75
RésuméFR :
Nous avons identifié trois points qui témoignent de l’influence normative de l’intelligence artificielle (IA) sur le droit de la propriété intellectuelle. Premièrement, l'application du droit de la propriété intellectuelle à l'IA va être conditionné par les normes éthiques et juridiques qui encadrent l'usage de l’IA. Deuxièmement, l’IA est une innovation délicate à intégrer dans le giron de la propriété intellectuelle car il s’agit d’une technologie évolutive. Son introduction dans le champ du droit de la propriété intellectuelle conduit inexorablement à transformer les grandes notions de ce droit, et en particulier les notions de création protégeable et de créateur protégé. Troisièmement, il ressort de ce qui précède que le droit de la propriété intellectuelle n'a pas encore été adapté à l'IA. En revanche, en dehors du droit de la propriété intellectuelle, plusieurs règles ont déjà été adoptées pour favoriser le développement de l’IA. Elles ont en particulier pour objet de rendre accessible les données nécessaires au fonctionnement de l'IA. Finalement, le droit de la propriété intellectuelle, tel qu’il existe aujourd’hui, ne semble pas être le régime choisi pour favoriser les technologies de l'IA.
EN :
We have identified three points that demonstrate the normative influence of artificial intelligence (AI) on intellectual property law. First, the application of intellectual property law to AI is going to be conditioned by the ethical and legal norms that frame the use of AI. Second, AI is a tricky innovation to bring into the intellectual property fold because of its evolving nature. Its introduction into the field of intellectual property law inexorably leads to the transformation of the main notions of this law, and in particular the notions of protectable creation and protected creator. Thirdly, it appears from the above that intellectual property law has not yet been adapted to AI. On the other hand, outside of intellectual property law, several rules have already been adopted to foster the development of AI. In particular, they aim to make accessible the data necessary for AI to function. Finally, intellectual property law, as it exists today, does not seem to be the regime chosen to foster AI technologies.
-
Moral Cultivation and the Quantified Self: Assessing the Self Understanding of Data Profiles Generated by AI with a Virtue Ethics Approach
Ephraim Barrera
p. 76–102
RésuméEN :
Supporters of personal data collection and analysis contend that data profiles generated from AI algorithms represent a desirable pursuit for the quantified self. Proponents of the quantified self claim that AI-generated data profiles represent a more objective and truthful account of individual lives. They also argue that the quantified self fosters human flourishing by supplying individuals with data-informed accounts about their lives. First, I will trace the technological origins of the quantified self. Second, the first claim will be critiqued by demonstrating that the quantified self presents a reduced and subjectively abstracted picture of human life. Third, the second claim will be questioned, from a virtue ethics approach, to show how the quantified self’s reduced concept of self-examination is detached from self-cultivation. Fourth, a neo-Aristotelian virtue ethics framework will be applied to argue that the self-knowledge sought by the quantified self hinders agents’ practical reasoning.
FR :
Les approches qui promeuvent la collecte et l’analyse de données personnelles estiment que les profils de données (data profiles) générés à partir d’algorithme d’intelligence artificielle (IA) représentent une fin souhaitable au profit du « soi quantifié » (ou « automesure connectée », quantified self en anglais). Les tenants du soi quantifié postulent que les profils de données générés par l’IA représentent les vies individuelles de manière objective et authentique. Ils postulent également que le soi quantifié permet une prospérité humaine en offrant aux individus des informations sur leur vie, qui sont basées sur des données concrètes. Tout d’abord, je vais retracer les origines technologiques du soi quantifié. Deuxièmement, le premier postulat sera critiqué en démontrant que le soi quantifié présente une image réduite et subjectivement abstraite de la vie humaine. Troisièmement, je remettrai en question le deuxième postulat, à partir d’une approche de l’éthique de la vertu, pour démontrer dans quelle mesure le concept réduit d’automesure, lié au soi quantifié, est éloigné du concept de cultivation de l’esprit. Pour finir, j’appliquerai un cadre théorique néo-aristotélicien d’éthique de la vertu pour démontrer que la connaissance de soi visée par le soi quantifié entrave le raisonnement pratique des agents individuels.
-
Workshopping AI: Who’s at the Table?
Elia Rasky
p. 103–125
RésuméEN :
In 2017, the Canadian federal government launched the “Pan-Canadian Strategy on Artificial Intelligence,” an ambitious plan to make Canada “a global leader in AI.” As part of this plan, the government sought to stimulate discussion about the ethical and societal implications of AI by sponsoring a series of AI & Society workshops. Hosted by the Canadian Institute for Advanced Research (CIFAR), these workshops brought together academics, engineers, and policymakers to discuss the impact of AI on healthcare, education, the modern workplace, Indigenous communities, and other areas. In its reports, CIFAR describes the AI & Society workshops as inclusive, diverse forums that allow actors from a range of different disciplinary, occupational, and ethnic backgrounds to express their opinions and concerns about AI. This paper investigates whether the AI & Society workshops are truly inclusive, or whether they privilege the voices and perspectives of some actors over others. It will be argued that, by inviting only “experts,” “thought leaders,” and “community leaders” to participate, the workshops systematically exclude laypeople and average consumers of technology. This is highly problematic since average consumers bear many of the social costs of advancements in AI. After critiquing the workshops, the paper proposes ways to amplify the voices of regular users of AI in public and intellectual discourse.
FR :
En 2017, le gouvernement fédéral canadien a lancé sa « stratégie pancanadienne en matière d’intelligence artificielle (IA) », un plan ambitieux qui vise à faire du Canada « un chef de file en IA ». Dans le cadre de cette stratégie, le gouvernement a cherché à stimuler la discussion sur les implications éthiques et sociétales de l’IA, en parrainant une série d’ateliers sur le thème IA & société. Organisés par l’Institut canadien de recherche avancée (CIFAR), ces ateliers ont rassemblé des personnes du milieu académique, des ingénieur.e.s ainsi que des décideur.e.s afin de discuter des impacts de l’IA sur la santé, sur l’éducation, sur le monde du travail, sur les communautés autochtones, et sur d’autres milieux. Dans ses rapports, le CIFAR décrit les ateliers IA & Société comme des forums inclusifs et diversifié, qui permettent aux parties prenantes de différentes disciplines, milieux professionnels et origines ethniques d’exprimer leurs opinions et leurs inquiétudes sur l’IA. Cet article vise à vérifier l’inclusivité de ces ateliers, cherchant à savoir si certaines voix ne sont pas privilégiées par rapport à d’autres. Il sera avancé qu’en invitant seulement les “expert.e.s”, les “leaders d’opinion” et les “chef.fe.s de file communautaires » à participer à ces forums, ces derniers excluent systématiquement les profanes et les utilisateur.rice.s commun.e.s de ces technologies. Cela est hautement problématique en ce que ce sont principalement ces dernier.e.s qui ressentent les impacts sociaux de l’IA. Après une critique de ces ateliers, cet article présente des pistes de solution pour amplifier les voix des utilisateur.rice.s commun.e.s au sein des discours publics et intellectuels sur l’IA et ses impacts.
-
Intelligence artificielle et application non contentieuse du droit : une réactualisation du problème du design institutionnel de Lon L. Fuller
William Guay
p. 126–162
RésuméFR :
Cet article propose de rapprocher les enjeux normatifs engendrés par l’intelligence artificielle dans la sphère du juridique à la problématique plus fondamentale du « design institutionnel » de Lon L. Fuller. L’optimisation des ressources étatiques promise par le déploiement de l’intelligence artificielle s’opérera en contrepartie d’une application « non contentieuse » du droit plus préventive et unilatérale, autrement dit managériale. En scindant le concept de la gouvernance étatique en ses ramifications « juridique » et « économique », Fuller entendait conjuguer celle-ci et celle-là dans un projet aspirant à la cohésion et au bon fonctionnement sociétal. Une réactualisation des écrits « fullériens » permettra de situer la portée de l’intelligence artificielle au sein de cette classification et offrira un éclairage favorable à l’élucidation des enjeux normatifs soulevés par l’intelligence artificielle étatique.
EN :
This article proposes to link normative issues generated by artificial intelligence in the legal sphere to the more fundamental problem of "institutional design" by Lon L. Fuller. The optimization of state resources promised by the deployment of artificial intelligence will take place in return of a more preventive and unilateral enforcement of the law, in other words a managerial, "noncontentious" enforcement of the law. By splitting the concept of state governance into its "legal" and "economic" ramifications, Fuller intended to combine these ramifications in a project aspiring to good order and workable social arrangements. A reactualization of Fuller's writings will allow us to situate the scope of artificial intelligence within this classification, and will thus shed light on the normative issues linked to the use of artificial intelligence by the state.
-
Droit et soft ethics dans l’encadrement normatif de l’IA : une perspective pragmatiste
Andréane Sabourin Laflamme et Frédérick Bruneault
p. 163–199
RésuméFR :
Dans l’objectif de discuter des enjeux associés aux systèmes d’intelligence artificielle (SIA), les publications en éthique de l’IA se sont multipliées récemment. Bien que le droit et l’éthique œuvrent pour un but commun, soit celui de favoriser une utilisation de l’IA qui soit bénéfique et responsable, ces initiatives normatives sont distinctes et doivent être situées adéquatement l’une par rapport à l’autre. Dans le cadre de cet article, partant d’une perspective pragmatiste, nous proposons une réflexion sur le rôle normatif de ce que Luciano Floridi appelle la soft ethics par rapport au droit. Nous réfléchirons aux caractéristiques qu’elle devrait posséder pour jouer un rôle normatif effectif qui soit complémentaire au droit ainsi qu’aux relations internormatives entre éthique et droit dans la perspective du pluralisme normatif.
EN :
In order to discuss the issues associated with artificial intelligence systems (AIS), publications in AI ethics have multiplied recently. While law and ethics work toward a common goal of fostering beneficial and responsible use of AI, these normative initiatives are distinct and must be appropriately situated in relation to each other. In this article, starting from a pragmatist perspective, we propose a reflection on the normative role of what Luciano Floridi calls “soft ethics” in relation to law. We will reflect on the characteristics it should have to play an effective normative role that is complementary to law, as well as on the internormative relations between ethics and law in the perspective of normative pluralism.