Article body

Introduction

En janvier 2020, la police métropolitaine londonienne annonçait qu’elle utiliserait des caméras de reconnaissance faciale en direct dans les rues de Londres pour surveiller des zones ciblées. Les responsables ont justifié ce recours à la technologie en disant qu’il y avait un devoir de protéger les citoyens (Met Police to deploy facial recognition cameras, 2020). En juillet 2021, les services de la police néo-zélandaise ont révélé qu’ils abandonnaient l’utilisation d’un algorithme qui leur permettait de prédire les comportements des automobilistes (Pennington, 2021). Dans un rapport de recherche sur l’adoption des technologies algorithmiques au sein des agents de la paix à travers le Canada, Khoo, Robertson et Song (2020) ont trouvé que l’adoption des technologies permettant la police prédictive était soit en place soit en cours de développement partout au pays.

À travers le monde, agences gouvernementales et privées adoptent et intègrent de nouvelles technologies dans leurs opérations. Au sein des institutions de police, les avancées technologiques redessinent l’environnement de travail et permettent aux agents d’améliorer l’efficacité dans la lutte contre le crime (Schultz, 2008). Néanmoins, si la technologie est généralement positivement perçue comme moteur de l’innovation désirable (Fagerberg, Srholec et Verspagen, 2010), elle apporte avec elle son lot de défis. Ainsi, l’adoption de nouvelles technologies par les agences de police suscite des questions dans plusieurs pays. Les préoccupations liées à la protection de la vie privée (Buckley et Hunter, 2011 ; LaFrance, 2017), les erreurs susceptibles de conduire à un traitement injuste envers certaines catégories de personnes, notamment les minorités et les personnes de couleur (Buolamwini et Gebru, 2018 ; Grother, Ngan et Hanaoka, 2019 ; Raji et Buolamwini, 2019), ainsi que les questions de valeurs et d’éthique (Commission de l’éthique en science et en technologie, 2020 ; O’Neil, 2016), font de plus en plus partie du débat sur les bienfaits et les dérapages potentiels de l’adoption de nouvelles technologies, en particulier celles ayant recours à l’intelligence artificielle, par les agents de la paix.

Dans un document intitulé Réalité policière au Québec : modernité, confiance et efficience, le Gouvernement du Québec à travers son ministère de la Sécurité publique a fait le point sur l’organisation policière et les enjeux auxquels font face les membres du corps de police de la province, 20 ans après « le dernier examen en profondeur des règles régissant la police au Québec » (Gouvernement du Québec, 2019, mot de la Ministre, paragr. 1). Le document a servi de point de départ pour une réflexion qui a vu la participation de différents intervenants, organismes et citoyens dans des consultations et forums d’audiences publiques sur la réalité policière. Un rapport sur cette consultation a été déposé en mai 2021 (Comité consultatif sur la réalité policière, 2021).

Dans le présent article, nous examinons les apports de différents participants à ces consultations et cherchons particulièrement à étudier l’importance que ceux-ci accordent aux enjeux de nouvelles technologies, particulièrement celles ayant recours à l’intelligence artificielle et à l’apprentissage automatique au sein de la police québécoise et cherchons à répondre à la question suivante : l’adoption des technologies d’intelligence artificielle par les agents de police préoccupe-t-elle les intervenants ?

Revue de littérature

Les termes « intelligence artificielle », « apprentissage automatique » et « algorithme » sont souvent utilisés de façon interchangeable. Bien que cette pratique puisse parfois semer la confusion (Ganascia, 2018 ; Marr, 2016), notamment en raison de l’immensité d’applications (Susar et Aquaro, 2019), de disciplines et phases de développement (Zuiderwijk, Chen et Salem, 2021), nous poursuivons la pratique, pour les fins de ce travail, et adoptons une définition générale fournie par l’Organisation des Nations Unies pour l’éducation, la science et la culture (2020). Cette définition englobe les concepts d’intelligence artificielle comme étant des « technologies capables de traiter de l’information par un processus s’apparentant à un comportement intelligent, et comportant généralement des fonctions de raisonnement, d’apprentissage, de perception, d’anticipation, de planification ou de contrôle » (p. 5).

Strom (2017) a identifié six avancées technologiques émergentes et répandues parmi les agents de la paix, à savoir les outils d’exploration de données (data mining), les logiciels permettant la cartographie de la criminalité, l’usage des données des médias sociaux, les appareils photo ou caméras corporels ainsi que les lecteurs automatiques de plaques d’immatriculation. D’autres types de technologies dont les agents de la paix peuvent se servir incluent les technologies de reconnaissance faciale (Bradford, Yesberg, Jackson et Dawson, 2020 ; Purshouse et Campbell, 2019), les infographies et réseaux de neurones artificiels (Starkey et Aleksander, 1990) ainsi que les technologies permettant la police prédictive (Brayne, 2021 ; Meijer et Wessels, 2019 ; Mohler et al., 2015).

L’adoption des technologies utilisant l’intelligence est souvent motivée par ses bénéfices potentiels. Dans le domaine de l’administration publique, par exemple, Bulluck (2019) note qu’une administration publique assistée par l’intelligence artificielle peut aider les humains à raffiner les meilleures pratiques pour une meilleure qualité. L’ajout des administrateurs artificiels peut réduire la tâche des humains et favoriser l’efficacité, augmentant ainsi la productivité des bureaucrates (Bulluck, 2019). Gomes de Sousa, Pereira de Melo, De Souza Bermejo, Sousa Farias et Oliveira Gomes (2019) ont trouvé que les technologies d’intelligence artificielle sont de plus en plus adoptées par des administrations publiques, notamment pour les fonctions de services généraux aux citoyens, affaires économiques et protection de l’environnement.

L’identification efficace des risques est un aspect qui revient de plus en plus dans la théorie sur les bienfaits de l’adoption des systèmes ayant recours à l’intelligence artificielle par les agents de la paix. La capacité à prédire l’occurrence du crime, dont les systèmes – notamment ceux d’apprentissage automatique – sont munis, est un véritable outil susceptible non seulement de faciliter, mais également d’améliorer le travail des corps de police. Ojo, Mellouli et Ahmadi Zeleti (2019) soutiennent que les technologies d’apprentissage automatique peuvent permettre, entre autres, la prédiction des crimes et la réduction d’incendies en facilitant une identification efficace et innovatrice des domaines à risque et en y apportant des solutions stratégiques. Les technologies d’apprentissage automatique sont ainsi vues comme d’importants ajouts, jouant un rôle essentiel dans le renforcement de la sécurité publique à la fois dans des opérations sur terrain et dans des fonctions administratives de soutien (Fatima, Desouza et Dawson, 2020). En permettant l’accélération des processus grâce à l’automatisation, les domaines critiques tels que la défense, la sécurité publique, la justice et la protection des frontières bénéficient énormément des avancées technologiques.

S’il y a de bonnes raisons de justifier l’adoption des technologies algorithmiques par les agents de la paix vu leurs multiples bénéfices, il existe également des problèmes s’y rapportant. Plusieurs chercheurs s’accordent sur le constat que les bénéfices de cette adoption devraient être évalués en tenant compte de dérapages possibles (Brayne, 2021 ; Joh, 2014, 2018 ; Khoo, Robertson et Song, 2020). Parmi les nombreux défis qu’apporte le recours aux algorithmes par les agents de la paix, nous soulignons ceux en rapport avec la gouvernance, les données, la surveillance, l’éthique et la vie privée. De façon générale, les nouvelles technologies permettent une surveillance accrue en rendant possible une collecte d’informations utiles. Se basant sur la surveillance en milieu de travail, Fusi et Feeney (2018) montrent qu’une surveillance facilitée par la technologie peut inclure le contrôle des activités des employés, par exemple sur les réseaux sociaux, et peut devenir intrusive, voire nuisible.

En milieu policier, l’usage des technologies algorithmiques permet une analyse approfondie des données afin d’arriver à prédire le crime (Brayne, 2021 ; Garvie, Bedoya et Frankle, 2016). Or, cette prédiction, qui a parfois recours à la reconnaissance automatique, est elle-même remise en cause non seulement parce qu’elle produit des résultats parfois erronés (Buolamwini et Gebru, 2018 ; Grother et al., 2019 ; Raji et Buolamwini, 2019), mais également parce qu’elle soulève d’importantes questions d’éthique (Commission de l’éthique en science et en technologie, 2020 ; Gilligan, 2020) et d’équité (Brayne, 2021 ; O’Neil, 2016). L’acceptabilité des technologies utilisant la reconnaissance faciale, un aspect indispensable dans la prédiction efficace du crime, est également un sujet de discussion. Par exemple, Doberstein, Charbonneau, Morin et Despatie (2021) ont montré que l’acceptabilité d’être filmé en continu est discutable, car dépendant d’éléments contextuels et démographiques.

Les technologies d’intelligence artificielle au sein des services de police du Québec

Comme dans la plupart des pays développés, les services de police québécoise se trouvent à un moment clé marqué par de grandes possibilités et opportunités qu’offrent les nouvelles technologies, dont celles ayant recours aux algorithmes de reconnaissance automatique. Dans un rapport portant sur l’utilisation des technologies de reconnaissance faciale et des systèmes de reconnaissance de plaques d’immatriculation par le Service de police de la Ville de Montréal (SPVM), la Commission de la sécurité publique de l’agglomération de Montréal (2021) note que « la reconnaissance faciale n’est pas spécifiquement définie dans les lois québécoise et canadienne » (p. 6), même si elle « demeure une préoccupation prise en compte dans une série de projets de loi en cours d’élaboration tant au palier fédéral que provincial » (p. 6). Or, selon ce même rapport, si le SPVM affirmait ne pas avoir recours à des technologies de reconnaissance faciale, leur adoption future « dans des situations particulières et exceptionnelles, […] pour faire avancer une enquête d’envergure » n’était pas exclue (p. 6-7). Le service a par ailleurs recours, depuis plus de 10 ans, à un système de reconnaissance automatique de plaques d’immatriculation (SRPI) installé sur au moins 30 véhicules, ce qui permet la recherche de personnes disparues notamment en repérant, entre autres, des véhicules impliqués dans des cas d’alertes AMBER (SPVM, 2011). Quoique moins intrusif et moins controversé, ce système a quand même été remis en question par des experts, particulièrement en raison d’une possibilité d’intrusion et d’atteinte à la vie privée des conducteurs (Commission de la sécurité publique, 2021).

Après un appel d’offres lancé en 2020, la Sûreté du Québec a signé un contrat de plus de 4 millions de dollars avec la société française Idemia afin de faire l’acquisition d’une technologie d’intelligence artificielle permettant la reconnaissance faciale et les empreintes digitales. Cette technologie effectue les comparaisons grâce à une banque de données de plusieurs milliers d’images prises par des caméras de surveillance (Castets-Renard, Guieaud et Avril-Gagnon, 2020 ; Péloquin, 2020). Or, Idemia, la seule société soumissionnaire et gagnante du contrat de la Sûreté du Québec fait elle-même l’objet de plaintes et aurait enfreint les règles de sécurité nationale américaine en compromettant et exposant les données personnelles de millions d’Américains, selon un procès intenté par un dénonciateur (Krishan, 2021). Comme pour la plupart des concepteurs des technologies de reconnaissance faciale, une étude publiée par la National Institute of Standards and Technology – NIST (2021) a montré que la technologie utilisée par Idemia et adoptée par la SQ est loin d’être parfaite. En fait, cette technologie a produit des résultats médiocres, particulièrement lorsque testée à différents traits démographiques et confrontée aux personnes de plusieurs origines ethniques. Par exemple, les images collectées d’individus nés dans les pays comme le Ghana, le Libéria, la Jamaïque ou le Kenya montrent des erreurs très remarquables en comparaison des images prises de personnes nées dans les pays comme la Pologne, la Russie ou l’Ukraine. Ces erreurs d’identification sont encore plus prononcées lorsque les personnes identifiées sont des femmes (NIST, 2021), comme le montre la Figure 1 ci-dessous. Bien que l’adoption récente de cette technologie par la Sûreté du Québec n’ait pas encore soulevé des préoccupations, son déploiement à grande échelle, en particulier dans les grandes villes de la province, pourrait conduire à des controverses semblables à celles soulevées dans d’autres pays.

Figure 1

Résultats du test de vendeurs des technologies de reconnaissance faciale pour la société Idemia choisie par la Sûreté du Québec, source : NIST, 2021

Résultats du test de vendeurs des technologies de reconnaissance faciale pour la société Idemia choisie par la Sûreté du Québec, source : NIST, 2021

-> See the list of figures

Données et méthodologie

Après la publication du document Réalité policière au Québec : modernité, confiance et efficience (Gouvernement du Québec, 2019), le ministère de la Sécurité publique du Québec a mis en place un comité consultatif composé de cinq personnes dont la mission était de mener une réflexion et diriger des discussions sur les enjeux entourant la réalité des corps de police de la province. Le comité a dirigé plusieurs consultations, des entretiens confidentiels, des forums de discussions et audiences publiques. Des entités incluant des municipalités, des établissements d’enseignement, des entreprises privées, des organismes communautaires et de la société civile, des syndicats des agents de la paix et même des individus ont soumis des mémoires dans lesquels ils expriment leurs observations sur les enjeux de la police au Québec. Au total, 80 mémoires ont été recueillis et 54 vidéos des audiences ont été publiées (Ministère de la Sécurité publique, 2020). L’annexe A contient la liste de tous les intervenants ainsi que les hyperliens vers chacun de ces mémoires et vidéos. Le Tableau ci-dessous 1 montre les participants à ces consultations, regroupés par types d’intervenants.

Tableau 1

Groupes de participants aux consultations

Groupes de participants aux consultations

-> See the list of tables

Le présent travail utilise une méthodologie d’analyse textuelle quantitative à l’aide de l’outil quanteda du logiciel R proposé par Benoît et al. (2018). En premier lieu, grâce à la fonctionnalité Open Transcript fournie par la plateforme YouTube, nous effectuons une transcription automatisée des 54 vidéos des audiences publiques virtuelles afin d’en extraire le contenu en format texte. Un document est créé après chaque transcription pour un total de 54 documents. Vingt-six intervenants n’ayant pas participé aux audiences ont soumis des mémoires. Au total, nous avons 80 mémoires soumis par des organismes publics et communautaires, des syndicats, municipalités, corps policiers et individus.

L’analyse sur quanteda utilisé dans ce travail suit les trois étapes générales présentées dans le Tableau 2 suivant (Benoît et al., 2018).

Tableau 2

Étapes de préparation de corpus

Étapes de préparation de corpus

-> See the list of tables

Après avoir créé des corpus et matrices de termes, nous proposons un dictionnaire des termes évocateurs en technologies d’apprentissage automatique, à savoir algorithme, apprentissage automatique, données, surveillance et intelligence artificielle, en les associant à leurs synonymes, aux termes ou expressions en langue anglaise, aux anglicismes et aux jargons. La pertinence de ce choix de termes réside dans leur spécificité. Ils sont basés sur des grilles proposées par Guo Farhang-Razi et Alga (2019) et le Conseil de l’Europe (2021), et nous jugeons qu’ils sont assez évocateurs et uniques pour écarter les contextes ayant rapport à l’objet d’étude de ce travail. Ce tableau indique également les instructions faites au logiciel afin que celui-ci associe chaque terme ou expression courante à ses diverses connotations et usages.

Tableau 3

Dictionnaire en technologies d’apprentissage automatique

Dictionnaire en technologies d’apprentissage automatique

-> See the list of tables

Nous effectuons des analyses de fréquences et d’occurrences par des nuages de mots et des graphiques de fréquences. En faisant ressortir les thèmes les plus fréquents, nous procédons, dans un premier temps, à des analyses exploratoires. Des étapes subséquentes nous permettent ensuite de comparer les termes du dictionnaire entre eux et déterminer si certains aspects des technologies d’apprentissage automatique préoccupent les intervenants plus que d’autres. Après avoir effectué les analyses entre textes d’intervenants, nous effectuons une analyse similaire sur le rapport final publié par le Comité consultatif en mai 2021.

Résultats

La Figure 2 montre des nuages de mots faits à partir des corpus de textes de mémoires et transcriptions de vidéos des différentes interventions. Une observation rapide permet de voir que des termes comme « service », « formation », « droits », « sécurité » et « violence » dominent à travers différents corpus des intervenants. Une analyse plus approfondie pour chaque intervenant permet également de dégager des thèmes secondaires en importance.

À la sous-figure 2.1, la catégorie « Municipalités » comprend les entités identifiées comme des « municipalités », « association de municipalités » et « municipalités et corps policiers ». Notre analyse porte sur 50 documents provenant de cette catégorie. Les documents comprennent 29 mémoires soumis par les intervenants et 21 vidéos des audiences publiques. Le nuage de mots montre l’importance des variations des mots « service », « territoire », « population », « public », etc., signalant que, de façon globale, les interventions des municipalités accordent une importance particulière à une réforme de la police en termes de service à la population dans un territoire donné. À titre d’exemple, la Ville de Laval (2020) souligne dans son mémoire que « l’appui de la population est déterminant pour les prochaines années et décennies, car les défis de nos corps policiers concernent les citoyens au premier plan » (p. 10).

Nous approfondissons cette remarque par une analyse de fréquence qui permet d’explorer le niveau de prédominance des concepts clés qui apparaissent dans les différents documents étudiés.

La Figure 3 montre les fréquences d’une dizaine de mots les plus utilisés par les intervenants des municipalités. Le mot « services » à lui seul revient à peu près 1500 fois sur un corpus non nettoyé d’à peu près 300 000 mots, constituant ainsi une proportion de 0,5 %. Nous observons également l’occurrence du mot « citoyens » qui revient plus de 500 fois à travers le corpus.

À la Figure 2, la sous-figure 2.2 est un nuage de mots formé à partir du corpus de textes provenant des institutions d’enseignement ayant participé aux consultations. Une exploration visuelle montre que les concepts de « formation », « école », « techniques », « cégeps » et « compétences », entre autres, dominent le corpus qui collige les soumissions faites par les institutions d’enseignement. De façon générale, nous pouvons anticiper un accent mis sur la formation et la compétence en tant qu’éléments clés dans la réforme policière vue par des institutions d’enseignement.

Figure 2

Nuages de mots par type d’intervenant

Nuages de mots par type d’intervenant

-> See the list of figures

Figure 3

Municipalités

Municipalités

-> See the list of figures

Figure 4

Institutions d’enseignement

Institutions d’enseignement

-> See the list of figures

Par exemple, Gagnon et Dumas (2020), de l’École nationale d’administration publique, recommandent de « promouvoir l’aspect communautaire du métier de policier dans les institutions d’enseignement qui dispensent la formation de base aux policiers » (p. 9).

De façon plus approfondie (voir Figure 4 ci-dessus), nous remarquons que le mot « formation » revient à peu près 400 fois dans un corpus d’à peu près 52 000 mots (proportion de 0,8 %).

À la Figure 2, la sous-figure 2.3 montre un nuage de points fait à partir d’un corpus de textes des participants identifiés comme étant des organismes publics. Pour ces intervenants, les concepts clés sont ceux liés aux services, aux droits, à la loi, aux personnes et à la jeunesse, entre autres. La prépondérance des mots « droits », « commission », « loi » et « personnes » signale que ces organismes regardent la réforme policière sous l’angle de la loi, et notamment des droits de la personne, de façon générale. Cet extrait du mémoire du Commissaire à la déontologie policière (2020) illustre cette remarque :

Le Commissaire rappelle l’objectif fondamental qui doit guider toute son action : le renforcement du lien de confiance entre le policier et la population qu’il dessert. Ce nécessaire lien de confiance doit se fonder sur une conduite professionnelle de haute qualité de la part de tous les agents de la paix qui sont soumis au Code de déontologie des policiers du Québec [ci-après : le Code]. Ces policiers doivent, par leurs actions quotidiennes, illustrer les valeurs promues par ce Code : le respect de toutes les personnes, l’honnêteté, l’impartialité et la prudence

p. 5

Figure 5

Organismes publics

Organismes publics

-> See the list of figures

La Figure 5 ci-dessus montre que les mots « personne » et « droits » reviennent à des fréquences comprises entre 300 et 500 fois chacun dans un corpus non nettoyé d’à peu près 114 000 mots (2 %). De plus, nous remarquons que les questions de la jeunesse occupent également une place parmi les 10 concepts les plus fréquents, après le nettoyage du texte.

À la Figure 2, la sous-figure 2.4 montre un nuage de mots fait à partir des interventions des participants en provenance du secteur privé. Une exploration visuelle montre que ces derniers soulignent l’importance de la sécurité dans leurs interventions sur la réalité policière. D’autres concepts uniques sont ceux liés aux technologies, à l’industrie, aux partenariats, mais également à la formation/compétence. Nous pouvons ainsi anticiper que ces thèmes sont au coeur des points de vue des intervenants privés dans leur compréhension de la réalité policière.

Figure 6

Entreprises privées

Entreprises privées

-> See the list of figures

La Figure 6 montre que le mot « sécurité » est le plus fréquent, apparaissant plus de 600 fois dans un corpus original d’à peu près 90 000 mots (0,7 %). Cet extrait du mémoire de l’Association provinciale des agences de sécurité présenté par Laflamme (2020) illustre ce point de vue au sein du corpus des entreprises privées :

Afin de pleinement réussir une mise en place de partenariats durables et bénéfiques pour la population, des éclaircissements devraient aussi être apportés au niveau de la législation en vigueur (précisions sur la possibilité de recourir à des services externes de soutien par les corps policiers, qualification et formation des agents de sécurité et qualification des agences de sécurité.

p. 2

À la Figure 2, les sous-figures 2.6, 2.7 et 2.8 montrent des nuages de mots des syndicats de police, associations policières et services de police. Une analyse combinée de ces trois catégories montre des occurrences importantes des mots tels que « service », « sécurité », « sûreté », « citoyens », « population » (graphiques de fréquences non inclus), ce qui signale, de façon globale, une vision de la réalité policière qui s’aligne sur des services aux citoyens, comme résumé par cet extrait du mémoire de la Fédération des policiers et policières municipaux du Québec (2020) :

En s’occupant des hommes et des femmes derrière l’uniforme, on les mobilise et on les amène à s’impliquer plus dans leur travail, à vouloir faire mieux. Si on les aide à avoir un environnement de travail plus agréable, on aide aussi ces personnes à maintenir une meilleure santé psychologique puisqu’on diminue les irritants et le stress relié au travail.

p. 17

La prépondérance de l’aspect « service » est également remarquable dans le corpus de textes des syndicats du secteur public qui montre une fréquence du mot comprise entre 40 et 50 fois dans un corps de texte original d’environ 9000 mots (0,6 %).

Intelligence artificielle, apprentissage automatique, algorithme, données et surveillance

Guo et al. (2019) ont suggéré un glossaire de termes usuels en intelligence artificielle. Bien que leurs travaux aient porté spécifiquement sur les systèmes d’intelligence artificielle dans le domaine de l’imagerie médicale, ils fournissent une bonne base terminologique des concepts clés généraux. De plus, le site web du Conseil de l’Europe (2021) contient un glossaire qui ajoute une analyse transversale et interdisciplinaire des concepts allant de la classification à l’analyse d’impact et aux défis potentiels de l’adoption des systèmes d’intelligence artificielle. Après avoir associé les concepts aux correspondances, nous procédons à une analyse de fréquence à travers chaque corpus de textes des différents intervenants.

Tableau 4 

Occurrences des termes du dictionnaire

Occurrences des termes du dictionnaire

-> See the list of tables

Le Tableau 4 montre qu’en ciblant l’occurrence des termes du dictionnaire (voir Tableau 3), nous pouvons observer les fréquences secondaires que les analyses précédentes n’avaient pas permis de relever. Ce tableau permet de conclure que les termes définis dans notre dictionnaire représentent une très petite partie d’occurrences au sein de la documentation des intervenants. En effet, nous observons 1278 occurrences de tous les termes pris dans leur ensemble, ce qui représente une très petite proportion de moins de 1 % sur le corpus original de l’ensemble de la documentation (textes des mémoires et transcriptions de vidéos).

Malgré le peu d’occurrences de nos concepts d’intérêt, il importe d’effectuer une intracomparaison afin de connaître la fréquence réelle de chaque terme et analyser les contextes dans lesquels ces termes sont mentionnés. Un regard transversal des termes entre eux montre que les concepts en rapport avec les « données » et la « surveillance » (50 % et 47 % respectivement) sont les plus fréquents pour les intervenants pris dans leur ensemble. Les concepts proches des termes « intelligence artificielle » et « algorithme » sont mentionnés avec des fréquences de 2 % et 1 %, tandis que ceux en rapport avec l’apprentissage automatique n’apparaissent pas dans les interventions.

Les concepts autour du mot « algorithme » qui apparaissent à une fréquence de 1 % (ce qui représente 16 occurrences) permettent d’observer des intervenants qui se questionnent sur l’impact des technologies ayant recours aux algorithmes pour les agents de la paix. Par exemple, cet extrait du mémoire de la Commission des droits de la personne et des droits de la jeunesse (2020) souligne la tendance en matière de surveillance policière :

Les services de police ont également recours à d’autres technologies algorithmiques comme les systèmes de reconnaissance automatique des plaques d’immatriculation et la surveillance des médias sociaux. De façon plus générale, on observe une tendance vers une surveillance policière algorithmique qui repose sur l’agrégation et l’analyse automatisée de données massives de diverses sources et natures : informations personnelles, données de communications, de géolocalisation, images, contenus des médias sociaux et données policières.

p. 26

En reliant les concepts de « surveillance », « données massives » et « reconnaissance automatique », cet extrait résume une bonne partie des inquiétudes liées à l’adoption des systèmes algorithmiques par les agences de la paix.

Le terme « données » est susceptible d’avoir de multiples usages. Pour les fins de cet article, nous identifions les contextes de son occurrence qui se rapportent aux enjeux qui nous sont pertinents. Un nettoyage a permis de noter que les préoccupations portent particulièrement sur l’usage des données personnelles par les corps de police, la vulnérabilité des données face au vol de l’identité, l’extraction, la fiabilité, la gestion et le stockage des données. Il y a également les questions de l’expertise, du savoir-faire et de l’adaptation en temps opportun qui vont de pair avec les avancées technologiques. Cet extrait du mémoire de la société SIRCO Enquête et Protection, présenté par Sarrazin (2020), revient sur ces préoccupations et rejoint une littérature existante sur les menaces que les nouvelles technologies apportent, notamment par rapport à la protection de la vie privée.

De plus, la police du futur risque d’être davantage aux prises avec des problématiques en lien avec les nouvelles technologies de l’information. Aujourd’hui, on parle du Dark Web comme le Far West du crime organisé. Il n’y a pas une semaine sans que nos médias racontent des histoires de vol de données ou d’identité, de rançon informatique ou de menaces sur les réseaux sociaux. Et ce type de dossiers est nettement moins traité par les corps de police.

p. 22

La préoccupation par rapport aux enjeux de données numériques est perçue différemment par les intervenants en provenance de milieux policiers. Dans sa recommandation 9, l’Association des policières et policiers provinciaux du Québec (2020) note qu’il existe un besoin de formation des policiers affectés aux bureaux d’enquête, notamment en matière numérique comme le montre cet extrait :

Lorsque la question leur est posée sur quel type de formation leur serait nécessaire, la réponse est sans équivoque. Ceux-ci veulent une formation adaptée à leur époque. Entre autres, les formations concernant l’usage d’une technologie mettant à profit l’extraction de données numériques et celles portant sur les réseaux sociaux sont certes celles qui ressortent davantage.

p. 7

Deramond, Lalonde, Concalves, Hourlier et Noël (2020), de l’Association des directeurs de police du Québec, vont dans le même sens en notant comme enjeu un manque de centralisation des systèmes de traitement des données pour les fins d’enquête et de renseignement :

Chaque service de police possède son renseignement et des bases de données, incluant une base de données fédérale, provinciale et municipale. Malgré ces bases partagées, une même information peut être recherchée plusieurs fois, par différents agents, alors que du temps et de l’argent avaient déjà été consacrés ailleurs à cette recherche.

p. 54

Les termes entourant le concept « intelligence artificielle » se produisent à une fréquence de 22 occasions, ce qui représente une proportion de 2 % des occurrences du dictionnaire. L’adoption des systèmes d’intelligence artificielle est également perçue différemment à travers les interventions. D’un côté, nous observons le point de vue « optimiste » où l’intelligence artificielle est perçue comme un outil qui offre plus d’efficacité. Par exemple, la société SIRCO Enquête et Protection (2020) recommande « d’ouvrir les milieux policiers aux opportunités qu’offre l’intelligence artificielle par une collaboration accrue avec la sécurité privée » (p. 12), tandis que la Commission des droits de la personne et des droits de la jeunesse (2020) note des inquiétudes par rapport à l’utilisation de ces technologies :

Les [systèmes d’intelligence artificielle] peuvent affecter les droits et libertés garantis par la Charte, et particulièrement à quatre moments distincts : au moment de la collecte des données, au moment du traitement des données, au moment où les informations ainsi obtenues sont communiquées et au moment où des décisions sont prises à partir de ces informations.

p. 23

Cette double perception de l’adoption est également présente dans la littérature sur l’intelligence artificielle. Par exemple, Zuiderwijk et al. (2021) ont dénombré plusieurs opportunités potentielles qu’offre l’adoption de l’intelligence artificielle par les gouvernements telles que les gains d’efficacité et de performance, un meilleur traitement des données et de l’information, et la rapidité de prise de décision dans un environnement complexe, entre autres. Ils ont également identifié les défis potentiels tels que ceux en rapport avec les compétences, l’interprétation, l’éthique et la légitimité, entre autres.

La surveillance policière, un enjeu associé à la fois aux données et à l’intelligence artificielle, ressort comme un point d’intérêt dans les textes de certains intervenants. Les préoccupations par rapport à la surveillance occupent la deuxième place parmi les termes de notre dictionnaire avec une fréquence de plus de 47 %. En analysant les mentions de ce terme à travers les textes, nous remarquons que les inquiétudes par rapport à la surveillance vont de pair avec celles portant sur la collecte, la disponibilité et l’utilisation des données. La reconnaissance faciale, la surveillance routière, en particulier celle utilisant la reconnaissance automatique des plaques d’immatriculation, ainsi que les questions de droits de la personne reviennent comme points de préoccupation chez certains intervenants. Par exemple, les participants représentant la Ville de Montréal (2020) notent ce qui suit à propos de l’utilisation de nouvelles technologies par les corps de police :

La Ville de Montréal ne peut agir seule face au phénomène de l’utilisation des nouvelles technologies de surveillance. En effet, elle ne dispose pas de ce pouvoir et doit plutôt agir dans un cadre déjà défini pour le faire.

p. 14

Il convient de noter que la surveillance, comme les autres enjeux étudiés dans ce travail, n’est pas exclusivement perçue comme un défi par tous les intervenants puisque certains notent les bénéfices d’une surveillance accrue même lorsque celle-ci est facilitée par la technologie. À titre d’exemple, l’Association des municipalités de banlieues (2020) fait remarquer qu’il existe une acceptabilité sociale des appareils de contrôle automatisé :

Et nous soulignons que les ACA [appareils de contrôle automatisé] bénéficient d’une forte acceptabilité sociale dans la région de Montréal. 85 % des répondants d’un sondage et détenteurs d’un permis de conduire se sont prononcés en leur faveur, dans cette région administrative.

p. 8

La juxtaposition avantages-inconvénients est de plus en plus repérable dans des discussions sur l’adoption de nouvelles technologies. Comme illustré dans ces extraits, il existe des points de vue divergents et le pessimisme par rapport à l’usage des systèmes d’intelligence artificielle ne fait pas toujours l’unanimité. Joh (2018) laisse supposer qu’à côté des bénéfices et avantages potentiels, les questions de coûts en particulier, celles en rapport avec la vie privée, la confiance envers les agents de la paix ainsi que la légitimité, devraient être tenues en considération.

Analyse du rapport final

Avant de procéder à une analyse du corpus formé à partir du texte du rapport final, nous effectuons une analyse de similarité entre les contenus des textes des intervenants et le rapport final comme le montre la Figure 7.

Figure 7

Comparaison de distance entre intervenants par un dendrogramme en grappes

Comparaison de distance entre intervenants par un dendrogramme en grappes

-> See the list of figures

La distance (axe des ordonnées) montre que les corpus faits à partir des textes des intervenants identifiés comme « associations policières », « individus » et « syndicats du secteur public » sont les plus proches les uns des autres. Le corpus des textes des municipalités s’éloigne le plus des autres et sept intervenants forment une grappe et se rapprochent d’une distance de 0 à 2000 unités dans notre graphique : il s’agit des trois intervenants de la première grappe auxquels s’ajoutent les entreprises privées, les institutions d’enseignement, les services de police et les organismes publics, dans cet ordre. Le corpus du texte du rapport final forme une grappe avec les organismes communautaires et les syndicats policiers d’un côté et le reste des intervenants de l’autre. Sa position à une distance du milieu (distance d’à peu près 2500 unités) montre que son contenu ne s’éloigne pas significativement du reste des textes des intervenants, même s’il ne forme pas d’importantes grappes avec eux. Cette observation de rapprochement des contenus des intervenants et du rapport final nous permet d’analyser le rapport en suivant les mêmes étapes que dans les sections précédentes.

Figure 8

Nuage de mot et fréquence (texte du rapport final)

Nuage de mot et fréquence (texte du rapport final)

-> See the list of figures

Tableau 5

Occurrences des termes du dictionnaire dans tous les corpus

Occurrences des termes du dictionnaire dans tous les corpus

-> See the list of tables

Sur la Figure 8, le nuage de mots formé à partir du corpus du texte du rapport final montre que les termes importants qui ressortent sont entre autres « citoyens », « services », « population », « minorité », « sécurité », « publique », « personnes » et « formation ». Ceci confirme notre observation de la sous-section précédente sur la distance entre le contenu du rapport final et les contenus des textes des intervenants. En effet, lors de l’analyse des thèmes importants des textes des intervenants au début de ce travail, nous avions montré que certains de ces mots clés ressortaient également des différents textes des intervenants. À titre d’exemple, nous avions observé une importance élevée des termes « service » et « formation » dans les corpus formés à partir des textes des municipalités et des institutions d’enseignement. À cette étape, nous pouvons confirmer que le corpus formé à partir du texte du rapport final est très proche, en termes de contenu, des corpus formés à partir des textes des intervenants, ce qui nous permet d’accepter qu’il reflète les résultats trouvés en analysant les corpus des intervenants séparément.

À partir du Tableau 5 ci-dessus, nous observons que les occurrences des termes du dictionnaire sont comparables entre les textes des intervenants et celui du rapport final. La ligne sur les occurrences moyennes chez les intervenants nous montre que les fréquences dans le rapport final ne sont pas aberrantes en les comparant, de façon transversale, aux occurrences chez les intervenants. Par exemple, nous observons une occurrence égale à 1 du terme « algorithme » dans le rapport final et une moyenne de 1,6 chez les intervenants. Nous observons également que, comme chez les autres intervenants, les enjeux en rapport avec l’intelligence artificielle n’occupent qu’une place très limitée au sein du rapport final. Pris dans leur ensemble (sans tenir compte des contextes dans lesquels ils apparaissent), les termes du dictionnaire ne représentent qu’une proportion de 0,14 % de tout le corpus du rapport final.

Discussion et conclusion

Grâce aux analyses précédentes, nous observons que les intervenants voient en la police un service aux citoyens. Cet aspect de service ressort à la fois chez les participants en provenance du milieu policier et non policier. Pour une bonne partie de participants, la réforme policière devrait prendre en compte les enjeux liés aux droits de la personne, à la violence, notamment la violence conjugale, mais également à la formation et aux compétences des policiers. Quant aux enjeux définis par le présent travail, nous remarquons que nos termes indicateurs se produisent à de très faibles fréquences à travers la documentation analysée. De ce constat, nous observons que les enjeux de nouvelles technologies, particulièrement celles ayant recours aux algorithmes et à l’intelligence artificielle, tels que définis par notre dictionnaire, ne constituent pas une préoccupation de première ligne pour les intervenants ayant participé aux consultations et aux audiences publiques, à en juger par la fréquence des termes. Il importe, toutefois, de reconnaître qu’une des limites d’un tel travail est l’aspect technique des termes définis qui pourraient ne pas faire partie du langage courant. Par ailleurs, leur occurrence dans certains textes montre qu’ils existent et que certains participants ont tenté de les soulever, quand bien même les perceptions diffèrent.

Ce résultat mixte s’aligne partiellement sur une littérature existante qui montre que de plus en plus de citoyens s’inquiètent de l’impact qu’un usage de l’intelligence artificielle, notamment par les agents de la paix, pourrait avoir dans le futur. Par exemple, Brayne (2021) montre que la question de l’utilisation de données massives et de l’apprentissage automatique par les agents de la paix et le système judiciaire est devenue un sujet de débats contentieux dans les milieux légaux, politiques, médiatiques et académiques entre autres. Joh (2014) conclut que l’usage de l’intelligence artificielle et des données massives sont susceptibles de devenir un aspect ordinaire de la police tandis qu’Adensamer et Klausner (2021) montrent que la prédiction de la criminalité est actuellement entreprise par les forces de police dans de nombreux pays.

Bien qu’ils se produisent à de très faibles fréquences, ces enjeux sont mentionnés en suivant une dichotomisation habituelle avantages-inconvénients à travers différents textes. En particulier, les questionnements liés aux données et à la surveillance reviennent de plus en plus et ils sont perçus différemment par les intervenants. À cet effet, nous remarquons également une double perception optimiste vs pessimiste où d’un côté, certains intervenants apprécient les apports des technologies aux corps de police et au service des citoyens et de l’autre, se questionnent sur les répercussions, notamment en matière de droits de la personne. Ces préoccupations se manifestent également différemment selon que les intervenants sont du milieu policier ou non : pour les participants en provenance du milieu policier, les enjeux tournent autour de la formation, du savoir-faire et des compétences tandis que pour les participants en provenance du milieu non policier, les préoccupations portent particulièrement sur l’usage et la gestion (notamment des données personnelles) par les corps de police. De plus, la vulnérabilité des données, le vol d’identité, le stockage et l’utilisation sont des thèmes qui font ressortir des inquiétudes chez certains intervenants.

L’analyse du rapport final a permis d’affirmer que son contenu est très proche des contenus en provenance des intervenants. Comme pour ces derniers, nous avons remarqué un contenu qui porte plus sur les « citoyens », les « services » et la « population ». De même, les enjeux en rapport avec l’adoption de nouvelles technologies par les corps de police mettent l’accent sur les inquiétudes par rapport aux données personnelles, aux défis en matière de droits de la personne et aux compétences des corps de police relativement à ces technologies.

En se fiant à la faible occurrence des enjeux étudiés et à cette différence de perception des inquiétudes entre les participants, il serait utile d’amorcer une discussion sur les impacts réels liés à l’adoption et prolifération des technologies d’intelligence artificielle, notamment ceux basés sur des modèles permettant la police prédictive, par les agents de la paix à travers le Québec. Comme le notent certains intervenants, d’importantes préoccupations existent et devraient faire l’objet d’analyses plus approfondies, notamment dans des cadres qui iraient au-delà, ou qui frayeraient la voie à des compléments, des consultations publiques. Comme le souligne Joh (2018), il importerait d’accepter que, quels que soient les avantages des technologies algorithmiques offertes aux services de police, peut-être faudrait-il prendre en compte l’existence des coûts compensatoires, la confiance du public, la vie privée, voire la légitimité de la police à les employer. Le Québec ne fait pas exception : l’utilisation anticipée de la technologie de reconnaissance faciale et des empreintes digitales par la Sûreté du Québec et la controverse entourant les fournisseurs de ces services, notamment par rapport à la qualité et l’équité de leurs résultats, exigent que la police du futur tienne compte des défis potentiels des algorithmes, en particulier pour les populations minoritaires susceptibles d’être disproportionnellement affectées.