Article body

INTRODUCTION

Avec les progrès et l’essor de la démocratisation de l’intelligence artificielle, nous assistons à l’émergence du phénomène des deepfakes[1] dont la technologie se limitait jusqu’à très récemment aux films issus des grandes productions cinématographiques (Glick, 2020; Paris et Donovan, 2019;). Grâce à l’apprentissage profond (deep learning), cette technologie permet de générer du contenu audiovisuel de manière ultraréaliste (Office québécois de la langue française, 2019a). Le degré de sophistication a atteint un point tel qu’il est désormais possible de reproduire numériquement un individu et lui faire dire ce que l’on souhaite ou le faire agir, sans son consentement, de façon à tromper la vigilance humaine (Westerlund, 2019).

L’objectif de cet article de réflexion est de circonscrire le phénomène des deepfakes et de tracer les contours des dangers qu’il soulève pour nos sociétés quand il est utilisé pour disséminer de la désinformation afin de mettre en relief le besoin urgent d’une éducation à la citoyenneté visant cette problématique. Nous présentons d’abord la méthodologie utilisée pour la revue de littérature. Nous explicitons ensuite la menace des deepfakes pour nos sociétés ainsi que les solutions envisagées, et nous expliquons l’urgence d’impliquer davantage l’éducation, notamment l’éducation à la littératie médiatique et l’éducation à la citoyenneté numérique, comme l’indiquent Hwang et al. (2021), pour développer l’esprit critique des jeunes, leur agentivité[2] en contexte numérique ainsi que leur discernement à l’égard des deepfakes afin qu’ils puissent se protéger et contrer ce phénomène. Ces apports convoquent des perspectives issues de différents domaines qui sont rassemblés à la fois pour mettre en lumière la complexité du phénomène et pour l’urgence d’agir qui dépasse le fait de simplement offrir de l’information pour sensibiliser les jeunes à la menace. Nous concluons l’article avec des pistes de recherche à explorer en citoyenneté numérique.

MÉTHODOLOGIE

Afin de répondre à la question « Pourquoi éduquer les jeunes aux hypertrucages malveillants ? », nous avons commencé par circonscrire le phénomène des deepfakes et ses dangers dans un contexte de désinformation. Nous avons d’abord effectué une recherche dans les trois bases de données scientifiques ERIC, Education Source (EBSCO) et PsycINFO avec les mots-clés « deepfake » et « disinformation », puis avec « hypertrucage » et « désinformation », ce qui a généré des résultats très limités (Tableau 1). Ces trois bases de données couvrent le secteur de l’éducation et les ordres du milieu d’enseignement. Il convient de noter que nous n’avons appliqué aucun critère d’exclusion.

Tableau 1

Résultats de la recherche dans trois bases de données

Résultats de la recherche dans trois bases de données

-> See the list of tables

Cela pourrait s’expliquer par le fait que le terme deepfake aurait été créé très récemment, en 2017, sur la plateforme Reddit, par un utilisateur qui se nommait « deepfakes » et qui utilisait la technologie de l’hypertrucage des domaines du génie logiciel et de la filmographie pour créer des vidéos pornographiques. Étant donné l’émergence du phénomène, nous avons amorcé une revue exploratoire du contenu partagé en ligne depuis 2017 produit par des spécialistes de ce phénomène, y compris des équipes de recherche.

LA MENACE DE LA DÉSINFORMATION SOUS FORME DE DEEPFAKE

La désinformation sous forme de deepfake risque fort de miner nos perceptions de ce qu’est un fait véridique et de menacer la démocratie dans un avenir rapproché (Citron, 2019; TAP Staff Blogger, 2019). Les experts prédisent que la technologie d’hypertrucage sera utilisée pour la cyberintimidation, la destruction de réputations, le chantage, la diffusion de discours haineux, l’incitation à la violence et la perturbation des processus démocratiques (Maras et Alexandrou, 2019), ainsi que pour la cybercriminalité et les fraudes (Strupp, 2019), pour ne citer que quelques exemples. La technologie évolue si rapidement vers l’impossibilité de distinguer le vrai du faux (Knight, 2019) qu’elle présente des risques alarmants pour la légitimité des informations en ligne (Agence France-Presse, 2019).

En éducation, il y a une urgence d’agir parce que les jeunes sont de plus en plus exposés à cette nouvelle forme de désinformation en ligne. Le Centre canadien d’éducation aux médias et de littératie numérique (HabiloMédias) a créé de nombreuses ressources pédagogiques pour authentifier l’information, y compris des textes, des jeux, des questionnaires, des ateliers, des plans de leçons ainsi que des affiches. Ces ressources visent à développer le sens critique des élèves basé sur l’authentification des faits vérifiables sur Internet. Avec le phénomène des deepfakes les établissements d’enseignement doivent d’emblée éduquer les jeunes aux mécanismes sous-jacents à la production des médias et les préparer à être critiques. Ils doivent également être capables d’agir dans l’environnement médiatique pour concevoir des programmes efficaces afin de préparer leurs élèves à faire face à d’ingénieux propagandistes numériques (Gordon, 2018; LSE Commission on Truth Trust and Technology, 2019; Valtonen et al. 2019). Selon Pérez-Escoda et al. (2021), les jeunes manquent de confiance à l’égard des politiciens, des médias et des journalistes. Un tel manque de confiance pourrait réduire leur participation à notre société démocratique ou ils pourraient se fier à celle-ci aveuglément, mais, pire encore, des jeunes qui ne savent pas discerner ce qui est faux risquent de construire leurs connaissances d’un domaine ou leur opinion sur un sujet à partir de faussetés indétectables.

Pour savoir comment discerner ce qui est faux de ce qui est vrai, il faut d’abord faire la distinction entre la mésinformation, la malinformation et la désinformation. Alors que la mésinformation désigne une « information transmise au moyen des médias de masse ou des médias sociaux, qui est considérée comme véridique par l’émetteur, mais qui, en réalité, déforme les faits ou est erronée » (Office québécois de la langue française, 2019b) et que la malinformation est une information exacte, diffusée par des individus de manière trompeuse dans le but de nuire (Brin et al., 2021), la désinformation, quant à elle, est un contenu faux, manipulé ou fabriqué dans l’intention délibérée de nuire aux individus, aux organisations, aux sociétés, aux économies (Baines et Elliott, 2020). Quand la désinformation est associée à la technologie de l’hypertrucage, sa menace devient encore plus néfaste (Hwang et al., 2021). Dans les sections qui suivent, nous abordons différentes facettes du risque dont, notamment, la perte de confiance et la modification du rapport à l’information, l’incrédulité face à des vidéos authentiques et la possibilité de créer de faux souvenirs.

Le réalisme des deepfakes et la perte de confiance

La diffusion sur Internet d’informations erronées ou déformées par certains médias contribue à l’émergence de théories du complot manipulant les populations à des fins politiques. Ce fait revêt une importance mondiale (Schroepfer, 2019). De nombreux experts nous mettent sans cesse en garde contre les deepfakes (Lee et al., 2021) qui ont vu le jour sous la forme de vidéos pornographiques superposant les visages de célébrités sur les corps de vedettes du porno (Maras et Alexandrou, 2019). Aujourd’hui, les hypertrucages ont le pouvoir d’être utilisés pour faire basculer des élections (Lalonde, 2019; O’Brien, 2019) et affaiblir la confiance des gens dans ces dernières (Charlet et Citron, 2019). L’introduction de l’intelligence artificielle n’a fait que faciliter la création de ces vidéos hyperréalistes (Maras et Alexandrou, 2019).

Les possibilités créatives de la technologie de l’hypertrucage semblent infinies; en voici deux exemples dans le monde du divertissement et de la culture dont les enjeux convoquent peu de débats. Après sa mort, l’acteur Paul Walker, de la franchise cinématographique Rapides et dangereux, est apparu dans le film Dangereux 7. Ce tour de force a été possible grâce au travail de Hao Li, pionnier de l’hypertrucage et professeur associé à l’Université de Californie du Sud (Howell O’Neill, 2019). Le Dalí Museum a fait revivre synthétiquement Salvador Dalí afin que les visiteurs de son exposition puissent être accueillis par l’artiste même, pour ensuite être invités à prendre un égoportrait en sa compagnie (The Dalí Museum, 2019).

Cependant, le potentiel d’armement des hypertrucages augmente de façon alarmante et incontrôlée. Auparavant, aucune technologie accessible au grand public n’aurait pu créer synthétiquement un média avec un réalisme comparable (Ajder et al., 2019). Récemment, une mère est allée aussi loin que de créer des deepfakes mettant en scène des meneuses de claque rivales de sa fille afin de les discréditer (Slate, 2021). Ce changement de créneau a fait émerger de multiples dangers. Parmi les dangers à long terme, certains experts mentionnent le fait que les deepfakes accentuent la perte de confiance (Wahl-Jorgensen et Carlon 2021) déjà amorcée à l’égard des médias (Langlois et al., 2020), ce qui soulève le doute sur l’authenticité de l’information ainsi que la possibilité pour les jeunes d’être eux-mêmes et elles-mêmes la cible de deepfake, ce qui pourrait ruiner leur réputation ou les rendre victimes de cyberintimidation.

L’incrédulité par défaut et le dividende du menteur

À l’heure actuelle, les possibilités de manipulations malveillantes de matériel audiovisuel font craindre l’émergence d’une attitude que l’on qualifie « d’incrédulité par défaut » (traduction libre de disbelief by default), qui consiste à remettre en question la véracité de vidéos authentiques afin de saper la crédibilité et de jeter le doute sur celles-ci (Weghe, 2019).

Selon son intention, le deepfake peut prendre pour cible des organisations et des entreprises, des personnalités publiques et politiques, des segments de la population et des personnes vulnérables. À long terme, il peut engendrer une perte de confiance généralisée touchant la société dans son ensemble, passant alors des microdangers (qui ne sont pas moins alarmants pour autant) aux macrodangers susceptibles de modifier radicalement notre rapport à la vérité.

Un monde dans lequel chaque image, vidéo ou enregistrement audio peut être manipulé engendrerait une attitude qui supposerait (par défaut) l’inauthenticité de tout matériel audiovisuel. Ainsi, « si tout peut être faux, alors rien ne doit être réel et n’importe qui peut commodément écarter les faits gênants comme étant des médias synthétiques » (Sonnemaker, 2021, traduction libre).

Dans le contexte où une telle attitude commune à l’égard de l’information existe, le discours démocratique perd son fondement dans des faits communément admis. Tout politicien, toute personne pourrait simplement nier les preuves d’actes répréhensibles et dire qu’il s’agit de manipulation (Goldzweig et Brady, 2020). Cette conséquence, inhérente au deepfake, est connue sous le nom « dividende du menteur » (traduction libre de liar’s dividend) (Chesney et al., 2020). Terme formulé par les professeurs en droit Danielle Citron et Robert Chesney, le dividende du menteur est défini comme étant le risque que des menteurs puissent invoquer l’hypertrucage afin d’échapper aux responsabilités de leurs actes répréhensibles (TAP Staff Blogger, 2019).

Le rôle de l’éducation aux médias et à la citoyenneté numérique est crucial non seulement pour pouvoir reconnaître ou rejeter la désinformation, mais aussi pour pouvoir reconnaître la mésinformation et la malinformation, aussi en surface (vérifiables factuellement) ou en profondeur (intégrées faussement dans les médias, ce qui peut les rendre plus difficiles à vérifier factuellement parce qu’elles sont plus difficilement détectables) soient-elles, ce que nous expliquons plus en détail ci-dessous.

Le pouvoir de la communication visuelle pour créer de faux souvenirs

Le pouvoir de la communication visuelle a déjà été démontré par de nombreux chercheurs (Block et Keller, 1997; Grabe et Bucy, 2009; Graber, 1990; Lazard et Atkinson, 2015; Messaris, 1997). Plusieurs chercheurs (Frenda et al., 2013; Prior, 2013; Stenberg, 2006; Sundar, 2008; Witten et Knudsen, 2005) soutiennent que l’information visuelle est intégrée plus efficacement que d’autres types de données sensorielles en raison de sa correspondance avec des représentations de la réalité. Ce constat trouve d’ailleurs écho chez Purnell (2020) qui, s’interrogeant sur la facilité avec laquelle les deepfakes peuvent tromper la vigilance du public, affirme que la réponse se trouve en partie dans ce qui est connu comme l’« oculocentrisme » et qui, comme son nom l’indique, est « un biais perceptif et épistémologique privilégiant la vision aux autres sens » (Oxford Reference, 2021, traduction libre). De plus, si l’image est familière, cette « familiarité suscite un effet de vérité – un sentiment de fluidité qui rend l’information plus facile à assimiler et donc plus crédible » (Vaccari et Chadwick, 2020, p. 2, traduction libre). L’image et la familiarité avec celle-ci jouent donc un rôle considérable dans la mémorisation d’une information.

Dans la foulée des avancées scientifiques permettant d’expliquer la relation qu’entretiennent image, information et mémoire, Liv et Greenbaum (2020) soulignent que « non seulement les deepfakes peuvent créer des représentations crédibles de la réalité, mais ils peuvent également être utilisés pour créer de faux souvenirs » (p. 96, traduction libre). Selon ces auteurs, à la manière d’un cheval de Troie, ces faux souvenirs profitent de nos biais cognitifs qui tendent à favoriser les souvenirs évoquant notre propre conception du monde (weltanschauung). En ce sens, pour Purnell (2020), le principal danger ne vient pas directement de la manipulation visuelle présente dans les deepfakes, qualifiés de « désinformation sur les stéroïdes » (Chesney et Citron, 2018, traduction libre), mais plutôt dans la prédisposition des individus à croire instinctivement ce qu’ils voient. Lorsque les technologies qui permettent de médier ce rapport à l’image via les plateformes numériques accentuent le pouvoir de tromper la vision par l’hypertrucage, il est envisageable de voir ce danger s’accentuer dans le temps.

Comme l’explique Moukheiber (2020), les réseaux sociaux font en sorte que nous ne regardons que les actualités qui confirment ou renforcent ce que l’on croit déjà. Le biais cognitif à la base de ce comportement, à savoir le biais de confirmation, joue un rôle clé dans la propagation de fausses nouvelles (Vicario et al., 2019). Le risque que les citoyennes et les citoyens construisent leurs connaissances et renforcent leurs convictions à partir d’informations en ligne délibérément fausses est alarmant.

Pour préparer les citoyennes et les citoyens du futur, il faut aller au-delà de la formation axée sur la maîtrise des contenus, du développement de la littératie numérique et de la formation à la pensée critique. Les deepfakes ouvrent une porte sur une formation plus englobante qui inclut ce qui a été fait dans le passé en passant par la législation et en ouvrant sur le travail des constructions psychologiques, aussi appelées perceptions ou représentations personnelles selon la tradition de recherche privilégiée. Dans la prochaine section, nous offrons quelques pistes à adopter pour sensibiliser les jeunes et les aider à contrer ces deepfakes.

LES TENTATIVES DE SOLUTIONS POUR CONTRER LES HYPERTRUCAGES ET L’URGENCE DE SENSIBILISER LES JEUNES

Différents acteurs et actrices de la société se joignent dans un effort commun afin de faire face au phénomène des deepfakes. Jaiman (2020) explique que les solutions pour contrer les deepfakes peuvent se résumer à quatre grandes catégories d’interventions : 1) les réglementations et les actions législatives; 2) les politiques et la gouvernance des plateformes; 3) les outils technologiques; 4) l’éducation aux médias et à la citoyenneté numérique. En effet, pour protéger la vérité, garantir la liberté d’expression et faire face à l’hypertrucage malveillant, une approche hybride impliquant les différentes parties prenantes est primordiale (Goldzweig et Brady, 2020; Jaiman, 2020). Goldzweig et Brady (2020) précisent ceci :

Certains aspects de la solution sont liés aux actions globales nécessaires pour lutter contre la désinformation en tant que problème sociétal, tandis que d’autres sont plus spécifiques aux menaces liées à l’utilisation de l’intelligence artificielle dans la manipulation de contenus

p. 28, traduction libre

En 2019, soutenu par Microsoft, un consortium sur l’intelligence artificielle et un fonds de 10 millions de dollars (USD), Facebook a lancé le Deepfake Detection Challenge (Ferrer et al., 2020). Cette initiative visait à contrer la désinformation par la conception de nouveaux outils qui détectent les contenus médiatiques manipulés (Schroepfer, 2019). Récemment, Facebook a annoncé une solution prometteuse qui utilisera l’intelligence artificielle pour déconstruire la fabrication des hypertrucages malveillants et repérer des imperfections infiltrées au produit (Le Figaro et Agence France-Presse, 2021; ZDNet, 2021). La Defense Advanced Research Projects Agency (2019), fer de lance du programme Semantic Forensics (SemaFor) qui évalue l’intégrité des médias visuels numériques grâce à l’utilisation de types d’algorithmes spécifiques, s’efforce de détecter, d’attribuer et de caractériser automatiquement les actifs médiatiques falsifiés. En parallèle, certains chercheurs discutent de l’utilisation de réseaux neuronaux pour détecter les incohérences entre les multiples images des deepfakes (Güera et Delp, 2018). D’autres proposent des algorithmes pour détecter des visages complètement générés en utilisant des données et des méthodes spécifiques pour construire des descripteurs pour la détection automatisée (Matern et al., 2019). Hasan et Salah (2019) proposent d’utiliser la technologie de la chaîne de blocs (blockchain) pour déterminer la source d’origine et l’historique du contenu numérique. Farid et Agarwal construisent un logiciel qui utilise les caractéristiques subtiles de la façon dont une personne parle pour distinguer cette personne de la fausse version d’elle-même (Manke, 2019).

Cependant, les solutions technologiques de détection des deepfakes, aussi performantes soient-elles, n’empêchent pas tous ceux-ci de circuler (Villasenor, 2019). En parallèle, les recours juridiques, quelle que soit leur efficacité, sont généralement appliqués après coup et ont une utilité limitée pour faire face aux dommages potentiels que peuvent causer les deepfakes, en particulier compte tenu des délais courts qui caractérisent la création, la distribution et la consommation des médias numériques (Villasenor, 2019). Par conséquent, il est de la plus haute urgence de trouver d’autres solutions ancrées dans l’application sociétale pour résister aux deepfakes. La convocation de l’éducation pour faire face aux menaces exposées ci-dessus devient inéluctable. Elle peut non seulement préparer les nouvelles générations de citoyens et de citoyennes à comprendre les dangers liés aux deepfakes et leur fonctionnement technique, mais elle peut aussi leur permettre de développer leur pensée critique et favoriser leur agentivité.

Le concept d’agentivité humaine émerge du travail du psychologue américain Albert Bandura (2006) pour expliquer notre capacité d’influencer le cours des événements ou l’environnement par l’entremise de nos actions. Toujours selon Bandura (2006), l’agentivité humaine s’exerce à partir de quatre fonctions : 1) l’intentionnalité (formuler une intention en planifiant comment nos actions se dérouleront); 2) la capacité de se projeter dans la temporalité par l’anticipation (planifier ses actions et savoir comment les exécuter pour atteindre ses objectifs); 3) l’autoréactivité (revenir sur le résultat de ses actions et corriger le cours, si nécessaire); 4) l’autoréflexivité (réfléchir sur ses actions). Dans un contexte numérique, l’agentivité pourrait impliquer de passer de l’observation passive des partages des deepfakes sur les réseaux sociaux à l’adoption active de stratégies en ligne pour dénoncer ces tromperies et les contrer par des faits (Naffi et al., 2021).

L’urgence de sensibiliser les jeunes aux dangers des hypertrucages malveillants

À l’ère du numérique, chaque réponse à une question est censée être trouvée par une recherche Google, une vidéo YouTube ou une conférence TED, pour ne citer que quelques exemples. En fait, la majorité des jeunes Canadiens âgés de 15 à 24 ans utilise Internet quotidiennement, la plupart d’entre eux pour suivre les nouvelles et l’actualité grâce aux plateformes de médias sociaux comme Facebook, Twitter et Instagram (Mitchell et al., 2018; Statistique Canada, 2018). En 2020, 90 % des Canadiens âgés de 18 à 24 ans utilisait YouTube (Statista, 2021a). La demande croissante des consommateurs pour les vidéos en ligne a entraîné une augmentation de 40 % des vidéos téléchargées entre 2014 et 2020, et « à partir de février 2020, plus de 500 heures de vidéo étaient téléchargées sur YouTube chaque minute » (Ceci, 2021). Selon Statista, l’application TikTok[3] a réussi à attirer 65,9 millions d’utilisateurs en 2020 avec une projection de 73,7 millions pour l’année 2021, allant jusqu’à 88,7 millions en 2024, ne parlant là que des États-Unis (Statista, 2021b).

Dans le contexte de la littératie visuelle, Kearney (2020) explique que « le sens n’est pas situé uniquement dans l’image, mais est construit en partie par le spectateur en utilisant son propre système de signification précédemment intériorisé » (p. 171, traduction libre). C’est d’ailleurs la compréhension de ce phénomène que l’auteur nomme la « conscience sémiotique » (traduction libre de semiotic awareness). Dans la même ligne de pensée, Kelly (1955/1991) postule que les interprétations et les actions d’une personne fonctionnent de manière structurée et sont déterminées par ses prédictions de l’avenir. Ces prédictions sont générées par des systèmes de construits personnels que la personne développe à partir de ses propres expériences des événements. À travers le prisme de la psychologie des construits personnels (Kelly, 1955/1991), une théorie qui met l’humain au centre de ses expériences, les jeunes sont des sujets conscients qui, malgré la vulnérabilité de plusieurs d’entre eux, pourraient contrôler la façon dont ils interprètent les informations diffusées en ligne. Cette théorie a été utilisée avec succès dans plusieurs études sur des sujets critiques et délicats pour lesquels l’expérience subjective de la personne est remise en question, notamment la perception que les sociétés d’accueil se font des réfugiés syriens (Naffi et Davidson, 2016, 2017) ou dans un contexte de résolution de problème avec des communautés qui ont des divergences d’opinions (Davidson et al., 2016).

Le postulat de la théorie des construits personnels appliqué aux deepfake, pourrait se manifester de deux manières diamétralement opposées :

  1. Si les jeunes considèrent le phénomène du deepfake comme inoffensif et uniquement divertissant, ce groupe pourrait baisser la garde lorsqu’il est confronté à une fausse vidéo et interpréter les informations partagées comme étant fiables.

  2. En revanche, si les jeunes considèrent le phénomène comme une menace sérieuse, ce groupe risquerait de douter de chaque information partagée en ligne sur les plateformes de partage de vidéos et, par conséquent, de perdre des occasions d’apprentissage illimitées.

Moukheiber (2020) avance d’ailleurs que « l’humain a tendance à faire une confiance aveugle à sa perception, au point de la considérer comme partagée par tout le monde » (p. 20-21), que « nous ne voyons pas le monde tel qu’il est, mais tel que nous sommes » (p. 25) et que lors d’une ambiguïté, notre cerveau comble les vides pour retrouver la certitude. Devant le phénomène des deepfakes, il est crucial d’insister sur l’éducation aux médias pour aider les jeunes à développer leur esprit critique et pour utiliser une méthode favorisant aussi leur réflexivité quant à leurs propres interprétations des deepfakes, et, par la suite, leur agentivité pour les contrer.

Les deepfakes interpellent les acteurs et les actrices de l’éducation et d’autres disciplines

Afin de développer la résilience face à la désinformation, notamment sous forme de deepfake, plusieurs initiatives de formation et de sensibilisation grand public ont vu le jour. Financé par Patrimoine Canada, l’organisme Journalists for Human Rights a lancé son programme de neuf mois intitulé Fighting Disinformation Through Strengthened Media and Citizen Preparedness in Canada (Journalists for Human Rights, 2019).

Visant la sensibilisation grand public, Radio-Canada a, de son côté, lancé l’émission Les décrypteurs. À travers l’usage d’un robot conversationnel, Alexis De Lancer, animateur de l’émission, initie les visiteurs aux deepfakes et à la façon de « combattre la désinformation » (Les décrypteurs, 2021). En parallèle, l’agence de presse Reuters (2021) offre une formation sur les contenus médiatiques manipulés. La formation est offerte en ligne en 16 langues. Le site Web du News Literacy Project (2021b) offre la plateforme d’apprentissage en ligne Checkology, laquelle partage des programmes et des ressources afin d’aider le personnel de l’éducation à enseigner la littératie médiatique aux élèves et aider les adultes à déterminer la crédibilité d’une information, ainsi que le Sift, un bulletin d’information hebdomadaire qui fournit des exemples concrets de désinformation. Le Stanford History Education Group (s. d.) partage des ressources avec des groupes éducateurs et étudiants à travers leur site Web Civic Online Reasoning pour notamment évaluer la fiabilité des sources en ligne. CrashCourse, Mediawise et le Stanford History Education Group (2021) s’associent afin de présenter la série Navigating Digital Information, des vidéos éducatives pour développer des compétences pratiques dans l’évaluation des informations en ligne. Un autre exemple est celui du projet artistique immersif Moon Disaster, qui invite ses visiteurs à entrer dans une histoire alternative en leur demandant de réfléchir à la façon dont les nouvelles technologies peuvent déformer, réorienter et obscurcir la vérité qui nous entoure (Burgund et Panetta, 2019).

En particulier, la formation virtuelle InfoZones, créée par le News Literacy Project (2021a), discute de la technique du « zonage de l’information » (traduction libre). Cette technique consiste à amener le grand public à s’interroger sur l’objectif principal de l’information, soit divertir, vendre, persuader, provoquer, documenter ou informer, et ensuite à « zoner l’information » dans l’une des six catégories correspondantes : nouvelles, opinion, divertissement, publicité, propagande ou information brute. Cela permet de saisir l’information dans toute sa complexité et, par l’analyse de cas spécifiques, d’exposer les modalités d’un jugement critique. En ce sens, « zoner l’information » permet de faire ressortir l’objectif principal qui peut être dissimulé sous diverses apparences. Ces formations accessibles à tout public peuvent être employées dans les milieux éducatifs au service du personnel enseignant et des apprenants et apprenantes. Bien que ces formations contribuent à la compréhension de l’information, elles seules ne suffisent pas pour développer l’agentivité permettant de contrer la désinformation.

Dans les pays dont l’éducation est progressiste, l’éducation aux médias débute depuis le très jeune âge. Par exemple, la Finlande et le Danemark affirment avoir développé la résilience de leurs jeunes à l’égard de la désinformation grâce à l’éducation (Bellanger, 2021; Charlton, 2019). Leurs jeunes apprennent à analyser les médias d’une façon critique de même qu’à repérer les mensonges et la tromperie.

Le Canada fait figure de proue dans l’éducation aux médias avec de nombreuses initiatives menées par des organismes à but non lucratif ou des conseils scolaires d’un océan à l’autre, par exemple HabiloMédias (MediaSmarts en anglais), un organisme qui a « pour objectif de veiller à ce que les enfants, les adolescents et les adultes de confiance développent une pensée critique qui leur permet d’utiliser les médias à titre de citoyens numériques actifs et éclairés » (HabiloMédias, 2021). De nombreux organismes à but non lucratif tels que CIVIX (https://educationauxmedias.ca), Printemps numérique (https://www.printempsnumerique.ca), PAFEME, la plateforme d’actions et de formation en éducation aux médias pour enfants (https://www.pafeme.ca), Le Curieux (https://lecurieux.info) et AlphaNumérique (https://alphanumerique.ca/espace-public), pour n’en nommer que quelques-uns, offrent des formations pour soutenir les jeunes dans la littératie numérique et l’éducation aux médias. Au Québec, RÉCIT (https://recit.qc.ca) et CADRE21 (https://www.cadre21.org) offrent des formations au personnel enseignant et aux jeunes pour l’éducation aux médias et le développement de la compétence numérique. En Ontario, plusieurs conseils scolaires ont créé des ressources pédagogiques pour que les élèves soient informés, proactifs et responsables en ligne, et ils les ont mises à la disposition du public (Queen’s Printer for Ontario, 2020). Par le truchement de ces multiples initiatives, le Canada possède un éventail de ressources pour favoriser le développement de la pensée critique des enfants, y compris l’authentification de l’information, la cyberintimidation, la cybersécurité et l’utilisation excessive d’Internet.

De fait, la pensée critique est une compétence principale du cadre de référence de la compétence numérique issu du plan d’action numérique du ministère de l’Éducation et de l’Enseignement supérieur du Québec (2019). La citoyenneté numérique, quant à elle, se trouve au coeur des programmes d’études dans un grand éventail d’établissements d’enseignement du primaire au collégial. Elle comprend, entre autres, la littératie numérique, l’étiquette en ligne et la sécurité en ligne. Similairement, le Cadre de référence de la compétence numérique (ministère de l’Éducation et de l’Enseignement supérieur, 2019) définit la citoyenneté numérique comme ceci :

Fait de posséder des équipements et des compétences liés aux TIC et permettant de participer à la société numérique, par exemple d’accéder à des informations gouvernementales en ligne, d’utiliser des sites de réseaux sociaux et de faire usage d’un téléphone mobile

p. 28

Richard Culatta, directeur général de la Société internationale pour la technologie dans l’éducation, explique que la citoyenneté numérique consiste également à utiliser la technologie pour améliorer sa communauté, à participer à des débats respectueux, à façonner les politiques publiques et à reconnaître la validité des sources en ligne (Société internationale pour la technologie dans l’éducation, 2018).

Aujourd’hui, les appareils numériques des jeunes sont inondés d’informations. Qu’ils obtiennent leurs nouvelles en recherchant activement l’information ou simplement en tombant dessus lors d’interactions sociales en ligne avec leurs amis et leur famille, les jeunes doivent filtrer cette information et décider de sa crédibilité, surtout à l’ère des fausses nouvelles (fake news) et des deepfakes. Selon Turan (2021) la citoyenneté numérique pourrait avoir des effets en ce qui a trait à la protection des jeunes contre les dangers et les menaces des deepfakes. Pour que les jeunes puissent développer leur citoyenneté numérique et jouer un rôle actif dans la lutte contre la désinformation, notamment celle utilisant les médias synthétiques, ils doivent comprendre les préoccupations, les risques et la gravité de ce phénomène dans leur vie quotidienne et pour l’avenir de leur société. C’est pourquoi il est impératif de mener des recherches pour étudier l’expérience subjective des jeunes à l’égard des hypertrucages malveillants. Ces recherches permettraient de comprendre les mécanismes qui sont actifs lorsque les jeunes décodent les deepfakes et la façon dont ils peuvent s’y prendre pour freiner la propagation de ce type de média.

Parmi les utilisateurs actifs et les utilisatrices actives des médias sociaux âgés de 18 à 24 ans, nombreux sont ceux et celles qui font preuve d’esprit critique à l’égard du contenu des médias (Canadian Commission for UNESCO, 2018; Naffi, 2018). Bien que les jeunes soient qualifiés par certains chercheurs de « natifs du numérique » (Prensky, 2001) ou de « digital naïfs » (Frau-Meigs, 2015), leur choix d’information et de nouvelles qu’ils et elles lisent en ligne est loin d’être aléatoire (Thom, 2016). Un grand nombre d’entre eux reconnaissent les intentions et les algorithmes qui se cachent derrière les messages qui figurent sur leurs murs. Les jeunes ont soif d’avoir une voix influente qui pourrait perturber les discours sur les questions qui affectent leur vie (Naffi, 2018).

L’énorme succès de la grève mondiale pour le climat menée par Greta Thunberg en 2019 est un exemple de la résilience des jeunes face aux attaques contre la jeune militante et ses partisans sur les médias sociaux. Des mouvements tels que DREAMers, #BlackLivesMatter, Printemps Érable et #IfTheyGunnedMeDown, ainsi que les nombreuses veillées en réponse à l’attentat et à la fusillade à la mosquée de Québec en 2017 montrent que les jeunes sont capables de s’engager dans des actes politiques participatifs et d’utiliser les médias sociaux pour induire des changements politiques et sociaux. Cependant, si de nombreux jeunes adhèrent à la culture du partage et profitent des possibilités offertes par les médias sociaux pour s’engager dans la politique participative, des portions substantielles choisissent de rester des spectateurs passifs (Andreadakis, 2020), d’où l’urgence de convoquer le monde de l’éducation. Ce milieu peut réactualiser les programmes éducatifs qui abordent l’éducation aux médias et la citoyenneté numérique pour y inclure le développement de l’agentivité en contexte numérique pour contrer les deepfakes (Naffi et al., 2021).

CONCLUSION

Actuellement, la désinformation est plus trompeuse et manipulatrice que jamais. Le potentiel d’armement des deepfakes augmente de manière alarmante, et les solutions technologiques de détection, quelle que soit leur qualité, s’avèrent encore insuffisantes pour prévenir et empêcher la propagation de cette nouvelle forme de fausses nouvelles. La préparation d’une génération de citoyennes et de citoyens éduqués face aux médias, qui fait preuve d’agentivité dans un contexte numérique, et qui est responsable, alerte et équipée pour contrer la désinformation est urgente pour assurer une démocratie pour l’avenir. Dans un contexte où les jeunes seront de plus en plus exposés à la désinformation sous forme de deepfakes le personnel de l’éducation doit s’efforcer de trouver des moyens pour les aider à développer un oeil aiguisé pour la détecter, à développer leur raisonnement civique en ligne, c’est-à-dire leur capacité à juger la crédibilité des informations qu’ils trouvent sur différentes plateformes (Stanford History Education Group, 2016), à développer leur pensée critique face à l’utilisation du numérique et à les aider à exercer une citoyenneté éthique dans les contextes numériques (ministère de l’Éducation et de l’Enseignement supérieur, 2019). Il importe aussi de les préparer à différentes formes d’engagement dans la vie civique et politique à l’ère numérique, à s’opposer à la désinformation et à déterminer les moyens de tirer parti de la puissance des médias sociaux pour avoir « davantage de contrôle, de voix et d’influence sur les questions qui comptent le plus dans leur vie » (Kahne et al., 2016, p. 38, traduction libre). Aujourd’hui plus que jamais, il est urgent d’explorer l’agentivité en contexte numérique des jeunes comme une stratégie pour contrebalancer les effets délétères des deepfakes. Plusieurs pistes de recherche peuvent être tracées, en commençant par examiner la façon dont les jeunes interprètent le phénomène de l’hypertrucage malveillant et reconnaissent la désinformation qui utilise les médias synthétiques. Il importe d’examiner comment les jeunes perçoivent leur rôle et leur responsabilité dans la lutte contre la propagation des deepfakes, ainsi que les stratégies numériques potentielles qu’ils et elles utiliseraient pour contrebalancer la désinformation sous forme d’hypertrucages malveillants. Les résultats de telles études guideront le personnel de l’éducation, les spécialistes de la conception de programmes éducatifs ainsi que les décideurs et décideuses dans leur quête pour promouvoir la pensée critique et l’agentivité en contexte numérique des jeunes, ainsi que celles des citoyens et des citoyennes dans le contexte d’une désinformation alimentée par l’utilisation non éthique des médias numériques, des données massives et de l’intelligence artificielle, et diffusée sur les médias sociaux.