Due to the exceptional circumstances concerning COVID-19, Érudit wishes to reassure its users and partners that all of its services remain operational. However, in order to comply with government directives, the Érudit team is now working remotely, and some operational activities may be slower than usual. Thank you for your understanding. More information

Quelle société de l’information ? Pour quelles bibliothèques/services d’archives ?

 

Les mutations du débat public en ligneChanges in the Online Public Debate

  • Romain Badouard

…more information

  • Romain Badouard
    Maître de conférences à l’Université Paris II Panthéon-Assas, Chercheur au Centre d’Analyse et de Recherche Interdisciplinaire sur les Médias (CARISM)
    Romain.badouard@gmail.com

Cover of Quelle société de l’information ? Pour quelles bibliothèques/services d’archives ?, Volume 64, Number 4, October–December 2018, pp. 4-45, Documentation et bibliothèques

Article body

Discours haineux, propagande politique, fausses informations, commerce des données personnelles ou surveillance généralisée : pas une semaine ne se passe sans que le rôle supposé néfaste d’Internet dans le débat public ne fasse l’objet d’articles de presse ou d’émissions de radio et de télévision. Il y a une dizaine d’années pourtant, Internet était encore majoritairement perçu comme un outil de communication au service de la démocratie et de l’émancipation des citoyens. Si les espoirs et les déceptions quant au potentiel démocratique d’Internet relèvent pour beaucoup d’imaginaires collectifs (Flichy, 2001 ; Breton et Proulx, 2002), qui pour la plupart se heurtent aux résultats des enquêtes de terrain, il n’en demeure pas moins qu’il paraît aujourd’hui nécessaire de dépasser une grille de lecture binaire en termes d’apports et de limites d’Internet à la vie politique. Il semble en effet plus productif de réfléchir à la manière dont le réseau reconfigure les pratiques et les formes du débat public en fonction de normes, de règles et de standards qui lui sont propres.

Dans cet article, je souhaiterais discuter de sept éléments qui constituent aujourd’hui les piliers sur lesquels repose la culture de débat qui a émergé en ligne : le remplacement des gatekeepers traditionnels par les algorithmes des moteurs de recherche et des réseaux sociaux, la disparition des arguments d’autorité au profit d’indicateurs de popularité, l’ancrage des pratiques politiques dans les discussions du quotidien, la dimension identitaire du partage d’information, les formes push button d’expression citoyenne, les mécanismes d’autoconviction et la privatisation des instances de régulation des contenus.

Parce que ces différents éléments dépassent largement les seuls enjeux technologiques et se révèlent essentiels pour l’avenir de la société de l’information, je terminerai par une réflexion sur les défis que ces mutations posent à l’éducation aux médias, et sur le rôle que peuvent jouer les professionnels des systèmes d’information pour les relever.

De nouvelles règles du jeu

Dès la fin des années 1990, les premiers chercheurs en sciences sociales à s’intéresser au rôle politique d’Internet identifient le principal changement que le « réseau des réseaux » apporte à l’espace public (Castells, 1998 ; Dahlgren, 2000) : en permettant à chaque individu connecté d’être à la fois producteur, récepteur et relais d’informations, Internet ouvre le débat public à de nouvelles voix, multiplie les sources indépendantes et « libère les subjectivités » (Cardon, 2010), semblant irrémédiablement engendrer une « démocratisation des démocraties ». Une catégorie d’acteurs semble pourtant y perdre au change : les journalistes, qui en tant que gatekeepers, disposent avec les médias de masse d’un pouvoir de filtrage important sur l’information. Les journalistes, en effet, décident des contenus qui méritent d’être portés à la connaissance des citoyennes et des citoyens, en choisissant qui ils invitent dans leurs émissions, à qui ils tendent leurs micros, de qui ils parlent dans leurs articles. Ce faisant, ils statuent sur la légitimité des acteurs de la société civile à prendre la parole dans le débat public. Si ce travail de sélection est rendu obsolète par le modèle de communication institué par Internet, le gatekeeping n’a pas disparu en ligne. Il s’est au contraire reconfiguré au profit de nouveaux acteurs, notamment les moteurs de recherche et les réseaux sociaux, qui héritent ainsi d’un pouvoir politique important. La logique du filtrage des informations s’est aujourd’hui inversée : d’un contrôle éditorial a priori (les journalistes sélectionnaient avant de publier), les géants comme Google, Facebook ou Twitter opèrent un contrôle a posteriori (les informations sont publiées par les internautes avant d’être triées et hiérarchisées par des algorithmes). Comme l’a montré Dominique Cardon (2013) dans ses recherches, l’important sur Internet n’est pas de publier une information, mais de la rendre visible parmi la masse de contenus qui y sont hébergés. Ainsi, le pouvoir politique dont les géants du Web héritent est celui de décider des modes d’ordonnancement des informations et des principes sur lesquels ils reposent[1].

La deuxième grande transformation qu’Internet a apportée au débat public est l’égalité inconditionnelle des internautes dans la discussion. Techniquement parlant, sur Internet, tous les internautes sont au même niveau, c’est-à-dire qu’ils disposent des mêmes moyens de publier et de consommer des informations. Cette caractéristique s’est traduite culturellement par le principe qui veut qu’en ligne, les internautes disposent d’une même légitimité à prendre la parole et à faire valoir leurs opinions dans un débat. L’autorité d’un argument ne dépend pas du statut de celle ou de celui qui le porte, contrairement à un plateau de télévision où la parole d’un expert aura toujours plus de poids que celle d’un citoyen ordinaire. En ligne, ce principe d’équivalence entre le statut d’une personne et la pertinence de ses propos n’a pas cours. Au sein de certaines communautés en ligne comme Wikipédia par exemple, il est interdit aux membres qui débattent de mentionner leur profession comme argument d’autorité, sous peine d’être exclus des fils de discussion (Cardon et Levrel, 2009). Professeurs et élèves, médecins et patients, experts et novices se retrouvent tous au même niveau.

Pour autant, comme dans le cas du gatekeeping, nous sommes moins face à une disparition de la parole d’autorité qu’à sa reconfiguration. Historiquement, ce qui fonde l’autorité d’un argument au sein des communautés en ligne est sa capacité à convaincre les internautes qui débattent. En ce sens, les discussions en ligne ont pu être interprétées comme la matérialisation d’un certain idéal délibératif (Greffet et Wojcik, 2008 ; Monnoyer-Smith et Wojcik, 2012), dans la mesure où elles se caractérisaient par leur ouverture et leur capacité à déployer des formes de prise de décision par consensus. À partir du moment où les réseaux sociaux sont devenus l’espace principal du débat public sur Internet, ils ont fait évoluer la conception de l’autorité dans la discussion d’une logique de pertinence et de persuasion vers une logique de diffusion et d’impact. Sur Facebook, Twitter ou YouTube, les internautes disposent en effet d’une force de frappe très variable en fonction de leur nombre d’amis, d’abonnés ou de followers, qui constituent autant de relais de leurs arguments ou de leurs prises de position. Les indicateurs de notoriété se substituent ainsi aux arguments d’autorité et constituent les principaux leviers qui permettent à un internaute de se faire entendre.

Débat public et vie quotidienne

Si les réseaux sociaux sont devenus les arènes principales du débat public en ligne, ils sont également et avant tout des technologies de dévoilement qui incitent les internautes à se livrer et à rendre publics des éléments de leur vie privée. En devenant à la fois une des portes principales menant les internautes vers l’actualité politique et le lieu où se déroulent leurs conversations quotidiennes, ils ont fait tomber la frontière qui séparait habituellement les sphères publique et privée (Highflield, 2016). À l’ère des médias de masse, les individus entretenaient des relations personnelles au sein desquelles ils exprimaient leurs préoccupations quotidiennes et se transformaient en citoyens lorsqu’ils se mobilisaient sur des sujets d’intérêt général. Cette distinction n’a plus lieu d’être sur les réseaux sociaux, où une opinion personnelle ou un témoignage peuvent facilement se transformer en controverse ouverte et où, inversement, les sujets de société y sont personnalisés en fonction des expériences et des intérêts de chacun.

Une autre conséquence de cet affaiblissement de la frontière entre vies publique et privée est que le partage d’information sur les réseaux sociaux tend à revêtir une dimension identitaire. En effet, lorsque nous diffusons une information sur ces plateformes, nous ne faisons pas que la relayer, nous adoptons également une attitude vis-à-vis d’elle. Cette attitude est explicite lorsque nous écrivons un message pour l’accompagner, ou implicite quand elle s’inscrit dans un flux de publications qui en dit long sur nos centres d’intérêt et nos préférences. Ce que nous partageons contribue à la construction de notre identité numérique, et nous sert également à affirmer notre appartenance à une communauté d’idées, de valeurs ou de pratiques. Cet élément est particulièrement important dans le cadre de la controverse sur les fake news, par exemple.

La diffusion de fausses informations sur les réseaux sociaux a pris une telle ampleur ces dernières années qu’elle est devenue un véritable problème de société. Ces fake news sont ainsi accusées d’avoir influencé les comportements des électeurs lors des référendums sur le Brexit au Royaume-Uni ou lors de l’élection présidentielle américaine de 2016. Pourtant, si l’augmentation du nombre de fausses informations en circulation est significative ces dernières années[2], notamment à des fins de propagande politique, leur véritable influence sur les internautes est sujette à débat et leur effet sur les votes semble pour le moins limité (Broockman et Green, 2014 ; Cardon, 2018). Dans ce contexte, la question de savoir pour quelles raisons les internautes partagent de fausses informations politiques est importante. Ce que nous apprend la sociologie des rumeurs et du complotisme à cet égard, c’est que le partage de fausses informations est aussi une activité sociale qui permet d’entretenir le lien entre les individus (Aldrin, 2005). Les internautes ne croient pas forcément dur comme fer aux rumeurs qu’ils relaient, mais adhèrent à la vision du monde que celles-ci portent en elles. Le partage de fausses informations peut même s’apparenter à une forme de prise de parole politique (Taïeb, 2010) : il s’agit dans ce contexte d’affirmer un point de vue à travers une nouvelle qui, même fausse, véhicule une prise de position. Par exemple, dans le cadre de la campagne présidentielle française de 2017, les fausses informations politiques en circulation sur les réseaux sociaux, fortement marquées à l’extrême droite, exprimaient principalement une défiance à l’égard des élites politiques et médiatiques, avec une forte tonalité antisystème et xénophobe (Badouard, 2018).

Le design des espaces de débat

Sur les réseaux sociaux, les prises de parole politiques s’ancrent dans les conversations du quotidien et s’articulent à des logiques de représentation de soi. Le modèle politique porté par ces plateformes est ainsi celui d’une démocratie au quotidien, où la citoyenneté n’est pas une expérience ponctuelle et cérémonieuse, mais bien plus une habitude à la fois banale et familière. Cette conception de la démocratie comme mode de vie est également renforcée par le design de ces plateformes qui facilite la participation politique à travers des applications push button. Les likes sur Facebook, les retweets sur Twitter ou les signatures sur les plateformes de pétitions correspondent à des formes de participation très peu contraignantes, où une opinion peut être exprimée en un clic. Pour leurs détracteurs, elles sont le signe d’un dévoiement de l’engagement politique au profit d’un activisme paresseux et égocentré, parfois qualifié de slacktivisme ou de clicktivisme. Pour le penseur des technologies Evgeny Morozov (2014), ces pratiques seraient même porteuses d’une idéologie dangereuse pour la démocratie, le « solutionnisme technologique », qui consiste à apporter des solutions techniques à des problèmes sociaux.

Si cette critique s’entend, dans la mesure où il est indéniable que l’engagement en ligne est à la fois souple et flexible, elle repose sur un présupposé lui-même discutable qui veut qu’il existe une corrélation entre « quantité de l’investissement » et « qualité de l’engagement ». L’écosystème du débat public en ligne implique à l’inverse, comme nous le disions plus haut, une conception de la citoyenneté comme une pratique du quotidien, certes peu contraignante, mais pour autant profondément politique. Ces formes de participation push button propres à l’univers numérique peuvent même produire des effets inattendus quand elles se font vecteur d’inclusion pour des populations habituellement en marge du débat public, notamment en permettant à celles et ceux qui maîtrisent mal l’écrit de prendre la parole et de s’associer à des mobilisations collectives. Cet élément avait été particulièrement important, par exemple, lors du printemps arabe (Pleyers, 2013).

Un autre élément du design des réseaux sociaux qui influence les dynamiques de participation qui s’y produisent a trait à leur architecture, et notamment à la manière dont des algorithmes organisent, trient et hiérarchisent les informations qui y circulent. Sur Facebook, par exemple, les informations qui apparaissent sur notre fil d’actualité font l’objet d’un filtrage : parmi l’ensemble des publications de nos contacts, seule une sur cinq y est visible[3]. Ce filtrage est opéré par l’algorithme de Facebook, EdgeRank, à partir de notre proximité avec les autres utilisateurs du réseau social : plus nous interagissons avec un contact (c’est-à-dire plus nous aimons, commentons et partageons les contenus qu’elle ou il publie), plus l’algorithme nous considère comme proche de ce contact. Ses prochaines publications seront ainsi davantage visibles dans notre fil d’actualité.

Si cette logique est pertinente pour une plateforme de réseau social (donner à voir aux utilisateurs les contenus publiés par les gens dont ils sont proches), elle produit des effets indésirables à partir du moment où un site comme Facebook devient une des portes d’entrée principales vers l’information d’actualité[4]. Dans ce contexte, les contenus d’actualité que nous consommons sont ceux qui sont portés à notre connaissance par nos contacts les plus proches. Or, sociologiquement parlant, ces contacts sont ceux qui sont les plus susceptibles de partager nos opinions. Se produit alors une forme d’enfermement idéologique à travers la formation de « bulles de filtrage », où les informations que nous consultons ne font que nous conforter dans nos convictions. Or, pour que le débat public fonctionne correctement en démocratie, il est nécessaire que nous soyons exposés en tant que citoyens à des arguments contradictoires. Cette nouvelle forme d’enfermement idéologique avait été dénoncée à grand renfort d’éditoriaux lors de la campagne sur le Brexit au Royaume-Uni et de la campagne présidentielle de 2016 aux États-Unis.

Pourtant, cet enfermement n’est pas uniquement lié aux réseaux sociaux. Le Web lui-même a pu être accusé de produire des bulles informationnelles, puisque les sites qui partagent les mêmes orientations ont tendance à se lier entre eux, condamnant ainsi les internautes qui naviguent de lien en lien à être toujours confrontés aux mêmes points de vue (Flichy, 2008). De la même façon, la personnalisation des résultats suite aux requêtes effectuées sur les moteurs de recherche produit un enfermement idéologique, puisque cette personnalisation dépend de nos recherches passées : les sites que nous consultons aujourd’hui sont ceux qui sont proches des sites que nous consultions hier, et qui potentiellement défendent les mêmes positions (Sire, 2015). On pourrait ajouter à ces deux exemples l’existence de bulles informationnelles hors ligne : nous vivons tous, dans notre quotidien, dans des bulles idéologiques plus ou moins hermétiques, et les médias que nous consommons en disent long sur nos orientations politiques. Pour autant, ce qu’engendrent les algorithmes des moteurs de recherche et des réseaux sociaux, c’est une forme d’automatisation et de personnalisation de cet enfermement idéologique, produisant ainsi une forme de propagande particulièrement insidieuse, qui s’incarne dans les architectures qui font circuler les contenus et non dans les contenus eux-mêmes, s’appuie sur nos propres biais cognitifs et provoque des mécanismes d’autoconviction.

L’exemple des applications push button et des algorithmes de tri des informations souligne l’importance du design des espaces de débat. Les réseaux sociaux, les sections commentaires des sites de presse et les forums en tout genre peuvent être interprétés comme des projets politiques exprimés sous des formes technologiques (Badouard, 2014) : ils offrent des opportunités de prise de parole et d’échange aux internautes, et en ce sens les font agir et interagir en fonction de principes et de valeurs que les concepteurs incorporent au coeur même de leur fonctionnement. En ce sens, le potentiel démocratique d’Internet, des plateformes de débat ou des réseaux sociaux dépend moins de la technologie en elle-même que de la manière dont des humains vont penser et concevoir des dispositifs pour faire agir des usages d’une certaine façon (Wright et Street, 2007). Ces dispositifs peuvent également être défaits et rebâtis en fonction d’autres principes et d’autres valeurs.

Censure et liberté d’expression

Grâce au succès rencontré par les technologies qu’elles développent, les grandes entreprises du numérique disposent aujourd’hui d’un pouvoir décisif sur nos conduites collectives. En effet, au-delà des sites, des applications et des outils divers qu’elles mettent sur le marché, elles produisent des normes sociales en incitant leurs usagers à adopter de nouveaux comportements et en encadrant la manière dont ces comportements se manifestent. Nous avions, avec Clément Mabi et Guillaume Sire, parlé de « gouvernementalité numérique » pour désigner ce phénomène (Badouard, Mabi et Sire, 2016). La notion faisait directement référence aux travaux de Michel Foucault sur les logiques de gouvernement. L’essence du pouvoir, disait-il, réside dans la capacité dont dispose un individu, un collectif ou une organisation d’imposer un comportement à d’autres individus sans avoir recours à la force (Foucault, 2004). Cette conduite relève parfois d’une proposition : exercer un pouvoir se fait autant par la configuration d’un possible (permettre à quelqu’un de réaliser une action, mais d’une certaine façon) que par l’application d’une contrainte pure et dure. Un des héritages majeurs du philosophe est de nous avoir montré que pour comprendre le pouvoir, il ne suffit pas de lister ce que des règles interdisent de faire, mais au contraire d’observer la manière dont elles autorisent et balisent nos comportements. De la même manière, les technologies numériques nous permettent de réaliser de nombreuses activités qui étaient hors de notre portée il y a quelques années, mais ce faisant, elles orientent et contraignent la manière dont celles-ci se réalisent, produisant à l’échelle des sociétés de nouvelles normes sociales.

À cette emprise sur les comportements s’ajoute un pouvoir économique et politique sans précédent. Si Internet a indéniablement multiplié les sources d’information, cet état d’« infobésité » ne doit pas masquer l’existence de phénomènes de concentration de l’attention très importants en ligne. Sur le Web, un très petit nombre de sites concentre la grande majorité des visites, alors qu’un très grand nombre de sites sont peu visités, permettant à quelques géants d’accaparer une part très importante des usages et du trafic sur Internet. Par exemple, Google (qui possède également la plateforme YouTube) a représenté à lui seul 30 % du trafic sur Internet en France en 2016, et les cinq premiers fournisseurs de services dans l’Hexagone (Google, Netflix, Facebook, Canal+ et Apple) plus de 55 % de celui-ci (Arcep, 2017). Cette position stratégique sur le marché de l’information permet aux géants du Web de bénéficier de « postes de contrôle » (Benkler, 2016) à partir desquels ils peuvent exercer des formes de filtrage et de blocage des contenus. Historiquement, les GAFAM ont toujours défendu une posture de « plombiers » : ils géraient des tuyaux et ne s’intéressaient pas aux informations qui y circulaient. Mais c’est paradoxalement sur injonction de la puissance publique qu’ils se sont mis à filtrer les pages et les propos tenus sur leurs plateformes, notamment pour lutter contre les discours de haine, et, plus tard, contre la propagande djihadiste. Ces injonctions à la régulation ont eu pour conséquence d’engendrer une forme de transfert des pouvoirs de censure des pouvoirs publics élus démocratiquement vers des entreprises privées qui ne rendent pas de comptes à leurs usagers (Badouard, 2017).

La récente controverse sur les fake news, que nous avons évoquée plus haut, a mis en lumière ce glissement de pouvoir. Dans un certain nombre de pays, les pouvoirs publics ont entrepris de légiférer afin de limiter la circulation des fausses informations sur les réseaux sociaux, notamment en période de campagne électorale. C’est le cas de la France. Parmi les éléments contenus dans la proposition de loi « de fiabilité et de confiance en l’information », en cours de préparation au moment où nous écrivons, un article particulièrement polémique a trait à la création d’une procédure judiciaire en référé qui permettrait de faire supprimer un contenu, de déréférencer un site ou de fermer un compte en l’espace de 48 heures. Cette mesure suscite un certain nombre d’inquiétudes quant aux nouvelles formes de censure qu’elle pourrait faire peser sur la liberté d’expression en période électorale, en bloquant la parution potentielle de révélations par des journalistes, ou en limitant les possibilités d’expression politique des citoyens et de la société civile. Par ailleurs, une autre conséquence de cette mesure serait d’accroître la pression sur les plateformes afin de les pousser à réguler davantage les informations sur leurs réseaux, pour éviter d’y être contraints par décision de justice. La mise en place d’une procédure judiciaire en référé pour lutter contre les fausses nouvelles ne fera que les conforter dans l’idée de censurer davantage les propos qui s’expriment sur leurs plateformes, et ceci dans l’opacité la plus complète.

En janvier 2018, la chercheuse Zeynep Tufekci a publié dans le magazine Wired un article sur les nouvelles formes de censure qui émergent sur Internet et qui interrogent ce paradoxe apparent : nous vivons aujourd’hui un âge d’or de la liberté d’expression et pourtant le pouvoir de quelques acteurs sur la circulation des idées n’a jamais été aussi fort dans l’histoire. C’est que la censure ne consiste plus à museler les voix qui s’expriment, nous dit-elle, mais bien à interférer sur la visibilité et la fiabilité des informations qui circulent. Le pouvoir des grandes plateformes ne réside pas dans leur capacité à empêcher des idées d’être exprimées, mais à empêcher que ces prises de parole bénéficient d’une audience. « Nous n’avons pas à nous résigner », nous dit-elle en conclusion de son article : « Facebook a 13 ans, Twitter 11 et Google 19. À ce moment de l’histoire de l’industrie automobile, il n’existait ni ceinture de sécurité ni airbags. » (Tufecki, 2018) De nouvelles règles du jeu peuvent donc être imposées aux géants du Web. C’est en tout cas un des défis qui déterminera à quel point le futur de la société de l’information sera ou non démocratique.

Conclusion : de nouveaux enjeux pour l’éducation aux médias

Les mutations du débat public que j’ai rapidement décrites dans cet article appellent à une nouvelle forme d’éducation aux médias, dans laquelle les professionnels des systèmes d’information peuvent jouer un rôle déterminant. Si l’éducation aux médias et à l’information à l’école vise d’abord à enseigner de bonnes pratiques en matière de recherche sur Internet (identifier une source, évaluer la pertinence d’un contenu, distinguer les différents styles journalistiques, etc.), la situation que nous connaissons aujourd’hui appelle à l’apprentissage de nouvelles compétences.

La première est d’ordre économique, afin de décrypter le marché de l’information en ligne et le rôle de la publicité dans les nouvelles formes de promotion des contenus. Le modèle du marketing ciblé adopté par Google et Facebook et le fonctionnement des régies publicitaires en ligne (notamment celle de Google) ont joué un rôle déterminant dans les phénomènes récents de désinformation comme les fake news ou encore la diffusion de propagande étrangère sur les réseaux sociaux. Il semble donc important aujourd’hui de maîtriser leur fonctionnement afin de s’émanciper des contraintes qu’ils font peser sur les usages des internautes.

La deuxième est d’ordre sociotechnique, afin de comprendre le fonctionnement des ressources techniques qui organisent ce marché de l’information et la manière dont ce fonctionnement conforte certains biais sociologiques ou psychologiques chez les internautes. Là encore, les phénomènes d’autoconviction et de bulles informationnelles que j’ai évoqués sont en grande partie dus aux recommandations algorithmiques des réseaux sociaux et des moteurs de recherche. Comprendre le fonctionnement de ces ressources techniques paraît essentiel pour porter un regard critique sur la manière dont elles peuvent flatter des biais cognitifs chez les internautes, comme l’attention sélective (qui fait que nous retenons davantage les informations qui renforcent nos opinions), l’effet Fort (la prolifération de sources documentaires défendant une même vision d’un problème tend à nous convaincre de sa légitimité), ou encore le biais de confirmation (qui veut que nous cherchions inconsciemment à confirmer nos orientations plutôt qu’à les infirmer) (Bronner, 2013).

Enfin, la troisième est davantage épistémologique et vise à apprendre aux élèves et aux étudiants non seulement à s’informer, mais à débattre à partir des informations qu’ils ont trouvées en ligne. Internet n’a pas rendu les citoyens plus naïfs, plus agressifs ou plus sensibles aux émotions qu’à la raison. En ouvrant le débat public à une grande diversité de prises de parole, il a rendu visibles les différentes manières de voir qui coexistent au sein de la société. Au-delà de l’éducation aux médias et à l’information, une éducation au débat pourrait justement se fonder sur l’apprentissage des différentes formes d’épistémologie, c’est-à-dire des manières dont nous parvenons à produire des connaissances sur le monde, afin de ne pas les confondre.

Les approches pédagogiques par les controverses (Méadel, 2015 ; Badouard, 2015) peuvent nous être utiles dans ce contexte, parce qu’elles incitent les élèves à comprendre, sans les juger, les manières de voir qui s’opposent sur un même sujet de société. Parce qu’à travers des simulations de débats publics, elles invitent à se mettre dans la peau de l’autre et à épouser sa manière de penser, et qu’elles nous révèlent les démarches intellectuelles qui forgent les convictions et nous permettent de porter sur elles un regard à la fois compréhensif et critique. En ce sens, elles se montrent respectueuses d’un principe essentiel d’un débat pluraliste et ouvert, qui consiste à offrir à un interlocuteur la possibilité de nous contredire en lui exposant le raisonnement que nous avons suivi pour forger nos convictions. Le défi qui nous attend pour les années à venir consistera à construire des espaces d’échanges communs qui respectent l’égalité de tous les citoyens à faire entendre leur voix, tout en permettant l’accès à la discussion d’individus et de groupes qui épousent des manières de voir très différentes. L’éducation aux médias et à l’information a un rôle essentiel à jouer pour relever ce défi.

Appendices