Article body

Internet a longtemps été considéré comme un outil de diffusion de l’information ouvert à toutes et à tous, et à ce titre un garant de la liberté d’expression. Les premiers usages ont été de deux sortes : la mise à disposition d’information dans des sites longtemps considérés comme des bibliothèques virtuelles, et l’organisation du débat via principalement les groupes de news et les listes de diffusion par mail. Puis, dans les années 2000, les médias sociaux sont venus modifier cette organisation, en devenant le lieu de l’expression généralisée et celui de la coordination des « amis », occupant donc une place centrale dans l’activité quotidienne de plusieurs millions d’internautes. On ne se connecte plus à l’internet pour accéder à de l’information, on est sur Internet, et au cours des pratiques que nous y déployons, l’information vient à nous. Cette situation a conduit les médias d’information, notamment la presse, à essayer de s’insérer dans le flux des échanges socialisés, cette présence devenant le seul moyen pour eux de gagner de nouveaux lecteurs. Un nouveau pas a été franchi ces dernières années, qui voit les plateformes géantes de l’internet concentrer l’essentiel des revenus, notamment publicitaires. Le modèle de la gratuité ne porte plus sur le seul accès à l’information financé par des tiers-acteurs publicitaires (modèle de la télévision et du premier internet), mais sur l’ensemble des activités de communication des internautes. Je peux communiquer gratis dans un écosystème piloté par quelques opérateurs hyper-concentrés, à condition de laisser des pans entiers de la ma vie privée sous la loupe de ces derniers.

De l’utopie d’une communication généralisée et libre, nous voici parvenus à une dystopie de la surveillance de chaque parole à des fins commerciales, mais aussi, comme les documents dévoilés par Edward Snowden le rappellent, à des fins de maintien des pouvoirs en place.

Dans cet article, nous postulons que l’impact du numérique sur la science nous conduit à une nouvelle forme de domination sur les individus par le double mouvement de captation de traces donnant lieu à des études à la déontologie scientifique douteuse, et d’usage des modèles ainsi constitués dans le strict but d’enrichissement des plateformes au détriment de la consolidation de l’architecture démocratique de la société. Mais également que le mouvement d’ouverture de l’accès à l’information et de liberté d’expression qui a présidé aux premières années de l’internet continue d’irriguer des tentatives de construction collectives d’alternatives ouvertes et fédérées, susceptibles de contrer les nouvelles formes de domination individualisées.

De l’utopie à la dystopie

D’une période pendant laquelle le discours était profondément positiviste, allant globalement de 1980 au début des années 2010, nous sommes passés à un discours de méfiance généralisée, abreuvé de fake news, de manipulation et de mise en cause de la démocratie elle-même. Dans la première période, l’internet représentait tout à la fois la nouvelle économie, la croissance, le symbole de la mondialisation heureuse, l’appel au partage des savoirs et la constitution d’un septième continent selon les termes mêmes du futurologue Jacques Attali (1997). Un cyberespace dont il fallait déclarer l’indépendance au bénéfice de ses habitants qui ne se reconnaissaient pas dans les règles du monde physique, des États et de la morale passée (Barlow, 1996). Aujourd’hui, il n’est plus question dans les médias que de traçage, de surveillance, d’espionnage, de cybercriminalité et de cyberguerre. La géopolitique traditionnelle a repris ses droits, et l’internet serait tout à la fois le réseau d’influence qui permet d’élire des démagogues, le moyen d’échapper à l’impôt via les monnaies virtuelles et l’outil d’endoctrinement de nos enfants. Ce basculement des discours est important, en ce qu’il traduit une évolution du réseau lui-même, autant qu’il est un symptôme de sa place dans l’ensemble de la société. Il correspond à une certaine réalité de l’internet, mais celle-ci ne doit pas non plus nous faire oublier que des millions d’internautes essaient d’inventer d’autres formes de collaboration, et que les espoirs nés dans la période utopiste n’ont pas disparu et restent des sources de mobilisation de nouveaux mouvements sociaux.

On ne saurait distinguer les techniques de l’internet des discours qui lui sont associés (Flichy, 2001). Penser ensemble les techniques et les discours est nécessaire afin de se garder non seulement de tout déterminisme technologique, qui imaginerait une technique engendrant par elle-même les changements de société, mais aussi d’un scientisme facile séparant l’outil de l’usage, et renvoyant les discours à la sphère de l’idéologie. Les mots posés sur les techniques sont aussi des appels à la réalisation d’outils et participent à la promotion de certains usages. Les ignorer au nom d’une indépendance de la technique serait passer au-delà des raisons mêmes qui poussent à inventer de nouvelles techniques. Historiquement, de nombreux chercheurs des débuts de l’internet considèrent le livre de science-fiction Neuromancer de William Gibson (1984) comme une des sources de leur travail : les ingénieurs et techniciens de l’informatique ont longtemps couru après les visions du romancier, au point de placer son roman dans la liste des citation classics de l’informatique, repris en bibliographie dans de nombreux articles d’informatique, notamment ceux traitant de l’hypertexte ou de la réalité virtuelle. Et pourtant, les univers décrits par la science-fiction sont loin de représenter des mondes idylliques où il ferait bon vivre, mais plutôt un mélange entre une civilisation idéale et sans défaut (utopie) et les conséquences des techniques quand elles sont employées pour maintenir un monde de domination et de perpétuation de relations asymétriques (dystopie).

Admettons-le une fois pour toutes, les deux tendances cohabitent en réalité depuis le début dans la construction de l’internet et plus largement des technologies numériques. Non pas sous la forme de deux lignes parallèles, mais plutôt de l’interaction permanente et de l’immixtion qui est celle que les philosophies orientales désignent par le yin et le yang. Si les gens continuent d’utiliser les outils produits par les grandes firmes oligopolistiques, malgré la divulgation des menaces que représentent ces derniers, c’est aussi parce qu’elles leur apportent des services et un confort qu’ils aiment et qu’ils recherchent. Et ne les prenons pas pour des naïfs : ils savent bien qu’on les écoute, même s’ils n’en mesurent pas forcément l’étendue, ni l’influence que cela peut avoir sur eux-mêmes. Le numérique est devenu un élément essentiel de nos vies. Les multiples services rendus, depuis les déplacements jusqu’aux recettes de cuisines, de la e-administration aux jeux vidéo, de l’éducation à l’accès aux films et séries, forment un ensemble addictif puissant et essentiel. En fait, en s’étendant à tous les aspects de nos vies, le numérique n’est plus seulement un outil de production et de diffusion de l’information, mais il est devenu une manière de voir le monde et d’agir sur lui. Le numérique modifie profondément tout ce qu’il touche.

Sciences et numérique

Essayons de regarder comment cette double prise numérique impacte les évolutions des sciences. Les communautés scientifiques ont été les premières à s’emparer de l’internet. Selon les inclinaisons, les intérêts, les objectifs, l’approche utopique de construction d’un commun de la connaissance (VECAM, 2011) a cheminé de pair avec une évolution propre de cette dernière vers un modèle d’exploitation des données qui met en cause les règles habituelles de la déontologie scientifique, et plus largement les formes épistémologiques de la recherche. D’outil de diffusion et de partage du savoir, le numérique est devenu l’écosystème au sein duquel une large partie de la science existe ou projette son futur.

En 1991, récupérant un ordinateur inutilisé, Paul Ginsparg crée une archive ouverte pour les travaux des physiciens des hautes énergies. Les chercheurs appelés à déposer leurs travaux pour en assurer le partage vont répondre en masse, assurant le succès de ArXiv. Cette révolution par inadvertance encouragera Stevan Harnad à lancer sa subversive proposal et à créer le mouvement pour l’accès libre aux publications scientifiques (Poynder, 2014). Une initiative menée « d’en bas » par des chercheurs convaincus qui trouvaient dans l’internet un moyen d’assurer la circulation de la science, réalisant ainsi l’objectif de « communalisme » revendiqué par le sociologue des sciences R. K. Merton. Après la Budapest Open Access Initiative de 2002[1], la logique de l’accès libre aux publications scientifiques va connaître une extension et un succès majeurs. Aujourd’hui, les puissances publiques (Loi pour une République numérique[2] en France) comme les financeurs de la recherche (Wellcome trust[3]) et les universités encouragent les chercheurs à rendre leurs travaux disponibles autant que possible, mettant en cause la domination des éditeurs monopolistiques qui structurent ce secteur. L’université de Liège en a même fait un critère de sélection des enseignants. Nous avons là l’exemple d’un nouveau mouvement social lié aux opportunités offertes par l’internet qui réussit à obtenir des succès significatifs dans le domaine de la circulation de l’information. Internet comme outil de diffusion permet à la science de mieux fonctionner par des échanges accélérés et mondialisés, et de toucher un public élargi.

Mais le numérique n’est pas seulement un outil de diffusion, il permet de capter des données, tant sur l’environnement que sur les personnes qui l’utilisent. La baisse des coûts de stockage et de transfert, l’accélération des traitements et l’invention de nouveaux logiciels et méthodes (apprentissage profond par exemple) permettent d’imaginer une science appuyée sur des données massives. Cette bascule autour des données a porté un changement profond des méthodes scientifiques, que les chercheurs de Microsoft ont appelé le quatrième paradigme (Hey, Tansley et Tolle, 2009). Après le modèle hypothético-déductif qui formulait des hypothèses de travail afin de pouvoir les démontrer par l’observation, la science s’est orientée vers la collecte massive de données, souvent hétérogènes, voire intrusives (comme la collecte de l’ADN de toute la population de l’Islande[4]). Les nouveaux grands appareils scientifiques ne sont plus les accélérateurs de particules, mais les super-ordinateurs capables de traiter les big data (mégadonnées) (Bouzeghoub et Mosseri, 2017). Ce changement dans les méthodes des sciences a été largement porté par les intérêts des secteurs du numérique, tant en matière de recherche informatique que de fourniture d’appareils, de logiciels d’analyse et de services adaptés à de tels traitements. Mais la réflexion épistémologique est restée en deçà, ce qui conduit à une « science des promesses » qui se confond avec le recueil de toujours plus de données, sans s’interroger sur les circonstances et les raisons de ce moissonnage. Or nous n’avons aucune garantie que la masse de données ne soit pas au contraire un moyen de masquer les liens réels de causalité. D’une part, il devient possible de croiser toutes sortes de données et d’en tirer des conclusions hâtives : un excellent livre utilise la caricature pour souligner ce problème bien connu des corrélations fallacieuses (Vigen, 2015). Et d’autre part, ce trop-plein de données permet de noyer les véritables questions scientifiques derrière la mise en avant de phénomènes secondaires ou statistiquement négligeables, afin de réfuter les connaissances globalement acceptées en instillant du doute. Cette méthode est largement utilisée pour contrer les travaux portant sur l’environnement, l’écotoxicologie ou les sciences du climat (Oreskes et Conway, 2010). Enfin, la facilité d’accès aux données laisse la porte ouverte à des pratiques manipulatoires envers les individus producteurs de données, notamment dans la psychologie et les sciences sociales (Boyd et Crawford, 2011). La multiplication des capteurs, notamment l’usage des traces déposées dans les médias sociaux et laissées par les téléphones mobiles, va remplacer peu à peu le recueil de données via des interviews par des calculs effectués à partir des messages laissés par les usagers dans un tout autre but : partager avec leurs amis, se déplacer en ville, etc.

On peut repérer en ce sens un moment dystopique lors de la publication par des chercheurs de Facebook d’un article démontrant l’existence d’une possibilité de contagion émotionnelle en dehors même de la coprésence physique, au travers des médias sociaux (Kramer, Guillory et Hancock, 2014). Si le fil d’utilisateurs de Facebook est modifié en réduisant les messages d’humeur positive, alors cet usager va lui-même produire des posts ou commentaires plus négatifs, et ainsi de suite. Or, afin d’obtenir ce résultat, les chercheurs de Facebook ont volontairement modifié le fil de 689 003 personnes sans leur consentement, les transformant ainsi en cobayes. Une pratique qui aurait été considérée comme non déontologique il n’y a pas si longtemps, mais qui a tendance à se généraliser. Comment un tel article a-t-il pu être validé par le prestigieux Proceedings of the National Academy of Sciences ? Devant les réactions des chercheurs en sociologie, l’éditeur de la revue a expliqué, par un raisonnement tortueux, qu’étant une société privée, Facebook n’avait pas à se plier aux common rules qui conduisent la recherche universitaire (Verma, 2014). On observe alors une convergence des recherches en psychologie, en sociologie et en marketing avec les intérêts bien compris des fournisseurs/capteurs de données.

Industrie de l’influence

Cette publication « scientifique » dévoile le fait imparable que Facebook, bientôt imité par tous les autres médias sociaux, en choisissant les posts qui apparaîtront dans le fil d’une personne via son algorithme de classement par affinité, peut jouer un rôle majeur sur l’état d’esprit global d’une population. Une opportunité pour l’industrie de l’influence, qui va ainsi pouvoir affecter les personnes les plus réceptives et modifier leur comportement pour les attirer vers les produits, les services ou les idéologies qu’elle est chargée de promouvoir. Quelques jours après la publication de l’article du PNAS, dans une tribune du New York Times, Jaron Lanier, pionnier de l’informatique et de la réalité virtuelle, expliquait de façon prémonitoire : « Maintenant que nous savons que le propriétaire d’un média social peut manipuler légèrement les émotions d’une grande masse, prenons conscience que les prochaines recherches porteront sur l’amplification de ce phénomène. » (2014)

Et c’est effectivement ce que nous constatons aujourd’hui. Les recherches en coulisse qui sont menées à partir des usages de Facebook (les posts, les commentaires, mais également les likes, ou le simple fait d’avoir visité une page comportant un bouton like) visent à catégoriser les individus de façon à fournir la meilleure « cible », suivant le beau terme des publicitaires, pour l’industrie de l’influence. Il s’agit notamment d’identifier les plus fragiles, le démon de la vente (de biens et services, comme de la publicité elle-même) ayant rongé de l’intérieur toute moralité. Ainsi, l’armée britannique a dépensé 1,7 million de livres sur les médias sociaux entre 2015 et 2017, principalement le jour de l’examen de fin d’études secondaires ou de l’annonce des résultats, tablant sur l’inquiétude des jeunes, avec des publicités présentant l’armée comme une solution en cas d’échec scolaire, accompagnées du slogan suivant : « Quels que soient vos résultats, vous pouvez devenir meilleur à l’armée », ainsi que d’une image présentant de jeunes soldats conduisant gaiement un quad ou un véhicule militaire (Morris, 2018). Une publicité très ciblée, puisqu’elle visait principalement les jeunes des catégories défavorisées venant du nord de l’Angleterre.

Dans le même ordre d’idées, lors d’une présentation TED, la sociologue Zeynep Tufekci (2017) raconte que les personnes maniaco-dépressives, en début de phase maniaque, sont prêtes à acheter n’importe quoi ; la détection d’un tel moment peut alors devenir une bénédiction pour les publicitaires. Croyant évoquer un risque théorique, elle fut surprise lorsqu’à la fin d’une conférence, un chercheur vint la trouver pour lui dire qu’il avait effectivement mené de telles études, et qu’avec l’aide des statistiques, il pouvait retrouver dans les posts de Facebook ce moment spécifique avant même l’apparition des symptômes cliniques. Il ajouta qu’il ne voulait pas publier le résultat, effrayé par les conséquences possibles d’un tel geste. Une attitude vertueuse, mais qui n’occulte pas le fait que si la chose est possible, l’industrie de l’influence sera capable de la reproduire dans un avenir plus ou moins proche.

Au-delà des écrits postés sur les médias sociaux, avec le développement des assistants vocaux à domicile, ce sont de nouveaux travaux au confluent du marketing et de la psychologie qui visent à renforcer l’impact précis de l’industrie de l’influence. Dans un brevet publié le 9 octobre 2018, Amazon présente son assistant vocal Alexa comme étant en capacité de détecter au ton de la voix d’une personne son état physique et émotionnel, et de diffuser alors des conseils ou de la publicité ciblée[5].

D’un moyen pratique pour rester en contact avec ses amis, conserver des « liens faibles » ou s’informer à partir des trouvailles de son réseau via la veille collaborative, les médias sociaux sont devenus des outils destinés à modifier nos comportements sans que nous en ayons conscience. Jaron Lanier, dans son ouvrage Ten Arguments for Deleting Your Social Media Accounts Right Now (2018), estime qu’il faut distinguer ce type d’outils au service de l’influence du reste du fonctionnement de l’internet. Il les appelle des BUMMER (Behaviours of Users Modified, and Made into an Empire for Rent), pour « comportement des usagers modifié et transformé en un empire à louer ». Malheureusement, ces acteurs concentrés sont devenus, pour la majorité des internautes, l’équivalent de l’internet tout entier. Dans certains pays, notamment en Asie, le terme même d’internet dans les publicités des fournisseurs d’accès est remplacé par le terme devenu générique « Facebook ».

Le Web « gratuit », à l’image du fonctionnement antérieur des médias, est construit sur le financement provenant de l’industrie de l’influence. Par ce terme, nous désignons un secteur qui dépasse celui de la publicité, pour couvrir toutes les opérations destinées à modifier les comportements des internautes. Outre le militarisme cité ci-dessus, on y trouve les relations publiques, chargées d’influencer l’opinion et les décideurs, et les puissances publiques quand elles mènent des opérations d’intoxication pour justifier des stratégies de pouvoir politique ou géopolitique, à l’image de l’immixtion russe dans la campagne présidentielle américaine de 2016.

À titre personnel, chaque usager s’estime peu atteint par cette influence, la considérant principalement comme un obstacle sur le chemin de l’accès à l’information, qu’un bloqueur de publicité peut généralement contourner. Une croyance qui renforce l’idée qu’existerait dans la population un marchandage accepté entre les inconvénients publicitaires et la gratuité des services. Or le défi posé par l’extension des possibilités d’action de l’industrie de l’influence va au-delà des pratiques et comportements individuels pour concerner l’architecture même de nos sociétés démocratiques. Le débat sur l’impact des manipulations orchestrées par la Russie lors des élections présidentielles américaines de 2016 n’est toujours pas clos. Plusieurs études (Tucker et al., 2018) estiment que ces manipulations auraient eu en réalité peu d’impact, compte tenu de ce que l’on sait de la sociologie du vote. D’autres au contraire soulignent que leur caractère déterminant ne tient pas à des reports massifs (après tout, Donald Trump a été élu avec un nombre minoritaire de voix), mais au ciblage très fin sur les électeurs hésitants, choisis avec soin dans les swing state, ces États au vote indécis qui peuvent faire basculer une élection (Jamieson, 2018). Dans tous les cas, c’est la confiance même dans le système d’information qui est rompue. Une opportunité pour les médias traditionnels, qui se voient ainsi décerner un blanc-seing, créant même des outils d’évaluation des sites, alors que chacun sait depuis longtemps que les fake news y sont également présentes, à l’image de ces articles sur les supposées armes de destruction massive ayant participé à la préparation de la seconde guerre du Golfe en Irak.

Extension du domaine de la lutte

Mais au fond, le fait que l’internet soit dorénavant considéré comme un des nouveaux lieux des affrontements entre dominants et dominés doit être accueilli comme un retour au réel, et à ce titre riche d’enseignements sur la marche de l’histoire. On ne peut plus considérer le numérique comme une panoplie d’outils dont les mouvements sociaux d’un côté et les tenants du maintien des privilèges de l’autre pourraient s’emparer, charge à celui qui en utilisera au mieux les possibilités d’emporter l’adhésion populaire. Ce message, qui était pourtant central lors de la victoire de Barack Obama, élu président notamment grâce à son usage de l’internet, disait-on, est devenu rapidement obsolète. En quelques années, nous avons pris conscience que le numérique, au-delà d’un outil, est avant tout un écosystème dans lequel nous sommes plongés. D’une part les affrontements du monde physique, depuis les questions sociales jusqu’aux enjeux climatiques, en passant par les diverses formes d’oppression, s’y déroulent également, mais sous des formes, des « subjectivités » différentes. Mais d’autre part, les questions nouvelles qui émergent des pratiques numériques ont des effets bien concrets sur notre monde social et politique, tant au niveau individuel, avec le changement des comportements et des structures sociales, qu’au niveau des rapports de force. Et elles méritent à ce titre de devenir des enjeux de lutte et de prise de conscience.

Ainsi, la perpétuation des objectifs utopiques qui ont accompagné la création et l’émergence de l’internet comme réseau global, porteur de la liberté d’expression, de la capacité de coordination et de réflexion en miroir de la mondialisation économique, restent d’actualité. Mais comme toute question plongée dans les remous de l’histoire, les formes et les enjeux se modifient. Par exemple, le mouvement des logiciels libres, qui a été le premier et le plus puissant des mouvements spécifiques du numérique, a fini par triompher au sein de la communauté des programmeurs, y compris dans les grandes entreprises, Microsoft et IBM devenant parmi les plus gros producteurs de logiciels libres. Mais ce mouvement doit se réinventer. Comme le signalait en 2006 avec lucidité Richard Stallman, le fondateur de la Free Software Foundation : « Toutes les libertés dépendent de la liberté informatique ; elle n’est pas plus importante que les autres libertés fondamentales, mais, au fur et à mesure que les pratiques de la vie basculent sur l’ordinateur, on en aura besoin pour maintenir les autres libertés. » (Cité dans Lechner, 2006) Mais aujourd’hui, avec la nouvelle architecture de l’internet dite en nuage, au-delà des logiciels, ce sont les services libres et ouverts, donc auditables, qui deviennent centraux. Il revient aux membres de ce mouvement des communs numériques d’emprunter des voies nouvelles pour proposer des alternatives aux grands services concentrés qui dominent actuellement le paysage numérique. C’est un pas qui a été franchi par l’association française Framasoft : proposer des services identiques à ceux des grands opérateurs, mais entièrement basés sur des logiciels libres, auditables, et sans traçage des usagers. Après avoir lancé « Dégooglisons l’internet », Framasoft s’engage dans « Contributopia », et notamment dans l’extension du fediverse, la conception de services fédérés appuyés sur une architecture décentralisée, donc plus aisément sous le contrôle des prestataires et de leurs usagers que les géants centralisés (Ertzscheid, 2017). Ce sont ainsi PeerTube (diffusion de vidéos), diaspora* (média social) ou Mastodon (microblogage) qui viennent rejoindre Framadate (organisation de réunions) ou les « pads » permettant l’écriture collective et simultanée. Tous ces services sont offerts sur un mode coopératif appuyé par un financement participatif. De même, plusieurs entreprises cherchent à exister sans la publicité ciblée, notamment les moteurs de recherche Qwant ou DuckDuckGo. Les publicités sont alors uniquement liées aux mots-clés utilisés, sans profilage des usagers. C’est également le type de travail coopératif proposé par OpenStreetMap pour élaborer un fond de carte documenté par ses utilisateurs, à l’image de Wikipédia, capable de concurrencer les géants de la cartographie en ligne. On parle alors de la construction de communs de la connaissance, un phénomène général qui témoigne de la capacité des populations à s’emparer des questions liées à la science et à proposer des alternatives construites collectivement entre scientifiques et profanes (Tic&société, 2018).

La question de la protection des usagers et de leur vie privée face aux nouveaux monopoles capables d’intervenir sur nos émotions et désirs est également devenue une question centrale auprès des ingénieurs et techniciens de l’internet. L’utilisation du cryptage des communications et des dépôts de documents privés s’est accentuée, notamment suite à la mise à disposition facile et gratuite de certificats par Let’s Encrypt[6], un consortium regroupant des réseaux de la société civile comme l’Electronic Frontier Foundation et des acteurs privés, notamment Google. D’autres travaillent à redonner aux internautes la main sur leurs données privées. L’inventeur du Web Tim Berners-Lee cherche ainsi à développer Solid[7] (Social Linked Data), un système fiable qui servirait d’intermédiaire entre nos données et usages et les divers services qui ont besoin d’y accéder, visant lui aussi à revenir vers un Web décentralisé et fédéré (Ledit, 2017).

Enfin, les nouvelles formes culturelles, au sens de produits diffusés, se répandent sur l’internet. En plus du renouvellement de l’accès aux oeuvres, qui reste le phénomène majeur, par exemple avec les services de VOD, la diffusion mondiale des journaux ou le streaming audio qui permet de disposer d’une discothèque immense, on voit se développer des pratiques culturelles nouvelles qui permettent aux amateurs de se joindre au concert de la création. Depuis le booktubing (critiques de livres en vidéo) jusqu’aux machinimas (petits films dont le scénario est « joué » par des extraits de jeux vidéo) en passant par le fansubbing (sous-titrage collectif de vidéos), des formes d’expression culturelle permettent de construire des réseaux de pairs qui partagent les mêmes centres d’intérêt, réalisant en cela un des objectifs de la culture : réunir et faire agir les gens.

Quelle régulation ?

L’ensemble de ces pratiques, actions, résistances dessinent la persistance d’un avenir utopique de l’internet, qui apprend chaque jour à se défendre face à la concentration, à l’accaparement des usages par une poignée d’acteurs et à l’organisation d’un capitalisme de surveillance généralisée, rendu possible par les innovations techniques, mais surtout par la passivité des citoyens et des pouvoirs publics. Car au final, ce sont aussi les questions de régulation qui trancheront pour savoir quel sera le modèle économique et de fonctionnement du numérique de demain. Construire des alternatives est essentiel pour faire vivre l’espoir et proposer/expérimenter des solutions. Mais la prise de conscience des déviances liées aux stratégies de captation de la vie privée au service des pouvoirs politique et économique doit se traduire en propositions de régulation, d’organisation d’une redistribution tant économique (les plateformes doivent participer à l’effort collectif, notamment d’éducation qui est au coeur de leur modèle d’affaires) que symbolique (redonner vie aux pratiques indépendamment des plateformes). Au coeur de ce mouvement, on retrouve la notion de « lois antitrust », qui mérite un toilettage, tant la situation actuelle est différente de celle des monopoles des années trente. La concurrence est actuellement jugée dans le cadre du commerce, et non de l’impact des entreprises sur l’organisation sociale. Or les plateformes, même celles qui vendent des biens physiques (Amazon) ou des services (Uber) concentrent un énorme pouvoir sur la société qui ne peut être examiné du seul point de vue de la satisfaction de l’usager. Le droit du travail, la capacité de conserver des commerces de proximité, l’existence d’intermédiaires dans la chaîne du livre dépendent d’une régulation forte de ces nouveaux monopoles.

Dans la dialectique entre utopie et dystopie, il convient de garder espoir. Les tendances négatives qui s’expriment avec impudeur aujourd’hui sont malgré tout révélatrices d’une prise de conscience et donc de la capacité des sociétés, tant qu’elles restent démocratiques, à réagir et à inverser les tendances. C’est à cela que doit servir la « culture numérique » : former le citoyen du XXIe siècle à la nouvelle situation qui nous voit habiter en permanence deux écosystèmes, les pieds sur terre et la tête dans le cyberespace. Et lui donner les moyens adaptés à cette situation pour défendre la logique d’émancipation qui est celle de toute culture digne de ce nom.