Corps de l’article

Ce premier numéro de 2014 clôt mon mandat à la direction de Meta. Voilà six années riches et bien remplies. Ce fut exigeant, mais combien passionnant et gratifiant ! La sortie de chaque numéro est source d’une profonde satisfaction, et nous avons été très sensibles aux remerciements des auteurs à l’égard du travail accompli. À tous et toutes, auteurs, relecteurs, membres des comités, assistants et collaborateurs des PUM et d’Érudit, j’adresse une dernière fois mes remerciements sincères, ainsi qu’aux entités qui nous ont appuyés (Conseil de recherche en sciences humaines du Canada, Fonds de recherche québécois pour la société et la culture, Université de Montréal).

Le dernier éditorial de 2013 était plus particulièrement consacré au travail éditorial. Dans celui-ci, je porterai mon regard sur le contexte actuel de la diffusion savante et sur certains défis à relever. Ce qui suit n’a pas la prétention d’être le fruit d’une recherche scientifique, mais plutôt une réflexion sur quelques questions clés. Certains chercheurs ont pour objets d’études les modes de transmission savants : à eux revient le travail d’analyse rigoureux qui permettra de répondre avec pertinence aux problématiques actuelles[1].

Diriger une revue, surtout lorsqu’elle reçoit autant de soumissions que Meta, c’est être aux premières loges de l’évolution d’une discipline. C’est aussi être à l’avant-scène de l’évolution de l’édition savante, particulièrement dans les sciences humaines. Or, ces dernières années ont vu une évolution importante du monde de la recherche et de la publication savante. Voici quelques points de repères qui ont un effet certain sur la diffusion de la recherche : la présence croissante, dans de nombreux domaines du savoir, de l’entreprise privée, qui s’associe de plus en plus aux chercheurs universitaires dans le cadre de projets de recherche partiellement subventionnés par les organismes nationaux ; l’élargissement de l’usage des facteurs d’impact pour évaluer non seulement les revues, mais aussi les chercheurs et les institutions ; l’instauration de listes de classement nationales et supranationales des revues savantes ; l’incitation croissante à publier en anglais dans les pays non anglophones – ce qui n’est pas nouveau dans certaines sphères d’activité, mais relativement récent dans d’autres ; la diffusion libre des articles issus de la recherche sur Internet.

Les partenariats entre entreprises et universités ont pour objectif de faire bénéficier la société des retombées commercialisables de la recherche. À ce titre, ils contribuent de manière importante au transfert des savoirs et à l’activité économique d’un pays. L’intérêt de ces pratiques n’est plus à démontrer, mais il ne faut pas en sous-estimer les failles : ainsi, la Fédération québécoise des professeures et professeurs d’université (FQPPU), relayant le rapport Regards sur l’éducation 2013 émis par l’Organisation de coopération de développement économique (OCDE), a-t-elle récemment souligné qu’un déséquilibre des financements universitaires en faveur du privé mettait en péril la « liberté académique » : « Le fait que les universités soient encouragées à compter davantage encore sur la contribution de l’entreprise privée est […] préoccupant à l’égard de la liberté académique » (FQPPU 2013[2]).

Qu’est-ce que la liberté académique ou, si l’on veut éviter l’anglicisme, universitaire ? Dans un bulletin de l’Association canadienne des professeures et professeurs d’université (ACPPU) paru en octobre 2003, Victor Catano la définit ainsi :

La liberté universitaire garantit aux professeurs la possibilité de former et de soutenir des opinions fermes dans le cadre de leur enseignement et de leurs travaux de recherche. C’est le droit d’enquêter, d’émettre des hypothèses et de formuler des observations sans devoir se soumettre à une doctrine prescrite. C’est le droit de critiquer l’université, l’association de professeurs et la société en général. C’est le droit d’être à l’abri de la censure institutionnelle. C’est le droit d’exercer ses droits légaux de citoyen, de jouir du droit à la liberté d’expression, sans encourir de sanction

Catano 2003[3]

L’exercice de la liberté universitaire est donc indissociable des débats qui animent les différentes communautés des chercheurs. Elle se traduit notamment par les publications savantes, articles, livres et collectifs, qui s’apparentent, jusqu’à un certain point, à une vaste discussion sur l’objet scientifique. Cette discussion est, en principe, autorégulée par l’examen par les pairs, qu’il s’agisse d’articles ou de projets, et dont l’exercice est balisé pour en éviter les dérives (liées, par exemple, aux conflits d’intérêts, à la concurrence, etc.). Or, il se trouve que la communauté universitaire a tellement intégré ses propres systèmes d’autocontrôle qu’elle se heurte à certaines pratiques, imposées de l’extérieur, et auxquelles elle peine à s’opposer. En effet, les mécanismes régulant les processus sous-jacents à la publication savante constituent un levier puissant pour contrôler la production et l’usage des connaissances. L’exemple des indices bibliométriques utilisés pour mesurer la productivité des chercheurs en est un exemple. Leur usage excessif par des acteurs non scientifiques (gestionnaires, par exemple) tend à occulter la traditionnelle évaluation par les pairs, qui n’est pas, elle, limitée aux aspects quantitatifs de production, mais qui prend également en compte la valeur intrinsèque de la production.

Conçus initialement pour aider les bibliothécaires dans la gestion de leurs collections, les indices bibliométriques sont ainsi devenus des outils utilisés à des fins de scientométrie, pour mesurer la productivité des chercheurs et des institutions. Ce détournement est fortement critiqué (voir par exemple Gingras 2014[4] ; voir aussi Molinié et Bodenhausen 2010[5]), sauf par ceux qui en tirent avantage, bien sûr.

Le plus connu est le facteur d’impact, qui s’adresse aux revues, mais il en existe d’autres, comme, par exemple, l’indice h (h-index ; Hirsch 2005[6]), qui vise à évaluer la productivité des chercheurs. Le facteur d’impact fut imaginé par Eugene Garfield, le fondateur de l’Institute for Scientific Information (voir Garfield 2005[7], pour un historique). Il est calculé annuellement depuis 1975 pour les revues qui sont indexées dans le Journal Citation Reports : pour une année donnée, il s’agit du nombre moyen de citations par article publié dans la revue durant les deux années précédentes. Le facteur d’impact fait cependant l’objet de nombreuses critiques. Ses détracteurs lui reprochent de ne pas être toujours reproductible, d’être facilement manipulable (par exemple, par les autocitations excessives, l’élimination systématique des concurrents des références bibliographiques, certaines stratégies éditoriales l’augmentant artificiellement, le lancement de « fausses polémiques » n’ayant pour seul objectif que de se faire citer, etc.) et de ne pas faire la différence entre un article cité pour sa qualité et un autre cité pour le contrer. De plus, la rapidité avec laquelle un article est susceptible d’être cité constitue le fondement de la valeur du facteur d’impact : donc, plus le délai de citation est long, moins le facteur d’impact a de valeur. Selon Molinié et Bodenhausein (2010 ; note 5), les facteurs d’impact des travaux d’Einstein ou de Lévi-Strauss auraient été très faibles, et Einstein lui-même n’aurait jamais eu de poste universitaire !

Enfin, en raison de leurs dynamiques variables, on ne peut comparer les facteurs d’impact de différentes disciplines (voir par ex. Nierop 2009[8]). Or, comme le dit Vincent Larivière[9], les sciences humaines reposent sur une « épistémologie cumulative » plutôt que sur des avancées plus ou moins brutales qui remettent en cause ou annulent les précédentes, comme c’est le cas dans les sciences biomédicales, par exemple : ces résultats marquants sont alors susceptibles d’être largement cités dans un délai assez court après leur publication. Un grand nombre de critiques s’accordent ainsi sur le fait que le facteur d’impact, dans les sciences sociales et humaines, a peu de valeur, d’autant que nombre de textes sont publiés dans des livres sous forme de monographies et de collectifs qui ne sont pas pris en compte dans le calcul – raison pour laquelle les travaux de Lévi-Strauss auraient « mérité » un faible facteur d’impact (Molinié et Bodenhausen 2010, note 5)… Les autres indicateurs souffrent de critiques semblables, dans la mesure où leur calcul repose aussi sur le nombre de citations (SJR, Eigenfactor, h-index…).

Enfin, l’une des critiques souligne que ces indices sont souvent utilisés par des acteurs non scientifiques dans le cadre des processus d’évaluation et de financement des individus autant que des institutions. Le risque est donc que la recherche soit « gérée » essentiellement sur cette base, alors que les biais sont connus.

Dans le même temps, de vigoureuses critiques à l’encontre des profits colossaux réalisés par de grandes maisons d’édition – parfois étroitement associées aux organismes calculant les indices – sont apparues. Et en parallèle, pour résoudre ce problème, la promotion de l’accès libre[10] aux articles (open access) est mise de l’avant. En 2002, l’Open Access Initiative voit le jour à Budapest.

Le libre accès aux articles est un principe fondamentalement démocratique, puisqu’il a pour objectif l’accès de tous, chercheurs, praticiens (notamment dans les sciences biomédicales) et grand public, aux résultats de la recherche. Ses défenseurs soulignent que le coût exorbitant de certaines revues à fort facteur d’impact gruge le budget des bibliothèques et des universités. De plus, ils considèrent que ces dépenses, encourues par le lectorat, reviennent à payer, sur les fonds publics, une nouvelle fois la recherche réalisée. Enfin, la plus grande diffusion des articles par le fait même de leur accessibilité accrue ne peut que faciliter leur citation – et donc augmenter les facteurs d’impact.

L’accès libre peut se décliner selon différentes modalités : aux extrêmes, l’accès dit or, dans lequel la revue autorise l’accès de tous ses articles, et l’accès dit vert, dans lequel l’auteur compile sur son propre site ou dans des archives institutionnelles ses articles à consulter ou à télécharger librement. Entre les deux, différentes formules, comme celle qui a été adoptée jusqu’à maintenant par Érudit, à savoir une barrière mobile de un ou deux ans, à l’intérieur de laquelle un abonnement est nécessaire (en parallèle de la publication de la version papier par les Presses de l’Université de Montréal).

Il est difficile de ne pas être en faveur d’un modèle où la gratuité d’accès aux articles scientifiques favorise la diffusion de la recherche, peu importe la discipline. Et d’ailleurs, les organismes subventionnaires appuient de plus en plus ce mode de fonctionnement. Toutefois, il faut prêter attention aux inconvénients et ne pas sombrer dans l’angélisme.

Tout d’abord, il est une illusion dont il faut absolument se défaire : c’est l’idée que la diffusion numérique est à peu près gratuite. Nombreux sont ceux qui pensent qu’une fois la version papier éliminée, il n’y a plus de frais, ou presque : c’est malheureusement faux. L’évanescence de l’objet électronique, rendu plus abstrait qu’un (plus ou moins) pesant volume, est sûrement pour quelque chose dans cette perception erronée. Je renvoie le lecteur à mon éditorial du numéro 58(3), dans lequel j’évoque la valeur ajoutée par le travail éditorial des revues. Si l’impression n’est certes pas gratuite, celui-ci ne l’est pas non plus – bien qu’une bonne partie du travail soit bénévole (évaluateurs, membres des comités et direction). Par ailleurs, la mise en ligne elle-même, surtout si elle prévoit l’exploitation des ressources technologiques du Web (plutôt que la simple mise en ligne d’un PDF), ne l’est pas non plus, car elle demande la mise en oeuvre du matériel (ordinateurs, serveurs, locaux) et des ressources humaines nécessaires dont les compétences en informatique se doivent d’être de pointe. Elle représente toutefois une valeur ajoutée certaine, dans la mesure où un texte bien structuré et accessible dans une plate-forme mettant à la disposition du lecteur différents outils de recherche est considérablement mis en valeur. Cependant, il faut aussi compter avec la maintenance à long terme et la garantie de la pérennité de l’archivage.

Par conséquent, l’accès libre a lui-même un coût. Ce point sensible fait l’objet de nombreuses discussions dans les milieux universitaires. Si le lecteur ne paye plus, qui doit payer les frais reliés à l’édition, à la mise en ligne et à la maintenance ? À moins d’un financement des revues elles-mêmes, soit par les organismes subventionnaires, soit grâce à des abonnements pour la période sous la barrière mobile, les coûts seront inévitablement assumés par l’auteur. Cela signifie qu’il devra consacrer une partie de ses subventions, s’il en a, à la diffusion des résultats – mais s’il traverse une période sans financement, pourra-t-il s’en relever ? L’institution pourrait prendre en charge les frais de publication – mais qui en décidera les limites ? Un auteur prolifique serait alors plus coûteux qu’un auteur qui le serait moins, ce qui deviendrait contre-productif. De plus, outre le problème posé par la sélection des articles publiables, une telle pratique n’aurait-elle pas comme conséquence de pénaliser lourdement les petites universités qui ne pourront assumer un tel coût[11] ? Si l’auteur travaille en collaboration avec le privé, les entités participantes pourraient également contribuer. Mais quelles pressions exerceront-elles pour contrôler ce qui est publiable et ce qui ne l’est pas ? Ce qui revient à limiter en amont l’accès aux connaissances, et non pas en aval. Or, si les limites en aval peuvent être contournées, par exemple par un accès le plus ouvert possible aux bibliothèques universitaires ou grâce à des pratiques telles que le prêt entre bibliothèques, le contrôle en amont est, lui, définitivement blindé.

Par conséquent, les contraintes sur la publication se modifient. Il est probable que les indices « biblioscientométriques » sont là pour rester. On peut concevoir toutefois que sous l’effet des critiques, ils soient modifiés, pour le meilleur ou pour le pire, ou que d’autres s’ajoutent. Que certains indices avantagent, comme par hasard, les revues liées aux entités qui les produisent devrait inciter à la prudence. Si le libre accès semble un bon moyen de contourner le problème posé par les coûts exorbitants des abonnements, une certaine lucidité s’impose de ce côté aussi : les revues doivent avoir les moyens de publier du travail de qualité, tant sur le fond que sur la forme. La question est donc de déterminer les coûts véritables de la pulication. Le modèle auteur-payeur ne résout pas tous les problèmes, tant s’en faut. Certains domaines de recherche ne nécessitent pas des budgets importants, et imposer des frais de publication aux auteurs pourrait revenir à « tuer » certains secteurs du savoir, créer une inégalité devant la possibilité de publier, favoriser certaines régions du monde au détriment d’autres, etc. (certains pays pourraient ainsi accéder gratuitement aux publications, mais n’auraient pas les moyens de publier !) Enfin, comme nous l’avons déjà évoqué plus haut, ce modèle peut favoriser un contrôle accru des entités finançant la recherche, qu’il s’agisse des états, des organismes subventionnaires, des universités elles-mêmes ou de l’entreprise privée contribuant à la recherche.

Ce panorama, trop bref pour rendre compte de la complexité de la situation, notamment parce que les dynamiques des différents domaines du savoir interviennent, se veut simplement un point d’appui à partir duquel les traductologues[12] sont invités à réfléchir à ce qui se passe dans leur discipline. J’ébaucherai quelques points de départ à cette réflexion.

Ce qui me frappe après six ans passés à la barre de Meta, c’est la diversité des thématiques, des questions de recherche, des cadres théoriques convoqués en traductologie (encore une fois, envisagée au sens large). Certes la sociologie de la traduction est une voie de recherche importante, mais il en existe d’autres. Il ne faut pas se laisser aveugler par les courants qui prédominent dans certains cercles. L’histoire de la traduction, les problématiques de pédagogie et l’accroissement de l’intérêt pour les domaines de spécialité, l’analyse des discours, ainsi que les études sur l’interprétation, sans pour autant écarter les études littéraires, toujours actives, témoignent de la vitalité de la discipline et ce, internationalement. Je tends à penser que nous ne sommes plus dans une dynamique de tournants (turns), ce qui sous-entend une évolution linéaire constituée de « modes » successives, mais bien plutôt dans une dynamique de multidimensionnalité, résultant de la multiplicité des objets de recherche et de l’interdisciplinarité. Le défi, pour la traductologie, sera de ne pas s’y perdre, mais de réaffirmer son apport et son originalité, de poursuivre le développement de ses propres outils et de confirmer son autonomie par rapport à ses disciplines soeurs ou mères (linguistique, littérature, études culturelles, etc.).

Cette richesse des thématiques a cependant un revers lorsque vient le temps d’évaluer la recherche à l’aide du facteur d’impact. Si l’on admet que le grand réseau de la traductologie est en fait formé de petits sous-réseaux plus spécialisés, il est probable qu’un article donné sera essentiellement cité au sein de ces regroupements. Par conséquent, une recherche donnée pourra avoir un impact certain sur le lectorat, surtout si les travaux sont utilisés pour la formation (par exemple dans le cadre des lectures imposées dans les cours, notamment dans les cycles supérieurs, ainsi que dans les mémoires et les thèses) et la constitution de programmes d’enseignements, ou encore si la profession peut en bénéficier directement, mais cet impact ne sera pas nécessairement reflété par le nombre de citations.

Aussi, le fait que, dans de nombreux contextes, la traductologie ne soit pas encore clairement individualisée par rapport à la linguistique – notamment la linguistique appliquée – lui est nuisible, et ce, malgré le corpus croissant d’articles, de livres, de revues (plus de 150 dans le monde), d’encyclopédies et d’anthologies (readers), sans compter l’existence de nombreux regroupements (associations savantes ou professionnelles – et même ordre professsionnel [OTTIAQ au Québec]). Une bonne partie de la traductologie relevant de l’épistémologie cumulative évoquée plus haut, ses revues sont automatiquement défavorisées si la discipline contine d’être incluse dans la linguistique. La traductologie entre alors dans une fausse concurrence avec d’autres domaines, dont certains acquièrent de plus en plus de caractéristiques propres aux sciences dites dures (par exemple certains courants de linguistique cognitive, dont la dynamique de recherche, essentiellement tournée vers l’expérimentation, s’apparente parfois à celle des neurosciences ou de la psychologie).

En ce qui concerne l’accès libre, il sera sans doute difficile de résoudre la question de manière univoque pour l’ensemble du monde universitaire. On ne peut transposer les critiques faites à une revue qui demande des milliers de dollars pour publier un article (le modèle auteur-payeur existe depuis longtemps dans certains domaines, ne serait-ce que pour payer, par exemple, la mise en page d’images en couleur), et dont l’abonnement exige pourtant le déboursement de dizaines de milliers de dollars, avec une revue (de traductologie par exemple…), pour laquelle les soumissions sont entièrement gratuites, et à laquelle on peut s’abonner, que ce soit en version papier ou électronique, pour un montant somme toute très modique. Si les revues constituaient toutes des entités à but non lucratif, une bonne partie des critiques qui visent les profits excessifs de certains éditeurs s’évanouiraient.

Le budget dont peuvent disposer les auteurs est également très variable. Comment comparer des recherches qui nécessitent des budgets importants dont une bonne partie est destinée à l’achat de matériel de pointe, et des travaux menés dans des domaines n’exigeant pas de tels investissements – sinon un bon ordinateur et parfois quelques logiciels ? Enfin, certaines recherches sont des oeuvres d’érudition ou de réflexion, et si l’évolution technologique d’Internet peut leur être particulièrement utile pour accéder aux ressources nécessaires (ouvrages, corpus, etc.), il faut prendre garde à ne pas les asphyxier par une vision unique.

Dans un contexte qui évolue très rapidement et qui se complexifie, c’est en grande partie dans les mains des traductologues eux-mêmes que repose l’avenir de la discipline et des revues. La qualité des articles soumis, tant dans la forme que dans le fond, est le premier point qui dépend des chercheurs : soumettre des articles qui demandent un travail trop important de la part des éditeurs contribue à fragiliser l’ensemble du domaine, car cela handicape le travail des revues. Tout commence donc par la formation des doctorants, ainsi que par l’acceptation, de la part des auteurs, des règles éditoriales. Les préparer à un rôle de critique d’article est également essentiel si l’on veut que se maintienne l’évaluation par les pairs, de même que leur faire prendre conscience de la signification des pratiques de citation.

Par ailleurs, une meilleure compréhension de la nature des indices biblioscientométriques, de leurs avantages et de leurs inconvénients, est également nécessaire. L’ampleur du travail assumé par les professeurs et les chercheurs ne laisse pas toujours à ceux-ci le temps de s’informer adéquatement sur ce point, de manière à faire valoir leurs positions. À quoi sert, pour une revue, d’afficher un facteur d’impact de 0,1, si cet indice ne signifie rien en regard de la dynamique de la discipline[13] ? L’ensemble des traductologues ne doit pas hésiter à défendre leurs spécificités auprès des organismes nationaux et internationaux, et à agir, dans les différentes sphères, pour favoriser l’autonomie de la discipline.

L’avenir sera sûrement riche en rebondissements. Les défis à venir que Meta rencontrera ne lui sont pas nécessairement spécifiques : ce sont ceux de notre temps. À ce titre, j’espère que les réponses qu’elle saura trouver seront inspirantes pour d’autres. Ce sont sur ces quelques réflexions que je tire ma révérence et que je souhaite à mon successeur, Georges Bastin, ainsi qu’à son équipe, le meilleur des succès.