Corps de l’article

Introduction

Cet article constitue une réflexion théorique sur la lisibilité du texte de spécialité; texte qui peut être défini comme un écrit émanant d’un groupe socioprofessionnel précis et qui exploite les pratiques discursives de ce groupe (conventions terminologiques et stylistiques, par exemple) afin d’en divulguer le savoir spécialisé. L’article s’intéresse particulièrement aux faits lexico-sémantiques qui font partie intégrante du texte de spécialité et dont on peut supposer qu’ils influencent la facilité de compréhension de ce type de texte pour le lecteur. Les faits lexico-sémantiques en question sont : 1) la richesse terminologique du texte ; 2) le potentiel sémantique des termes qu’il contient ; et 3) la morphologie de ces termes, que le lecteur peut exploiter pour cerner le sens d’un passage. L’article pose que ces faits peuvent renforcer ou, dans le cas contraire, réduire la lisibilité d’un texte de spécialité, selon que le lecteur est ou non un expert, c’est-à-dire un membre du groupe socioprofessionnel qui l’a produit.

Cette réflexion théorique s’inscrit dans un projet axé sur la lisibilité du texte de spécialité dont l’article cherche à évoquer la conception d’ensemble. En fait, l’article et la réflexion qu’il contient constituent le préambule à des études plus approfondies des faits lexico-sémantiques qui se rattachent à la mise en discours du terme et qui participent à la tension entre transparence et opacité qui est si caractéristique de ce type de texte.

Quoique le projet aborde la problématique de la lisibilité dans la seule perspective de la lecture, activité qui se fait forcément en unilingue, il est particulièrement utile pour la traduction, spécialement la traduction spécialisée. En effet, les faits lexico-sémantiques qu’il examine concernent de près le traducteur spécialisé, car sa reformulation du texte à traduire se fonde pour une large part sur la lecture qu’il en aura faite. Cependant, le projet ne se penche pas sur la reconstruction du sens lors de l’activité traduisante, question qui a été examinée, entre autres, par Dancette (1995, 2003 et 2010) et Lewandowska-Tomaszczyk et Thelen (2010). Il ne vise que la compréhension en lecture, donc l’étape de l’exégèse qui précède la réexpression du sens. En traduction, cette compréhension pourrait être « flottante », du moins selon Gile (1986), c’est-à-dire plus générale et moins exacte que celle du lecteur expert, alors que d’autres, comme Delisle (2003), pensent de façon plus absolue qu’il faut comprendre pour traduire, donc que l’on ne traduit bien que ce que l’on comprend bien.

1. La lisibilité du texte de spécialité : problématique et approche

De tous les moyens dont disposent les groupes socioprofessionnels pour faire circuler leur savoir, le texte de spécialité est sans conteste le plus exploité. Cependant, comme ces groupes constituent des « communautés discursives » fondées sur un certain degré d’exclusivisme reposant sur la double exigence d’une connaissance appropriée de la profession et de ses pratiques discursives (genres de textes et conventions terminologiques)[2], le texte de spécialité exerce aussi une autre fonction, qui s’oppose, parfois même diamétralement, à la première. En effet, le texte constitue, dans une certaine mesure, le garde-barrière des groupes socioprofessionnels, car l’accès aux informations véhiculées est souvent restreint à leurs propres membres. On pourrait donc dire que le texte de spécialité se caractérise par une tension permanente entre transparence pour les uns, notamment les lecteurs experts, et opacité pour les autres, les lecteurs non experts. Les difficultés de lecture éprouvées par ces derniers, qu’ils soient étudiants, donc des experts en devenir, ou encore langagiers, tels que les traducteurs spécialisés ou terminologues, sont une conséquence directe de cette tension.

Cette caractérisation du texte de spécialité n’a rien de nouveau. On la trouve, en effet, chez beaucoup d’auteurs. Je n’en nommerai ici que quelques-uns.

De Beaugrande (1989) pose la présence de deux tendances opposées et contradictoires au sein du texte de spécialité. Il affirme que ce type de texte constitue avant tout un véhicule de connaissances, mais qu’issu de pratiques discursives, qui sont conventionnelles seulement à l’intérieur d’une communauté discursive, il tend à compliquer et de ce fait à limiter l’accès à son contenu.

The purpose of knowledge transfer is certainly prominent [in texts for special purposes] [...] but the opposite purpose may also be at stake, namely to hinder outsiders from getting access to specialized knowledge [...].

De Beaugrande, 1989, p. 8

Turner (1980), pour sa part, estime que cette opacité, contre laquelle butent les lecteurs non initiés, se range parmi les caractéristiques principales du texte de spécialité, et ajoute que sa présence est sans doute délibérée. Il identifie au moins une stratégie discursive qui tend à la réaliser : l’emploi, selon lui abusif, de certains termes. Un fait divers, intitulé « Computer jargon baffles users », paru dans un quotidien ontarien, The Windsor Star, fait allusion à cette stratégie :

BRUSSELS Computer jargon [...] [is] discouraging Internet users from learning how to protect themselves online.

Faced with such gobbledegook, many of the world’s nearly two billion Internet users conclude that security is for “experts.” [...]

That was the message from cyber experts who met this week to work out how to protect computer users from the growing problem of online theft, fraud, vandalism, abuse and espionage.

“The malicious and criminal use of cyberspace today is stunning in its scope and innovation,” said Dell Services President Peter Altabef.

One problem is that computer “geeks” use jargon to cloak their work in scholarly mystique, resulting in a lack of clarity in everything from instruction manuals and systems design to professional training, the experts said.

The Windsor Star, February 20, 2010, E4 ; je souligne

Quant à Gotti (2005), il doute que l’opacité soit intentionnelle dans la plupart des cas, car les difficultés de lecture éprouvées par les lecteurs non ou peu initiés résultent, selon lui, non seulement d’une méconnaissance des conventions terminologiques et discursives mais aussi de lacunes sur le plan des connaissances conceptuelles ou encyclopédiques. Il écrit :

jargon avoids transparency in a deliberate attempt to make the message incomprehensible to outsiders, whereas in specialized discourse comprehension problems encountered by the uninitiated depend not only on unfamiliar lexis but also on conceptual content. Of course, there are cases of people using specialized terms to prevent others from understanding, but they remain the exception rather than the rule.

Gotti, 2005, p. 25

Que l’opacité à laquelle se heurtent les lecteurs non experts soit intentionnelle ou non, étudier la tension, dont elle est symptomatique, peut se faire sous au moins quatre angles : sociolinguistique, pragmatique, textuel ou normatif. En effet, puisque, comme le maintient Maingueneau (2002)[3], les normes d’organisation des discours et les normes d’organisation des hommes ne peuvent être dissociées, on peut adopter une perspective sociolinguistique afin de déceler les dynamiques socioprofessionnelles fondant ce tiraillement entre transparence et opacité. On peut aussi adopter un point de vue pragmatique et s’intéresser aux retombées, en situation communicative, de cette tension, qui peut se traduire par un défaut de manière au sens gricien, c’est-à-dire par une violation du principe de coopération (Grice, 1975). Ou encore, on peut mobiliser la linguistique du texte et chercher à identifier les éléments, lexicaux ou autres, qui seraient sources de transparence (ou de cohérence) pour les experts mais causes d’opacité (ou d’incohérence) pour les non-experts. Enfin, on peut opter pour une approche normative, c’est-à-dire interventionniste, et s’attacher à formuler des recommandations en faveur de ceux qui se trouvent désavantagés par la double tendance du texte de spécialité. C’est l’approche retenue par Schmitz (2007)[4], par exemple, qui propose un certain nombre de changements pour la rédaction de textes, spécialement de manuels d’usagers, dans le domaine informatique. C’est également l’approche de chercheurs, tels que Harrison et Bakker (1998), qui cherchent à formuler des mesures de lisibilité, c’est-à-dire des mesures prenant en compte certains indices, la densité lexicale du texte, par exemple, afin d’en évaluer le degré de facilité ou de difficulté de lecture.

J’adopterai ici la troisième approche, c’est-à-dire celle qui fait appel aux principes de la linguistique textuelle, car elle correspond le mieux à mon objectif, qui est d’établir un lien entre la double tendance du texte de spécialité et les mots, surtout spécialisés, qui le construisent. En effet, je me propose d’examiner tout particulièrement, dans cet article, comment le mot spécialisé ou terme participe à la construction de la textualité d’un texte de spécialité de sorte que ce dernier puisse jouer son double rôle de porte-parole et de garde-barrière d’une communauté discursive. J’argumenterai, entre autres, que le sens n’est point une propriété statique du terme, c’est-à-dire une qualité dont le contenu serait donné et donc connu d’avance, mais qu’il est bien plutôt le résultat d’un processus d’interprétation qui permettra ou non qu’un degré acceptable de cohérence soit assigné au texte. Pour ce faire, je me pencherai d’abord sur le processus de lecture, particulièrement sur la fonction de la cohérence, phénomène textuel qui constitue une composante cruciale du processus de lecture mais que l’on peut envisager sous au moins deux angles différents, mais complémentaires : celui du texte comme construit unitaire et celui de la lecture proprement dite, activité cognitive qui se fonde sur les inférences du lecteur. Je soulignerai ensuite l’importance des mots ou termes dans ce travail inférenciel en me servant des notions connexes de densité lexicale (Halliday, 1989) et de richesse terminologique. Je me baserai, enfin, sur la théorie de la signification d’Evans (2006) et sur la théorie de la division du travail linguistique de Putnam (1975) afin de cerner comment le terme contribue en discours à la tension permanente entre transparence et opacité.

2. Texte de spécialité, processus de lecture et cohérence

Le texte de spécialité se lit le plus souvent pour des raisons professionnelles, c’est-à-dire qu’il s’agit généralement « d’une activité de lecture entreprise à des fins relatives au travail ou à l’étude (académique ou professionnelle) » (Ulijn et Salager-Meyer, 1998, p. 79). Cette lecture à des fins professionnelles se distingue de la lecture à des fins privées, qui fait intervenir des textes qui visent à offrir à leur lecteur une certaine détente ou évasion : des textes littéraires, certes, mais aussi des textes de type informatif publiés dans des magazines, des journaux, etc. Dans le contexte de la lecture à des fins professionnelles, les lecteurs experts et non experts tendent en règle générale vers un même but : l’enrichissement et la consolidation de leurs connaissances. Ce but, cependant, se modifie chez au moins une sous-catégorie de lecteurs non experts, notamment les langagiers, traducteurs spécialisés ou terminologues, qui lisent le texte soit afin de le ré-exprimer dans une autre langue, soit afin d’y localiser des renseignements terminologiques, par exemple des attestions ou des explications de termes. Toutefois, que la lecture se fasse dans le contexte de travail du chercheur ou du langagier les deux buts exigent du lecteur une compréhension à la fois globale et localisée du texte. La compréhension globale implique la construction d’une vision d’ensemble du texte se fondant sur une détermination à la fois de son sujet, de son objectif et de ses arguments principaux. La compréhension localisée, quant à elle, suppose une saisie détaillée du sujet, de l’objectif ou encore des arguments du texte. Il est à noter, toutefois, que des chercheurs, tels que Gile (1986, p. 364), s’opposent à cette idée et avancent, au contraire, que la compréhension « nécessaire et suffisante » du langagier se distingue de celle du chercheur. J’y reviendrai.

La compréhension tant globale que localisée suppose que le lecteur trouve le texte intelligible, c’est-à-dire cohérent. La cohérence textuelle occupe selon plusieurs (Hobbs, 1979; Mann et Thompson, 1987, 1988, par exemple) une place centrale dans le processus de lecture et de compréhension puisque c’est elle qui mène par son rétablissement à une lecture réussie d’un texte. De Beaugrande et Dressler (1986) rangent la cohérence parmi les propriétés qui déterminent le caractère unitaire du texte, donc en d’autres termes sa textualité. Ils soutiennent, en effet, que tout texte constitue :

a COMMUNICATIVE OCCURRENCE which meets seven standards of TEXTUALITY [...]: cohesion [...], coherence [...], intentionality [...], acceptability [...], informativity [...], situationality [...], and intertextuality [...].

De Beaugrande et Dressler, 1986, p. 3-11 ; majuscules dans l’original

La cohérence, cependant, ne constitue pas une propriété intrinsèque du texte au même titre que les autres, par exemple la cohésion. En effet, là où la cohésion constitue une propriété que l’auteur du texte crée au fur et à mesure de son activité d’écriture par le biais du système lexico-grammatical de la langue, la cohérence, quoiqu’injectée dans le texte par son auteur, exige le recouvrement des relations qui la sous-tendent par le biais d’un certain travail inférenciel à effectuer par le lecteur et qui nécessite le déploiement de connaissances linguistiques et conceptuelles. Il s’ensuit que la cohérence relève pour beaucoup d’un jugement que le lecteur porte sur le texte, en ce sens que ce dernier lui assignera ou non cette propriété à la suite de sa lecture. Cela étant, maints chercheurs hésitent à y voir une qualité inhérente au texte. On retrouve cette approche à la cohérence, entre autres, chez Petöfi (1983), qui s’exprime ainsi à ce sujet :

I do not consider textuality as an inherent property of a verbal object, I believe rather that it is a property assigned (or not assigned) to a verbal object, in whatever form, in a special context by an interpreter. (Coherence is considered analogously.)

Petöfi, 1983, p. 266

En revanche, pour McNamara (2001), la cohérence constitue une dimension variable de la textualité qui peut être manipulée, c’est-à-dire augmentée ou diminuée, par l’auteur du texte. En effet, celui-ci peut décrire sa pensée en termes explicites ou au contraire laisser plusieurs aspects de sa pensée implicites. La cohérence dépendra dans cette optique du nombre de relations rendues explicites par l’auteur entre les idées exprimées dans le texte. L’auteur pourra, par exemple, limiter son recours à l’anaphore et à la synonymie et inclure davantage de renseignements conceptuels afin d’augmenter la cohérence de son texte. Plus le texte possèderait un tel caractère explicite, moins le travail inférenciel à fournir par son lecteur serait important, car le nombre de liens conceptuels à reconstruire serait dans ce cas réduit.

Text coherence is the extent to which the relationships between ideas in a text are explicit. Text modifications that increase coherence range from low-level information, such as identifying anaphoric referents, synonymous terms, or connective ties, to supplying background information left unstated in the text. Thus, coherence essentially refers to the number of conceptual gaps in a text. A high-coherence text has fewer gaps and thus requires fewer inferences, rendering the text easier to understand.

McNamara, 2001, p. 51

McNamara divise, de ce fait, les textes en deux grandes catégories : les textes à cohérence élevée (ou textes de forte cohérence) et à cohérence basse (ou textes de faible cohérence). Elle avance que les premiers conviennent davantage aux lecteurs non experts et les deuxièmes aux lecteurs experts, car les connaissances du lecteur quant au domaine traité dans le texte l’aident à reconstruire tous les non-dits, particulièrement quand le texte est peu explicite. Selon la quantité de connaissances dont dispose le lecteur pour combler les lacunes présentes dans le texte, elle distingue, en outre, entre deux types de compréhension : la compréhension fondée sur le texte et la compréhension situationnelle. Elle s’appuie pour cette distinction sur le modèle, à présent classique, de la compréhension du texte élaborée par Kintsch (1988). La compréhension fondée sur le texte met essentiellement en oeuvre des renseignements qui sont exprimés de façon explicite dans le texte.

Moins le lecteur possède un bagage conceptuel adapté au texte et à son niveau de cohérence, plus il tendra à élaborer une compréhension de ce type. La seconde, en revanche, se fonde davantage sur des connaissances conceptuelles que le lecteur possède avant même la lecture et consiste dans l’intégration du contenu du texte à ce corps préalable de connaissances. Plus le lecteur possède un bagage conceptuel riche et approprié, plus il tendra à élaborer une compréhension situationnelle précise et détaillée. S’il se trouve confronté, cependant, à un texte dont le niveau de cohérence le dépasse, le lecteur aura de la difficulté à former une compréhension situationnelle satisfaisante. Sa seule compréhension fondée sur le texte sera, dans ce cas, le plus souvent aussi déficitaire.

The low-knowledge reader flounders when faced with a low-coherence text. And, the low-coherence text represents the norm, not the exception. Without the necessary knowledge to fill in the coherence gaps, there seems to be little hope.

McNamara, 2001, p. 58

La problématique du bagage conceptuel se constate aussi quand on se place dans la perspective de Petöfi (1983), pour qui la cohérence relève d’un jugement plutôt subjectif du lecteur. En effet, celui-ci trouvera un texte cohérent dans la mesure où il parvient à exécuter les inférences qui s’imposent, donc dans la mesure où il parvient à établir entre le texte et le réel, sur lequel le texte le renseigne, des corrélats. Bref, le lecteur trouvera le texte cohérent (au sens de Petöfi) si son bagage conceptuel est adapté au niveau de cohérence (au sens de McNamara) dont l’auteur l’aurait investi.

Les termes figurant dans le texte jouent un rôle clé dans l’assignation de cette qualité, car une de leurs fonctions en discours est d’activer chez le lecteur les connaissances nécessaires au travail inférenciel exigé par la lecture du texte, à condition toutefois que le lecteur les possède. En effet, chaque terme mis en discours évoque chez le lecteur un éventail de connaissances, mais seulement si le lecteur sait établir la référence exacte du terme, ce qui suppose que le lecteur possède une bonne maîtrise des pratiques discursives de la profession et en particulier de sa terminologie.

3. Densité lexicale et richesse terminologique

3.1 Richesse terminologique

Les recherches axées sur le processus de lecture ont permis de constater que la réussite de cette activité cognitive dépend largement des connaissances lexicales du lecteur. Ulijn et Salager-Meyer (1998), par exemple, estiment que ces connaissances constituent une condition essentielle et nécessaire de la compréhension en lecture :

Although the relationship between vocabulary knowledge and reading comprehension is not a simple one, it is now widely accepted that vocabulary knowledge is a critical component of reading comprehension […].

Ulijn et Salager-Meyer, 1998, p. 81

En effet, la méconnaissance d’un mot aura pour conséquence que ce dernier ne peut pas activer chez le lecteur des connaissances, qu’il peut ou non posséder, et dont il a besoin pour la reconstruction des liens conceptuels contenus dans le texte. L’impossibilité de cette activation risquera, de ce fait, de se solder par des déficits sur le plan de la compréhension. La reconnaissance des mots lexicaux est particulièrement importante, voire cruciale, pour ce travail inférenciel, car ils constituent la clé d’accès aux connaissances conceptuelles. Le rôle des mots lexicaux dans le processus de lecture et de compréhension a retenu l’attention, entre autres, de Halliday (1989). Ce chercheur constate que la lisibilité d’un texte est déterminée, entre autres, par sa densité lexicale, c’est-à-dire par le rapport quantitatif existant entre le nombre de mots lexicaux et de mots grammaticaux employés dans le texte. En ce sens, plus la proportion de mots lexicaux serait élevée, plus le texte aurait un contenu informatif riche, et plus sa lecture serait exigeante. Dans le contexte de la lecture à des fins professionnelles, il faut ajouter à cette équation la notion de terme et donc subdiviser la catégorie des mots lexicaux en mots communs et en mots spécialisés, car le texte de spécialité se compose, on le sait, à la fois de termes et de mots. En fait, on pourrait définir le texte de spécialité comme une unité fonctionnelle où se trouvent insérés sur un fond de langue commune des termes de discours. Par terme de discours, j’entends, à l’instar de Béjoint et Thoiron (2000, p. 13), une unité lexicale spécialisée qui se trouve insérée dans un discours (ou texte) structuré et intentionné et à laquelle se trouve confronté le lecteur. Les termes de discours se distinguent des mots de la langue commune par leur valeur pragmatique. En effet, comme Lefèvre (2004), je soutiens que les termes de discours s’opposent aux mots, qui constituent leur arrière-fond dans le texte, sur le plan pragmatique, par le fait qu’ils s’ancrent dans les activités spécifiques d’un groupe socioprofessionnel précis. Ils surgissent par endroits de cet arrière-fond en langue commune quand « l’activité spécifique du groupe socioprofessionnel doit être aiguillée » (Lefèvre, 2004, p. 66), c’est-à-dire quand un changement, par exemple un rétrécissement, du champ cognitif est nécessaire pour permettre l’évocation d’un ou de plusieurs aspects du savoir spécialisé de ce groupe. Cela étant, il convient de substituer à la densité lexicale de Halliday (1989) une formule non à deux mais à trois variables, capable de capturer à la fois la densité lexicale et la richesse terminologique d’un texte de spécialité. Cette formule modifiée compare dans un premier temps le nombre de mots lexicaux et grammaticaux et établit dans un deuxième temps la proportion de termes par rapport au nombre total de mots (lexicaux) communs.

La deuxième proportion mesurée par la formule, celle donc qui exprime la richesse terminologique, peut avoir un effet, souvent négatif, sur la capacité d’un lecteur non expert de comprendre un texte de spécialité. En effet, plus le rapport est en déséquilibre en faveur des termes, c’est-à-dire plus la proportion des termes est élevée, plus la lecture d’un texte de spécialité serait déroutante pour certains lecteurs, car les termes, contrairement aux mots communs, font partie des pratiques discursives conventionnelles et donc exclusivistes d’un groupe socioprofessionnel. Considérons les deux extraits ci-dessous :

Extrait 1

L’écriture du français et ses rapports avec la prononciation sont source de débats et de difficultés depuis des siècles.

Huchon, 2002, p. 23

Extrait 2

L’ancien français possède des phonèmes inconnus du latin : des consonnes affriquées, des diphtongues et des triphtongues.

Huchon, 2002, p. 75

Les deux extraits sont de longueur comparable : le premier compte 19 mots et le deuxième 17 mots. On obtient ces totaux, quand on regroupe sont source de en une seule locution verbale dans le premier extrait et ancien français en un mot composé dans le deuxième. Il convient aussi dans les deux extraits de diviser du, qui est un amalgame, en ses parties constituantes : de et le. Du point de vue de la densité lexicale, les deux extraits se distinguent également peu. Le premier possède 11 mots grammaticaux (articles, prépositions, conjonctions, etc.) et 8 mots lexicaux. Le deuxième, quant à lui, se compose de 8 mots grammaticaux et de 9 mots lexicaux. C’est sur le plan de la richesse terminologique que l’on constate une différence importante entre les deux extraits. En effet, là où les mots lexicaux du premier sont essentiellement des noms se rangeant dans la langue commune, les mots lexicaux du deuxième sont tous, à l’exception de possède, de inconnus et de latin, des mots spécialisés, en fait des termes appartenant au domaine de la linguistique du français. Par conséquent, le deuxième extrait s’ancre davantage dans les pratiques discursives d’un domaine spécialisé et exige, de ce fait, plus que le premier la mobilisation de connaissances spécialisées, bien qu’ils traitent tous les deux du même sujet : l’histoire du français.

Grâce à des expériences axées sur la compréhension de textes, telles celles effectuées par Laufer (1989) dans le domaine des langues de spécialité, on sait qu’au moins 95 % de tous les mots et termes figurant dans un texte de spécialité doivent être connus du lecteur (ou compris par celui-ci en co-texte le cas échéant) pour qu’il puisse assigner au texte un niveau acceptable de cohérence (au sens de Petöfi) :

reading academic prose is likely to be greatly affected by the lexical knowledge of the text. [...] the study supports the ‘threshold hypothesis’ in reading comprehension [...] The results [...] suggest that the lexical component of this threshold level can be defined as 95% of the text-lexis; lower lexical coverage will be associated with unsatisfactory more often than with satisfactory comprehension.

Laufer, 1989, p. 319-320

Si l’on admet que tout lecteur, expert ou non, devrait en principe connaître les mots communs contenus dans un texte de spécialité, on peut supposer que seuls les termes puissent être en cause quand le pourcentage-limite cité par Laufer se situe en dessous de 95 % chez un lecteur. Ceci est d’autant plus probable quand le texte se caractérise par une richesse terminologique importante, c’est-à-dire quand la balance penche du côté des termes.

On peut en conclure que la richesse terminologique constitue un premier indice de la tension dans le texte de spécialité entre transparence pour les uns et opacité pour les autres. Cet indice se combine, par ailleurs, à celui de la cohérence identifié par McNamara (2001). En effet, les textes à forte densité terminologique ciblent des lecteurs experts et se rangent, par conséquent, le plus souvent dans la catégorie des textes à faible niveau de cohérence, textes donc qui laissent souvent implicites les liens entre les idées évoquées par les termes. Il s’agit là, cependant, pour l’instant d’une hypothèse de travail qui doit encore être vérifiée par des expériences axées sur la lecture et qui s’articuleront autour des deux notions de richesse terminologique et de cohérence au sens de McNamara.

3.2. Termes à morphologie analytique versus synthétique

Quand le lecteur rencontre un terme inconnu, il ne pourra pas d’emblée en établir la référence et les connaissances spécialisées, que le lecteur pourra ou non détenir, demeureront hors de son atteinte. Cependant, avant de juger la situation sans issue et de baisser les bras, tout lecteur aura tendance à essayer au moins trois stratégies. La première consiste à examiner le co-texte du terme dans l’espoir d’y trouver des indices de type référentiels ou définitionnels, stratégie qui tend plus à porter ses fruits quand le texte est à haut niveau de cohérence (McNamara, 2001). La deuxième consiste dans une analyse de la forme du terme, donc de son signifiant. Et, la troisième et dernière stratégie correspond à la consultation d’un dictionnaire ou d’un autre ouvrage de référence.

C’est la deuxième stratégie qui sera examinée ici, car elle se relie directement au terme et à son rôle dans la lecture d’un texte de spécialité. La réussite de cette stratégie dépend, entre autres, de la nature analytique du terme, donc de sa complexité, par exemple morphologique (cas des composés ou dérivés : langue-cible, terminologique) ou syntagmatique (cas des syntagmes terminologiques : langue de spécialité, unité lexicale spécialisée), et aussi de son niveau de motivation. C’est pour cela que certains auteurs, comme Andersen (2007), estiment qu’il existe dans le cas des termes un rapport inverse entre « transparence », d’une part, et « économie » sur le plan de la forme linguistique de l’autre, car plus la balance penche du côté de l’économie, moins l’on peut déduire de la forme de l’expression des éléments de réponse :

the more you pack expressions, the less determinacy you get. This means that there is a correlation between degree of determinacy on the one hand, and the amount of phonological or graphical material you are willing to spend on a linguistic expression on the other hand. This also includes the formation of terms in specialist communication. Special concepts pertaining to a specific knowledge area may be quite short, and this is often recommended in term formation. In other words, large amounts of knowledge may be packed into small amounts of linguistic material. This linguistic economy implies that the sender and the receiver both share a considerable amount of common background knowledge.

Andersen, 2007, p. 7

L’on peut en déduire que la longueur des termes de discours, en fait spécialement leur nature analytique, participe à la tension caractéristique entre transparence et opacité, car plus les termes sont synthétiques, c’est-à-dire compacts, plus il importe que l’auteur du texte et son lecteur soient sur la même longueur d’onde, c’est-à-dire possèdent des connaissances semblables. Comparons, à titre d’exemple, les deux expressions terme et unité lexicale spécialisée du domaine de la linguistique ou encore monème et unité significative minimale. On voit que les expressions syntagmatiques situent davantage le lecteur. Cependant, il faut souligner ici que la seule nature analytique des termes ne suffit pas à accroître la lisibilité d’un texte pour un lecteur non expert, spécialement si ce texte se caractérise du reste par une richesse terminologique élevée et par un faible niveau de cohérence (au sens de McNamara), en ce sens que les termes s’y trouvent insérés dans un co-texte qui donne peu d’indices définitionnels. Considérons, par exemple, le texte suivant :

Hierarchical internal-lemmatic architectonically enriched article microstructures belong to a subtype of the hierarchical architectonically enriched article microstructures. Other subtypes of this type are the hierarchical external-lemmatic architectonically enriched article microstructures, occurring in da6 in Figure 1, and the hierarchical internal- and external-lemmatic architectonically enriched article microstructure, occurring in da5 in Figure 1.

Nielsen et Tarp, 2009, p. 76 ; je souligne

Cet extrait compte quatre syntagmes terminologiques de longueur considérable, car ils se composent de cinq, sept et neuf constituants. Leur présence, cependant, ne facilite pas de beaucoup la lecture de ce texte, qui se range dans la catégorie texte de faible cohérence de McNamara (2001) du fait qu’il offre peu de renseignements de type explicatif. Son contenu demeure, de ce fait, impénétrable pour quiconque ne connaît pas ou peu les travaux en lexicographie de Herbert Ernst Wiegand et cela même après une analyse des signifiants de ces syntagmes.

De plus, même quand une telle analyse de la forme aboutit, elle fournit rarement toute la réponse. Par exemple, suite à la lecture du terme langue de spécialité, le lecteur saura qu’il est question d’une langue mais qui se distingue sans doute de celle que l’on emploie tous les jours. Cependant, ces éléments de réponse très partiels ne lui permettront pas de délimiter cet objet et de le situer par rapport à d’autres, par exemple la langue commune. Ce qui importe, toutefois, est que les quelques éléments référentiels ou conceptuels qu’il aura ainsi repérés suffisent parfois en co-texte de sorte que sa lecture du texte ne se soldera pas, du moins au niveau de ce terme, par un échec, c’est-à-dire par un verdict d’incohérence. Basée principalement sur le signifiant du terme, cette lecture se classera, cependant, sous le type de compréhension fondé sur le texte, identifié par Kintsch (1988) et McNamara (2001). Elle sera, de ce fait, forcément partielle et donc toujours insatisfaisante.

Depecker (2002) nomme signifié les éléments de réponse issus d’une telle analyse du signifiant et oppose ce signifié au concept. Il fait correspondre le concept grosso modo aux connaissances spécialisées que les membres d’un groupe socioprofessionnel partagent en principe. Cette distinction entre signifié et concept m’amène à considérer un autre aspect de la tension entre transparence et opacité : la nature dynamique ou indéterminée du sens du terme mis en discours.

4. Le potentiel sémantique du terme de discours

Hogeweg (2009) pose que le sens n’est point une propriété statique d’un mot mais qu’il constitue soit un construit nécessaire au processus de production d’un mot ou le résultat d’un processus d’interprétation. Transposer cette théorie au terme de discours revient à dire que le sens d’un même terme bifurque, car il correspond d’un côté à celui que façonne l’auteur d’un texte lors de la mise en discours d’un terme et il correspond de l’autre au résultat d’un processus d’interprétation effectué par le lecteur, c’est-à-dire le récepteur de ce texte. On peut en déduire deux choses. Premièrement, que ces deux sens doivent se recouper, mais qu’ils ne seront que rarement entièrement identiques. Deuxièmement, que le sens acquiert dans les deux cas de figure un aspect idiolectal, donc idiosyncratique, qui sera plus ou moins prononcé.

Je m’intéresserai d’abord au sens dont le lecteur investit le terme et ensuite à celui que forme l’auteur lors de l’activité d’écriture.

4.1. Sémantique de l’expert et du non-expert

Dans sa théorie de la signification, Evans (2006) avance qu’à la forme de tout mot (y compris le terme) est associé un concept lexical qui constitue de concert avec la forme ou signifiant une partie intégrante de la grammaire mentale de tout locuteur :

lexical concepts constitute the semantic units conventionally associated with linguistic forms, and form an integral part of a language user’s individual mental grammar.

Evans, 2006, p. 491

Le concept lexical ne correspond pas, selon Evans, au sens du mot. Il s’agirait plutôt d’une représentation mentale qui servirait de point d’accès à des connaissances de type conceptuel :

Lexical concepts are linguistically encoded concepts or mental representations that additionally serve as access sites to conceptual knowledge [...].

ibid., p. 502

En effet, le concept lexical possèderait une valeur sémantique à cinq dimensions, dont quatre seraient de nature linguistique et une, au contraire, de nature non ou extra-linguistique. Les dimensions linguistiques concernent, entre autres, la combinatoire du concept lexical. Quant à la dimension non linguistique, qu’Evans nomme potentiel sémantique, elle dérive du fait que le concept lexical permet l’accès à des connaissances conceptuelles ou encyclopédiques, c’est-à-dire à des modèles cognitifs plus ou moins complexes qui seraient organisés en réseaux :

lexical concepts possess a semantic potential [...]. This semantic potential […] occurs by virtue of lexical concepts providing access to conceptual (or “encyclopaedic”) knowledge structures. [...] these knowledge structures are characterised in terms of cognitive models, which collectively form a cognitive model profile for a given lexical concept.

ibid., p. 509

Evans avance que lorsqu’un locuteur cherche à comprendre un énoncé, il s’efforce dans un premier temps d’associer les formes des mots qu’il a repérés à leurs concepts lexicaux. Cette association permet au locuteur d’accéder à son bagage conceptuel, c’est-à-dire à ses modèles cognitifs, pour chacun de ces concepts lexicaux. Cependant, ce processus n’impliquerait pas l’activation complète de tout le bagage conceptuel relié à chaque concept lexical figurant dans l’énoncé, mais bien plutôt une activation partielle, notamment de cette partie du potentiel sémantique qui se marierait bien à celui des autres concepts lexicaux présents dans l’énoncé :

interpretation serves to activate part of the semantic potential (cognitive model profile) that each lexical concept provides access to. It does so in a way that is consistent with the other lexical concepts of the composite lexical conceptual structure.

ibid., p. 518

Enfin, Evans pose que le bagage conceptuel, auquel on accède par le biais d’un concept lexical varie d’un locuteur à l’autre et qu’il est, de plus, chez chaque locuteur, dynamique de nature. Toutefois, il va sans dire qu’il existe entre les potentiels sémantiques que possèdent des locuteurs différents pour un même concept lexical des chevauchements plus ou moins grands selon le vécu linguistique et non linguistique de chacun d’eux.

Cognitive models […] operate at varying levels of detail, and while stable, are dynamic being in a perpetual state of modification and renewal by virtue of on-going experience, mediated both by linguistic and non-linguistic interaction with others and one’s environment.

ibid., p. 512-513

La théorie de la signification d’Evans, que je n’ai évoquée ici qu’en partie, est très utile pour quiconque se penche sur le processus de la lecture. En effet, outre la problématique de la sélection du concept lexical – problématique que je n’examinerai pas ici pour des raisons d’espace – elle a le mérite d’inclure dans la valeur sémantique de ce concept un ingrédient non linguistique d’une importance cruciale pour le travail inférenciel en lecture : le potentiel sémantique. Si un lecteur parvient à sélectionner le bon concept lexical – tâche difficile, voire impossible dans le cas d’un terme inconnu –, la réussite de l’activité de lecture sera fonction de la nature de ce potentiel, dont la richesse doit être suffisante et dont le contenu doit être approprié. Cependant, comme je viens de le mentionner, le potentiel sémantique n’est ni fixe ni permanent, mais soumis à une variation idiolectale à la fois latérale (entre lecteurs) et micro-diachronique (chez un même lecteur). Les difficultés de lecture éprouvées par certains lecteurs, ceux notamment dont les potentiels sémantiques s’avèrent insuffisants, peuvent donc être causées par cette variabilité, qui rappelle dans une certaine mesure la thèse de la division du travail linguistique de Putnam (1975).

En effet, selon ce chercheur, la compétence sémantique est assujettie, au sein d’une communauté linguistique, au principe de la division du travail, principe qui intervient aussi dans d’autres zones de la vie sociale et dont la variabilité de la compétence sémantique constitue, en fait, une retombée. Putnam pose, plus précisément, que ce principe gère, dans toute communauté linguistique, la manipulation de ce qui peut être exprimé par les mots de la langue, si bien que les locuteurs (divisés en experts et en non-experts) n’ont pas à posséder pour tous les mots des connaissances également précises. En effet, seuls les experts détiendraient les connaissances nécessaires pour déterminer la véritable extension (et intension) d’un sous-ensemble de mots, appelés termes. Les non-experts n’auraient pas ce savoir.

HYPOTHESIS OF THE UNIVERSALITY OF THE DIVISION OF LINGUISTIC LABOR: Every linguistic community exemplifies the sort of division of linguistic labor just described: that is, possesses at least some terms whose associated ‘criteria’ are known only to a subset of the speakers who acquire the terms [...].

Putnam, 1975, p. 228 ; majuscules dans l’original

Putnam ajoute que les non-experts peuvent acquérir pour les termes un certain savoir, qu’il nomme stéréotype. Le stéréotype correspond à une idée générale du référent du terme. Cette idée peut être inexacte, voire fausse. Par exemple, le stéréotype de zèbre pour un non-expert correspondrait grosso modo à un animal, voisin du cheval, dont la robe est rayée de bandes noires et blanches. Ce stéréotype, cependant, qui correspond à une description tout à fait conventionnelle de cet animal africain, exclut des zèbres qui existent mais dont la robe n’est pas rayée mais blanche ou presque noire.

Le savoir riche et précis de l’expert et le stéréotype du non-expert identifient des différences inter-individuelles sur le plan de la compétence sémantique, différences qui concernent surtout, si on les transpose à la théorie d’Evans (2006), le potentiel sémantique d’un concept lexical. Ce sont ces différences qui peuvent se solder par une certaine instabilité de la lisibilité et donc de la cohérence (au sens de Petöfi) d’un même texte pour des lecteurs différents. La dichotomie putnamienne, cependant, n’épuise pas toutes les possibilités. Il convient d’y ajouter un troisième cas, car il est possible que le non-expert ne détienne ni savoir spécialisé ni stéréotype pour des termes de la langue. La construction d’un stéréotype est seulement possible pour ces termes qui migrent de co-textes spécialisés à des co-textes moins ou non spécialisés, où ils deviennent accessibles au non-expert. Terme, mot, grammaire, syntagme, etc. seraient de ce type. Les termes qui ne participent pas à de telles migrations, en revanche, demeurent le plus souvent inaccessibles au non-expert. La grande majorité des termes sont de ce deuxième type. Considérons, à titre d’exemple, sème, sémème, phone, phonème, rhème, signifié, signifiant, monème, etc.

En somme, on peut distinguer au moins trois cas de figure. En premier lieu, il y a celui du lecteur expert qui possède pour le terme qu’il a à interpréter un savoir précis, c’est-à-dire un potentiel sémantique convenable. En deuxième lieu, on distingue le cas du non-expert qui, ayant déjà rencontré le terme dans des co-textes sans doute moins spécialisés, possède des connaissances de type général, c’est-à-dire un potentiel sémantique moins riche, contenant des lacunes et manquant de précision. Enfin, en troisième lieu, on distingue le cas du non-expert qui, n’ayant jamais rencontré le terme, n’a pas pu acquérir ni connaissances spécialisées ni connaissances générales. Confronté à un terme inconnu, ce non-expert aura le réflexe de substituer à l’absence à la fois de concept lexical et de potentiel sémantique, le signifié de Depecker (2002), à condition bien sûr qu’il ait réussi à le déduire du signifiant ou, le cas échéant, tout autre élément informatif déductible du co-texte.

Si on reprend maintenant la question de l’instabilité de la lisibilité d’un même texte pour des lecteurs différents, on peut déduire qu’une lisibilité moyenne à basse s’observera quand le texte comprend une quantité importante de termes pour lesquels le lecteur non expert ne peut exploiter que des potentiels sémantiques pauvres et peu convenables. Le lecteur construira, dans ce cas, une compréhension situationnelle (Kintsch, 1988 ; McNamara, 2001) qui mobilisera ces potentiels sémantiques, mais qui demeurera lacunaire jusqu’à un certain point. Le même texte sera jugé peu lisible voire illisible, et donc incohérent, quand le lecteur se trouve obligé de baser son interprétation, c’est-à-dire son travail inférenciel, surtout sur les signifiés (au sens de Depecker) des termes qui y figurent ou le cas échéant sur des indices co-textuels. Cette compréhension essentiellement fondée sur le texte (Kintsch, 1988 ; McNamara, 2001) sera déficiente et donc peu satisfaisante pour le lecteur.

Si ce lecteur est un langagier, un lecteur donc dont l’objectif principal n’est pas la consolidation et l’enrichissement de ses connaissances du domaine, la question de la nature adéquate des compréhensions situationnelle ou textuelle se pose différemment, du moins selon Gile (1986). En effet, Gile argumente que le travail du langagier ne nécessiterait pas un niveau de compréhension comparable à celui des destinataires qui lisent le texte à des fins professionnelles, et qui possèdent bien souvent en raison de leur appartenance au domaine une supériorité cognitive dans la matière traitée. Il avance, en revanche, qu’une compréhension qu’il qualifie de « flottante » serait suffisante (Gile, 1986, p. 366). Cette compréhension ancrée, entre autres, dans une analyse à la fois morphologique et co-textuelle des termes contenus dans le texte est semblable à la compréhension textuelle que le lecteur non expert élabore selon McNamara (2001). La question « d’une “compréhension” nécessaire et suffisante du traducteur, différente de celle du destinataire » (Gile, 1986, p. 364) sera incorporée dans le projet de recherche encore à effectuer.

4.2. Coercion sémantique

Au moment de la mise en discours d’un terme, l’auteur doit l’investir d’un sens qui convient dans son co-texte d’emploi. Il exploitera à cette fin son potentiel sémantique, c’est-à-dire son réseau de modèles cognitifs associé à ce terme, construction mentale qui est, cependant, en constante évolution. En fait, le but des publications (articles, livres, etc.) dans les domaines de spécialité est bien souvent de rapporter sur les progrès réalisés sur le plan du savoir. Ces progrès exigent, en règle générale, des remaniements (effacements ou additions d’éléments, par exemple, ou des révisions de liens) au sein des modèles cognitifs mis en réseaux qui relèvent du potentiel sémantique qu’un auteur possède pour un terme donné. Ces adaptations sont, cela va sans dire, cruciales en langue de spécialité pour la construction et l’expression d’un nouveau savoir. Cependant, elles peuvent rendre la lecture d’un texte de spécialité particulièrement exigeante non seulement pour les non-membres d’un groupe socioprofessionnel, mais également pour ses membres, qui se trouvent ainsi obligés de constamment mettre à jour leurs connaissances de la profession ainsi que celles de ses pratiques discursives.

Voici quelques exemples de révisions de ce type tirés du domaine de la linguistique : la manipulation idiosyncratique de signifié par Depecker (2002), terme emprunté à la classique théorie saussurienne; la manipulation idiosyncratique de empratique par Lefèvre (2004), terme emprunté à la classique théorie du discours et de ses fonctions de Bühler (1990); ou encore les sens différents dont s’investit lexicographie chez Quemada (1987) et Bergenholtz et Tarp (2003).

Ces modulations peuvent être assez onéreuses pour le lecteur, car il doit dans ce cas les identifier et refaçonner son potentiel sémantique en conséquence. Les auteurs ont d’ailleurs tendance à baliser de telles modulations, du moins les plus importantes, par un renvoi à des textes qui illustrent le point de départ de la modulation. Comme ces renvois supposent que le lecteur possède une bonne connaissance de la littérature du groupe socioprofessionnel et spécialement en particulier du sujet traité par le texte qui contient la modulation, cette intertextualité participe, tout comme la coercion, à la tension entre opacité et transparence. Considérons le texte suivant :

But at the highest level of abstraction the amount of data types required in order to meet the primary information needs in terms of text reception can be reduced to only two, i.e. the lemma and the meaning. Although the concept of a lemma may differ from the one suggested by Wiegand (1983), at this level of abstraction the lemmata could be single words, irregular inflection forms, combinations of words, or even something else [...].

Tarp, 2009, p. 53 ; je souligne

Dans le passage mis en italique, l’auteur signale que le sens qu’il donne à lemma (en français lemme, c’est-à-dire la forme canonique d’un mot variable souvent retenue pour les entrées d’un dictionnaire) est quelque peu différent de celui dont Wiegand (1983) investit ce terme. Pour comprendre toute la portée de ce passage, il faut donc une connaissance du texte de Wiegand – Was ist eigenlich ein Lemma? Ein Beitrag zur Theorie der lexikographischen Sprachbeschreibung – qui présente par ailleurs une difficulté supplémentaire, du fait qu’il est rédigé dans une langue moins commune : l’allemand.

Ces modulations rappellent dans une certaine mesure les réflexions de Feyerabend (1962 et 1970). En effet, selon ce dernier :

a language of a new theory can only be learned from scratch in the same fashion as anthropologists and linguists study the language of a newly discovered tribe [...].

Feyerabend, 1970, p. 280

Ceci, d’une part, parce que les termes empruntés à d’autres théories recevront dans la nouvelle des sens nouveaux. Et d’autre part, parce que ces modulations peuvent dans ce cas s’accompagner d’une création néologique plus ou moins considérable. On obtient alors un texte dense contenant une terminologie hautement idiolectale. La nature idiolectale de cette terminologie se dissipera, cependant, au fur et à mesure que la nouvelle théorie gagnera des adeptes. C’est le cas bien sûr du texte déjà cité tiré d’un article du lexicographe allemand Wiegand.

Conclusion

Pour conclure, j’ai argumenté que le texte de spécialité se caractérise par une tension constante entre transparence pour les uns et opacité pour les autres. J’ai identifié au moins trois faits qui participent à cette tension et qui font intervenir le terme, à savoir 1) la richesse terminologique du texte de spécialité, fait qui opère de concert avec le degré de cohérence, au sens de McNamara (2001), du texte ; 2) le potentiel sémantique du terme, que j’ai examiné tant du point de vue du lecteur que de celui de l’auteur ; et enfin, dans une moindre mesure, 3) la morphologie – analytique ou synthétique – du terme. De concert, ces trois faits peuvent rendre la lecture d’un texte de spécialité particulièrement exigeante pour un lecteur, tel qu’un langagier, qui se situe bien souvent à l’extérieur du groupe socioprofessionnel. Cependant, il n’est pas à exclure que le niveau de compréhension minimal mais acceptable puisse varier selon que le lecteur soit un langagier ou un membre à part entière du groupe socioprofessionnel. Ce point, toutefois, n’a pas été vérifié dans cet article qui se veut largement programmatique.