Article body

Ce livre regroupe 20 communications (en anglais) écrites par des experts mondiaux de la lexicographie. Tous les articles traitent des conséquences, heureuses et moins heureuses, pour les lexicographes et les utilisateurs de dictionnaires, de l’utilisation de l’informatique et d’Internet. Certains articles s’intéressent aux rédacteurs (nouveaux outils de gestion, analyse de corpus) alors que d’autres insistent sur les nouveaux modes de consultation et les usages qu’ils induisent chez les lecteurs. En plus des dictionnaires classiques, on présente aussi de nouveaux types de dictionnaires plus spécialisés qu’il n’aurait probablement jamais été rentable de publier sous forme papier, mais que l’informatique rend viables à cause du coût de diffusion relativement faible et du fait qu’Internet permet d’en élargir la diffusion.

Comme dans tous les recueils de ce type, la qualité et l’intérêt, au moins pour l’auteur de ce compte-rendu, diffèrent passablement d’un article à l’autre, mais l’ensemble est captivant et devrait l’être pour toute personne qui s’intéresse à la lexicographie moderne.

Même si les articles sont autonomes, les références ont été regroupées dans une bibliographie de plus de 40 pages, en plus de deux index : des sujets traités et des auteurs cités. Les dictionnaires discutés et les URL cités dans un article sont toutefois indiqués à la fin de l’article plutôt qu’être regroupés en fin de volume, un choix discutable. Les multiples références entre les différents articles du livre ne sont malheureusement indiquées que par (XYZ, this volume) plutôt que par un numéro de chapitre ou un numéro de page.

Étant donné le sujet, il peut sembler paradoxal de publier sous format papier plutôt que de façon électronique. Cette évaluation est basée sur la lecture de la version papier noir et blanc[1] dans laquelle certaines copies d’écran sont malheureusement difficiles à lire : les caractères y sont trop petits, la copie ayant été réduite à la largeur de la page et les couleurs sur l’écran sont difficiles à distinguer en tons de gris. Un système interactif est parfois difficile à apprécier avec une suite de copies d’écran. Heureusement, lorsque des URL publiques sont fournies, on peut suivre à l’écran les exemples au fur et à mesure de la lecture de l’article.

Le premier chapitre est une introduction à l’ensemble des articles qui présente brièvement les auteurs et résume leur contribution. Les chapitres suivants ont été divisés en trois grandes parties de longueur à peu près égale (6 articles) : la lexicographie à un moment décisif, des dictionnaires innovants et des études sur les usagers des dictionnaires électroniques.

La première partie réunit le « Who’s who » de la lexicographie en langue anglaise : un ex-éditeur en chef des dictionnaires anglais chez Oxford (Patrick Hanks), l’éditeur en chef des dictionnaires Macmillan (Michael Rundell) et un éditeur de logiciel commercial d’analyse de corpus (Adam Kilgariff) utilisé par toutes les grandes maisons d’édition de dictionnaires.

J’ai particulièrement apprécié le chapitre 2 qui présente le point de vue d’un éditeur de dictionnaire sur la lexicographie automatisée. Après avoir fait un tour d’horizon sur l’introduction des outils informatiques dans la création de dictionnaires commerciaux, il présente des réflexions très éclairantes sur l’économique du remplacement des dictionnaires papier par des versions électroniques et sur le rôle des lexicographes maintenant qu’on dispose d’outils d’analyse de corpus et d’extraction d’information. Il traite également du besoin de disposer de très grands corpus (plus d’un milliard de mots) afin de permettre aux lexicographes de séparer les utilisations anecdotiques des usages réels des mots dans la langue courante. Ce dernier point de vue est corroboré dans le chapitre 4 par Patrick Hanks sur l’impact des corpus sur la lexicographie en prenant pour exemple l’étude des collocations qu’il compare avec ce qu’on retrouve dans FrameNet et Wiktionary. L’étude sur le verbe throw est, de l’avis même de l’auteur du chapitre, un peu longuette, mais il est très intéressant de suivre cet exemple jusqu’au bout.

Les chapitres 3 et 5 se limitent à des descriptions d’outils, certes intéressants pour qui n’en a jamais entendu parler, mais leurs auteurs livrent peu de réflexions quant à leur impact, et ne comparent pas ces outils entre eux. Le sixième chapitre par Sven Tarp met la table pour une intéressante discussion théorique sur les différences entre la lexicographie papier et électronique, mais après avoir bien argumenté pendant dix pages qu’une telle théorie existe, il s’arrête sur un court panorama d’outils électroniques. Quant au septième chapitre, il traite de la lexicographie pour des langues peu dotées en prenant des exemples de langues d’Afrique du Sud ; après avoir analysé les dictionnaires existants pour ces langues et les avoir qualifiés de coquilles vides, l’article ne porte guère de réflexion sur leur (in)adéquation.

La deuxième partie présente de nouveaux types de dictionnaires qu’il n’aurait pas été possible d’imaginer sous une forme papier.

Le chapitre qui m’a le plus surpris dans cette partie est le chapitre 12 qui porte sur la lexicographie basée sur WordNet. Après avoir donné les bases et les concepts de WordNet (la section 12.2 est la meilleure description d’une page de WordNet que j’ai lue), il présente un dictionnaire pour la langue serbe construit au moyen de la traduction à la main des synsets de WordNet et de la création de nouveaux lorsque les traductions ne pouvaient se faire directement. On y a ensuite ajouté des innovations typiquement web comme la recherche dans les corpus, des mécanismes d’externalisation ouverte (crowdsourcing) et des illustrations obtenues via Flickr. L’auteur termine avec des réflexions très intéressantes sur des extensions éventuelles pour des idiomes et des collocations. Le chapitre 13 compare les entrées du Wiktionary et celles des dictionnaires construits par des experts. Cette étude est très intéressante, car elle porte sur plusieurs langues et fait des comparaisons qualitatives et quantitatives (en termes de nombre d’entrées). Même si les auteurs sont assez critiques des connaissances des usagers pour identifier certaines subtilités des sens des mots différents, ils croient que le fait que le processus d’édition soit ouvert peut rendre le modèle Wiktionary compétitif avec les dictionnaires construits de manière plus traditionnelle.

Le chapitre 11 présente un tout nouveau modèle de dictionnaire[2] : le DiCoInfo est avant tout une base de données spécialisée d’informations lexicales consultable uniquement par le web. La base trilingue (français, anglais et espagnol) porte sur les mots et les expressions dans le domaine de l’informatique. Les auteurs expliquent que l’encodage des collocations à l’aide de fonctions lexicales permet de faciliter la recherche de l’expression la plus appropriée dans un contexte d’usage donné (traduction ou apprentissage d’une langue seconde). Ils présentent différentes implantations qui ont été faites de ces idées et les résultats d’une évaluation auprès d’usagers. Le chapitre 14 présente les problèmes soulevés par la construction de dictionnaires électroniques pour le langage des signes, en particulier comment trouver des modes d’indexation appropriés et intuitifs. Les auteurs rapportent leur expérience pour le danois.

Le chapitre 8 présente les résultats d’une étude effectuée auprès d’usagers afin de déterminer comment adapter l’interface d’un dictionnaire. Si l’idée est louable, le texte est malheureusement une suite de captures d’écran pratiquement illisibles, car trop pâles et en caractères trop petits, ce qui est dommage pour un article sur la convivialité. Le chapitre 9 traite d’un outil pour aider à rédiger des textes didactiques en anglais langue seconde et il souffre du même problème de présentation que le précédent en se limitant à une suite de captures d’écran difficiles à lire ; ceci est d’autant plus dommage que, contrairement à l’article précédent, l’accès au site est limité aux étudiants et au personnel de l’Université Catholique de Louvain. Le chapitre 10, rédigé par un des directeurs de l’ouvrage, présente un dictionnaire bilingue basé sur des textes scientifiques qui vise des lecteurs, des traducteurs et des linguistes pour qui ils ont développé des sections particulières de leur site web. Même si les captures d’écran sont lisibles dans le livre, il est plus intéressant de suivre en visitant le site qui est en accès libre.

La troisième partie du livre est consacrée aux usagers des dictionnaires électroniques.

Le chapitre 17 a été le plus surprenant pour moi, car il discute d’usages inavoués de dictionnaires de poche ou de sources discutables qui sont souvent des listes de mots sans contexte d’utilisation ni vérification d’attestation de leur usage. Le chapitre 19 présente les caractéristiques idéales qu’on aimerait retrouver dans un dictionnaire électronique. Ces caractéristiques sont ensuite utilisées pour comparer les définitions associées à cinq mots dans des dictionnaires papier et sur Internet. L’auteur conclut que les dictionnaires gratuits sur Internet sont surtout utiles à cause des multiples liens qu’ils donnent vers d’autres ressources, mais qu’ils peuvent être aussi une source de bruit, car ils amènent parfois trop d’information, n’étant pas limités par le nombre de pages.

Le chapitre 20 est le compte-rendu d’une analyse statistique de questionnaires remplis par quelques centaines de personnes en 2010 sur leur utilisation et préférences pour les dictionnaires en ligne. Les résultats sont analysés avec beaucoup (peut-être même un peu trop) de minutie. La méthodologie est bien décrite et pourrait sûrement servir d’exemple pour d’autres études du même type. Les résultats sont très intéressants et même un peu contre-intuitifs : le multimédia et la possibilité d’adapter l’interface à l’usager ne sont pas jugés importants quoiqu’il faudrait peut-être éduquer les usagers pour qu’ils puissent mieux en tirer parti.

Le chapitre 15 décrit une série d’études portant sur les usagers des dictionnaires. Le chapitre 16 donne une liste de points dont il faudrait tenir compte dans le développement d’une interface pour un dictionnaire électronique. Le chapitre 18 est consacré à l’utilisation des dictionnaires électroniques par les traducteurs. Ce sujet, très intéressant pour les lecteurs de cette revue, est malheureusement plutôt une liste de souhaits souvent partiellement réalisés par certains dictionnaires ou systèmes présentés dans le livre. L’auteur n’aborde malheureusement pas le problème plus fondamental de leur intégration dans un poste de travail qui permettrait d’améliorer la productivité d’un traducteur.

Dans l’ensemble, j’ai beaucoup apprécié ce livre qui apporte plusieurs éclairages nouveaux et des points de vue différents, parfois contradictoires entre les articles. Ces réflexions forcent à remettre en question certains aspects du métier des lexicographes qui, comme tous les travailleurs du savoir, doivent s’adapter à l’arrivée de l’informatique en revoyant les façons de faire traditionnelles. Les dictionnaires électroniques changent aussi pour les utilisateurs la manière de consulter les dictionnaires.

Même si les éditeurs sont francophones et travaillent à l’Université Catholique de Louvain comme professeurs d’anglais langue étrangère, on ne trouve aucun article rédigé par un éditeur de dictionnaire français, peut-être parce que comme le souligne Patrick Hanks (p. 62) :

For some languages, e.g. French, there is no major corpus-based dictionary at all. In other languages, the situation is rather different : for example, major corpus-based dictionaries of languages as different as Danish, Modern Greek, and Malay have been published.

Pourtant plusieurs dictionnaires électroniques existent pour le français comme en témoignent les actes, seulement électroniques, eux, de la 4e Journée québécoise des dictionnaires (Cormier 2012).