Article body

Dans son ouvrage, Mohamed Zakaria Kurdi, professeur au Département d’informatique du Lynchburg College (Virginie, États-Unis), s’applique à dresser la deuxième partie de son « bilan panoramique » (p. 12) du traitement automatique des langues (TAL), comme lui-même l’avance, un effort qui est couronné de succès en février 2018, grâce à la parution du présent livre chez les éditions ISTE. Publié sous la direction de Patrick Paroubek, ingénieur de recherche au CNRS, ce tome, tout comme le premier, passe en revue, de manière scientifique et avertie, des théories issues des disciplines comme l’intelligence artificielle (IA), la linguistique, l’informatique, la psychologie cognitive et les neurosciences, qui toutes influent sur le TAL. De plus, les thématiques abordées dans ce deuxième volume ainsi que celles incluses dans le premier (Kurdi 2017) s’avèrent un choix évident pour l’auteur. Ce dernier s’est, à présent, investi dans les recherches portant sur le dépouillement de textes ainsi que sur les systèmes de tutorat intelligent pour l’enseignement des langues étrangères qui intègrent, parmi d’autres applications, le traitement de la langue naturelle et les réseaux neuronaux.

Cet ouvrage, disponible en format papier et électronique, est interdisciplinaire, suivant un modèle de succès qui marie des approches tantôt traditionnelles tantôt modernes, cherchant, peut-être, à toucher un nombre plus grand de lecteurs avec des intérêts disciplinaires divers. Il se veut aussi équitable, dans le sens où l’on a voulu y incorporer et décrire des approches tant linguistiques que computationnelles. À l’instar d’ouvrages d’autres auteurs qui l’ont précédé et qui ont cherché à aboutir au même type de structure, comme par exemple, Fuchs, Lacheret-Dujour et al. (1993), Enjalbert (2005) ou encore Biskri et Jebali (2011), pour n’en citer que quelques-uns, les deux tomes de Kurdi ont l’avantage de décrire des applications élaborées dans les dix dernières années.

Le lecteur aurait cependant apprécié un aperçu de la technique de traduction neuronale ; cette lacune est quelque peu frustrante. Il faut néanmoins souligner le fait que l’auteur a choisi de diviser son travail de synthèse en deux tomes, ce qui lui a permis d’intégrer plusieurs notions et théories se rapportant aux champs d’investigation qui s’entrecroisent avec le TAL.

Quant à l’architecture du deuxième tome qui fait l’objet du présent compte-rendu, elle renferme quatre chapitres et un nombre considérable de sous-chapitres, sections et sous-sections. Une telle structure est cependant facile à suivre pour le lecteur. L’ouvrage va à l’essentiel, ne comportant ni dédicace, ni préface, ni avant-propos, trait qui se manifeste davantage à travers les sections qui ne dépassent que sporadiquement trois pages. Par contre, après la bibliographie, l’auteur ajoute un index qui n’est pas du tout redondant et un sommaire particulièrement utile.

Le livre s’ouvre sur une introduction qui parcourt tant schématiquement que diachroniquement, d’abord, la connexion entre la langue et le TAL. Il s’agit de retracer le développement de la traduction automatique (TA), une des applications centrales du TAL, qui à la suite du fameux rapport ALPAC[1] de 1966 va suivre deux voies différentes : la TA traditionnelle qui joue sur la syntaxe et la TA rattachée à l’IA qui repose sur une analyse sémantique (Villard 1989 : 56-57). Ensuite, le deuxième paragraphe reconnaît l’importance du domaine de la recherche d’information et de son pendant, la science des données, en ce qui concerne la conception des applications de TAL de celles-ci. L’objectif du livre, quant à lui, est exposé dans le paragraphe suivant, tandis que le dernier paragraphe de l’introduction fait l’inventaire du contenu de chacun des quatre chapitres de l’ouvrage.

Le premier chapitre nous plonge dans la sphère du lexique et des connaissances. La partie qui lui est consacrée est divisée entre un recensement des notions ayant trait à la sémantique lexicale et une introduction aux bases de données lexicales comme Wordnet, Prolex et Brulex. La fin du chapitre offre au lecteur une vue d’ensemble sur les ontologies ainsi que sur les formalismes de représentation des connaissances comme les réseaux sémantiques, les graphes conceptuels et les schémas.

La section 1.1, intitulée « Sémantique lexicale », aurait bénéficié, à notre avis, d’une perspective sur les relations syntagmatiques, par exemple en couvrant le concept de degré de figement et les expressions figées, qui depuis longtemps font l’objet de travaux dans le domaine du TAL. Notons toutefois que l’auteur avait consacré une page aux termes, collocations et colligations dans son premier tome.

Tout au long des pages consacrées au chapitre suivant, Kurdi mène une étude approfondie de la sémantique en recensant quelques théories fondamentales de sémantique combinatoire et, ensuite, des notions propres à la sémantique formelle. La section 2.1 offre des informations pertinentes sur la sémantique interprétative, la sémantique générative, la grammaire des cas, la sémantique interprétative de Rastier et la théorie sens-texte.

Bien que les deux premiers chapitres soient convaincants, il aurait été préférable de créer une section distincte portant sur les approches cognitives en sémantique lexicale, qui sont la nouvelle tendance en linguistique. Cette suggestion résulte du fait que le livre touche à des notions comme la métaphore conceptuelle et la théorie du prototype, historiquement importantes pour le développement de la sémantique cognitive. D’autres théories issues de la sémantique lexicale cognitive auraient mérité d’y être couvertes davantage. On peut citer, notamment, la métonymie, la polysémie ou la sémantique des cadres de Fillmore (1982) qui a conduit à la création du modèle computationnel FrameNet[2].

Néanmoins, il faut absolument noter que l’auteur apporte des précisions essentielles quant aux théories et notions de la linguistique cognitive qu’il passe en revue. C’est précisément le cas de la métaphore conceptuelle qu’il situe dans le courant cognitif bien qu’il le fasse de manière assez laconique, lui consacrant environ trois paragraphes et deux illustrations (p. 14-16).

Le troisième chapitre, quant à lui, fait l’objet d’un inventaire non seulement des notions principales qui tiennent du discours mais aussi des approches logiques du discours, dont la segmentation linéaire, l’interprétation du discours et le traitement de l’anaphore.

Dans le dernier chapitre qui fait le point sur les applications du TAL, l’auteur entreprend de décrire la traduction automatique et dresse aussi le portrait de la recherche d’information et de l’extraction de celle-ci. Nous regrettons toutefois la non-prise en compte de la traduction automatique neuronale, étant donné que ce type de technologie ne cesse de s’implanter et d’évoluer. De fait, ce type de traduction, qui est né de l’intelligence artificielle en 2003 (Bengio, Ducharme et al. 2003 : 1137-1155) et qui utilise des réseaux neuronaux similaires à ceux du cerveau humain pour encoder et décoder le langage, est très prometteur. Il est dommage que l’auteur n’ait pas brossé un tableau raisonné de la traduction automatique neuronale.

Le succès de ce type de technologie s’est concrétisé quand il est devenu accessible gratuitement à l’échelle mondiale, notamment par l’entremise de Google Translate et de DeepL[3]. Google Brain Team[4] a créé GTNM[5], la machine de traduction neuronale de Google, dont la qualité des résultats surpasse nettement celle des systèmes fondés sur la TA statistique[6]. En effet, son module d’intelligence artificielle est à même d’apprendre et de se perfectionner seul.

Outre une nouvelle présentation du contenu des chapitres de l’ouvrage, la conclusion du volume contient des propos qui viennent renforcer l’idée que le TAL doit répondre à de nombreux défis dans des domaines aussi divers que la politique, le marketing et la traduction. L’auteur met à nouveau l’accent sur les applications du TAL comme instrument de travail de nombreux acteurs d’horizons différents, d’où leur importance. En guise de conclusion, Kurdi affirme (p. 283) qu’il reste quand même confiant que la linguistique développera des modèles mieux adaptés à la réalité, en dépit du fait qu’à présent, elle semble plutôt éclipsée par les avancées technologiques.

Des questions de forme viennent cependant perturber la lecture de cet ouvrage, notamment le format des citations. Par exemple, la linguiste Eleanor Rosch est citée comme [ROS 73] ou [ROS 76]. Cela est désagréable, mais pas insurmontable, car l’auteur utilise son nom et prénom dans la même section. Par contre, le symbole [RUL 00] cache en fait le nom du linguiste Ruland Tobias, dont on ne cite pas le nom dans la section où il est mentionné. Cela pose problème, surtout dans la version numérique du livre, dans laquelle on doit abuser de la fonction rechercher.

D’une façon générale, ce livre est plaisant à parcourir ; l’information y est bien structurée et présentée dans une langue facile à comprendre, ce qui, pour un novice en matière de linguistique informatique, représente un attrait particulier. Un autre avantage de ce livre est qu’il renferme de nombreux tableaux et graphiques qui décrivent de manière visuelle les notions linguistiques ou les principes de fonctionnement computationnel.

Bref, cet ouvrage serait parfait si ce n’était des lacunes informationnelles identifiées plus haut et le format de citation employé. Je n’hésite pas à le recommander.