Corps de l’article

Introduction

Au cours des trente dernières années, l’acquisition de la lecture-écriture a fait l’objet d’un nombre considérable de recherches qui ont permis de mieux comprendre le caractère spécifique des activités en jeu et les raisons de leur complexité. Dans cette entreprise, la psycholinguistique [1] a eu un rôle déterminant, avec notamment les travaux sur la conscience phonologique inaugurés en 1974 par Liberman, Shankweiler, Fisher et Carter. D’autres disciplines sont toutefois concernées, et spécialement la linguistique dont la présence se manifeste au moins par les concepts utilisés (phonème, syllabe, morphème, mot, etc.). On peut cependant s’interroger sur la véritable nature de sa contribution et, plus généralement, sur le sens du terme « linguistique » dans « psycholinguistique ». Les sciences du langage ont-elles un rôle actif dans les travaux sur l’acquisition de la lecture-écriture ou bien ne fournissent-elles qu’une référence théorique aux questions traitées par la psycholinguistique ? Les recherches interdisciplinaires qui permettraient de répondre à une telle question font encore défaut. Si l’on s’en tient aux trois dernières décennies, on ne peut que constater en effet l’absence d’un véritable dialogue entre une linguistique qui cherche à comprendre comment fonctionne un objet linguistique et une psycholinguistique qui décrit les procédures utilisées pour accéder à cet objet.

Cela dit, et paradoxalement, si la linguistique de l’écrit est désormais quelque peu reconnue, elle le doit en grande partie aux avancées de la psycholinguistique. Il existe d’ailleurs dans le champ de la linguistique une véritable coupure institutionnelle, toujours vivace. La plupart des linguistes reprennent la position inspirée de Saussure pour qui l’écriture n’est encore qu’un système de signes seconds, une sorte de « vêtement » de la langue orale, et finalement, un objet relevant plutôt de l’anthropologie. Pour la linguistique de l’écrit, au contraire, l’oral et l’écrit sont à mettre d’emblée sur le même plan. L’écriture est un système sémiologique ni plus ni moins complexe que celui de l’oralité, qui interagit avec lui et doit remplir des fonctions spécifiques. Le fait qu’il ait fallu attendre 2001 pour trouver un chapitre sur l’écriture dans le Handbook of linguistics (Daniels, 2001) témoigne de ce long désaccord épistémologique.

Dans le domaine de la lecture-écriture, la contribution de la linguistique à la psycholinguistique relève donc de modalités complexes qui tiennent au statut respectif des disciplines. La linguistique fut d’abord une référence en la matière, et, avec elle, une linguistique appliquée particulièrement vivace au cours des années 1970 et qui perdure aujourd’hui encore [2]. Mais avec le développement de la psycholinguistique et, plus récemment encore des neurosciences, l’étoile de la linguistique a singulièrement pâli. À y regarder de près, on se rend compte en effet que, malgré leur omniprésence, les concepts linguistiques ne sont le plus souvent que des préalables revisités par des hypothèses non linguistiques. Les relations entre linguistique et psycholinguistique se caractérisent depuis des années par ce qu’on pourrait appeler une coexistence diachronique. La plupart des articles sur l’acquisition de la lecture ou de l’écriture débutent ainsi, quasi rituellement, par des références linguistiques, le plus souvent une description du système d’écriture ou de l’orthographe. Tout semble se passer alors comme si la psycholinguistique voulait vérifier chez les usagers le bien-fondé d’un acquis objectif. Cette démarche pourrait fournir une validité cognitive aux modèles linguistiques, mais elle demeure pourtant à sens unique. Pour qu’un véritable dialogue s’instaure, les linguistes devraient sans doute tenir compte plus qu’ils ne le font des processus décrits par la psycholinguistique.

Un bilan rapide

Parler du rôle de la linguistique dans l’acquisition de la lecture-écriture implique donc certaines précautions épistémologiques et, pour la France notamment, une différenciation entre les années 1970 et une période plus récente. La linguistique a d’abord servi de référence majeure à l’apprentissage de la langue et de l’écrit. D’inspiration structuraliste, elle a contribué à remettre en selle la notion d’unités minimales, quand en Amérique du Nord, puis en Europe, les défenseurs de la lecture globale et du traitement direct des mots étaient plutôt sûrs de leur fait. Or, en phonologie comme en syntaxe, la linguistique occidentale, parce qu’elle mettait l’accent sur les éléments, a réhabilité du même coup le code. C’est en effet à cette époque que fut conçu Alfonic, un système graphique biunivoque (Martinet, 1976) et qu’apparut la notion de graphème de base, privilégiant une quarantaine d’unités quand les descriptions maximalistes en identifiaient plusieurs centaines (Catach, 1972).

Dans le domaine de la lecture-écriture, l’influence de la linguistique est évidemment inséparable des travaux sur les systèmes d’écriture. Or, pendant les années 1970, si le concept de mixité était déjà formulé (Catach, 1973), il n’avait pas encore l’influence qu’il a prise par la suite. En France, le débat sur l’écriture opposait deux camps apparemment irréductibles : celui des phonocentristes, qui accordaient une place majeure aux correspondances phonographiques (Catach, 1980), et celui des autonomistes qui considéraient plutôt l’écriture comme un système sémiologique indépendant de l’oral (Anis, 1983). Pour des raisons qui tiennent sans doute à l’influence de la culture alphabétique, c’est la première tendance qui fut la plus influente. Il faut dire qu’elle avait l’avantage de se référer au phonème, unité fondatrice de l’analyse linguistique.

Du côté de la linguistique, l’accent mis sur la phonologie, et son corollaire la phonographie, eut des incidences diverses. On pouvait avoir l’impression qu’un inventaire d’unités minimales (phonogrammes, alphagrammes, etc.) rendait compte à lui seul de l’écriture du français. Mais la notion de correspondances impliquait un parallèle entre l’oral et l’écrit qui, dès lors, n’était plus considéré comme un système second de la langue. La centration sur la phonographie créait en outre une opposition drastique entre les écritures où elle se manifestait clairement, celles qui utilisaient un alphabet notamment, et les autres. L’écriture du chinois fut ainsi qualifiée d’idéographique, comme si elle fonctionnait sur le principe de la représentation des idées (pour une synthèse, voir Sampson, 1985). La linguistique perdit progressivement son statut de discipline phare et, dans les années 1980, elle dut céder la place à la psychologie, sans disparaître pour autant du champ de l’acquisition de l’écrit.

Du côté de la psycholinguistique de l’écrit, on connaît la fortune de la notion de conscience phonologique, comme en témoigne la multitude d’articles sur la question (pour une synthèse, voir Sprenger-Charolles et Casalis, 1996). D’une façon générale, cette notion désigne la nécessité dans laquelle se trouvent les apprentis-lecteurs de construire une représentation mentale des unités phonologiques de la langue cible, ce dont ils peuvent se dispenser à l’oral. Cette construction paraît en tout cas d’autant plus indispensable quand les écritures sont alphabétiques et correspondent aux phonèmes, unités abstraites qui nécessitent la segmentation de réalisations continues et instables. Les travaux qui traitent de la conscience phonologique ont en général importé des concepts linguistiques. Dans le chapitre consacré aux « prérequis phonologiques », Adams (1990) fait ainsi appel aux unités classiques de la linguistique (syllabes, attaques/rimes et phonèmes). Dans sa synthèse intitulée Child phonology, Gerken (1994) mentionne de même les deux sous-champs de la phonologie (segmentale et supra-segmentale) et décrit la façon dont les enfants les découvrent. Et nous pourrions multiplier les exemples.

Avec le phonème, la psycholinguistique a donc repris à son compte l’un des acquis majeurs de la linguistique structurale (Troubetzkoy, 1949) mais ce faisant, il semble qu’elle ait préféré Sapir à l’École de Prague. Dans un article célèbre, Sapir (1933, 1991) affirmait en effet la prééminence des unités abstraites (phonologie) sur les unités réalisées (phonétique), en expliquant que les sujets étaient plus sensibles à la dimension structurelle des sons qu’à leur dimension physique. Il présupposait en fait l’existence cognitive du phonème. En revanche, l’École de Prague, qui joua un rôle si important dans l’élaboration d’une théorie du phonème, a toujours considéré cette unité comme le résultat d’une opposition entre paires minimales, l’associant étroitement à la fonction sémantique. Si le phonème /R/ est attesté en français, c’est parce qu’en s’opposant à un autre phonème, par exemple /s/, il peut différencier « tirer » et « tisser », cela, quelles que soient les façons de prononcer /R/.

La linguistique a donc fourni à la psycholinguistique un concept – le phonème – qui a servi de thème majeur à un vaste ensemble de recherches que l’on peut regrouper sous la notion générique de conscience phonologique. Ces travaux se poursuivent aujourd’hui encore dans le domaine de l’acquisition de la lecture-écriture comme dans celui de sa pathologie. Par ailleurs, la phonographie sert toujours de critère définitoire à des études linguistiques récentes sur l’écriture (Daniels, 1996 ; Sproat, 2000). Il existe aujourd’hui un véritable consensus en la matière pour dire qu’une écriture ne peut fonctionner que si elle dispose d’une base phonographique. Pourtant, de nouvelles tendances apparaissent qui, à y bien réfléchir, ne font guère qu’appliquer dans toute sa rigueur le principe de mixité des écritures théorisé voilà une trentaine d’années. Or, définir l’écriture comme un objet mixte et polyvalent, c’est relativiser du même coup la part de la phonologie, c’est introduire une complémentarité entre des principes qui avaient jadis tendance à s’exclure. Selon ce point de vue, toute écriture, alphabétique ou pas, naît de l’association entre une phonographie et des principes plus directement chargés de la représentation des unités significatives. Ce qui différencie les écritures, ce sont les modalités de cette association.

Les travaux sur l’acquisition de l’écrit vont plus ou moins dans le même sens. Dans le cas des écritures alphabétiques, il a bien fallu se rendre à l’évidence : les correspondances ne peuvent rendre compte à elles seules de l’ensemble des opérations en jeu, même quand on avait affaire à des écritures considérées comme phonographiquement régulières, en espagnol par exemple (Valle-Arroyo, 1996) ou en grec (Porpodas, Pantelis, et Hantziou, 1990). Mais le phénomène nouveau dans ce domaine, c’est qu’on a pu, au cours de ces dernières années, prendre conscience de l’importance de la phonologie pour l’acquisition du chinois [3] écrit (Frost, 1998 ; Tan et Perfetti, 1998). Autant d’observations qui tendent à confirmer ce que la linguistique de l’écrit, avec d’autres méthodes, dit depuis longtemps : la phonographie est un principe qui ne vaut pas seulement pour certaines écritures mais pour toutes. Cependant, tout en étant universelle, elle ne suffit pas à rendre compte de toute l’écriture.

Le développement des études comparatistes a sans aucun doute joué un rôle important dans ce questionnement de la phonographie qui n’en est très certainement qu’à son début. Les premiers modèles de l’acquisition de la lecture, bâtis sur des observations portant exclusivement sur l’anglais, ont été mis à l’épreuve d’autres écritures, celles de l’espagnol, du français, de l’allemand, du japonais, etc. L’un des épisodes marquants de cette remise en question est marqué par les critiques dont a fait l’objet l’étape logographique telle que Frith (1985) la décrivait dans son modèle. Attestée en anglais, elle a été en revanche très controversée en français (Sprenger-Charolles, 1997) et nettement réfutée en allemand (Wimmer et Landerl, 1997). Ce débat, parmi d’autres, a progressivement conduit à la prise en compte de la variable orthographe. Si au début des années 1990, certains pensaient que les contraintes cognitives étaient peu sensibles aux variations des orthographes, la tendance s’est aujourd’hui inversée.

Le rôle de la variable « orthographe »

D’une façon générale, la linguistique de l’écrit considère qu’on ne peut aborder le domaine de la lecture ou de l’écriture sans tenir compte du fonctionnement graphique d’une langue. Sa contribution se situe par conséquent dans le prolongement de ce qui vient d’être dit, mais avec des avancées théoriques qui permettent désormais de prendre une meilleure mesure de ce que les écritures ont en commun, mais également de ce qui les différencie. Ce que l’on nomme la variable écriture – ou variable orthographe [4] – est la représentation visible et lisible d’une langue par la sélection de certains composants linguistiques (phonèmes, morphèmes, mots, etc.). Et si la linguistique a quelque chose à dire à la psycholinguistique, c’est bien parce qu’elle a pour but, par définition, de décrire des composants que doivent maîtriser ceux qui veulent (apprendre à) lire et écrire. Le rôle de cette variable vient d’ailleurs d’être fort opportunément confirmée par une étude récente, émanant de la pathologie du langage écrit (Paulesu, Démonet, Fazio, McCrory, Chanoine, Brunswick, Cappa, Cossu, Habib, Frith et Frith, 2001). Il ne s’agit toutefois que du point d’orgue d’une réflexion qui, dans le champ de la psycholinguistique, est désormais à l’écoute des analyses que propose la linguistique de l’écrit (Geva, 1999).

De la phonographie...

Pour apprécier les effets de la variable orthographe, les études sur la lecture se sont d’abord massivement référées à une hypothèse phonographique majeure – des correspondances entre phonèmes et lettres, ou graphèmes. De ce point de vue, une certaine linguistique a pendant longtemps considéré qu’une écriture « idéale » devait être biunivoque, c’est-à-dire avoir le même nombre d’unités de base, à l’oral comme à l’écrit. Plus une écriture est proche de cet idéal et plus elle est transparente. On parle également parfois d’écriture de surface. En revanche, quand ces correspondances sont peu régulières, l’écriture devient opaque, ou profonde. Tel est d’ailleurs le cas le plus général puisque les graphèmes sont plus nombreux que les phonèmes, leur sélection nécessitant le recours à des critères distributionnels. En français, on a près de 130 graphèmes pour une trentaine de phonèmes. Au cours des années 1980, la psycholinguistique a donc théorisé une opposition (Katz et Feldman, 1981) bien plus ancienne en linguistique (Hannap, Hanna, Hodges et Rudorf, 1966 ; Catach, 1973). Et n’oublions pas que, dès les années 1960, la grammaire générative dissertait sur l’optimalité de l’écriture de l’anglais, signe précurseur de la notion de profondeur orthographique (Chomsky et Halle, 1968).

La sélection graphique des unités linguistiques dépend, au moins en partie, de la structure des langues. Du point de vue phonographique, une écriture doit choisir une option syllabique (les kana du japonais) ou une option alphabétique (les lettres du français ou de l’anglais). La morphologie des langues joue aussi un rôle important, y compris pour la phonographie. Plus la morphologie d’une langue est riche, plus elle doit trouver des moyens pour rendre compte de cette richesse. C’est ce qui se passe par exemple dans la plupart des langues romanes avec des variations morphologiques qui s’appuient sur des options alphabétiques. En revanche, une langue comme le chinois (mandarin), parce qu’elle a une morphologie moins complexe, s’accommode d’une phonographie moins précise. La morphologie peut également contraindre les procédés de segmentation. La langue française associe des flexions à des radicaux et, de ce fait, elle a recours à des principes de segmentation à géométrie variable. La langue chinoise, par contre, est dotée d’une structure monomorphémique qui lui permet de concevoir son écriture comme une succession de caractères notant une syllabe et un morphème.

La psycholinguistique de l’écrit a aujourd’hui fortement tendance à considérer que pour apprendre à lire et à écrire, il faut disposer d’une clé qui permette de faire fonctionner l’écriture à moindres frais. En l’occurrence, la meilleure façon de transformer des compétences orales en compétences graphiques, c’est encore de disposer des règles génératives d’un code. C’est sans doute pourquoi la solution alphabétique a eu tant de succès, au point qu’on a pu parler, à tort ou à raison, de sa « simplicité ». Et cela, même si le syllabaire du japonais (kana), pour ne prendre que cet exemple, supporte largement la comparaison. Quoi qu’il en soit, en l’état actuel des connaissances au moins, plus ces règles sont transparentes et plus elles sont acquises facilement. Ce principe est d’ailleurs confirmé par les procédés transitoires dont se dotent les écritures les moins transparentes : pinyin en Chine continentale, ou zuhinfuhao à Taïwan (Taylor et Taylor, 1995). Au Japon, les caractères les plus phonographiquement opaques (kanji) s’apprennent également à l’aide de graphies syllabiques quasiment biunivoques nommées furigana (Galan, 2001).

Ainsi conçue, l’écriture a donc tendance à privilégier des associations aussi économiques que possible entre des segments phoniques et des segments graphiques. Et cela, comme si la nécessité cognitive du code l’emportait sur d’autres contraintes, qu’elles soient sociales, culturelles ou linguistiques. Si l’on se réfère à l’histoire des écritures, on peut en effet difficilement dire qu’une telle économie phonographique ait été planifiée. Elle apparaît plutôt comme l’issue d’une morphogenèse inéluctable. Parmi les écritures les plus connues, la seule exception notable semble être le hangul coréen, création délibérée d’experts placés sous la houlette de l’empereur Sejong (Kim-Renaud, 1997). Ainsi, malgré une genèse souvent aléatoire et chaotique, l’écriture n’échappe pas à une organisation systématique, comme s’il s’agissait d’une condition sine qua non, imposée par les contraintes de la cognition. C’est dans ce sens en tout cas qu’on peut dire que toute écriture est d’abord une phonographie, y compris celle du chinois.

Les travaux sur la lecture-écriture ont certes montré que l’apprentissage du code alphabétique n’est pas aussi « simple » qu’on a pu le penser à une certaine époque (Morais, 1995). Toutefois, quand l’obstacle de la conscience phonologique est franchi, il n’en existe pas moins une différence rédhibitoire entre le petit Espagnol ou le petit Italien que l’application de règles phonographiques amène dans l’antichambre de l’orthographe, et le petit Français confronté à l’extrême polyvalence du système graphique (« château », « enfant », « demain », « ascenseur », etc.). Les modèles linguistiques peuvent alors tenter de mettre un peu d’ordre, en invoquant par exemple la notion de fréquence (Catach, 1980). Il n’est pas inutile de savoir que [s] est plus souvent noté par « s » que par « t », tandis que [ã] a autant de chances de s’écrire « an » que « en »… Mais, au bout du compte, on doit admettre qu’une écriture à polyvalence graphique élevée pose dans tous les cas d’énormes problèmes d’apprentissage. Dès que le choix est multiple, du côté des graphèmes ou des phonèmes, la phonographie rencontre très vite ses propres limites (Jaffré, 1993). Et quand un enfant de maternelle veut écrire un mot contenant le phonème [ã], seules des stratégies lexicales peuvent lui permettre de se tirer d’embarras (le [ã] de « maman » ou celui de « vent » ?).

… à la sémiographie

La linguistique contemporaine ne s’en tient pas pour autant à la seule phonographie et, sur ce point, son message n’a guère varié depuis des années : le principe phonographique a beau être très important, il ne suffit pas. Comme les langues, les écritures sont en effet des objets à plusieurs dimensions dont il importe de tenir compte, le moment venu, sans en oublier une seule. Pour ne pas avoir appliqué ce précepte, les travaux sur la conscience phonologique pourraient commettre les mêmes erreurs que ceux qui naguère ne voulurent croire que dans les mots (Smith, 1973). La mécanique phonographique dont nous venons de parler n’est pas une fin en elle-même. Elle sert à construire des unités supérieures, significatives, qui les englobent et parfois, compte tenu des aléas de l’histoire, les absorbent. Les orthographes sont ainsi pleines de graphies qui notèrent des sons désormais disparus ou qui furent d’emblée dépourvues de toute fonction phonographique. Pour désigner l’ensemble de ces phénomènes situés au plan de la première articulation du langage (lexèmes, morphèmes, etc.), nous parlerons de sémiographie (Jaffré, 2000). Et pour synthétiser les conclusions les plus récentes de la linguistique de l’écrit, nous dirons que la phonographie et la sémiographie sont les deux conditions nécessaires de l’écriture, et cela sans préjuger de leur influence respective dans les écritures.

La sémiographie peut apparaître comme une « réanalyse » pure et simple de la phonographie et, dans ce cas, les deux fonctionnements sont solidaires. On peut ainsi former le pluriel des noms en ajoutant un élément (une désinence) à un radical, en anglais (« dog » / « dogs »), en espagnol (« hombre » / « hombres »), en allemand (« Frau » / « Frauen ») ou bien en faisant alterner deux désinences, comme en italien (« dona » / « done ») ou en allemand (« Bruder » / « Brüder »). Dans tous les cas, le mot obtenu équivaut à une séquence de phonogrammes. Tel n’est pas le cas du français où l’adjonction de la lettre « s » n’a pas de véritable incidence phonographique (« homme » / « hommes »). Certains cas d’alternance, mieux informés, induisent eux-mêmes des spécificités graphiques (« cheval » / « chevaux »). La notion de transparence orthographique se heurte ici à une dimension nouvelle puisqu’elle doit compter avec des aspects sémiographiques. Cela dit, les écritures les plus transparentes n’échappent pas pour autant aux lois de la sémiographie : la seule présence de blancs graphiques entre des groupes de lettres suffit à reconfigurer l’écriture, à l’affranchir du seul déterminisme phonographique.

Il existe en fait une sorte de paradoxe de l’écriture : bien qu’elle ait besoin d’un inventaire phonographique aussi systématique que possible, comme on l’a vu, sa raison d’être n’est pas de noter des sons mais de représenter des signes linguistiques. Rendre la langue visible et lisible, tel fut l’objectif des premiers inventeurs d’écriture et de tous ceux qui leur ont succédé. Pour celui qui écrit, le rappel des mécanismes phonographiques peut certes être utile ; pour celui qui lit en revanche, ce qui compte c’est la force d’évocation de la trace écrite, sa capacité à noter du sens. Une fois mise en mémoire, ce n’est plus seulement la phonographie qui importe mais une multitude d’autres critères. Certaines lettres sont plus reconnaissables que d’autres et, en hébreu par exemple, l’absence de hampes discriminantes est ressentie comme un handicap. D’autres lettres, parce qu’elles marquent des oppositions stratégiques, rendent les erreurs d’autant plus dommageables. Ainsi, décrivant la réaction de certains Serbes lors de la comparution de l’ex-président Milosevic devant le tribunal pénal de La Haye, une dépêche de l’AFP, du 30 juin 2001, écrivait récemment : « Ses partisans ne décollèrent pas » ! On connaît en outre l’importance de la différenciation graphique des homophones, notamment quand ceux-ci sont fréquents. Et la liste n’est évidemment pas limitative. Tous ces procédés quasi universels remodèlent en quelque sorte le fonctionnement graphique.

Certains de ces procédés distinctifs sont à l’origine d’une véritable asymétrie entre code phonique et code graphique. L’orthographe du français est à cet égard l’une de celle qui – avec l’anglais – s’éloigne le plus d’une base phonographique transparente. Les lettres dites muettes y sont en effet omniprésentes et, qui plus est, dans le domaine de la morphologie notamment. Les liaisons syntaxiques peuvent certes réactiver certaines de ces correspondances phonographiques moribondes mais ce recours demeure très aléatoire. Nombreux sont par conséquent les cas où les sujets ont à produire un apprentissage dont on peut comprendre qu’il est très souvent – et sauf cas de haute fréquence – une source de difficulté. Chez les enfants et les adolescents francophones, les erreurs les plus fréquentes concernent ainsi les accords en genre et en nombre et les hétérographes, verbaux notamment (« donner » / « donné » / « donnez » / etc.), des domaines rendus opaques par la présence de ce que l’on appelle des morphogrammes, c’est-à-dire des unités spécifiquement graphiques.

La notion linguistique de sémiographie trouve depuis quelques années un écho du côté de la psycholinguistique qui prend progressivement une certaine distance à l’égard du principe phonographique, sans le renier pour autant. Plus les travaux se multiplient et plus s’impose l’idée de la pluridimensionnalité des orthographes (Koda, 1995 ; Harris et Hatano, 1999). Dans un ouvrage récent, on peut même lire qu’une approche phonique radicale n’est sans doute pas la meilleure voie vers la lecture et l’écriture (Bryant, Nunes et Bindman, 1999). Pour l’heure, le versant le mieux étudié est celui de la morphologie de l’écrit – ou morphographie – en français (Fayol, Thévenin, Jarousse et Totereau, 1999) et en anglais (Bryant et al., 1999). Il existe toutefois un débat, qui n’est sans doute pas près d’être clos, entre ceux qui considèrent que la compétence morphographique prolonge et reconfigure la compétence phonographique, et ceux qui jugent cette conception trop « linéariste ». Ceux-là pensent que la morphographie peut faire l’objet d’intuitions précoces et que de très jeunes enfants sont capables d’utiliser des sources d’informations qui ne relèvent pas d’associations phonographiques (Treiman et Cassar, 1996). C’est ainsi qu’en français, de nombreux enfants sont très tôt sensibles à la notion de pluralité (Jaffré et David, 1999).

Conclusion

Ce tour d’horizon rapide met donc en évidence une certaine communauté heuristique entre les linguistes et les psycholinguistes qui s’intéressent à la question des orthographes et de leur acquisition. Il reste pourtant beaucoup à faire pour que des recherches interactives se mettent en place, dans le cadre des sciences cognitives par exemple. Pourtant, on ne peut qu’être convaincu par l’intérêt d’une telle collaboration. Il est très probable qu’à l’avenir, les modèles linguistiques doivent tenir un meilleur compte de la façon dont les travaux sur la cognition décrivent des modalités de traitement de l’information graphique. Plus les connaissances sur le statut neuronal des unités graphiques de base seront développées et mieux ces modèles seront informés. Les critères internes de la validité d’un objet linguistique pourront ainsi être mis à l’épreuve de critères neurofonctionnels permettant une validation externe. À cette condition, les modèles linguistiques refléteront un peu moins le point de vue (éclairé) du seul linguiste et un peu plus les modalités de traitement de locuteurs réels.

Si l’on veut être résolument optimiste, on peut constater au moins que les psycholinguistes comme les linguistes reconnaissent tous l’apport original des données de l’acquisition. Aux observations de Macken (1995) qui, dans la conclusion de son chapitre sur l’acquisition de la phonologie, explique que ces données peuvent servir à confirmer ou à modifier la théorie phonologique, répondent celles de Mac Whinney (2001) pour qui l’apprentissage est un excellent moyen d’en savoir davantage sur les universaux du langage, sur la forme de l’interaction sociale et, finalement, sur la structure de l’esprit humain. Clark (1998) abonde dans le même sens en suggérant, à propos de la morphologie cette fois, que le travail du psycholinguiste peut aider le linguiste à mieux apprécier la complexité de ses modèles. Toutes les conditions paraissent donc réunies pour qu’un dialogue constructif s’installe entre ceux qui analysent le fonctionnement de l’écriture et ceux qui en décrivent les modalités d’acquisition. Mais la voie reste encore étroite et le chemin parsemé d’obstacles.