The Érudit platform is currently experiencing slowdowns and disruptions due to an incident at our technical service provider. We are sorry for this inconvenience and are actively collaborating to restore the service. The information will be updated on our Twitter Page.

Articles

IntroductionL’enseignement de la lecture au Québec de 1980 à 2000 : fondements historiques, épistémologiques et scientifiques

  • Régine Pierre

…more information

  • Régine Pierre
    Professeure
    Université de Montréal

Logo for Revue des sciences de l’éducation

Article body

Introduction

Les années 1970 ont marqué l’un des virages les plus déterminants de l’histoire de l’enseignement de la lecture. Les approches formelles centrées sur la matière à enseigner, qui avaient dominé jusqu’alors, ont été balayées par une vague fonctionnelle qui s’est répandue dans la plupart des pays développés. Le Québec n’a pas échappé à cette vague. Influencé par les courants d’idées qui sont nés en Angleterre sous l’impulsion des travaux de Bernstein (1971, 1972, 1973) et de Halliday (1973, 1975), et aux États-Unis autour des écrits de Goodman et Goodman (1979), de Goodman (1969, 1982a et b) et de Smith (1971, 1973, 1975), le ministère de l’Éducation a adopté sa plus importante réforme depuis la réforme Parent  [1] qui lui avait donné naissance à la fin des années 1960 (Milot, 1979 ; Pagé, 1978 ; Pagé, Primeau et Vézina  [2], 1978 ; Pierre, 1984 ; Pierre-Joly  [3], 1974a, 1978a, b et c, 1981 ; Primeau, 1979a, 1979b, 1984).

Fondements historiques et épistémologiques

De l’alphabétisation à la littératie

Lorsque s’amorce le XXe siècle, l’éducation est encore le fait d’une minorité et les taux d’alphabétisation varient considérablement selon les pays, les régions et les groupes sociaux (Cipolla, 1969). La scolarisation et l’alphabétisation contribuent peu à l’amélioration des conditions de vie de la classe ouvrière et ont peu d’effets sur la mobilité sociale. Si les taux de fréquentation scolaire augmentent, l’école continue de reproduire les disparités liées à la classe sociale, à l’origine ethnique, à la langue, à la culture, à la religion et au sexe (Chartier, 1992 ; Chartier et Hébrard, 1994, 2000 ; Furet et Ossouf, 1977 ; Graff, 1981 ; Hébrard, 1991 ; Greer, 1978 ; Unesco, 1957 ; Venezky, 1991).

Jusqu’aux grandes réformes des années 1970, malgré le rehaussement des niveaux de scolarisation, les pratiques d’enseignement aux cycles des apprentissages fondamentaux (Hébrard, 1988a et b, 1996 ; Smith, N.B., 1986) changent peu. Les premières années de scolarisation visent toujours l’alphabétisation de base et les débats qui ont entouré les premières méthodes d’enseignement divisent toujours les enseignants (Chall, 1967 ; Feitelson, 1988 ; Flesch, 1955 ; Gray, 1956 ; Hébrard, 1996 ; Resnick et Resnick, 1977). On considère encore l’apprentissage de la lecture et de l’écriture comme un apprentissage technique et l’on croit toujours qu’une fois les apprentissages de base maîtrisés, les enfants sauront lire et écrire. Après les premières années d’école, la lecture n’est plus enseignée pour elle-même, mais elle est vue comme un outil qui doit permettre d’aiguiser l’esprit, de raffiner la langue et la culture et d’acquérir les valeurs morales qui soudent la société (Chartier et Hébrard, 2000).

Ces approches d’enseignement centrées sur la littératie culturelle sont calquées sur le modèle d’éducation humaniste qui jusqu’alors avait été réservé aux enfants de l’élite (Chartier, Julia et Revel, 1976 ; Quéniart, 1997). Si elles forment les fonctionnaires dont les administrations publiques ont besoin, elles ne permettent pas aux enfants de la bourgeoisie montante de s’approprier les nouvelles fonctions que l’écrit exerce dans les emplois de techniques spécialisées, de commerce et d’administration que leurs parents leur destinent. Elles sont, par ailleurs, trop éloignées des réalités que vivent les enfants de milieux populaires pour les motiver à rester à l’école. La majorité d’entre eux ne parlent pas la langue de l’école et la plupart ignorent tout de la littérature. Ils sortent de l’école sans savoir effectuer les tâches de lecture et d’écriture qu’ils doivent exécuter dans la vie de tous les jours et dans les emplois d’ouvriers spécialisés dont les industries d’après guerre ont de plus en plus besoin (Gray, 1956 ; Hébrard, 1996 ; Ravitch, 2000 ; Resnick et Resnick, 1977 ; Venezky, 1991).

Former des lecteurs fonctionnels

Les grandes réformes qui vont transformer les systèmes d’éducation dans les années 1970 et 1980 reposent sur une idée centrale : former des jeunes qui seront fonctionnels à la sortie de l’école secondaire, c’est-à-dire des jeunes qui pourront répondre aux nouvelles exigences du marché du travail et s’intégrer dans les sociétés maintenant industrialisées (Resnick et Resnick, 1977). L’idée d’axer l’enseignement de la lecture sur les habiletés  [4] requises pour pouvoir utiliser l’écrit dans la vie courante et au travail est portée par le concept de littératie fonctionnelle ou functional literacy qu’on traduit à tort en français par alphabétisation fonctionnelle (Gray, 1956 ; Pierre, 1991, 1992a, 1994b, 1996b, 2000, 2003a).

L’étymologie des concepts « alphabétisation » et « littératie » [5] est, en effet, différente. Le concept d’alphabétisation, qui est formé à partir des deux premières lettres de l’alphabet grec, alpha et bêta, fait référence aux processus par lesquels on transmet la connaissance des « lettres de l’alphabet », dont l’étymologie est gramma. Alphabétiser, au sens restreint du terme, c’est effectivement enseigner les gramma dont les règles d’utilisation sont déterminées par la grammaire. Au sens large, alphabétiser, c’est enseigner les règles du code orthographique, quel que soit le système d’écriture  [6]. Quant au concept de littératie, il fait référence à la maîtrise des connaissances liées à la littérature prise en son sens large, ce que Cicéron (106-43 av. J.-C.) appelait la sciencia litteratura, qu’on pourrait traduire par l’ensemble des connaissances sur les textes et portées par les textes, ce que les historiens français de l’écrit appellent la culture écrite (Chartier et Hébrard, 2000). Littératie dérive donc de littérature qui dérive de litterae « lettres », mais dans le sens de «avoir des lettres» ou être cultivé. C’était pour marquer la différence entre ceux qui étaient simplement alphabétisés et qui décodaient avec peine et les personnes cultivées qui atteignaient les niveaux les plus élevés de maîtrise de la langue, aussi bien orale qu’écrite, que Cicéron avait introduit le concept de litteratius (Ong, 1982 ; Pattison, 1982), trois cents ans après les débuts de l’alphabétisation en Grèce et sept cents ans après la naissance du premier alphabet.

C’est également pour marquer cette différence que le concept de literacy a été intégré en anglais au XIXe siècle au moment où l’on a commencé à enseigner la littérature au primaire (Smith, F., 1986  [7] ; Venezky, 1991). C’est à cette époque que les approches fonctionnelles et les méthodes logographiques ont fait leur apparition aux États-Unis, importées d’Allemagne par Horace Mann, un sénateur progressiste (Mathews, 1966 ; Smith, N.B., 1986). William Gray (1956)  [8] qui a le premier défini le concept de littératie fonctionnelle, en 1956, était lui-même l’un des défenseurs des méthodes logographiques (Goodman, Smith, Meredith et Goodman, 1987). Le choix qu’il a fait de parler de littératie voulait rompre avec la vision restreinte de l’enseignement de la lecture que véhicule le concept d’alphabétisation et les clivages sociaux qu’entraînait la distinction entre les alphabétisés et les lettrés depuis le Moyen Âge, alors que les niveaux élevés de littératie étaient le privilège exclusif des clercs de l’Église et de l’aristocratie (Julia, 1981 ; Venezky, 1991 ; Verger, 1993). Dans son livre, Gray écrit ainsi que l’emploi du concept de littératie fonctionnelle était au coeur des discussions qui, depuis la fin du XIXe siècle, tentaient de trouver une réponse aux efforts entrepris pour hausser les niveaux de littératie des classes populaires, face aux échecs des approches traditionnelles d’alphabétisation. La définition qu’il donne de la littératie fonctionnelle dans ce livre voulait, par ailleurs, rendre compte du fait que l’écrit avait évolué et que savoir lire dans les sociétés industrialisées n’avait plus la même signification que savoir lire dans les sociétés agricoles dominées par l’oralité (Guglielmo et Chartier, 1995 ; Pierre, 1991 ; Resnick et Resnick, 1977 ; Venezky, 1991). Cette définition qui a été reprise par l’Unesco en 1965 (De Clerck, 1993 ; Pierre, 1994b, 1996b), lors du lancement du Programme expérimental mondial d’alphabétisation (PEMA), fixait de nouveaux critères de compétences en lecture en liant la lecture à la compréhension :

Une personne a atteint un niveau fonctionnel d’alphabétisation lorsque sa maîtrise de l’écrit lui permet de réaliser les tâches qui requièrent normalement l’utilisation de l’écrit dans sa société d’appartenance.

Gray, 1956, p. 24

Pour compter parmi les alphabétisés, il ne suffirait plus dorénavant de décoder péniblement, mais il faudrait comprendre ce qu’on lit (Pierre, 1992a et b). Les statistiques de l’époque (Unesco, 1957) montraient qu’effectivement une forte proportion d’adultes qui avaient participé aux programmes d’alphabétisation ne comprenaient pas ce qu’ils lisaient et redevenaient analphabètes après quelques années  [9]. Le même phénomène était observé dans les pays développés avec des adolescents qui quittaient l’école secondaire.

Cette définition rétrécissait, toutefois, la portée du concept de littératie (Pierre, 1991, 1996b, à paraître). Le niveau de littératie fonctionnelle se limite, en effet, à la capacité de lire des textes fonctionnels, c’est-à-dire, comme le précisait Gray (1956), des textes qui portent sur des contenus familiers, écrits dans la langue d’usage et dont la compréhension est nécessaire pour fonctionner dans la vie quotidienne et au travail, sous-entendu dans les sociétés industrialisées du milieu du XXe siècle. En introduisant le concept de littératie fonctionnelle, l’objectif de Gray était de rehausser le niveau de littératie de base de la majorité de la population en supposant que tous ne pouvaient atteindre les niveaux supérieurs de littératie culturelle.

L’égalité des chances pour tous

La guerre de l’espace, avec ses promesses de développement et l’arrivée au pouvoir de John F. Kennedy, avec ses visions sociales démocrates, apportent un nouveau vent de démocratisation dans l’école américaine qui se répand dans tout l’Occident. En 1967, Lindon B. Johnson, qui succède à Kennedy, promulgue la loi de « L’égalité des chances pour tous » (Mosteller et Moynihan, 1972) qui amorce des réformes majeures dans le système d’éducation américain. Le premier pas vers ces réformes est le projet Head Start dont l’objectif est de compenser les déficits de développement des enfants de milieux défavorisés, particulièrement des enfants noirs, par des programmes d’éducation préscolaire. Le projet Follow Through poursuit les mêmes objectifs au primaire (Jensen, 1969 ; Pierre-Joly, 1974b).

L’année 1967 est également marquante pour le Québec. L’exposition universelle qui se déroule à Montréal ouvre une fenêtre sur le monde et sur l’avenir. Le système d’éducation québécois se met enfin à l’heure de la modernité en adoptant le rapport Parent (Gouvernement du Québec, 1964) qui redéfinit les finalités de l’éducation, mais aussi les structures de l’éducation. Le Québec venait de se doter d’un ministère de l’Éducation dont l’honorable Paul Gérin-Lajoie était le premier titulaire. Le rapport Parent manifeste la volonté de démocratiser et de consolider le système d’éducation pour faire de la société québécoise une société plus égalitaire et plus instruite (Lessard et Tardif, 1996). En 1970, dans la foulée des projets Head Start et Follow Through, le projet Opération Renouveau lancé par la Commission des écoles catholiques de Montréal  [10] donne naissance aux maternelles 4 ans et 5 ans plein temps dans les milieux défavorisés, visant d’abord l’élaboration d’un programme de langage pour compenser les déficits linguistiques des enfants de milieux défavorisés (Bonnier-Tremblay, Chapleau et Pierre-Joly, 1974 ; Pierre-Joly, 1975, 1978a, b et c, 1981).

C’est à cette époque que sont introduites les idées qui serviront de base à la grande réforme de 1979 (Gagnon, 2001 ; Gagné et Roy, 1989 ; Pagé, 1978 ; Pagé, Primeau et Vézina, 1978 ; Pierre-Joly, 1978a et b). C’est aussi à cette époque que nous introduisons le concept de littératie en français dans le cadre d’un projet de recherche sur l’apprentissage précoce de la lecture, mais les résistances à son introduction empêcheront sa généralisation jusqu’à nos jours (Pierre et Lachance, 1985 ; Pierre, Giasson, Baillargeon et Thériault,1984 ; Giasson, Baillargeon, Pierre et Thériault, 1985 ; Pierre, 1991, 1992, 2003a). Pourtant, les distinctions qu’il introduisait par rapport à l’alphabétisation étaient l’un des fondements des approches whole-language  [11] que le ministère de l’Éducation allait imposer quelques années plus tard. Un véritable mouvement idéologique allait peu à peu se créer autour de cette approche d’enseignement qui intégrait les perspectives de la linguistique fonctionnelle, de la psycholinguistique et de la sociolinguistique (Weaver, 1980, 1994). Adhérant totalement à ce nouveau courant de pensée, le ministère de l’Éducation rejette toutes les méthodes qui étaient en vigueur et entreprend l’une des réformes de l’éducation les plus marquantes de son histoire. Grâce à la mise en place du programme de perfectionnement des maîtres en français (PPMF) dont le mandat est la formation à l’application du nouveau programme (Gagné et Roy, 1989), il s’assure que tous les enseignants en exercice abandonnent les méthodes « centrées sur le code » et appliquent dorénavant la seule approche qu’il impose à travers le nouveau programme : l’approche whole-language (Chamberland, 1979 ; Primeau, 1979b).

Grâce au contrôle qu’il exerce sur les facultés des sciences de l’éducation qu’il a mis en place à la fin des années 1960, il s’assure également que les futurs enseignants reçoivent tous la même formation, quelle que soit l’université qu’ils fréquentent. Le virage épistémologique est complété à travers le contrôle que le ministère de l’Éducation exerce finalement sur les maisons d’édition qui sont obligées d’appliquer les programmes ministériels pour que leurs méthodes d’enseignement soient accréditées :

Le ministère de l’Éducation présentera aux maisons d’édition des devis de production de matériel didactique pour l’enseignement du français en concordance avec les orientations et les exigences du programme.

Pelletier, 1979  [12]

Tout matériel [didactique] qui serait structuré à partir de préoccupations relatives aux faits de langue (c’est-à-dire dans lequel les textes seraient conçus ou choisis expressément en vue d’introduire, à l’intérieur d’une démarche progressive, telles ou telles graphies) se trouverait automatiquement exclus [sic]. Cette position clairement exprimée dans le texte du programme [...].

Chabot, 1979

Fondements scientifiques

Vingt ans plus tard : les nouveaux enjeux

En 1996, le gouvernement québécois enclenche des États généraux de l’éducation. Un constat s’impose. Malgré les réformes de structures qui ont suivi le rapport Parent (Gouvernement du Québec, 1964) et les réformes de curriculum introduites en 1979, les performances de l’école québécoise placent toujours le Québec derrière les provinces majoritairement anglophones, quand on considère le pourcentage de la population qui accède au niveau de littératie fonctionnelle  [13] le plus élevé (Statistiques Canada, 1996 ; Pierre, 2000). Au Québec, les francophones affichent des résultats plus faibles que les anglophones et même que les allophones. Seuls les francophones hors Québec obtiennent des résultats inférieurs. Des statistiques du ministère de l’Éducation (Gouvernement du Québec, 1998) montrent, par ailleurs, que les enfants qui fréquentent les écoles francophones ont plus de risques de ne pas décrocher leur diplôme secondaire que les enfants qui fréquentent des écoles anglophones. Ce que ces statistiques montrent de plus révélateur, c’est que l’âge auquel les enfants accèdent au secondaire est la variable la plus discriminante. Seulement 20 % des élèves qui sont admis au secondaire après l’âge de 13 ans, soit après avoir redoublé au primaire, obtiennent leur diplôme secondaire en cinq ans alors que c’est le cas de 74 % des élèves qui y entrent à l’âge de 12 ans.

Même si, à l’échelle internationale, les jeunes d’aujourd’hui lisent en moyenne plus et mieux que leurs aînés, comme le montre l’étude de l’OCDE, Statistiques Canada et l'Unesco (1995), le problème de l’analphabétisme fonctionnel ou de l’illettrisme, comme on préfère l’appeler aujourd’hui, est toujours aussi important sinon plus important. Cela s’explique par le lien historique qui s’est construit entre l’évolution de la littératie et le développement des sociétés. L’accélération du développement économique et technologique qui a marqué le XXe siècle a provoqué une accélération parallèle du rehaussement des niveaux de littératie qui, en retour, a exercé des pressions sur l’école pour rehausser de plus en plus les niveaux de scolarisation (Hébrard, 1991 ; Pierre, 1991, 1994a et b, 1996b, 2000 ; Venezky, 1991). Alors qu’au début du XXe siècle, le niveau de littératie de base correspondait à la capacité de signer son nom, et le niveau moyen équivalait à une quatrième année primaire, l’OCDE, Statistiques Canada et l’Unesco (1995) distinguent aujourd’hui cinq niveaux de littératie, le niveau de base étant devenu l’équivalent de la quatrième année primaire auquel accède maintenant 95 % et plus de la population d’Amérique du Nord et le niveau moyen, l’équivalent de l’année du secondaire correspondant à l’âge de la scolarisation obligatoire.

L’impact du rehaussement des niveaux de littératie se répercute à tous les niveaux scolaires. Les enfants d’aujourd’hui doivent non seulement atteindre des niveaux de littératie plus élevés à la fin de la scolarisation, mais ils doivent aussi apprendre à lire et à écrire plus rapidement. Ainsi, les niveaux de compétence en lecture que le curriculum 2000 (Gouvernement du Québec, 2001a) établit pour la fin du premier cycle (2e année primaire) correspondent à ce qu’on attendait de la majorité de la population, au milieu du XXe siècle, après quatre années de scolarisation, qu’on définissait comme le niveau de littératie fonctionnelle à l’époque. Plus que jamais, la réussite éducative pour tous, dont le ministère de l’Éducation a fait son objectif pour la réforme 2000, repose sur la réussite de l’apprentissage de la lecture en première année. Cette certitude est fondée sur de nombreuses recherches qui montrent la relation réciproque entre la réussite scolaire et l’apprentissage de la lecture, ce qu’on appelle maintenant, à la suite de Stanovich (1986 ; Cunningham et Stanovich, 1997), l’effet Mathieu ou le cercle vicieux de l’illettrisme.

Une étude menée sur 39 pays par l’Association internationale pour l’évaluation des apprentissages (IEA) apporte de nouveaux appuis à cette thèse (Lafontaine, 1996). Le premier constat qui se dégage des résultats de cette étude est que, contrairement à la croyance populaire, la majorité des enfants ne sont pas des lecteurs compétents à la fin du premier cycle du primaire. En fait, 32 % des enfants ne savent pas encore lire à 9-10 ans et seulement 25 % peuvent être considérés comme des lecteurs compétents  [14], alors que 50 % ne le sont toujours pas à 14-15 ans. Mais ce qui est le plus frappant dans cette étude et qui soutient l’analyse de Stanovich (1986), ce sont les disparités extrêmement importantes entre les enfants d’un même groupe d’âge. Ces disparités sont telles que, quand on compare les deux groupes d’âge touchés par l’étude (figure 1), on voit des chevauchements importants. Ainsi, 68 % seulement des enfants de 9-10 ans se situent au niveau rudimentaire qui correspond à ce que le ministère de l’Éducation établit comme le niveau de compétence à atteindre à la fin du premier cycle du primaire (Gouvernement du Québec, 2001a, p. 75). Parmi ces 68 %, 55 % atteignent le niveau élémentaire et 43 % le niveau intermédiaire. Chez les 14-15 ans, le niveau rudimentaire est atteint par 97 % des élèves, le niveau élémentaire par 81 %, mais le niveau intermédiaire n’est atteint que par 68 % des élèves. Autrement dit, une proportion non négligeable d’enfants de 14-15 ans lit moins bien que ses benjamins de 9-10 ans, et une proportion importante ne lit pas mieux que des enfants de 9-10 ans. Si l’on considère seulement le niveau intermédiaire, le gain entre la quatrième année du primaire et la quatrième année du secondaire n’est que de 25 %.

Figure 1

Niveaux de compétence des lecteurs de 9-10 ans et de 14-15 ans

Niveaux de compétence des lecteurs de 9-10 ans et de 14-15 ans

Légende. NL (non-lecteur), R (rudimentaire), E (élémentaire), In (intermédiaire), C (compétent), A (avancé).

Note. Les pourcentages sont emboîtés : le niveau élémentaire inclut les niveaux intermédiaire, compétent et avancé.

-> See the list of figures

Considérant que ce qui est mesuré dans cette étude, comme dans toutes les études qui mesurent les taux et les niveaux de littératie, c’est la compréhension, doit-on supposer que, pour améliorer les performances, il faille investir uniquement dans l’enseignement de la compréhension ? C’est l’analyse qu’on faisait dans les années 1970 et c’est cette analyse qui a conduit à rejeter les approches centrées-sur-le-code pour privilégier une approche whole-language. Or, les statistiques que nous venons de rapporter jettent des doutes sur l’efficacité de cette stratégie et ces doutes sont renforcés par les avancées de la recherche qui ont été extrêmement importantes depuis vingt ans (Adams, 1990 ; Anderson, 1988 ; Barr, Kamil et Mosenthal, 1984 ; Barr, Kamil, Mosenthal et Pearson, 1991 ; Fayol, David, Dubois et Raymond, 2000 ; Kamil, Mosenthal, Pearson, Barr, 2000 ; Morais, 1994 ; Morais et Robillart, 1998). Ainsi, cette analyse ne tient pas compte des 32 % d’enfants qui ne savent pas encore lire en quatrième année et elle ne repose sur aucune donnée concernant le niveau de lecture des enfants qui ont été soumis à ces tests. Les résultats que rapporte Lafontaine (1996) reflètent-ils uniquement le niveau de compréhension des enfants ou ne sont-ils pas aussi et peut-être davantage, dans le cas des lecteurs de niveaux rudimentaire et élémentaire, le reflet de leur niveau de lecture ?

Sans remettre en question l’importance de rehausser les niveaux de littératie et de renforcer l’enseignement de la compréhension, comme l’ont fait valoir nos précédentes publications (Pierre, 1981, 1983, 1990b, 1992a et b, 1994a ; Pierre, Bourcier, Hudon et Noreau, 1990 ; Losier et Pierre, 1990 ; Pierre et Lavoie, 1992 ; Vargas et Pierre, 1990 ; Ziarko et Pierre, 1990, 1992, 1993), le but de ce numéro est de faire le point sur cette confusion fondamentale entre lecture et compréhension qui a orienté tant les recherches que les pratiques d’enseignement depuis vingt ans. Ce but s’est imposé après l’adoption du curriculum 2000 qui a maintenu le modèle whole-language, sans aucune forme d’analyse, d’évaluation ou de regard critique sur ces vingt ans et dans l’ignorance la plus totale des débats qui ont entouré cette approche dans les autres pays et des recherches qui l’ont remise en question.

L’approche whole-language en question

Comme le souligne Goodman lui-même (1987, p. 390), le programme anglais québécois d’enseignement de la lecture et de l’écriture de 1979 puisait ses sources dans le modèle whole-language que lui et Frank Smith avaient développé à la fin des années soixante (Goodman, 1967, 1969, 1979 ; Smith, 1971, 1973, 1975). Même si cela est moins explicite, c’est tout de même ce modèle, vulgarisé par Foucambert (1976), en France et par Giasson et Thériault, au Québec (Giasson et Thériault, 1983 ; Giasson, 1995) qui sous-tendait le programme en français (Gouvernement du Québec, 1979, 1983b). Malgré certains changements et certains ajouts, c’est encore sur ce modèle qu’est fondé le curriculum 2000. Ainsi, hormis quelques différences locales, le modèle québécois en vigueur depuis 25 ans s’appuie sur les mêmes fondements scientifiques, privilégie les mêmes objectifs et les mêmes stratégies d’apprentissage et, surtout, il est fondé sur les mêmes croyances et sur les mêmes mythes que l’approche whole-language, comme le révèle l’analyse des documents qui ont présidé ou qui ont contribué à l’implantation du programme de 1979 et la comparaison avec leurs sources de références  [15].

  • Les enfants apprennent à lire comme ils apprennent à parler, naturellement et facilement … en lisant :

    Un programme fondé sur une approche whole-language s’appuie sur l’un des fondements de l’apprentissage du langage : on apprend à parler en parlant, à comprendre le langage oral en écoutant, à écrire en écrivant et à lire en lisant.

    Goodman, Smith, Meredith et Goodman, 1987, p. 7

    C’est en lisant qu’on devient bon lecteur. [...]

    Tout au long de l’apprentissage, l’habileté à lire grandit par la lecture de textes signifiants et multiples, à caractère littéraire ou utilitaire dont la longueur et la complexité vont croissant.

    Gouvernement du Québec, 1979, p. 23
  • Lire, ce n’est pas décoder, c’est comprendre. Dès lors, l’objectif des programmes et des méthodes d’enseignement doit être l’enseignement de la compréhension :

    La compréhension est à la fois l’objectif immédiat et l’objectif ultime de l’enseignement de la lecture. L’enseignement doit être centré sur la compréhension. Aussi bien l’enseignant que l’apprenant doivent en être convaincus. Toutes les activités d’apprentissage doivent être conçues en fonction de cet objectif : construire la signification.

    Goodman, 1982a, p. 28

    Lire, c’est comprendre ce que l’auteur d’un livre a à vous dire […].

    Giasson, 1995, p. 152

    L’objet de la classe de français est la production et la compréhension de discours signifiants et les conditions dans lesquelles ces opérations s’effectuent normalement.

    Gouvernement du Québec, 1979, p. 7
  • L’enseignement du décodage n’est pas nécessaire. Les enfants apprennent à lire par la reconnaissance globale des mots, comme les lecteurs adultes compétents.

    La reconnaissance spontanée des mots repose sur la reconnaissance de la forme globale du mot à partir de traits visuels distinctifs et non sur la synthèse des informations extraites pour chaque lettre ou groupe de lettres. La reconnaissance spontanée des mots est la méthode « naturelle » ou « normale » que nous utilisons couramment pour lire les mots. C’est aussi la méthode que les enfants utilisent pour reconnaître leurs premiers mots avant l’enseignement formel de la lecture.

    Smith, 1972, p. 1080

    Nous savons tous que les premiers mots qu’un enfant lit sont appris par un processus de globalisation… Il est évident que l’habileté à identifier les mots de façon instantanée à partir d’un minimum d’indices graphiques est une façon vraiment plus économique que l’identification du mot par ses parties.

    Gouvernement du Québec, 1983a, p. 5
  • Quand un enfant ne reconnaît pas un mot globalement, il peut appliquer différentes stratégies dont celles de sauter le mot et d’essayer de le deviner. Les stratégies de décodage ne doivent être considérées que comme des stratégies de dépannage à n’utiliser qu’en dernier recours.

    La lecture est un processus sélectif qui utilise partiellement un nombre minimum d’indices langagiers disponibles, sélectionnés à partir des données perceptives, en fonction des attentes du lecteur [...] Dit plus simplement, la lecture est un processus de devinettes psycholinguistiques [...]. L’habileté à anticiper l’information qui n’a pas encore été perçue est vitale dans l’activité de lecture [16].

    Goodman, 1967, p. 127

    Que se passe-t-il quand un enfant rencontre un mot qu’il ne reconnaît pas du premier coup d’oeil? Il fait ce que ferait un lecteur adulte en pareille circonstance, soit il saute le mot et poursuit sa lecture, soit il tente de le deviner. À moins qu’il ne soit surveillé par un adulte, il n’essaiera qu’en dernier recours de décoder le mot lettre par lettre.

    Smith, 1972, p. 1081

    Concrètement, le lecteur commence par sélectionner des indices qui lui sont familiers, par exemple des mots connus globalement ou des indices graphiques. En s’appuyant sur ce qu’il a échantillonné, il fait une prédiction au sujet des autres mots ; le contexte l’aidera alors à réduire les possibilités de choix. Pour confirmer son hypothèse, il se demandera si la phrase produite respecte la syntaxe et le sens de la phrase, si le mot prédit correspond aux relations entre les lettres et les sons qu’il attendait. Si la confirmation n’a pas lieu, il cherchera d’autres indices et modifiera ses prédictions.

    Giasson, 1995, p. 154
  • Les connaissances sur le code orthographique sont trop complexes et trop imprévisibles pour être enseignées. Trop insister sur le décodage peut créer des difficultés d’apprentissage ; il faut apprendre aux enfants qui s’appuient trop sur le décodage à anticiper et à reconnaître globalement les mots.

    Il y a deux raisons pour ne pas enseigner le décodage [...]. La première est que les règles de décodage sont trop complexes et non fiables [...]. La plupart du temps, pour les appliquer, il faut déjà comprendre les mots et connaître leur fonction syntaxique dans la phrase [...]. La seconde est que décoder les mots est la stratégie que les lecteurs compétents utilisent en dernier recours.

    Smith, 1973, p. 186

    La complexité des relations graphèmes-phonèmes est de nature à renforcer l’idée qu’il est préférable d’aborder la lecture par des unités signifiantes plutôt que par l’analyse du mot.

    Giasson et Thériault, 1983, p. 237

    Le lecteur [en difficulté] du premier profil [centré exclusivement sur le code] utilise à l’excès la stratégie graphophonétique (sans la maîtriser). Il n’a pas saisi que lire consiste à chercher du sens. Il ne vérifie donc pas ce qu’il déchiffre par le sens. On peut le qualifier de « perroquet » ou de Phénicien  [17] […].

    van Grunderbeeck, 1994, p. 99

    Pour ce type d’élève (mauvais déchiffreur), il faudra mettre de côté, pendant un certain temps, les activités visant l’amélioration du déchiffrage. Il convient de privilégier les activités axées sur la recherche du sens.

    Ibid., p. 137

Ce modèle confond lecture et compréhension et réduit les processus de lecture à la reconnaissance globale de mots en contexte en supposant qu’un mot reconnu est un mot compris. Dans la visée de ce modèle, les processus de traitement des mots sont limités à la reconnaissance des lettres ou des syllabes initiales et n’interviennent que si les stratégies d’anticipation (stratégies contextuelles, sémantiques, syntaxiques) n’ont pas permis la reconnaissance globale du mot. On suppose, par ailleurs, qu’il n’est pas nécessaire de les enseigner, mais que les enfants les acquerront naturellement si on leur permet de vivre des situations de lecture significatives et variées et d’exercer les stratégies d’anticipation. Ce principe se traduit par le fait que, dès les premières leçons, les enfants sont exposés à des textes qui ont tous en commun de traiter de thèmes rattachés à leur vécu, ce qui stimule leur intérêt. Toutefois, ces textes varient en longueur et en complexité, ce qui complique l’apprentissage du décodage.

Ces croyances et ces principes didactiques fondent l’approche whole-language que Goodman résume dans cette citation qui, depuis la première édition de ce livre en 1970, posait déjà les principaux ingrédients de la réforme du curriculum 2000 :

Un curriculum [fondé sur une approche whole-language] est intégré, global et calqué sur l’apprentissage en milieu naturel. Il intègre les disciplines traditionnelles et les matières scolaires et les organise autour de situations et de problèmes à résoudre tirés de la vie courante. Il met l’accent sur le langage dans sa globalité qu’il fait vivre aux enfants à travers des situations réelles de communication et à travers des pratiques de littératie significatives plutôt que de le fragmenter en habiletés isolées dans des exercices hors contexte […].

Goodman et al., 1987, p. 7

Même s’il fait une place plus grande au décodage, le modèle de lecture sous-jacent au curriculum 2000 reste fondamentalement le modèle whole-language. En maintenant ce modèle, le Québec s’isole pourtant de la plupart des pays qui l’avaient adopté et qui le rejettent aujourd’hui en tenant compte des recherches qui en ont invalidé les fondements (Adams, 1990 ; Fayol, David, Dubois et Rémond, 2000 ; Gombert, Colé, Valdois, Goigoux, Mousty et Fayol, 2000 ; Harrisson, 2000 ; Morais, 1994 ; Morais et Robillart, 1998 ; Wilkinson, Freebody et Elkins, 2000).

Aux États-Unis, le débat des méthodes (Chall, 1967) a ressurgi dès le début des années 1990 (Adams, 1990) après, notamment, la décision de l’État de Californie, où elle était née, d’abandonner l’approche whole-language et d’adopter une approche équilibrée (balanced reading approaches) dans laquelle l’enseignement systématique du décodage est réintégré (Gambrell, Morrow, Neuman, Pressley, 1999 ; Neuman et Dickinson, 2001 ; Pressley,1998 ; Thompson et Nicholson, 1999). Cette décision faisait suite à la publication des résultats nationaux en lecture par le NAEP  [18] qui situaient la Californie au 38e rang sur 41 États participants en 1992 et au dernier rang en 1994 (Campbell, Donahue, Reese et Phillips, 1996). S’appuyant sur l’analyse des approches d’enseignement rapportées par les enseignants, le California Task Force on Reading (1995) attribuait la faiblesse de ces résultats au fait que la Californie était l’état américain où les approches globales centrées-sur-le-sens étaient les plus populaires avec 40 % des enseignants qui disaient utiliser l’approche whole- language et 49 % l’approche litterature-based, une variante de l’approche whole- language. Seulement 11 % des enseignants californiens rapportaient appliquer une approche dite phonics qui, aux États-Unis, englobe l’ensemble des approches formelles centrées-sur-le-code. Dans les débats et les recherches qui suivirent, la Californie devint la référence pour illustrer l’inefficacité des approches de type whole-language.

Lecture et compréhension : deux processus distincts

Le premier postulat sur lequel Goodman et Smith ont élaboré leur modèle est que la lecture découle de la compréhension. Pour démontrer ce postulat, Goodman a emprunté une méthodologie qui avait déjà cours à l’époque et qui consistait à faire lire à voix haute des textes extraits de manuels scolaires à des enfants de différents âges (Goodman, 1967, 1969 ; Goodman et Goodman, 1977). C’est à partir de l’étude des erreurs commises par les enfants en cours de lecture qu’il a dégagé le concept de « devinettes psycholinguistiques » (Goodman, 1967) qui est central dans son modèle. Ce concept voulait traduire l’observation qu’il faisait alors que ces erreurs ou ces méprises, comme il les appelait, n’étaient pas le fait du hasard, mais qu’elles traduisaient les processus et les connaissances utilisés par les enfants pour reconnaître les mots. L’intuition de Goodman n’était pas complètement fausse. Le problème, c’est qu’il confondait la lecture et la compréhension et que les méprises étaient induites par sa méthodologie qui consistait à demander aux enfants de lire à voix haute, seuls et sans aide, un texte dont le niveau de difficulté devait être légèrement au-dessus de leur niveau de compréhension et de lecture autonome pour provoquer des méprises. En outre, la consigne précisait de façon explicite que s’ils rencontraient un mot qu’ils ne pouvaient lire, les enfants devaient essayer de le deviner et s’ils ne pouvaient le deviner, ils pouvaient le laisser passer et continuer leur lecture, comme on l’a montré à faire depuis vingt ans aux enseignants québécois.

Comment peut-on comprendre un texte quand on ne sait pas lire plusieurs des mots et comment peut-on produire des anticipations en lisant un texte qu’on ne comprend pas … sinon en inventant ? Par ailleurs, dans la mesure où les sujets avaient accès à l’ensemble du texte, ils pouvaient autant s’appuyer sur la suite du texte que sur le texte qui précédait pour deviner les mots qu’ils ne parvenaient pas à lire. Dans ce cas, ce n’était pas des anticipations qu’ils faisaient mais des inférences  [19], et ces inférences pouvaient être construites a posteriori. L’anticipation est un cas particulier d’inférences où le lecteur n’a accès qu’à l’information qui précède le mot à lire (Pierre, 1981). Or, lorsque les chercheurs ont tenu compte de cette distinction fondamentale dans les recherches, d'une part, en contrôlant les différentes variables qui peuvent influencer l’anticipation et, d'autre part, en faisant varier les caractéristiques du contexte linguistique et les caractéristiques des lecteurs, ils ont trouvé des effets inverses à ceux prévus par Goodman : ce ne sont pas les lecteurs experts, mais les lecteurs faibles qui sont le plus influencés par le contexte et, donc, qui tentent le plus de deviner les mots (Perfetti, 1999 ; Pierre, 1996a ; Sprenger-Charolles, 1986 ; Stanovich, 1991, 1998, 2000). Pour Stanovich, ces résultats s’expliquent par le fait que les lecteurs experts maîtrisant les mécanismes de décodage, il est plus facile et plus économique pour eux de décoder les mots que de tenter de les deviner avec le risque de devoir modifier leurs hypothèses et de recommencer à lire. À l’inverse, les lecteurs faibles qui ne maîtrisent pas le décodage n’ont pas d’autre choix que d’essayer de deviner les mots, et pour cela, ils s’appuient sur les seules connaissances dont ils disposent, leurs connaissances sur le monde et les connaissances qu’ils peuvent tirer du contexte linguistique, c’est-à-dire des mots et des phrases qui précèdent.

Pour McQuillan (1998), on ne peut considérer que ces recherches invalident le modèle de Goodman et de Smith parce qu’elles reposent sur une conception limitée de ce qu’on peut considérer comme un contexte susceptible de faciliter les anticipations. Pour lui, comme pour Goodman et Smith, les recherches expérimentales placent les lecteurs dans une situation qui n’est pas naturelle parce qu’elles les forcent à se concentrer sur l’identification des mots plutôt que de faire ce que fait, selon lui, un lecteur en situation normale, c’est-à-dire chercher à construire la signification. En outre, avec leur définition limitée du contexte, ces recherches ne donnent pas suffisamment d’indices aux lecteurs sur la signification des mots à anticiper. Autrement dit, il n’y a qu’en situation de lecture de textes signifiants que l’anticipation fonctionne et le rôle de l’anticipation n’est pas d’aider à identifier les mots mais à construire la signification.

C’est ce que nous avons voulu vérifier dans une première recherche auprès d’enfants de troisième et de sixième année du primaire, des enfants qui, en principe, maîtrisaient les mécanismes de décodage (Pierre, 1981, 1983). Les résultats ont confirmé que l’anticipation sémantique joue un certain rôle dans la compréhension du texte tout en montrant que c’est loin d’être un processus automatique. Ainsi, même pour un texte familier, les taux d’anticipation du mot exact ne dépassaient pas les 40 % en sixième année et les 15 % en troisième année. Lorsque l’on considérait les anticipations sémantiquement acceptables, ce que Goodman appelle des méprises, les pourcentages ne dépassaient toujours pas les 76 % en sixième année et les 32 % en troisième année. Par ailleurs, l’effet fortement significatif des connaissances antérieures (p < 0,001), les corrélations positives et fortement significatives (variant de p < 0,01 à p < 0,001) entre les anticipations et les résultats aux tests de compréhension, les effets de la familiarité du texte et du cadre de référence introduit avant le texte confirmaient que l’anticipation est un processus de compréhension et non un processus de lecture, tout en montrant que la compréhension ne peut être prise pour acquise chez des enfants du primaire.

Autrement dit, l’argument de McQuillan ne tient pas. Faire lire un texte dans une situation naturelle ne favorise pas plus la production d’anticipations. Non seulement cette recherche venait-elle appuyer des dizaines de recherches menées en laboratoire sur les limites de l’anticipation, mais elle mettait au jour une faille fondamentale dans le modèle de Smith et de Goodman et dans les approches whole- language qui s’en sont inspirées et qui prennent la compréhension pour acquis. Dans la mesure où elle ne fonctionne que dans des situations bien précises, dans un nombre limité de cas et seulement avec certaines catégories de lecteurs, l’anticipation ne peut être considérée comme un processus suffisant ni même nécessaire à la lecture. La conclusion à laquelle nous menait cette recherche, il y a déjà vingt ans, est que les méthodes d’enseignement de la lecture devaient maintenir un équilibre entre l’enseignement de la compréhension et l’enseignement des mécanismes de décodage, ce que préconisent aujourd’hui les tenants des approches éclectiques en France, ou des balanced reading approaches aux États-Unis :

À la lumière des résultats obtenus, il est permis de supposer, avec les tenants de la position interactionnelle illustrée par Rumelhart (1975), que les deux types de mécanismes, mécanismes d’analyse perceptive (décodage), mécanismes d’analyse conceptuelle (compréhension) interviennent en interaction dans le traitement de l’information. Il est probable même que la nature de l’interaction peut changer selon le niveau de développement du sujet, sa compétence en lecture, la structure de l’information dans le texte et même selon des différences individuelles plus ou moins faciles à cerner.

Pierre, 1981, p. 160

Cette conclusion a été renforcée par une recherche de l’une de nos étudiantes de doctorat qui a eu recours à l’enregistrement des mouvements des yeux (Vargas, 1993 ; Vargas et Pierre, 1990). Une des implications du rôle présumé de l’anticipation que postulaient Goodman et Smith est que l’anticipation serait un processus cognitivement économique parce qu’elle permettrait au lecteur de ne pas avoir à lire tous les mots mais seulement ceux qui leur permettraient de valider leurs anticipations. Encore une fois, cette position était fondée sur un modèle du début du XXe siècle développé par Javal (1905). À nouveau, les résultats que nous avons obtenus confirment ceux des recherches menées en laboratoire. Vargas a ainsi montré que non seulement les enfants du primaire lisent tous les mots, mais le nombre de fixations moyennes par mot révèle qu’ils font en moyenne plus d’une fixation par mots (jusqu’à 1,36 fixation par mot pour le texte non familier). Autrement dit, si les enfants ont recours à l’anticipation, cela ne les amène pas pour autant à faire une lecture sélective. En fait, cette étude a confirmé que les mouvements des yeux sont sous le contrôle de la compréhension et non l’inverse (Just et Carpenter, 1987 ; O’Reagan et Levy-Schoen, 1978 ; Rayner, 1978).

Si l’anticipation est liée à la compréhension, se pourrait-il qu’en enseignant la compréhension on améliore l’anticipation et, de ce fait, on favorise la reconnaissance globale des mots et par là l’apprentissage de la lecture ? C’est ce que nous avons voulu vérifier dans une troisième recherche que nous avons menée avec une enseignante de première année, juste après l’implantation de la réforme de 1979 (Pierre et Lavoie, 1992). Alors qu’aucun matériel didactique n’avait encore été développé, nous avons expérimenté une approche pédagogique similaire à la pédagogie par projet qu’on met de l’avant dans la réforme 2000  [20]. L’objectif de cette approche était de faciliter la construction des connaissances sur le monde qui étaient présupposées nécessaires pour comprendre deux textes informatifs adaptés au niveau de lecture et de compréhension d’enfants de première année. Les comparaisons entre prétests et post-tests, groupes expérimental et de contrôle, ont révélé que si l’approche pédagogique donnait des résultats supérieurs au test de compréhension orale (l’expérimentateur lisait les textes et les questions) pour le groupe expérimental, les différences étaient moins fortes au test de compréhension en lecture (les enfants lisaient seuls les textes et les questions) et n’étaient significatives que pour un seul texte. Si cette recherche a montré qu’on pouvait enseigner la compréhension comme mode d’acquisition des connaissances dans les autres matières scolaires dès la première année, elle a aussi montré que, contrairement à l’une des croyances du modèle whole-language, l’enseignement de la compréhension n’a pas d’effet automatique sur l’apprentissage de la lecture.

Quelques années après l’implantation de la réforme de 1979, nous avons entrepris une quatrième recherche avec une autre étudiante de doctorat (Ziarko et Pierre, 1990, 1993) ; nous étions préoccupée de savoir ce qu’il advenait de ces enfants qui avaient appris à lire avec une approche whole-language lorsqu’ils arrivaient à la fin du primaire. L’application d’une approche centrée sur la compréhension, doublée de six années de pratique de lecture, allait-elle avoir un effet à long terme sur la compréhension mais aussi sur la lecture, comme le prévoit l’approche whole- language ? Ziarko a donc évalué la compréhension d’enfants de sixième année primaire de textes informatifs qui variaient selon le type de textes et la familiarité du texte. Deux groupes de lecteurs ont été composés en combinant la vitesse de lecture et la compréhension : 1) les lecteurs faibles qui avaient obtenu des résultats faibles en compréhension avec des vitesses de lecture élevées, autrement dit en lisant lentement (supérieur ou égal à 658 s) ; 2) les lecteurs forts qui avaient obtenu les meilleurs résultats en compréhension en lisant plus rapidement (inférieur ou égal à 590 s). On pouvait supposer, sur la base des recherches sur l’identification des mots, que la vitesse de lecture était une mesure du degré d’automaticité des processus de décodage et l’on pouvait penser sur la base de la recherche de Vargas (1993) que plus les lecteurs traitent rapidement les unités d’information, au total, meilleure est leur compréhension. Nos hypothèses ont été confirmées. Alors qu’ils ont lu les textes plus rapidement, les scores des lecteurs forts étaient presque deux fois plus élevés que ceux des lecteurs faibles qui n’ont obtenu la moyenne de 50 % dans aucune des conditions. Autrement dit, plus les mécanismes de décodage sont automatisés, mieux les lecteurs savent lire, et mieux ils savent lire, meilleure est leur compréhension (Pierre, 1994a).

Réintroduire l’enseignement du décodage : le point

Fonder les méthodes d’enseignement sur le fonctionnement des systèmes d’écriture

Prévenir l’illettrisme en permettant à tous les enfants d’apprendre à lire et à écrire en deux ou trois ans de scolarisation est un des défis majeurs de l’école du XXIe siècle. Ce défi ne peut toutefois être relevé sans remettre en question les mythes et les croyances qui sous-tendent les méthodes d’enseignement et qui alimentent les débats depuis plus de deux cents ans :

Pour découvrir les différences fondamentales entre les approches whole-language et les approches centrées-sur-le-code, il faut mettre de côté les truismes et les lieux communs et analyser plus en profondeur les postulats sur lesquels s’appuient les deux approches quant à la nature du langage et des relations entre le langage oral et le langage écrit.

Liberman et Liberman, 1992, p. 345

Ce sont certains de ces postulats que Jaffré (dans ce numéro) examine en présentant le point de vue de la linguistique sur l’écrit qu’il a contribué à développer de façon significative à travers ses différentes publications dont, en 1995, L’orthographe en trois dimensions qu’il cosigne avec Ducard et Honvault ; en 1997, Des écritures aux orthographes : fonctions et limites de la notion de système et L’orthographe : des systèmes aux usages qu’il cosigne avec Fayol. Comme il le souligne, la linguistique a longtemps ignoré l’écrit, considérant, à la suite de Saussure (1972) et de Bloomfield (1933), qu’il n’est qu’une simple transposition de l’oral, postulat qu’avaient endossé Goodman et Smith. Prenant appui sur les recherches qui ont décrit l’évolution des systèmes d’écriture (Gelb, 1973 ; Coulmas, 1989), il montre que, quelles que soient les modalités qu’il adopte, le but de tout système d’écriture est de traduire des signes linguistiques qui renvoient à des significations ou, pour reprendre son expression, toute écriture est conditionnée par sa raison d’être : la médiation d’un sens linguistique. Ce qui fait la particularité des systèmes alphabétiques, ce sont les relations qu’ils créent de façon privilégiée, mais non exclusive, entre les unités fonctionnelles les plus petites de la langue que sont les phonèmes à l’oral et les graphèmes à l’écrit. L’introduction des notions de phonèmes et de graphèmes est une des avancées majeures de la linguistique de l’écrit au XXe siècle. Les notions permettent de clarifier toutes les confusions qu’ont engendrées les notions de lettres et de sons depuis les débuts de l’alphabétisation, au Ve siècle av. J.-C. Elles permettent de comprendre notamment que l’unité de base de l’écrit n’est pas la lettre, mais le graphème et que la fonction des graphèmes n’est pas seulement d’indiquer comment les mots doivent être lus à voix haute. Tout comme les phonèmes à l’oral, les graphèmes sont des marqueurs de signification comme en témoigne le fait qu’on ne peut les substituer l’un à l’autre sans changer de sens comme dans : « pain, main, sain, saint » ou encore l’existence de certains graphèmes muets dont la fonction est de marquer des relations entre des mots de même famille. Par exemple, c’est le cas de « d » dans « grand » ou de « t » dans «petit» qui marquent les liens avec les mots « grande » « petite » « grandeur » « petitesse ».

La première confusion que lève cette distinction entre son/phonème et lettre/ graphème est la confusion entre alphabet et système alphabétique. Cette confusion est au coeur même du débat des méthodes qui divise les pédagogues depuis le XVIe siècle alors que Ickelsalmer (cité par Mathews, 1966), un pédagogue allemand, remettait en question pour la première fois la méthode alphabétique et proposait de fonder l’enseignement de la lecture sur les sons plutôt que sur les lettres. Plus fondamentalement encore, il liait sa proposition à la nécessité d’enseigner la lecture dans la langue maternelle des enfants alors qu’à l’époque, le latin était encore la langue d’enseignement même s’il n’était plus en usage depuis longtemps. Par cette proposition, il montrait qu’il avait pris conscience que si les lettres de l’alphabet renvoient à des sons, c’est en tant que signes linguistiques qui renvoient à des significations et qu’en conséquence, on ne peut apprendre à lire et à écrire dans une langue qu’on ne comprend pas  [21] (Pierre, à paraître).

Paradoxalement, c’est encore l’ignorance de la nature des systèmes d’écriture qui explique le mythe de la reconnaissance globale sur lequel est fondé le modèle whole-language. Cette ignorance amène les enseignants à croire qu’en centrant l’enseignement sur les mots, ils activent automatiquement le sens – comme si notre système d’écriture était idéographique – et à craindre, à l’inverse, qu’en centrant l’enseignement de la lecture sur le décodage, ils en feraient un enseignement vide de sens, comme si la fonction première de tout système d’écriture n’était pas de communiquer du sens.

Fonder les méthodes d’enseignement sur la compréhension des processus d’apprentissage

Comprendre la structure et le fonctionnement des systèmes d’écriture est aussi essentiel à l’enseignement de la lecture que peut l’être le fait de savoir appliquer les opérations mathématiques élémentaires pour l’enseignement des mathématiques. Cela n’est pas seulement nécessaire pour déterminer les contenus d’enseignement, mais aussi pour comprendre les processus qui sous-tendent l’apprentissage. Ainsi, l’une des conséquences de la découverte du principe alphabétique par les Grecs a été de rendre nécessaire le développement de ce que les théories psycholinguistiques ont appelé la conscience phonologique.

Ancien doyen de la Faculté de psychologie et de sciences de l’éducation  [22] et actuel directeur de l’Unité de recherche en neurosciences cognitives à l’Université libre de Bruxelles, José Morais a bien voulu accepter de faire le point, dans ce numéro thématique, sur la question en réfléchissant avec nous et avec sa collaboratrice de longue date, Régine Kolinsky, sur les implications qui se dégagent des recherches des vingt dernières années en psycholinguistique cognitive et en neuropsychologie, pour la didactique de la lecture (Morais, Pierre et Kolinsky, dans ce numéro). L’un des pionniers et l’un des auteurs les plus productifs et les plus cités dans le domaine depuis plus de vingt ans, José Morais est détenteur d’un doctorat honoris causa de l’Université de Lisbonne. Il est titulaire d’une chaire de l’Université de Gand en plus d’être professeur invité dans différentes universités à travers le monde. Sa contribution à la diffusion des connaissances a été soulignée en 2001 par l’attribution du prix international Wernaers. Son livre, L’art de lire (Morais, 1994), qui est une somme de connaissances sur l’évolution de la recherche en lecture depuis le début du XXe siècle, a été réédité en format de poche en 2000 et il a été traduit en espagnol et en portugais. Ces recherches prennent leurs sources dans les premiers travaux de Cattell (1886) et de Javal (1905) à la fin du XIXe siècle sur lesquels Goodman et Smith ont fondé leur modèle. Leur principal apport est de montrer que la reconnaissance globale n’est qu’une illusion qui est créée par l’extrême efficacité du système cognitif qui traite les informations à des vitesses qui dépassent la conscience humaine. Or, si cela pose peu de problèmes dans le cas du langage oral, c’est un problème majeur dans le cas du langage écrit. L’une des contributions les plus significatives de José Morais a été de montrer que les adultes analphabètes ne développent pas la conscience phonologique alors que dès que les enfants apprennent à lire, ils commencent à la développer. C’est dire que le développement de la conscience phonologique n’est pas seulement lié à l’expérience avec le langage oral, mais qu’il est une conséquence de l’apprentissage de la lecture. Un autre argument à l’appui de cette thèse est que le seul facteur commun entre toutes les formes de dyslexies et de difficultés d’apprentissage de la lecture est un déficit plus ou moins important de la conscience phonologique. Comment expliquer dès lors que des recherches aient montré que la conscience phonologique commence à se développer dès l’âge de trois ou quatre ans sinon en admettant que l’apprentissage de la lecture commence bien avant les débuts de la scolarisation et que, contrairement à un autre mythe persistant dans le milieu pédagogique québécois, stimuler l’éveil à l’écrit ne fait pas des enfants dyslexiques ?

Au contraire, comme le montre la recherche de Bournot-Trites, Elizabeth Lee et Jérémie Séror (dans ce numéro). Le risque de développer des problèmes d’apprentissage est considérablement accru dans les milieux où les enfants n’ont pas la chance d’être éveillés à l’écrit dès les premières années de leur vie. Comme nous l’avons montré précédemment, au Canada, ces risques sont beaucoup plus élevés chez les francophones et particulièrement dans les minorités francophones hors Québec. L’intérêt de l’article de Bournot-Trites et ses collaborateurs est d’illustrer à quel point il est difficile de récupérer les enfants en difficulté au-delà de la première année. La lecture étant aujourd’hui le mode de transmission des connaissances dans toutes les matières scolaires, un enfant qui ne sait pas lire à la fin de la première année est déjà pris dans l’engrenage de l’illettrisme.

C’est à cette question cruciale pour le développement de l’éducation dans les sociétés du savoir que s’attaque le texte que Susan Burns, Linda Espinosa et Catherine Snow ont bien voulu écrire pour ce numéro thématique en s’appuyant sur le rapport Preventing reading difficulties produit par la National Academy of Science en 1998, sous la présidence de Catherine Snow. Titulaire de la chaire Henry Lee Shattuck à la Graduate school of education à Harvard et auteure de nombreuses publications, Catherine Snow est l’une des psycholinguistes les plus reconnues et les plus citées dans le domaine. La diffusion qu’a connue ce rapport, vendu à plus de 175 000 exemplaires  [23], témoigne de l’intérêt qu’il a suscité et de l’importance qu’on accorde à cette problématique aux États-Unis. Selon le Social Science Citations Index (juin 2001), entre octobre 1998 et juin 2001, le rapport a été cité dans un nombre important de revues professionnelles (33 dans des revues sur la lecture et la littératie [Reading Research Quarterly, Reading Teachers] ; 18 dans des revues d’éducation générale [Educational Leadership, Young Children] ; 15 dans des revues pour l’éducation spécialisée [Journal of Speech and Language and Hearing Research] ; 10 dans des revues de psychologie [Journal of Educational Psychology] et dans plusieurs autres disciplines comme dans les neurosciences [NeuroReport], sociologie, sciences politiques [Journal of Policy Analysis and Management]. La conclusion de ce rapport rejoint celles de nombreuses publications parues au cours des vingt dernières années aux États-Unis : l’arme la plus efficace contre l’échec scolaire en lecture est l’adoption de méthodes d’enseignement de qualité en maternelle et au premier cycle du primaire. Pour les auteures de ce rapport, cela suppose que ces méthodes doivent faire une place significative à l’éveil à l’écrit en maternelle et à l’enseignement des mécanismes de décodage en première année. Ce que l’article de ce numéro révèle de nouveau et de particulièrement important dans le contexte actuel, ce sont les différences de types et de niveaux de littératie que les enfants développent selon leur origine ethnique et les caractéristiques du milieu culturel où ils sont élevés. Ainsi, il est fort probable que les lecteurs forts de la recherche que nous présentons dans un autre article de ce numéro avaient un niveau élevé de conscience de l’écrit et de conscience phonologique à leur entrée en première année, ce qui expliquerait pourquoi ils lisent aussi bien que des enfants de deuxième année alors que les lecteurs faibles lisent moins bien que les lecteurs précoces de notre précédente recherche (Giasson, Baillargeon, Pierre et Thériault, 1985). Cette recherche, la première du genre menée au Québec, invalide la croyance qui sous-tend le modèle québécois selon laquelle les lecteurs qui décodent sont de mauvais lecteurs et ceux qui devinent sont de bons lecteurs. Elle rejoint de la sorte les conclusions d’une multitude de recherches menées dans d’autres pays qui invalident le modèle whole-language, du moins dans sa version originale.

Comme l’avait montré Garner (1987) pour l’apprentissage de la compréhension, la contribution de Jacques David (dans ce numéro) illustre que le développement des processus métacognitifs, dont la conscience de l’écrit et la conscience phonologique sont des premières manifestations, est intimement lié à l’apprentissage de l’orthographe. Membre de la même équipe de recherche que Jaffré (LEAD) et de l’Observatoire national de la lecture où siège également Morais, David est l’auteur et le coauteur de nombreuses publications dont le ministère de l’Éducation nationale de France s’est fortement inspiré pour la réforme de son curriculum qui a été implantée en septembre 2002. S’inscrivant au carrefour des recherches en linguistique de l’écrit et en psychologie cognitive, l’étude fine des stratégies des apprentis-scripteurs et de leurs verbalisations qu’il nous propose confirme qu’apprendre à écrire, tout comme apprendre à lire, suppose de s’approprier les connaissances sur le code orthographique et que cet apprentissage est déterminé tout autant par les caractéristiques des systèmes d’écriture que par les contraintes cognitives qui régissent l’apprentissage de la lecture et de l’écriture.

La recherche que présentent Isabelle Montésinos-Gelet et Jean-Marie Besse, auteurs de nombreuses publications sur les débuts de l’apprentissage de l’écrit chez l’enfant et chez l’adulte analphabète, va dans le même sens. S’inscrivant dans la suite des travaux d’Émilia Ferreiro, les auteurs centrent leur attention sur la prise de conscience, par des enfants de maternelle, de la séquence des unités graphémiques dans les mots qui semble déjà relativement acquise chez la majorité d’entre eux. Si 52 % des enfants produisent des inversions au cours de productions écrites spontanées, c’est le cas dans seulement 15 % de leurs productions. L’intérêt de cette étude est de montrer que les inversions varient selon la nature des unités graphémiques, la majorité se retrouvant au niveau de la syllabe, ce qui semblerait indiquer que dès ce stade, les enfants ne traitent pas les mots globalement mais sont conscients, contrairement à ce que suppose l’approche whole-langage, que les mots sont constitués d’unités plus petites qui varient de la lettre, au graphème, à la syllabe. On peut penser que même les non-initiés ne s’étonneront pas trop de ces résultats : il est assez évident en effet qu’on ne peut écrire un mot globalement. Ce qui est étrange, c’est qu’on ne transfère pas ce raisonnement à la lecture. Or, les enfants apprennent à lire et à écrire en même temps et les deux apprentissages s’influencent l’un l’autre. Pour qu’un enfant puisse écrire des mots dans une orthographe relativement proche, il faut bien qu’il ait déjà vu ce mot et qu’il en ait une certaine représentation orthographique en mémoire. S’il ne faisait que reconnaître les mots globalement et que cette représentation n’était qu’une image de la silhouette des mots comme le suppose l’approche whole-language, comment pourrait-il les écrire ?

La peur qu’on a au Québec de « scolariser » les enfants avant la première année, comme en témoigne la recherche de Brodeur, Deaudelin, Bournot-Trites, Siegel et Dubé (dans ce numéro), empêche depuis vingt ans d’intégrer l’éveil à l’écrit dans le curriculum scolaire, comme en fait foi le curriculum 2000 qui ne lui accorde qu’une place limitée et ambiguë  [24]. Pourtant, une recherche menée auprès de cinq mille enfants d’âge préscolaire de la région de Québec nous avait permis de montrer, il y a déjà vingt ans, que la plupart des enfants avaient amorcé l’apprentissage de la lecture bien avant leur entrée en première année et que 1 % d’entre eux savaient déjà lire comme des enfants de première année (Giasson, Baillargeon, Pierre et Thériault, 1985 ; Pierre, Giasson, Baillargeon et Thériault, 1984 ; Pierre et Bourcier, 1985 ; Pierre, Bourcier, Hudon et Noreau, 1990 ; Pierre et Lachance, 1985).

Fonder la formation des enseignants sur des bases scientifiques

La prise de conscience de la place que les mythes et les croyances occupent dans la culture pédagogique et du rôle qu’ils jouent dans la perpétuation des pratiques traditionnelles aussi bien que dans la définition de nouvelles pratiques est fondamentale si l’on veut donner à l’enseignement de la lecture des bases scientifiques solides pour l’avenir. Malheureusement, un autre mythe sévit dans le milieu de l’éducation qui freine le développement de l’enseignement de la lecture. Ce mythe suppose qu’enseigner n’est qu’un savoir-faire qui ne requiert pas de connaissances spécialisées sur les disciplines d’enseignement et leurs didactiques :

Il importe d’abord, sur le plan épistémologique, de renoncer à la logique disciplinaire comme fondement de la formation initiale, ce qui ne signifie nullement – insistons sur ce point – de renvoyer les disciplines aux poubelles de l’histoire, mais bien de leur assurer la place qui leur revient dans une formation à l’enseignement.

En effet, la contribution des disciplines scientifiques à la formation se situe sur deux plans qu’il s’agit de repenser :

Elle intervient sur le plan des disciplines à enseigner en tant que propédeutiques à l’enseignement des matières scolaires (langue maternelle, histoire, géographie, mathématique, etc.). [...]

Malheureusement, la plupart du temps, l’enseignement de ces disciplines est conçu indépendamment de toute situation de transposition didactique et sans lien avec les programmes scolaires que devront enseigner les futurs enseignants.

Tardif, Gérin-Lajoie et Lessard, 2001

Non seulement la description de la formation des maîtres qui ressort de ce document ne repose sur aucune recherche documentée, aucun fait, aucune observation scientifique, mais elle manifeste une méconnaissance de la didactique, de son enseignement et de son évolution qui a été la plus importante parmi les sciences de l’éducation au cours des trente dernières années. De ce fait, les propositions qui sont avancées nous ramènent trente ans en arrière alors qu’on enseignait d’un côté des connaissances théoriques qu’on pensait fondamentales mais qui n’avaient que peu de pertinence pour les didactiques, et qu’on supposait, d’un autre côté, que c’est au contact des enseignants d’expérience que les futurs enseignants apprennent leur métier. Depuis trente ans, les programmes de formation des enseignants au Québec font, en effet, peu de place à la diffusion et à l’intégration des connaissances scientifiques et ils font davantage de place à des connaissances générales sur la pédagogie qu’aux connaissances qui relèvent de la didactique et des disciplines contributoires comme l’épistémologie de l’écrit, la psychologie cognitive  [25] et la linguistique pour ce qui concerne la didactique de la lecture (Gagnon, 2001 ; Pierre, 1990a, 2003b, à paraître). Or, l’une des conclusions apportées par Brodeur et son équipe  [26] (dans ce numéro) est pour le moins troublante même si elle ne fait que confirmer l’analyse que font ceux qui ont suivi de près l’évolution de ces programmes depuis trente ans (Pierre, à paraître) : ce type de formation contribue peu au développement de l’expertise professionnelle sinon en favorisant la perpétuation des croyances et des pratiques traditionnelles.

La comparaison des programmes de formation des maîtres au Québec, en regard de la formation en didactique de la lecture, avec les programmes américains  [27] permet d’identifier deux des causes majeures de la faible efficacité des programmes québécois de formation des maîtres. Alors qu’au cours des trente dernières années, au Québec, la plupart des universités n’offraient pas de cours spécifique en didactique de la lecture, aux États-Unis, le minimum d’exigences progressait passant de trois à six crédits. Par ailleurs, 40 % des universités américaines offrent maintenant des programmes pour la formation de spécialistes en lecture comportant en moyenne seize crédits de spécialisation. Mais au-delà du nombre de cours offerts, ce qui est le plus important, c’est par qui ces cours sont offerts. On ne pourrait concevoir en génie, en médecine, en médecine vétérinaire ou en psychologie, qu’un cours soit donné par un non-spécialiste du domaine. Le programme perdrait automatiquement son accréditation. Contrairement aux États-Unis, cette situation est la plus courante au Québec en didactique de la lecture, même au niveau des études supérieures. On permet que des non-spécialistes obtiennent des subventions de recherche, donnent des séminaires et même supervisent des thèses de doctorat, ce qui explique la persistance de l’approche whole-language et des mythes sur lesquels l’enseignement de la lecture continue de reposer (Pierre, à paraître).

Conclusion

On ne peut plus désormais définir la formation des enseignants par la seule transmission des pratiques d’enseignement, sans amener les enseignants à en comprendre les fondements didactiques. Les aspects les plus importants de l’enseignement de la lecture ne sont pas directement perceptibles et ne peuvent être compris que si l’on dispose de modèles théoriques de référence. Quand bien même un stagiaire observerait un enfant en train de lire silencieusement pendant des heures, il ne pourrait jamais déduire ce que l’enfant fait pour lire, quels sont les processus qu’il utilise, les difficultés qu’il rencontre. Même les signes visibles, comme le fait de tourner les pages, les mouvements des yeux ou des lèvres sont peu révélateurs quand ils ne sont pas trompeurs. Quant à la lecture orale, comme le disait Goodman, si elle ouvre une fenêtre sur les processus de lecture que les enfants mettent en oeuvre, il faut de solides connaissances théoriques pour comprendre ce qu’on observe à travers cette fenêtre.

Or, le statut de la didactique de la lecture comme discipline scientifique est particulier, ce qui rend son enseignement et son apprentissage complexe. Contrairement aux mathématiques, aux sciences humaines et aux sciences naturelles, la lecture ne se définit pas par un ensemble de connaissances délimitées, et jusqu’à ces dernières années, il n’existait pas de faculté ou de département de lecture dans les universités  [28], bien que la lecture en tant que phénomène humain soit l’objet de nombreuses recherches dans différentes spécialités en dehors de l’éducation : psychologie, neuropsychologie, linguistique, sociologie, histoire, communication. Toutes ces sciences, par le regard particulier qu’elles ont jeté sur l’écrit et sur les conditions de son appropriation par les individus et par les sociétés, apportent un éclairage fondamental sur ce qu’est la lecture et sur ce que suppose son apprentissage, comme a voulu en témoigner ce numéro thématique.

Comme le chimiste a besoin d’un microscope pour observer le monde de l’infiniment petit, comme l’astronome a besoin d’un télescope pour observer l’immensité de l’espace et comme le médecin a besoin d’un stéthoscope pour sonder le coeur de ses patients, l’enseignant a besoin d’une « lunette cognitive »  [29] pour observer ce qui se passe dans la tête des enfants lorsqu’ils apprennent à lire. Mais pour voir clair avec cette lunette cognitive, il doit connaître le fonctionnement du système cognitif humain lorsqu’il entre en interaction avec le code écrit pour en extraire la signification, ce qui suppose qu’il connaisse également les structures et le fonctionnement du code écrit [30]. C’est à cette seule condition qu’il pourra déterminer quelles sont les méthodes et les approches les plus appropriées pour les enfants auxquels il enseigne, compte tenu de leurs niveaux de développement et de leurs antécédents socioculturels. C’est à cette seule condition également qu’il pourra suivre l’évolution de la recherche et approfondir sa compétence professionnelle tout au long de sa carrière.

Appendices