Corps de l’article

Les défis liés à l’évaluation des compétences et des apprentissages complexes sont nombreux. Depuis plusieurs années, on cherche à définir des méthodologies afin de permettre aux enseignants et à toutes les personnes concernées de faire reposer leur jugement sur des bases solides, surtout quand les enjeux sont critiques, comme dans le cas de l’évaluation certificative. Cette recherche à caractère exploratoire trouve appui sur les travaux de Rey, Carette, Defrance et Kahn (2003) et propose un modèle multiniveaux d’évaluation certificative que nous avons expérimenté auprès de 560 Québécois de première secondaire, dans le contexte de l’enseignement de la science et de la technologie au Québec, en mai et juin 2006. Compte tenu du contexte, nous avons profité de l’occasion pour vérifier l’effet de différentes variables, comme le contexte disciplinaire, l’effet enseignant et la différence entre les garçons et les filles, sur la robustesse du modèle. 

Afin de recueillir les données, nous avons commencé par élaborer un canevas permettant d’obtenir des situations d’évaluation comparables les unes aux autres. En tout, trois situations d’évaluation ont été conçues et administrées (physique, biologie, contexte général), et chacune comportait trois niveaux, pour un total de neuf situations d’évaluation distinctes. Chacun des niveaux se distinguait au moyen de cinq dimensions (ex. : indices méthodologiques, matériel accessible, etc.), ordonnées de façon à guider de plus en plus l’élève lorsque celui-ci se voyait offrir le niveau subséquent (ex. : passage du niveau 1 au niveau 2). Ainsi, chaque élève se voyait offrir au départ une situation d’évaluation de niveau 1, correspondant à un problème ouvert pour lequel il devait rendre compte de sa démarche et de ses résultats, et ce, sans aucune aide. Par exemple, le cahier de réponse ne comportait que des feuilles blanches. Quant aux élèves en difficulté, ils se voyaient offrir le niveau 2, qui consistait en une feuille supplémentaire sur laquelle se trouvaient des indices au regard des cinq dimensions précédemment citées. Enfin, les élèves en grande difficulté recevaient une situation d’évaluation de niveau 3, qui présentait une démarche bien balisée menant normalement à une bonne réponse. Aussitôt que l’élève était en situation de réussite (niveau 1, 2 ou 3), l’épreuve se terminait. Après avoir corrigé les épreuves et colligé les données, nous avons procédé à leur analyse au moyen de statistiques non paramétriques afin de vérifier l’efficacité du modèle.

Les résultats que nous avons obtenus indiquent que notre modèle permet aux élèves en difficulté de fournir davantage d’informations aux évaluateurs, afin que ces derniers puissent juger du développement de la compétence d’investigation scientifique. Nous avons également remarqué que les résultats étaient semblables, peu importe le contexte disciplinaire. Nous n’avons noté aucune différence importante entre les garçons et les filles. De plus, les variables liées à l’enseignant ne semblent pas avoir un effet important sur les résultats des élèves.

Les analyses nous indiquent que le modèle utilisé permet d’obtenir des résultats intéressants surtout auprès de certains profils d’élèves qui se sont dessinés lors de l’analyse des données. Des suites à cette recherche pourraient toucher à la robustesse du modèle d’évaluation dans d’autres domaines disciplinaires. D’autre part, les résultats sont suffisamment encourageants pour procéder à une expérimentation dans un contexte plus confirmatoire.