Corps de l’article

CONTEXTE

Une nécessaire intégration afin de répondre aux besoins du 21e siècle

Les problèmes auxquels fait face la communauté scientifique sont bien souvent complexes et de nature interdisciplinaire, par exemple les changements climatiques, la gestion des ressources naturelles ou la gestion de pandémies (Penprase, 2020 ; Rennie et al., 2012 ; Thomas & Watters, 2015). Dans le but de leur trouver des solutions viables, il faut dépasser le cadre traditionnel des disciplines et adopter une approche plus intégrée (Capraro & Jones, 2013). C’est l’une des raisons qui expliquent l’attrait croissant envers l’intégration des disciplines associées aux sciences, technologie, ingénierie et mathématique (STIM, en anglais STEM) et le développement de l’intérêt des élèves pour ces dernières (English, 2016 ; Kelley & Knowles, 2016). Il semblerait que plus les élèves s’intéressent aux STIM, plus grandes sont les chances qu’ils choisissent de poursuivre leurs études dans ce domaine et d’y faire carrière (Christensen & Knezek, 2017). L’intégration de deux ou plusieurs matières scolaires semble une voie féconde pour cultiver cet intérêt (Becker & Park, 2011 ; Berlin & Lee, 2005 ; Clark & Wallace, 2015 ; Margot & Kettler, 2019). À ce titre, Samson et al. (2012) proposent d’intégrer spécifiquement des contenus issus de la mathématique à des situations d’apprentissage de nature scientifique. Ces dernières peuvent alors servir d’ancrage et de contextualisation à la réalisation d’apprentissages en mathématique.

Or, bien que les chercheurs s’intéressent à l’interdisciplinarité (ou à l’intégration de disciplines) depuis plus de 100 ans (Berlin & Lee, 2005 ; Czerniak & Johnson, 2014), les conclusions au sujet de l’intégration de la mathématique aux sciences (S-M) sont encore considérées comme embryonnaires par certains (English, 2016 ; Guzey et al., 2014 ; Honey et al., 2014). Il semble de plus en plus évident que l’intégration de matières scolaires associées aux STIM soit liée à la réussite scolaire des élèves (Becker & Park, 2011 ; Frykholm & Glasson, 2005 ; Furner & Kumar, 2007 ; Hurley, 2001 ; Stinson et al., 2009) par le truchement d’autres variables médiatrices comme l’intérêt (Honey et al., 2014) ou le sentiment d’efficacité personnelle (SEP) (Becker & Park, 2011). Plus de travaux avec des outils de mesure fiables et adaptés s’avèrent nécessaires pour bien mesurer la relation entre l’intégration et ces variables puisque les constats issus de la recherche sont parfois contradictoires et difficiles à interpréter (Becker & Park, 2011 ; Honey et al., 2014).

Afin de mesurer des variables perceptuelles telles que l’intérêt et le SEP, des questionnaires munis d’échelles de Likert sont généralement utilisés (p. ex., Adelson & McCoach, 2011 ; Fennema & Sherman, 1976 ; Hasni et al., 2015 ; Kier et al., 2013 ; Tezer & Ozcan, 2015 ; Wininger et al., 2014). Dans la majorité des cas, les questionnaires mesurent ces variables séparément et dans des situations où l’enseignement est réalisé de manière cloisonnée (Guzey et al., 2014 ; Honey et al., 2014). Dans de plus rares cas, des chercheurs ont développé des questionnaires afin de mesurer l’une ou l’autre de ces variables dans des contextes d’intégration (Cunningham & Lachapelle, 2010 ; Guzey et al., 2014 ; Tyler-Wood et al., 2010), mais l’accent est plutôt mis sur la relation entre ces matières et les carrières liées aux STIM que sur l’apprentissage scolaire. Par ailleurs, ces quelques travaux méritent d’être enrichis puisque les variables mesurées ne sont parfois pas bien définies, que les questionnaires ne sont pas toujours adaptés à la population ciblée (Pell & Manganye, 2007) et que les modalités de l’intégration ne sont pas systématiquement précisées. Finalement, à notre connaissance, la perception qu’ont les élèves du lien qui existe entre les sciences et la mathématique n’a jamais été mesurée à l’aide de ce type d’échelle.

À titre d’exemple, le moteur de recherche ERIC ne renvoie que 50 résultats révisés par les pairs depuis 2008 (date de la plus ancienne référence recensée) lorsque les mots clés « perception », « STEM integration » et « student » sont utilisés, et ce, en date du 15 janvier 2022. Aucun de ces écrits ne rapporte de résultats concernant la perception de l’existence du lien entre les sciences et la mathématique. En revanche, plusieurs de ces recherches traitent de la perception des enseignants ou des futurs enseignants quant à l’intégration des STIM dans le cadre scolaire ou encore de l’attitude d’étudiants et étudiantes envers les carrières associées aux STIM (p. ex., Berlin & White, 2012 ; Herro & Quigley, 2017 ; Margot & Kettler, 2019 ; Sari et al., 2018).

Pour ces différentes raisons, cet article présente les étapes du développement et du processus de validation de six échelles de mesure rassemblées au sein d’un instrument appelé le Questionnaire sur l’intégration de la mathématique et des sciences (QIMS). Les variables mesurées par ces échelles sont les suivantes : 1) l’intérêt de l’élève envers les sciences, 2) l’intérêt envers la mathématique, 3) l’intérêt envers des activités intégrées SM, 4) le SEP de l’élève en sciences, 5) le SEP en mathématique et 6) la perception des élèves concernant l’existence d’un lien entre la mathématique et les sciences.

Le QIMS a été développé lors d’un projet de recherche intitulé « Modèle d’intervention pour améliorer la perception et l’appropriation des sciences chez les jeunes issus de milieux défavorisés », qui avait pour objectif d’évaluer l’efficacité d’une intervention pédagogique visant à favoriser l’intérêt et le SEP des élèves envers les sciences et la mathématique. Cette étude s’est déroulée auprès d’élèves du primaire âgés de 10 à 12 ans (3e cycle du primaire), dont la langue d’enseignement est le français et qui fréquentent une école québécoise en milieu défavorisé et multiculturel. Cette population précise a été retenue puisque les dernières années du primaire sont charnières, qu’elles sont généralement caractérisées par une diminution de l’intérêt des élèves envers les sciences (Potvin & Hasni, 2014) et que les élèves issus d’un milieu défavorisé sont moins enclins à poursuivre une carrière dans le domaine scientifique (Fils-Aimé, 2011).

À notre connaissance, peu d’instruments de mesure ayant ciblé cette population précise existent (Adelson & McCoach, 2011). Les élèves en milieu défavorisé et multiculturel possèdent certaines caractéristiques qu’il faut considérer. Notamment, comme d’autres chercheurs, nous avons cherché à limiter le temps de passation en ayant recours à un nombre raisonnable d’énoncés (Peixoto et al., 2015) et à proposer des formulations intelligibles pour des élèves dont le français n’est pas nécessairement la langue première (MacLeod & Fraser, 2010). De plus, les énoncés ont été contextualisés en utilisant les contenus de la progression des apprentissages du 3e cycle du primaire (MELS, 2009).

ASSISES CONCEPTUELLES

Que mesurent les échelles du QIMS?

Avant de présenter le processus d’élaboration et de validation des échelles de mesure, il est pertinent de définir les principaux concepts qui leur servent d’assises. Tout d’abord, les concepts d’interdisciplinarité et d’intégration disciplinaire seront définis puisqu’ils sont souvent polysémiques dans les écrits scientifiques (Xie et al., 2015) et que toutes les intégrations ne sont pas équivalentes. Par la suite, les six variables perceptuelles mesurées dans le QIMS sont décrites et justifiées.

Il n’est pas rare que le SEP et l’intérêt envers différentes matières scolaires soient mesurés de manière parallèle, et ce, au sein du même questionnaire ou pendant une même étude. Conformément aux conclusions de Rottinghaus et al. (2003) et de Lee et al. (2014), ces variables, bien qu’elles soient corrélées, sont distinctes. Selon Rottinghaus et al. (2003), cette corrélation est modérée. Le SEP et l’intérêt partagent environ le tiers de leur variance. Lee et al. (2014), quant à eux, suggèrent que ces deux variables devraient être considérées distinctement puisqu’elles ne semblent pas nécessairement liées à la performance scolaire de la même manière. Ces propos font écho à ceux de Bandura (1986), qui précise qu’un certain degré de SEP est nécessaire afin d’engendrer un effet persistant sur l’intérêt, mais il suppute également que la relation qui les unit n’est pas linéaire.

Intégration et interdisciplinarité

Malgré un intérêt persistant pour l’interdisciplinarité et l’intégration (Berlin & Lee, 2005 ; Czerniak & Johnson, 2014), ces dernières ne possèdent pas de définition univoque dans la littérature scientifique (English, 2016 ; Holmlund et al., 2018 ; Srikoom et al., 2018 ; Xie et al., 2015). D’autres termes comme pluridisciplinarité, multidisciplinarité ou encore transdisciplinarité sont parfois utilisés dans des contextes plus ou moins comparables pour représenter des réalités plus ou moins similaires (Lenoir & Hasni, 2010 ; Samson et al., 2012). Dans certains cas également, l’interdisciplinarité est représentée comme un continuum permettant d’apprécier le degré effectif d’intégration des disciplines concernées (p. ex., Brown & Wall, 1976 ; English, 2016 ; Lonning & DeFranco ; 1997 ; Rennie et al., 2012). D’un côté, on retrouve l’idée d’une discipline enseignée de manière isolée ou cloisonnée et, de l’autre, celle d’un enseignement où deux (ou plusieurs) disciplines contribuent plus ou moins également à la réalisation d’une activité d’apprentissage.

Bien qu’il soit important de reconnaître l’importance de cet enjeu sémantique, cet article ne poursuit pas l’objectif de proposer une définition unique. À l’instar de plusieurs auteurs (p. ex., Holmlund et al., 2018 ; Honey et al., 2014 ; Xie et al., 2015), la définition retenue se veut surtout intelligible et fonctionnelle. Elle est aussi suffisamment générale pour être inclusive d’un certain éventail de pratiques et elle correspond au modèle d’intégration utilisé lors du développement des activités d’apprentissage composant l’intervention pédagogique testée dans cette recherche.

Ainsi, comme le propose Thouin (2017), l’intégration est comprise comme la mobilisation « des compétences et des savoirs de différentes disciplines pour résoudre un problème » (p. 397). Cette définition clarifie que ce ne sont pas seulement les savoirs des disciplines intégrées qui participent à l’intégration, mais également leurs stratégies, leurs habiletés ainsi que leurs compétences, en plus de poser l’obligation de se trouver dans un contexte de résolution de problème. Sur ces quelques points, nous rejoignons aussi les idées avancées par d’autres chercheurs comme English (2016), Kelley et Knowles (2016) ou encore Penprase (2020).

De plus, comme le proposent English (2016) et Honey et al. (2014), il apparaît important que la présence des différents savoirs, stratégies et compétences issus de chacune des disciplines soit rendue explicite afin que les élèves puissent les reconnaître et percevoir les liens qui les relient. Finalement, l’intégration n’a pas pour objectif d’éliminer l’idée même de « disciplines » ou de défendre l’idée de leur vétusté. Au contraire, il s’agit de reconnaître leur apport et de rendre évidente leur contribution respective à la résolution d’un problème.

Intérêt pour les sciences, pour la mathématique et pour les activités intégratives

Il n’y a pas non plus de définition unique de l’intérêt. Selon Potvin et Hasni (2014), il arrive que l’intérêt et d’autres variables perceptuelles comme la motivation ou l’attitude soient interchangés. Dans le cadre de cette recherche, l’accent est mis sur le critère essentiel qui permet de différencier l’intérêt de ces autres concepts motivationnels : son caractère indissociable de la matière scolaire. Comme le dit Gardner (1996), « on ne peut pas simplement avoir un intérêt : il faut s’intéresser à quelque chose » (p. 6, trad. libre). Nous définissons conséquemment l’intérêt de manière similaire à Hasni et Potvin (2015) ainsi qu’à Hidi et Renninger (2006), c’est-à-dire comme un état interne qui pousse l’élève vers l’objet d’intérêt. Autrement dit, l’intérêt correspond à la tendance plus ou moins stable qu’a l’élève à s’engager dans des tâches de nature mathématique, de nature scientifique ou encore de nature scientifique où est intégrée de la mathématique (Krapp, 2007 ; Wininger et al., 2014).

Comme le suggèrent Hidi et Renninger (2006), l’intérêt se développe en relation avec les connaissances (knowledge) de la discipline (sciences ou mathématique), avec la valeur (value) que l’élève attribue à cette dernière et avec les émotions (affects) qu’il ressent lorsqu’on fait référence à ces disciplines ou à ce type d’activité. L’intérêt est donc influencé par les expériences antérieures des élèves. Il est possible que les élèves aient un intérêt différent envers les situations où la mathématique et les sciences sont intégrées si, par exemple, certaines de ces expériences ont été perçues de manière plus positive ou négative que celles concernant des situations mobilisant des contenus d’une seule matière, ce qui justifie le développement d’une échelle de mesure spécifique à cet intérêt.

Cette variable perceptuelle est intéressante en vertu de l’objectif poursuivi par cette recherche puisque l’intérêt est un aspect déterminant de l’engagement scolaire, en plus d’être un facteur important dans le choix du domaine d’étude (Kier et al., 2013 ; Potvin & Hasni, 2014). La définition retenue de cette variable est alignée sur celle proposée par Hasni et Potvin (2015) ainsi que par Winninger et al. (2014), et a servi d’inspiration lors de la sélection et de la formulation des énoncés des échelles de mesure.

Sentiment d’efficacité personnelle en sciences et en mathématique

Contrairement aux deux concepts précédents, le sentiment d’efficacité personnelle (SEP) a une définition assez stable dans les écrits scientifiques. Puisqu’il joue un rôle majeur dans l’engagement d’une personne à poursuivre la réalisation d’une tâche, qu’il est fortement lié à la performance et, dans une moindre mesure, qu’il est aussi lié aux choix professionnels (Britner & Pajares, 2006 ; Galand & Vanlede, 2004), le SEP apparaît comme une variable perceptuelle intéressante au regard de l’objectif de cette recherche. Il est aussi généralement un bon prédicteur du comportement (p. ex., abandon, rejet, persévérance, tricherie, demande d’aide, etc.) dont fait preuve une personne lorsqu’elle effectue un type de tâche qu’elle connaît. C’est également un bon indicateur du résultat que cette personne peut obtenir (Bandura, 2019 ; Galand & Vanlede, 2004), et ce, peu importe son niveau réel d’aptitudes (Bandura, 1992).

Ainsi, selon Bandura (1977, 2019), le SEP est défini comme la croyance d’une personne envers sa capacité à organiser, à exécuter et à accomplir les étapes nécessaires pour produire les résultats souhaités. Cette croyance peut être influencée par de nombreux aspects, dont le plus important est l’interprétation que la personne fait de ses propres expériences passées et du contexte de réalisation de la tâche demandée (Bandura, 2007).

En contexte d’apprentissage, le SEP revêt une importance particulière puisqu’un élève aura davantage tendance à commencer une tâche, à s’y investir et à persister dans celle-ci si son SEP pour ce type de tâche est fort. En s’appuyant principalement sur les nombreux écrits de Bandura des quatre dernières décennies, mais aussi sur certains écrits en enseignement de la mathématique (p. ex., Skaalvik et al., 2015) et des sciences (p. ex., Kiran & Sungur, 2012), le SEP en sciences est compris comme la croyance de l’élève au regard de sa capacité à s’engager et à réussir une tâche de nature scientifique. De manière analogue, le SEP en mathématique est compris comme la croyance de l’élève quant à sa capacité à s’engager dans une tâche de nature mathématique et à la réussir. La définition ainsi formulée est en adéquation avec ce que Britner (2002) ainsi que Toland et Usher (2016) proposent dans leurs travaux.

Perception du lien entre la mathématique et les sciences

Le mot perception semble autant utilisé pour étudier les sensations que les sens permettent de ressentir (p. ex., perception visuelle) que pour étudier la conception, l’opinion ou le point de vue qu’une personne a sur un objet donné. C’est évidemment à ce second sens que nous référons. Aucune définition précise pour cette acception du mot dans les écrits scientifiques consultés n’a été trouvée, même s’il est fréquemment utilisé. De manière générale, il semble que ce mot, dans cette utilisation à tout le moins, soit de sens courant et qu’il ne soit pas défini explicitement.

À défaut d’une définition provenant de la littérature, nous définissons la perception de l’existence du lien entre la mathématique et les sciences comme la capacité de l’élève à reconnaître la présence de connexions ou de rapprochements entre les contenus issus de la mathématique et des sciences lors d’une situation d’apprentissage intégrative. En toute cohérence avec notre définition de l’intégration, ce sont à la fois les savoirs, les stratégies et les compétences de chacune des deux disciplines qui sont considérés. En somme, lorsque l’élève perçoit l’existence d’un lien entre ces deux matières, il a conscience de la mobilisation de contenus appartenant à ces deux disciplines. Non seulement cette définition est un apport intéressant de cet article, mais il semble également qu’aucune échelle de mesure existante n’ait cherché à mesurer ce concept.

MÉTHODOLOGIE

Le Questionnaire sur l’intégration de la mathématique et des sciences (QIMS) mesure les six concepts définis dans la section précédente et a été développé suivant le processus d’élaboration d’un questionnaire proposé par Dussault et al. (2007). Ce processus d’élaboration comporte sept étapes : 1) le choix des variables à mesurer, 2) la création d’une banque d’énoncés, 3) le choix du format, 4) l’évaluation des énoncés par des experts, 5) le prétest, 6) le test auprès de la population cible et 7) la vérification de la structure factorielle. L’essentiel des étapes 1 à 4 est présenté dans cette section, tandis que les résultats obtenus aux étapes 5 à 7 sont présentés à la section suivante.

Élaboration du QIMS : choix des énoncés préliminaires (étapes 1 à 4)

L’étape 1 du processus, soit le choix des variables à mesurer, a été précisée et justifiée dans les sections précédentes.

La création de la banque d’énoncés (étape 2) pour mesurer l’intérêt (pour les sciences et pour la mathématique) et le SEP (en sciences et en mathématique) s’est faite en grande partie à partir d’échelles de mesure existantes et ayant déjà subi un processus de validation. Dans la version préliminaire du QIMS, des énoncés originaux ont été ajoutés à l’échelle de mesure du SEP en mathématique de Toland et Usher (2016) ainsi qu’à celle du SEP en sciences de Britner (2002). Ces nouveaux énoncés découlent de la progression des apprentissages en sciences et en mathématique pour le 3e cycle du primaire (MELS, 2009). Puisque les échelles de mesure des variables perceptuelles de l’intérêt pour les situations qui intègrent la mathématique aux sciences et de la perception du lien existant entre les sciences et la mathématique sont inédites, les énoncés ont été rédigés par l’équipe de recherche en s’inspirant en partie du modèle élaboré par Berlin et White (1994). Ce modèle propose des orientations générales pour comprendre l’intégration, et les auteurs suggèrent divers aspects à prendre en considération afin de réussir l’intégration entre les sciences et la mathématique en classe.

Tous les énoncés ont également été soumis à un groupe de quatre experts du domaine (deux chercheurs en didactique des sciences et deux chercheurs en didactique de la mathématique) pour une vérification de leur contenu et de leur pertinence (étape 4). Deux enseignants travaillant dans des écoles situées en milieu défavorisé se sont également assurés que les termes utilisés étaient adaptés aux élèves visés par notre étude. Le Tableau 1 présente, pour chacune de ces six variables perceptuelles, le nom de l’échelle de mesure, l’origine des énoncés, le nombre d’énoncés retenus ainsi qu’un exemple d’énoncé.

Tableau 1

Composition préliminaire de chacune des échelles de mesure du QIMS

Composition préliminaire de chacune des échelles de mesure du QIMS

-> Voir la liste des tableaux

Cette version préliminaire des échelles de mesure du QIMS contient un total de 52 énoncés. Concernant le choix du format (étape 3), tous les énoncés utilisés dans le QIMS (tant dans sa version préliminaire que finale) sont accompagnés d’une échelle de Likert à quatre niveaux (de « tout à fait en désaccord » à « tout à fait d’accord »). Chaque niveau de l’échelle est illustré au moyen d’un emoji (visage présentant une émotion) permettant aux élèves de mieux se représenter leur signification (voir Tableau 2). Ce nombre de graduations (qui a été réduit comparativement aux échelles originales) et cette représentation graphique ont été choisis puisqu’il semble que les élèves du primaire provenant d’un milieu défavorisé n’aient pas nécessairement la capacité de bien s’autoévaluer sur une échelle à six niveaux ou plus (Smith et al., 2003). De plus, selon Toland et Usher (2016) ainsi que Smith et al. (2003), l’échelle à quatre niveaux donne des résultats qui respectent les prémisses de la loi normale de manière similaire à une échelle à six niveaux ou plus.

Tableau 2

Niveaux de l’échelle de Likert utilisés dans le QIMS

Niveaux de l’échelle de Likert utilisés dans le QIMS

-> Voir la liste des tableaux

Parmi les énoncés, cinq en provenance de deux échelles n’étaient disponibles qu’en anglais (Wininger et al., 2014 ; Toland et Usher, 2016). Afin d’effectuer la traduction, un comité a été mis en place (Massoubre et al., 2002). Ce dernier était composé de deux chercheurs bilingues de l’équipe qui ont traduit chacun des énoncés sans se consulter. Par la suite, deux autres chercheurs bilingues en didactique des sciences ont, chacun de leur côté, retraduit vers l’anglais la traduction française des énoncés. Finalement, les membres de cette seconde équipe ont comparé leur traduction pour en arriver à une formulation commune la plus conforme possible à l’énoncé original en anglais. Les traductions des énoncés se sont toutes avérées similaires.

Procédure de passation du QIMS

Ce projet de recherche a reçu l’approbation des comités d’éthique à la recherche de tous les établissements desquels provenaient les chercheurs ainsi que la convenance institutionnelle auprès des commissions scolaires (désormais appelées centres de services scolaires) impliquées dans le projet, et ce, avant le début du recrutement des participants.

Les élèves recrutés pour participer à l’élaboration de ce questionnaire proviennent d’écoles primaires de la région métropolitaine de Montréal, et ce, tant pour le prétest que pour le test. Les écoles sont toutes situées en milieu multiethnique et considérées comme étant très défavorisées puisque leur indice de défavorisation est de 8 ou plus sur 10 (MEES, 2020). Dans le but d’améliorer l’homogénéité de l’échantillon, tous les élèves proviennent du 3e cycle du primaire (5e ou 6e année) et sont donc âgés de 10 à 12 ans. Tous les élèves ont participé de manière volontaire à cette recherche et pouvaient à tout moment décider de se retirer, en dépit du consentement obtenu préalablement. Aucune question ne leur était alors posée et aucune justification ne leur était demandée.

Après la présentation du projet par les chercheurs, le consentement écrit d’un parent ou d’un tuteur légal a été obtenu pour chaque élève. Le formulaire de consentement pour le prétest a été envoyé à la maison par le biais de l’élève et a été récupéré en classe dans les jours suivants. Pour l’échantillon du test, le formulaire de consentement a majoritairement été signé lors de la rencontre de parents au début de l’année scolaire, où un assistant de recherche s’est déplacé. Il a aussi été spécifié aux parents que l’enseignant n’aurait pas accès aux données issues du questionnaire et qu’un refus de participer à l’étude n’aurait aucun impact sur les résultats scolaires de leur enfant.

Lors de la passation des questionnaires, un assistant de recherche était toujours présent pour assister l’enseignant et pour s’assurer de l’uniformité de la procédure d’une classe à l’autre. L’enseignant avait la responsabilité de lire les énoncés du questionnaire à sa classe. Puisqu’il connaissait bien ses élèves, il pouvait anticiper les difficultés des élèves, adapter le rythme de la passation ou demander de l’aide à l’assistant de recherche. Une fois tous les questionnaires remplis, un élève circulait pour récupérer les copies anonymisées des autres élèves. Puis, il les mettait sans regarder dans une enveloppe, qu’il cachetait devant la classe.

Le temps de passation moyen du questionnaire lors du prétest a été d’environ 45 minutes et de 30 minutes pour le test. Pendant la passation des questionnaires, les élèves pour lesquels le consentement n’avait pas été obtenu ou qui ne souhaitaient pas participer à la recherche ont effectué du travail personnel (p. ex., lecture, étude, devoir, etc.).

Échantillon du prétest et du test

L’échantillon du prétest est composé de 126 élèves (54 garçons, 71 filles, 1 élève n’a pas indiqué son genre) d’âge moyen de 11,68 ans (ET = 0,73) répartis dans 7 classes de 2 écoles primaires en milieu défavorisé. De ces 126 élèves, 64 (51 %) ont indiqué parler majoritairement le français à la maison. Le niveau de français de tous les élèves, selon leur enseignant, était suffisant pour bien comprendre les énoncés du questionnaire.

L’échantillon du test, quant à lui, est composé de 1553 élèves (620 garçons, 709 filles, 234 élèves n’ont pas indiqué leur genre) d’âge moyen de 11,66 ans (ET = 0,67) provenant de 96 classes réparties dans 19 écoles primaires en milieu défavorisé. Parmi les 1361 élèves ayant répondu à la question concernant la langue principale parlée à la maison, 734 élèves (54 %) ont répondu que c’était le français.

Analyse des données

Toutes les données ont été saisies à deux reprises par des assistants de recherche différents afin d’identifier les erreurs de codage. Elles ont été analysées à l’aide du logiciel SPSS (version 24). Les coefficients alpha de Cronbach (α) sont utilisés pour vérifier la cohérence interne des échelles de mesure retrouvées dans le QIMS. La valeur minimale acceptée est α = 0,7, comme le propose Nunnally (1978). De plus, des énoncés pouvaient être retirés s’ils n’étaient pas distribués normalement (Howell, 2012).

Lors des analyses en composantes principales (ACP), la méthode des valeurs propres est utilisée pour déterminer le nombre de composantes à extraire. Par ailleurs, le poids factoriel d’un énoncé doit être supérieur à 0,3 pour être attribué à une composante (Field, 2017).

Lors d’une ACP, les indices de Kaiser-Mayer-Olkin (KMO) doivent être supérieurs à 0,6 et les tests de sphéricité de Bartlett doivent être significatifs (p < 0,05) pour confirmer la pertinence de réaliser une ACP (Tabachnick et Fidell, 2019).

Les indices d’ajustement choisis pour les AFC de l’échantillon ont été réalisés à l’aide du logiciel R (version 3.6.1) et proviennent des recommandations de Kline (2019) et de Hu et Bentler (1999). Les indices d’erreur quadratique de l’approximation (RMSEA) sont considérés comme acceptables lorsqu’ils sont inférieurs à 0,08 et bons lorsqu’ils sont inférieurs à 0,05 (Hu & Bentler, 1999). Les indices d’ajustement comparatif (CFI) sont acceptables lorsqu’ils sont supérieurs à 0,95 (Hu & Bentler, 1999). Les indices de la valeur moyenne quadratique pondérée (SRMR) sont acceptables lorsqu’ils sont inférieurs à 0,08 et bons lorsqu’ils sont inférieurs à 0,06 (Hu & Bentler, 1999). L’utilisation de l’indice de Tucker-Lewis (TLI) comme mesure d’adéquation du modèle est contestée par Kline (2019), tout particulièrement lorsque l’échantillon est de taille importante, ce qui est le cas dans cette étude. Il n’a donc pas été retenu aux fins d’analyse.

RÉSULTATS

Les résultats du prétest et les ajustements apportés au questionnaire entre la version préliminaire et la version test sont d’abord présentés. Par la suite, les résultats obtenus lors du test auprès de la population le sont également.

Résultats du prétest (étape 5)

Dans la version préliminaire du QIMS, un grand nombre d’énoncés a volontairement été intégré de manière à pouvoir sélectionner ceux apparaissant comme les plus pertinents à la suite du prétest. Ainsi, 52 énoncés ont été prétestés auprès de l’échantillon de 126 élèves des deux écoles situées en milieu défavorisé. Les énoncés complets de la version préliminaire sont disponibles à l’Annexe 1 (Tableau 7).

Une ACP par échelle de mesure a été réalisée puisque chacune est considérée comme unidimensionnelle. Les indices KMO sont tous supérieurs à 0,6 et les tests de sphéricité de Bartlett sont systématiquement inférieurs à p < 0,001, ce qui confirme la pertinence de réaliser une ACP (Tabachnick & Fidell, 2019). Pour chacune des échelles, la méthode des valeurs propres a extrait une seule composante. Les résultats pour les échelles de mesure du prétest ainsi que les statistiques descriptives sont présentés dans le Tableau 3. Les matrices de corrélation inter-énoncés de chacune de ces échelles se retrouvent à l’Annexe 1 (Tableaux 8 à 13).

Des coefficients alpha de Cronbach ont été calculés pour vérifier la cohérence interne de chacune des échelles de mesure de la version préliminaire du QIMS. Toutes les valeurs obtenues (0,82-0,93) dépassent le seuil de 0,7 recommandé par Nunnally (1978). Les poids factoriels sont également acceptables puisqu’ils sont tous supérieurs à 0,3 (Field, 2017).

Deux énoncés ont été réécrits puisque certains termes sont apparus ambigus lors de la passation du questionnaire auprès des élèves. Dans l’objectif de réduire la taille globale du questionnaire, 9 énoncés ont été retirés, soit 2 énoncés dans l’échelle de mesure de l’intérêt pour la mathématique, 5 énoncés dans celle de l’intérêt pour le lien entre les sciences et la mathématique, et 2 énoncés dans celle de la perception du lien entre les sciences et la mathématique. En effet, les résultats liés à ces énoncés ne sont pas distribués normalement (Howell, 2012).

Tableau 3

Indices de fidélité par échelle de mesure à la suite des ACP de la version préliminaire

Indices de fidélité par échelle de mesure à la suite des ACP de la version préliminaire

Note. *** = p < 0,001.

-> Voir la liste des tableaux

L’étude des matrices de corrélation entre les énoncés des échelles a permis de constater que certaines composantes contenaient des énoncés corrélés avec des valeurs inférieures à 0,3 (Crocker & Algina, 2006). Toutefois, dans le contexte où la taille de l’échantillon du prétest était petite (n = 126), il a été décidé de ne pas systématiquement procéder au retrait de tels énoncés, entre autres lorsque la consistance interne de l’échelle de mesure était affectée négativement (α) ou lorsqu’il était possible de préserver intacte l’échelle de mesure en provenance de la littérature (p. ex., celle du SEP en sciences).

Résultats du test auprès de la population (étapes 6 et 7)

Cette version revue des échelles de mesure du QIMS (voir Annexe 2, Tableau 14) contient 43 énoncés et a été distribuée à 1553 élèves provenant de 96 classes réparties dans 19 écoles en milieu défavorisé de la région de Montréal.

L’échantillon a d’abord été scindé en deux de manière aléatoire afin de réaliser des ACP (n = 778 élèves) et des AFC (n = 785 élèves) sur des parties distinctes de l’échantillon. Il est possible de faire ces analyses en raison de la grande taille de l’échantillon de départ. Le Tableau 4 présente les résultats obtenus à la suite de ces ACP. Les indices KMO, tous supérieurs à 0,6, ainsi que les tests de sphéricité de Bartlett, tous significatifs, confirment encore une fois la pertinence de réaliser des ACP pour chacune des échelles de mesure (Tabachnick et Fidell, 2019).

Tableau 4

Indices de fidélité par échelle de mesure à la suite des ACP de la version finale

Indices de fidélité par échelle de mesure à la suite des ACP de la version finale

Note. *** = p < 0,001.

-> Voir la liste des tableaux

Les coefficients alpha de Cronbach des échelles de mesure sont supérieurs à 0,7 (Nunally, 1978) et sont cohérents avec les valeurs obtenues précédemment. Par ailleurs, les poids factoriels obtenus sont adéquats, car ils sont tous supérieurs à 0,3 (Field, 2017). La matrice de corrélation entre les énoncés de chacune des échelles de mesure est disponible à l’Annexe 2 (Tableaux 15 à 20). Les corrélations entre chacune de ces échelles sont présentées à l’Annexe 2 (Tableau 21).

Des AFC ont ensuite été réalisées sur les échelles de mesure. Les paramètres des AFC sont estimés par la méthode du maximum de vraisemblance. Le Tableau 5 regroupe les indices d’ajustement retenus pour évaluer la qualité des modèles.

Tableau 5

Indices d’ajustement par modèle à la suite des AFC de la version finale

Indices d’ajustement par modèle à la suite des AFC de la version finale

-> Voir la liste des tableaux

Comme nous l’avons mentionné dans la méthodologie, les indices d’ajustement choisis pour étudier les échelles de mesure du QIMS proviennent des recommandations de Kline (2019) ainsi que de Hu et Bentler (1999). Les indices d’erreur quadratique moyenne de l’approximation (RMSEA) sont tous inférieurs à 0,08, ce qui correspond à un ajustement acceptable (Bentler, 2006) pour chacun des facteurs. Les indices d’ajustement comparatif (CFI) sont également acceptables puisqu’ils sont systématiquement supérieurs à 0,95 (Hu & Bentler, 1999). Quant aux indices de la valeur moyenne quadratique pondérée (SRMR), ils sont bons puisqu’ils sont tous inférieurs à 0,06 (Hu & Bentler, 1999). Bien que la valeur du CFI soit égale à 1 pour les modèles de l’intérêt pour le lien et de la perception du lien entre les sciences et la mathématique, ceux-ci ne sont pas saturés puisque la SRMR est non nulle et que la RMSEA possède un intervalle de confiance.

Scores aux échelles de mesure

Les six échelles de mesure qui composent le QIMS sont mesurées à l’aide d’échelles de Likert graduées de 1 (tout à fait en désaccord) à 4 (tout à fait d’accord). Les scores présentés dans le Tableau 6 correspondent à la moyenne calculée à partir de tous les énoncés de chacune des échelles de mesure.

Tableau 6

Moyenne des scores descriptifs de chacune des échelles de mesure

Moyenne des scores descriptifs de chacune des échelles de mesure

Note. Les données ont été calculées à partir des résultats des 1457 élèves ayant répondu à tous les énoncés de chacune des 6 échelles de mesure. Les corrélations entre les échelles de mesure sont disponibles au Tableau 21 de l’Annexe 2.

-> Voir la liste des tableaux

Les scores moyens de chacune des trois échelles de mesure d’intérêt se situent au-dessus de la valeur médiane (2,5), ce qui signifie que les élèves ont, en moyenne, un bon intérêt pour les sciences, pour la mathématique et pour les situations qui intègrent des contenus mathématiques à des situations d’apprentissage de nature scientifique. Les élèves possèdent aussi un fort SEP, et ce, tant en sciences qu’en mathématique. Finalement, en moyenne, ils perçoivent aussi le lien qui existe entre les sciences et la mathématique.

DISCUSSION

Cet article poursuivait l’objectif de rapporter les résultats du processus de validation des six échelles de mesure du Questionnaire sur l’intégration de la mathématique et des sciences (QIMS).

L’élaboration de ces échelles de mesure était nécessaire en raison des lacunes identifiées dans la littérature scientifique, notamment le manque d’instruments permettant de mesurer les variables perceptuelles à l’étude (intérêt et SEP) dans le contexte de l’enseignement primaire auprès d’élèves issus d’un milieu défavorisé. Cet outil répond aussi au besoin grandissant d’évaluation d’interventions qui proposent une intégration de la mathématique aux sciences.

Afin d’élaborer et de guider le processus de validation des échelles de mesure constituant le QIMS, la démarche proposée par Dussault et al. (2007) a été retenue. Ce choix s’est avéré judicieux puisque cette démarche donne une grande rigueur au processus et permet d’appuyer les inférences faites à partir des données obtenues avec les échelles de mesure développées. Ces dernières possèdent de bonnes assises théoriques, dans la mesure où une recension de questionnaires existants a été réalisée et où un comité d’experts du domaine a révisé les énoncés choisis. De plus, les outils statistiques employés dans les différentes étapes d’analyses statistiques (alpha de Cronbach, matrices de corrélation, ACP et AFC, etc.) permettent de conclure que les échelles du questionnaire possèdent de bonnes qualités psychométriques.

L’analyse des résultats fournit des preuves de validité appuyant la structure interne de chacune des échelles de mesure du QIMS. Les résultats obtenus pour les échelles mesurant séparément le SEP et l’intérêt envers chacune des disciplines sont conformes à ceux obtenus par les chercheurs ayant développé des questionnaires similaires (Britner, 2002 ; Hasni & Potvin, 2015 ; Toland & Usher, 2016 ; Wininger et al., 2014). Pour les deux échelles de mesure de SEP, quelques nouveaux énoncés ont été proposés en utilisant la liste des contenus d’apprentissage retrouvés dans le programme scolaire québécois (MELS, 2009). Ils permettent de mieux contextualiser le questionnaire en fonction des apprentissages que les élèves québécois réalisent réellement à la fin de l’école primaire, mais ils sont aussi suffisamment généraux pour être transférés à d’autres contextes. Par exemple, pour le SEP en mathématique, un énoncé permettant de vérifier si les élèves sont en mesure de faire une prédiction ou une hypothèse concernant un exercice de mathématique a été ajouté. De manière analogue, pour le SEP en sciences, quelques énoncés comme celui permettant de vérifier si les élèves sont en mesure de proposer une explication à un problème scientifique ont été ajoutés. Les résultats obtenus pour ces énoncés semblent indiquer qu’ils sont pertinents et qu’ils appartiennent à la bonne échelle de mesure.

Dans le QIMS, deux nouvelles échelles de mesure sont proposées : celle permettant de mesurer l’intérêt des élèves pour les situations intégrant la mathématique à des situations de nature scientifique et celle permettant de mesurer la perception du lien qui existe entre ces deux disciplines. Chacune de ces deux échelles de mesure contient quatre énoncés originaux comme « Faire des sciences et des mathématiques ensemble dans une même activité me rend heureux ». Puisqu’il s’agit de nouvelles échelles, ce sont ces dernières qui ont été ajustées le plus fortement lors du processus de validation. Les résultats indiquent que ces nouvelles échelles de mesure présentent de bonnes qualités psychométriques et qu’elles mesurent bien leur variable perceptuelle respective. À notre connaissance, il s’agit du premier questionnaire permettant de mesurer ces variables perceptuelles.

Les scores obtenus à partir de ces échelles de mesure au moment du test auprès de la population cible (étape 6 de la démarche d’élaboration) permettent de penser que les élèves ont un intérêt pour ce type de situation d’apprentissage et qu’ils sont capables de percevoir les liens existants entre les deux disciplines. Bien que plus de recherches soient nécessaires pour l’affirmer avec plus de certitude, l’important à ce point-ci est de constater que les valeurs obtenues ne sont pas extrêmes et qu’une intervention pourrait éventuellement venir modifier significativement les perceptions d’élèves. Le score de l’intérêt pour les sciences est le plus élevé, mais il s’apparente aux résultats obtenus pour le même groupe d’âge dans d’autres recherches (Lamb et al., 2012 ; Potvin & Hasni, 2014). Finalement, le score de l’intérêt pour les sciences et celui de l’intérêt pour la mathématique peuvent aussi paraître élevés, mais ils s’apparentent à ceux obtenus par d’autres chercheurs (Ganley & Lubienski, 2016 ; Potvin et Hasni, 2014).

LIMITES ET PERSPECTIVES

Le QIMS est bien adapté à la population précise pour laquelle il a été développé, soit les élèves de 10 à 12 ans fréquentant une école québécoise francophone en milieu défavorisé et multiculturel. En ce sens, l’échantillon utilisé dans le cadre de cette recherche est tout à fait approprié puisqu’il est de bonne taille. Naturellement, il s’agit d’un échantillon de convenance et il pourrait ainsi ne pas être totalement représentatif de la population cible. Il serait sans doute possible d’utiliser le QIMS ou une de ses échelles de mesure avec des élèves d’autres groupes d’âge ou d’autres milieux sociodémographiques, mais un processus de validation serait alors nécessaire. La version préliminaire des échelles du QIMS contenait volontairement beaucoup d’énoncés (n = 52). Le questionnaire final, qui contient 43 énoncés, a permis de limiter le temps de passation à environ 30 minutes, ce qui semble raisonnable, considérant que le questionnaire contient 6 échelles de mesure différentes.

En plus des avenues de recherche déjà mentionnées dans la discussion, il serait intéressant de vérifier s’il existe aussi un SEP propre aux activités qui intègrent la mathématique aux sciences et, le cas échéant, s’il est possible de développer une échelle pour le mesurer. Il serait tout aussi pertinent de vérifier l’utilité du QIMS dans un contexte d’intervention ou d’évaluation de programme proposant des activités de nature scientifique où est intégrée de la mathématique.