Corps de l’article

Introduction

Il est connu que certains étudiants répondent de façon inappropriée aux épreuves d’évaluation. Par exemple, ils peuvent répondre au hasard à une série d’items (Hendrawan, Glas & Meijer, 2005 ; Karabatsos, 2003 ; Kogut, 1987 ; Meijer, Muijtjens & van der Vleuten, 1996). Dans cette situation, des étudiants dont l’habileté est plutôt faible tenteraient la chance en répondant, sans réfléchir, aux items du test. Des étudiants peuvent aussi être inattentifs (Emons, Glas, Meijer & Sijtsma, 2003 ; Karabatsos, 2003 ; Raîche, Magis, Blais & Brochu, 2012). Ce comportement touche alors les sujets qui présentent une habileté élevée et qui n’auraient pas obtenu de bonnes réponses à des items qu’ils devraient normalement maîtriser.

Plusieurs approches ont déjà été développées pour détecter les individus qui répondent au hasard ou qui sont inattentifs dans une situation de testing (Zickar & Drasgow, 1996). Parmi celles-ci, l’utilisation d’indices de détection (person-fit indexes) de patrons de réponses inappropriés est certainement celle qui est la plus étudiée et qui semble la plus prometteuse (Karabatsos, 2003 ; Sijtsma & Meijer, 2001).

La majorité des auteurs s’entendent pour déclarer que les indices de détection de patrons de réponses inappropriés peuvent être classés en deux grandes catégories : les indices qui ne reposent pas sur les paramètres de la théorie de la réponse à l’item (appelés indices non paramétriques) et les indices qui s’y réfèrent (appelés indices paramétriques). Notons que la seconde catégorie d’indices présente plusieurs avantages, dont celui d’être plus faciles à interpréter puisque leurs scores suivent généralement les quantiles d’une distribution connue, par exemple la loi normale.

Dans le cadre de cet article, nous nous centrerons sur trois indices de détection paramétriques qui présentent des caractéristiques permettant d’en faciliter l’interprétation : lz (Drasgow, Levine & Williams, 1985), ZU (selon Karabatsos, 2003) et ZW (selon Karabatsos, 2003). Toutefois, il s’est avéré que ces indices sont tous fortement modifiés par le fait que, l’habileté réelle d’un étudiant étant généralement inconnue, elle doit être estimée, ce qui a un impact non négligeable et biaisant sur le calcul des indices de détection (Li & Olejnik, 1997 ; Molenaar & Hoijtink, 1990). Pour contrer cet effet, Snijders (2001) a proposé une version corrigée de l’indice lz, utilisée dans les écrits scientifiques sous la notation lz*, et qui règlerait ce problème.

Magis, Béland et Raîche (2014) ont déjà appliqué la correction de Snijders (2001) pour créer les indices modifiés U* et W*. Par contre, il reste à faire des analyses afin de mieux comprendre leur comportement. Dans ce dessein, nous examinerons le comportement des indices corrigés lz*, U* et W* ainsi que des indices standardisés lz, ZU et ZW à partir de deux études, soit : une analyse de leurs erreurs de type I empiriques et théoriques ainsi qu’une analyse de leur puissance de détection.

La suite de cet article est divisée en quatre sections. Dans la prochaine section, le cadre théorique est explicité. Ensuite, une deuxième section décrit le devis méthodologique du projet. La troisième section présente les résultats des deux études effectuées, soit l’analyse des erreurs de type I empiriques et théoriques et l’analyse de la puissance des indices. La discussion, dans la quatrième section, sera suivie par la conclusion.

Cadre théorique

Le calcul des indices de détection paramétriques nécessite l’utilisation d’un modèle probabiliste. Dans le cadre de cet article, nous sélectionnerons le modèle de Rasch (1960). Ce choix est basé sur le fait que cette modélisation est très utilisée dans l’industrie des tests psychométriques et dans les milieux universitaires. Mentionnons aussi que c’est une généralisation de cette modélisation, appelée en anglais le mixed-coefficients multinomial logit model (Adams & Wu, 2007), qui a été utilisée pour analyser les données du test PISA 2012.

En contexte scolaire, le modèle de Rasch à réponse dichotomique permet de calculer la probabilité qu’un répondant obtienne une bonne réponse à un item en se basant uniquement sur la difficulté de l’item. Supposons que xi (xi = 0 ou 1) représente la réponse dichotomique du répondant à l’item i. Mathématiquement, nous écrivons ce modèle comme suit :

θ est le paramètre d’habileté du sujet et bi le paramètre de difficulté de l’item. Ce modèle présente l’avantage de mettre sur une même unité de mesure l’habileté du répondant et la difficulté de l’item. Cela facilite l’interprétation de ces paramètres puisqu’ils peuvent être construits sur l’algèbre des scores standardisés, ou scores z, à moyenne égale à 0 et à variance égale à 1. Enfin, les paramètres contenus dans l’équation 1 peuvent être estimés à l’aide de plusieurs méthodes qui ont déjà été présentées en détail par Baker et Kim (2004), par Hambleton et Swaminathan (1985) et par Lord (1980).

Les indices de détection paramétriques

À la base, le score produit par un indice de détection ne donne pas beaucoup d’information permettant de juger de la qualité d’un patron de réponses. Pour que ce score soit intelligible, le chercheur doit établir une valeur-seuil (cut score) qui servira à discriminer les patrons de réponses appropriés et les patrons de réponses qui ne le sont pas. Les écrits scientifiques ont démontré que les indices paramétriques sont plus faciles à interpréter, car ils sont beaucoup plus nombreux à présenter des valeurs-seuils connues (Sijtsma & Meijer, 2001).

Dans une situation où le score d’un indice suit les quantiles d’une loi de probabilité connue, il est possible d’interpréter ce score à l’aide d’un test d’hypothèses classique. Les sections suivantes présentent deux catégories d’indices qui peuvent être interprétés à partir d’un tel test d’hypothèses.

Les indices de type vraisemblance

Initialement présenté par Levine et Rubin (1979), l’indice l0 calcule le maximum du logarithme népérien de la vraisemblance d’un patron de réponses :

Qi(θ) = 1–Pi(θ). Cette approche permet de déterminer jusqu’à quel point le vecteur de réponses examiné se conforme aux probabilités prévues par le modèle (par exemple, le modèle de Rasch). Dans la situation où l’étudiant répond conformément à l’un de ces modèles, la fonction de vraisemblance tendra à atteindre sa valeur maximale. À l’opposé, plus le résultat de l0 serait faible, plus le vecteur de réponses s’écarterait du modèle établi sur la base de l’ensemble des vecteurs normatifs, les résultats du répondant pouvant alors être considérés comme étant inappropriés.

Bien qu’intéressant, cet indice présente un problème de taille : son interprétation est difficile, car il n’est pas indépendant de l’habileté estimée d’un étudiant et il n’existe pas de valeur butoir à partir de laquelle un patron de réponses est considéré comme étant inapproprié. Pour ces raisons, Drasgow, Levine et Williams (1985) ont développé une version standardisée de l0 : l’indice lz. Mathématiquement, lz est une mise en scores z des résultats obtenus par l’approche de Levine et Rubin (1979) :

Selon Drasgow et ses collaborateurs, cette transformation permettrait à lz de se distribuer approximativement selon les quantiles d’une loi normale N(0,1) lorsque les épreuves d’évaluation présentent suffisamment d’items. Par exemple, si le seuil de signification de la déviance du patron de réponses attendu α est fixé à 0,01, l’obtention d’une valeur inférieure au point de coupure -2,33 permettra de considérer que les réponses qu’a fournies un étudiant à une épreuve d’évaluation sont inappropriées.

Bien que cet indice soit le plus cité dans les recherches en mesure et en évaluation en éducation, son interprétation ne serait pas sans problèmes. En effet, Molenaar et Hoijtink (1990, 1996) ainsi que Nering (1995, 1997) ont déjà démontré que la distribution de cet indice ne suivrait pas exactement les quantiles d’une loi normale lorsque l’habileté θ d’un étudiant est estimée à l’aide de méthodes telles que la méthode du maximum de vraisemblance, la méthode d’estimation du maximum a posteriori ou la méthode du maximum de vraisemblance pondérée. De plus, cet indice est moins efficace dans le cadre de tests contenant un nombre limité d’items (Li & Olejnik, 1997).

D’un autre côté, lz semble présenter une bonne puissance de détection. Par exemple, Drasgow, Levine et McLaughlin (1987) ainsi que Raîche (2002) et Raîche et Blais (2003) ont procédé à la comparaison de plusieurs indices et ils ont démontré que lz avait une excellente puissance de détection. Karabatsos (2003) fait le même constat en comparant 36 indices : lz est l’un des indices paramétriques qui présentent le plus haut pourcentage de détection.

Les indices de type carré moyen

Wright et Stone (1979) ont développé l’indice U, aussi appelé outfit mean square (littéralement « carré moyen déviant »), qui peut être noté comme suit :

Pi (θ) est une moyenne et Pi (θQi (θ) une variance. Il est important de comprendre que U n’est pas une statistique pondérée, ce qui lui confère une grande sensibilité aux scores extrêmes par rapport à la difficulté de chacun des items ou à l’habileté des personnes.

Selon Karabatsos (2003), cet indice peut être standardisé en s’inspirant de la transformation Wilson-Hilferty :

Avec cette transformation, ZU devrait asymptotiquement suivre les quantiles d’une loi normale.

L’indice W (Wright & Masters, 1982), aussi appelé infit mean square, est un indice pondéré qui donne plus de poids aux protocoles de réponses dont le score est près de la difficulté de chacun des items ou de l’habileté. Pour cette raison, plusieurs le préfèrent à U. Mathématiquement, W s’écrit de la façon suivante :

Encore ici, il est possible d’appliquer la même standardisation que pour U et ainsi d’obtenir ZW (Karabatsos, 2003) :

Les indices ZU et ZW ont été étudiés dans quelques études. Ainsi, Drasgow, Levine et McLaughlin (1987), Li et Olejnik (1997) ainsi que Noonan, Boss et Gessaroli (1992) ont démontré que ZU et ZW ne suivent pas vraiment les quantiles d’une loi normale. Enfin, Al-Mahrazi (2003) a démontré que la puissance de détection des indices ZU et ZW était limitée. Il recommande même d’éviter d’utiliser ces indices puisqu’ils sont très fortement affectés par certaines caractéristiques du test (par exemple, le nombre d’items ou la valeur des paramètres d’items estimés).

Les solutions déjà proposées pour tenir compte du fait que l’habileté doit être estimée

Dans les écrits scientifiques portant sur les indices de détection de patrons de réponses inappropriés, Sijtsma et Meijer (2001) ont soulevé l’importance de chercher de nouvelles solutions afin de pallier le fait que l’habileté réelle d’un répondant étant inconnue, elle doive être estimée, et que l’utilisation d’un niveau estimé est un problème si la validité de l’indice de détection dépend des aléas de l’estimation. À ce jour, seuls quelques auteurs se sont penchés sur ce problème (Glas & Meijer, 2003 ; Raîche & Blais, 2005 ; Raîche, Magis, Blais & Brochu, 2012). À cause de sa flexibilité et parce qu’elle a été étudiée par quelques auteurs, nous nous concentrerons uniquement sur la correction proposée par Snijders (2001).

La correction de Snijders

Snijders (2001) a développé un indice, nommé lz*, qui permettrait de corriger la moyenne et la variance de la distribution de lz (voir l’équation 3). D’abord, cet auteur démontre que lz peut être réécrit sous la forme simplifiée suivante :

où le numérateur est égal à :

Dans l’équation 11, w(θ) est un facteur permettant de pondérer les écarts entre la réponse à un item et la probabilité d’obtenir une bonne réponse à cet item : xi Pi (θ) Sachant que xi est une variable de type Bernoulli, WI (θ) présente une moyenne et une variance qui sont respectivement égales à :

(Snijders, 2001, p. 332-335). Ainsi, pour établir la forme que prend lz à l’équation 10, nous devons fixer la pondération w(θ), qui est présentée à l’équation 11, à :

en déduisant que 

Enfin, la correction de Snijders (2001) de l’indice lz peut s’écrire :

sachant que r(θ) dépend de la méthode d’estimation de l’habileté (par exemple, maximum de vraisemblance ou vraisemblance maximale pondérée) et que r(θ) dépend du modèle de réponse à l’item utilisé (par exemple, le modèle de Rasch), et où la variance présente au dénominateur peut s’écrire comme suit :

sachant que la pondération modifiée est égale à :

Malgré le fait que l’article de Snijders ait été publié il y a plus de 12 ans, très peu d’études ont été conduites de façon approfondie sur cette correction. Par exemple, Van Krimpen-Stoop et Meijer (1999) ont démontré que lz et lz* obtiennent des résultats comparables en contexte de testing adaptatif. De leur côté, Sijtsma et Meijer (2001) ainsi que De la Torre et Deng (2008) ont discuté de la pertinence de cette approche pour améliorer la détection de patrons de réponses inappropriés. Enfin, Magis, Raîche et Béland (2011) ont présenté un article didactique permettant de faciliter la compréhension de l’article initial de Snijders (2001), en plus d’en faire une analyse sur un ensemble de données en langues. Leurs résultats ont démontré que lz* présente des qualités métriques supérieures à sa version non corrigée, lz.

Les indices U* et W* (Magis, Béland & Raîche, 2014)

Comme nous l’avons déjà soulevé un peu plus haut, l’indice lz peut être réécrit sous la forme suivante :

À l’aide de quelques manipulations algébriques, il est possible de transposer le format présenté à l’équation 10 aux indices U et W en fixant uniquement le poids wi(θ) approprié (équation 11). Dans le cas de U, ce facteur de poids de l’équation devient :

alors qu’il prend la forme suivante pour l’indice de détection W :

Ensuite, l’indice U* peut se réécrire sous la même forme que lz* (équation 16) :

et cette transformation est aussi applicable pour l’indice W* :

Tous les indices corrigés par Snijders (2001) sont censés être interprétés à l’aide des quantiles de la loi normale. Le lecteur intéressé trouvera plus de détails dans l’article de Magis, Béland et Raîche (2014). Leurs résultats démontrent que les indices corrigés sont généralement plus efficaces pour détecter la réponse au hasard et l’inattention que leur version non corrigée, respectivement U et W.

Méthodologie

À l’instar de la majorité des études qui ont porté sur les indices de détection de patrons de réponses inappropriés, nous avons sélectionné la simulation assistée par ordinateur pour étudier le comportement des indices standardisés lz, ZU, ZW et des indices corrigés lz*, U* et W*. Il est à noter que les considérations éthiques ne s’appliquent pas dans le cadre de cette étude puisque nous ne faisons pas intervenir de participants humains.

Les informations générales

Nous générerons deux longueurs de test (30 et 80 items). De plus, nous utiliserons le modèle de Rasch pour estimer la probabilité d’obtention d’une bonne réponse à un item. Voici la procédure appliquée pour générer les paramètres de cette simulation Monte-Carlo. Premièrement, nous nous inspirons de certains éléments de la méthodologie de Van Krimpen-Stoop et Meijer (1999) en générant cinq valeurs de θ allant de -2 à 2, soit :

Par la suite, 15 000 patrons de réponses seront simulés par valeurs de θ. Ensuite, les 30 ou 80 paramètres de difficulté bi seront générés par une pige au hasard dans la loi normale. Les paramètres θ seront estimés en utilisant la méthode du maximum de vraisemblance pondérée (Warm, 1989).

Les deux études

Les résultats seront répartis en deux études. Dans la première étude, les erreurs de détection de type I font l’objet d’examen, les protocoles de réponses ne comportant pas de patrons inappropriés. L’erreur de type I théorique est calculée à partir des seuils α de la loi normale. De son côté, l’erreur de type I empirique est calculée à partir des seuils α de la fonction de densité des scores des indices obtenus par simulation informatique. Les résultats seront présentés pour trois valeurs de α : 0,01; 0,05; et 0,1.

Dans la seconde étude, nous utiliserons la modélisation développée par Raîche, Magis, Blais et Brochu (2012) et qui est disponible dans la librairie irtProb (Raîche, 2014) du logiciel R afin de générer des patrons de réponses inappropriés. Notons qu’il existe d’autres méthodes telles que celle de Levine et Drasgow (1982), mais elles n’ont pas été retenues à cause de leur caractère artificiel. Deux paramètres de cette modélisation peuvent être utilisés pour générer des réponses au hasard et des réponses inattentives : les paramètres de pseudo-chance et d’inattention personnelle. Dans cet article, nous les utiliserons pour générer une valeur de pseudo-chance personnelle (C = 0,3) ainsi qu’une valeur d’inattention personnelle (D = 0,3). Nous rapporterons le pourcentage de détection de ces réponses inappropriées selon un seuil d’erreur α égal à 0,05.

Résultats

Les résultats des deux études sont présentés successivement dans cette section.

Étude 1

Le tableau 1 présente les résultats de l’étude des erreurs de type I sur des données avec 30 items. Au seuil α = 0,01, nous observons que ce sont les indices corrigés par la méthode de Snijders qui présentent des erreurs de type I empiriques les plus près de la valeur attendue. De plus, c’est l’indice W* qui s’en approche le plus. De leur côté, les indices standardisés ont tendance à sous-estimer l’erreur de type I théorique ; ils seraient plutôt conservateurs.

Au seuil α = 0,05, ce sont les indices lz* et W* qui présentent les erreurs de type I empiriques les plus proches de la valeur théorique. Les indices standardisés, de leur côté, présentent des erreurs empiriques systématiquement en dessous de 0,05. Notons tout de même que lz est l’indice standardisé qui s’approche le plus de l’erreur de type I théorique.

Enfin, au seuil α = 0,10, ce sont encore les indices lz* et W* qui offrent la meilleure approximation de l’erreur de type I empirique avec la valeur prescrite. De leur côté, les indices standardisés présentent des erreurs empiriques systématiquement en dessous de 0,10.

Tableau 1

Erreurs de type I empiriques (30 items)

Erreurs de type I empiriques (30 items)

-> Voir la liste des tableaux

Le tableau 2 présente les résultats pour l’étude des erreurs de type I pour 80 items. Au seuil α = 0,01, ce sont les indices lz* et W* qui présentent les erreurs de type I empiriques les plus près de l’erreur de type I théorique. De leur côté, les indices standardisés ont généralement tendance à sous-estimer l’erreur de type I théorique. Notons que la similitude entre les erreurs de type I est à son plus haut niveau lorsque θ = 0.

Au seuil α = 0,05, ce sont encore une fois lz* et W* qui présentent les erreurs de type I empiriques les plus comparables à la valeur de l’erreur de type I théorique. Les indices standardisés présentent des erreurs empiriques systématiquement en dessous du seuil α = 0,05.

Enfin, le seuil α = 0,10 explicite le fait que les indices lz* et W* présentent les plus grandes similitudes entre les erreurs de type I empiriques et l’erreur de type I théorique. De leur côté, les indices standardisés présentent des erreurs empiriques systématiquement sous la valeur de 0,05. Encore une fois, la similitude entre les erreurs de type I est à son plus haut niveau lorsque θ = 0.

Tableau 2

Erreurs de type I empiriques (80 items)

Erreurs de type I empiriques (80 items)

-> Voir la liste des tableaux

Étude 2

La figure 1 présente les pourcentages de détection de la réponse au hasard pour 30 items et lorsque le paramètre de pseudo-chance personnelle C est égal à 0,3. Lorsque θ augmente, nous remarquons que le pourcentage de patrons détectés tend à diminuer. Cela est logique puisque les individus ayant une valeur θ élevée n’ont pas besoin de deviner : ils connaissent la bonne réponse à un item et, ainsi, l’impact du paramètre de pseudo- chance personnelle C est moins important, car moins d’items difficiles sont générés à cause du protocole choisi dans cette étude. Les indices lz, lz* et W* présentent les pourcentages de détection équivalents aux valeurs -2 ≤ θ ≤ 0. Ces indices sont aussi ceux qui présentent les pourcentages de détection les plus élevés à ces mêmes valeurs. Mentionnons que c’est W* qui présente les pourcentages de détection les plus élevés lorsque θ = 1. Pour la valeur θ = 2, c’est plutôt l’indice standardisé ZU qui présente le plus haut pourcentage de détection. Ce résultat contraste grandement avec le score de cet indice pour les valeurs -2 ≤ θ ≤ 1 qui présentait les pourcentages de détection les plus faibles avec ZW.

Figure 1

Puissance des indices à détecter la réponse au hasard à valeur C = 0,3, au seuil α = 0,05 et pour 30 items

Puissance des indices à détecter la réponse au hasard à valeur C = 0,3, au seuil α = 0,05 et pour 30 items

-> Voir la liste des figures

La figure 2 présente les pourcentages de détection de l’inattention pour 30 items lorsque le paramètre d’inattention personnelle D est égal à 0,3. La relation va dans le sens inverse de celle observée à la figure précédente : lorsque θ augmente, le pourcentage de patrons détectés tend aussi à augmenter. Cela est attendu puisque ce sont les individus ayant une valeur θ élevée qui sont touchés par l’inattention (ils échouent à une question, alors qu’ils devraient obtenir une bonne réponse).

L’indice ZU présente le plus haut taux de détection à la valeur θ = -2. Notons que ce sont les deux autres indices standardisés qui présentent les pourcentages de détection les moins élevés à cette valeur. À la valeur θ = -1, c’est l’indice corrigé W* qui présente le pourcentage de détection le plus élevé. Aux valeurs 0 ≤ θ ≤ 2, les indices W*, lz et lz* présentent les pourcentages de détection les plus élevés. Notons de plus que leurs pourcentages de détection sont similaires pour ces valeurs θ.

Figure 2

Puissance des indices à détecter l’inattention à valeur D = 0,3, au seuil α = 0,05 et pour 30 items

Puissance des indices à détecter l’inattention à valeur D = 0,3, au seuil α = 0,05 et pour 30 items

-> Voir la liste des figures

La figure 3 présente les pourcentages de détection de la réponse au hasard pour 80 items lorsque C = 0,3. Nous observons que les pourcentages de détection sont légèrement plus élevés lorsque nous analysons des tests de 80 items plutôt que de 30 items. Comme dans la figure 1, nous observons que lorsque θ augmente, le pourcentage de patrons détectés tend à diminuer.

Figure 3

Puissance des indices à détecter la réponse au hasard à valeur C = 0,3, au seuil α = 0,05 et pour 80 items

Puissance des indices à détecter la réponse au hasard à valeur C = 0,3, au seuil α = 0,05 et pour 80 items

-> Voir la liste des figures

Les indices lz, lz* et W* présentent des pourcentages de détection équivalents aux valeurs -2 ≤ θ ≤ 0. Ces indices sont aussi ceux qui présentent les pourcentages de détection les plus élevés à ces valeurs de θ. C’est W* qui présente les pourcentages de détection les plus élevés au seuil θ = 1 et θ = 2. De leur côté, les indices ZU et U* présentent les pourcentages de détection les moins élevés.

La figure 4 présente les pourcentages de détection de l’inattention pour 80 items lorsque D = 0,3. Encore une fois, les pourcentages de détection sont généralement plus élevés lorsque le test comporte 80 items plutôt que 30 items.

L’indice W* présente le plus haut taux de détection aux valeurs θ = -2 et θ = -1. Aux valeurs 0 ≤ θ ≤ 2, les indices W*, lz et lz* présentent les pourcentages de détection les plus élevés. Notons de plus que leurs pourcentages de détection sont similaires. Enfin, les indices ZU et U* présentent des pourcentages de détection plus faibles que ceux des autres indices.

Figure 4

Puissance des indices à détecter l’inattention à valeur D = 0,3, au seuil α = 0,05 et pour 80 items

Puissance des indices à détecter l’inattention à valeur D = 0,3, au seuil α = 0,05 et pour 80 items

-> Voir la liste des figures

Discussion

La discussion sera présentée pour chacune des deux études.

Étude 1

Nos résultats vont dans le même sens que ceux de van Krimpen-stoop et Meijer (1999). Ces auteurs ont obtenu des erreurs de type I bornées entre 0,04 et 0,07 pour lz et des erreurs de type I bornées entre 0,07 et 0,09 pour lz* (test de 20 items et α = 0,05). Ces résultats, qui s’apparentent aux nôtres, montrent que les erreurs de type I s’approchent généralement du seuil α pour les indices de détection de type vraisemblance.

De la Torre et Deng (2008) ont produit une étude de comparaison de diverses approches au sein de laquelle se trouvait lz*. Certains éléments de leur étude portant sur les erreurs de type I de cet indice sont rapportés au tableau 3.

Tableau 3

Certains résultats tirés de l’étude des erreurs de type I de lz* (De la Torre & Deng, 2008, p. 167-168)

Certains résultats tirés de l’étude des erreurs de type I de lz* (De la Torre & Deng, 2008, p. 167-168)

-> Voir la liste des tableaux

Ces résultats montrent aussi de façon globale qu’il existe des similitudes entre les erreurs de type I empiriques et théoriques de lz*. Nous avons observé des résultats comparables aux tableaux 1 et 2 de cet article.

Magis, Béland et Raîche (2014) ont montré que l’indice W* présentait des erreurs de type I qui s’approchent du seuil α. Par exemple, pour des ensembles de données de 80 items analysés à l’aide du modèle de Rasch, ces auteurs ont calculé des erreurs de type I égales à 0,013 pour α = 0,01, à 0,052 pour α = 0,05 et à 0,097 pour α = 0,10. Les résultats que nous avons obtenus dans des conditions comparables montrent que W* a des erreurs de type I empiriques et théoriques similaires.

Dans le cas de U*, Magis, Béland et Raîche (2014) ont obtenu des résultats comparables à ceux de W* puisque les erreurs de type I de cet indice sont égales à 0,021 pour α = 0,01, à 0,059 pour α = 0,05 et à 0,097 pour α = 0,10. Dans ce cas-ci, nos résultats n’ont pas permis d’obtenir des erreurs de type I s’accordant aussi bien avec les seuils α correspondants. Une piste d’explication permettant de comprendre ce résultat est liée au fait que la stratégie de génération de données adoptée par Magis, Béland et Raîche (2014) est différente de celle utilisée dans cet article.

Étude 2

Observons les résultats de deux études pertinentes. Karabatsos (2003) a étudié le taux de détection de la réponse au hasard des indices lz, ZU et ZW. Ses résultats ont montré que ces trois indices présentent un taux de détection avoisinant 90 %. Nos résultats ont démontré que lz présente un résultat qui va dans ce sens pour θ = -2 (30 items) et aux valeurs θ = -2 (80 items) et θ = -1 (80 items). Par contre, nous n’avons pas obtenu des résultats aussi élevés que Karabatsos pour les indices ZU et ZW avec 30 items. Lorsque nous analysons 80 items, il est possible d’obtenir des résultats comparables à ceux de Karabatsos uniquement à la valeur θ = -2 pour ZU et à la valeur θ = 1 pour ZW. Dans toutes les autres situations, nos pourcentages de détection sont systématiquement plus faibles.

De leur côté, Magis, Béland et Raîche (2014) ont utilisé le modèle de Rasch pour analyser la détection de la réponse au hasard et de l’inattention. Dans toutes les situations d’analyse, nous observons que nos pourcentages de détection pour U* et W* sont plus élevés que ceux obtenus par ces auteurs.

Les limites

Au moins deux limites peuvent se dégager de nos analyses. Premièrement, la méthode de génération de la réponse au hasard et de l’inattention dans cet article diffère de celle des autres études que nous avons citées. Pour cette raison, nos résultats ne sont pas parfaitement comparables à ce qui a été fait ailleurs puisque c’est la première fois que cette modélisation est utilisée pour générer des patrons de réponses inappropriés. Cependant, cette approche est plus réaliste que celle adoptée dans d’autres études. En effet, la génération du hasard est directement intégrée dans le modèle utilisé, soit, celui de Raîche, Magis, Blais et Brochu (2012).

Deuxièmement, la posture adoptée ici est essentiellement descriptive. Cette stratégie nous semble justifiée, car nous avions d’abord l’obligation d’explorer le comportement des indices dans différentes situations de simulation. Il faudra donc raffiner plusieurs de nos résultats afin de mieux comprendre le comportement des indices à l’étude.

Conclusion

Nous avons utilisé des simulations Monte-Carlo pour étudier le comportement des indices de détection corrigés lz*, U* et W* et des indices standardisés lz, ZU et ZW. Les résultats des deux études réalisées peuvent être synthétisés comme suit. Dans l’étude 1, les résultats portant sur différentes valeurs de θ ont démontré que ce sont lz* et W* dont les erreurs de type I empiriques respectent le plus la valeur théorique prescrite. Ensuite, l’étude 2 a démontré que lz* et W* sont les indices qui présentent les pourcentages de détection les plus élevés dans la majorité des situations de simulation. Néanmoins, les résultats peuvent différer pour les valeurs θ extrêmes. Par exemple, ZU présente le plus haut pourcentage de détection pour la réponse au hasard lorsque θ = 2 (30 items) et il présente aussi le plus haut pourcentage de l’inattention lorsque θ = -2 (30 items). Rappelons que cet indice présentait l’un des plus faibles pourcentages de détection à toutes les autres valeurs de θ.

Ce projet a fait émerger quelques pistes de recherche intéressantes. Premièrement, nous avons uniquement concentré nos analyses sur trois indices standardisés et sur trois indices corrigés. Il serait pertinent d’étendre la méthode de Snijders (2001) à d’autres indices, tels que les indices de prudence (extended caution indices) de Tatsuoka et Linn (1983) et l’indice Zeta de Tatsuoka (1996).

Deuxièmement, nous avons généré des matrices de données qui devaient respecter les postulats de base des modèles de réponse à l’item. Comme nous savons que, dans la réalité, il est fréquent que ces postulats soient violés, il serait pertinent d’étudier la puissance des indices analysés en présence d’une multidimensionnalité de θ ou d’une dépendance locale entre les items.

Troisièmement, les résultats d’épreuves d’évaluation et de questionnaires de recherche en éducation comportent souvent des non-réponses de la part des étudiants. Ce problème peut survenir lorsqu’un étudiant a omis de répondre à une section d’un test ou lorsqu’il a volontairement décidé de ne pas répondre à certaines questions. À l’exception de Zhang et Walker (2008), très peu d’études ont tenté d’analyser la puissance des indices en présence de réponses manquantes. Ainsi, il serait pertinent de vérifier le comportement des indices corrigés dans un tel contexte.