Évaluation des enseignements de formations continues diplômantes : enjeux de reconnaissance et de collaboration entre les parties prenantesStudent evaluation of teaching in continuing training programs: issues of recognition and collaboration between the stakeholders

  • Lucie MOTTIER LOPEZ,
  • Benoît LENZEN,
  • Francia LEUTENEGGER et
  • Christophe RONVEAUX

…plus d’informations

  • Lucie MOTTIER LOPEZ
    Université de Genève, Faculté de psychologie et des sciences de l’éducation, Boulevard du Pont d’Arve 40, 1205 Genève
    lucie.mottier@unige.ch

  • Benoît LENZEN
    Université de Genève, Faculté de psychologie et des sciences de l’éducation, Boulevard du Pont d’Arve 40, 1205 Genève
    benoit.lenzen@unige.ch

  • Francia LEUTENEGGER
    Université de Genève, Faculté de psychologie et des sciences de l’éducation, Boulevard du Pont d’Arve 40, 1205 Genève
    francia.leutenegger@unige.ch

  • Christophe RONVEAUX
    Université de Genève, Faculté de psychologie et des sciences de l’éducation, Boulevard du Pont d’Arve 40, 1205 Genève
    christophe.ronveaux@unige.ch

Corps de l’article

Introduction

Cet article interroge l’évaluation des enseignements par les étudiants dans le cadre de formations continues diplômantes (FC[1]) dispensées dans un institut universitaire de formation des enseignants dans le canton de Genève, en Suisse. Les enseignements concernés par notre étude s’inscrivent dans des programmes de formation délivrant, pour l’un, un Diploma of Advanced Studies en enseignement primaire pour les disciplines artistiques et sportives (DAS-MDAS[2]) et, pour l’autre, un Certificate of Advanced Studies en soutien pédagogique (CAS-SP[3]). Ces programmes ont été mis en place en 2012-2013 par l’institut universitaire à la demande de la Direction générale de l’enseignement obligatoire (DGEO) du canton de Genève. Ces FC sont destinées, respectivement, à des enseignants qui entrent dans le métier en tant que maitres spécialistes en disciplines artistiques et sportives dans l’enseignement primaire, ou des enseignants qui veulent se spécialiser en soutien pédagogique avec, pour certains, de nombreuses années d’expérience professionnelle derrière eux. Régies par le cadre règlementaire de l’Université de Genève, ces FC sont financées par le Département de l’instruction publique (DIP) qui est l’employeur des enseignants-étudiants qui suivent les programmes. Pour le DAS-MDAS, l’obtention du diplôme conditionne la stabilisation de la personne qui, pendant le temps des études, est en « période probatoire », tout en étant également accompagnée par un coordinateur pédagogique employé par le DIP et indépendant de l’institut de formation. Quant au CAS-SP, l’obtention du diplôme vise à renforcer les compétences professionnelles des enseignants chargés du soutien pédagogique à l’école primaire, en lien notamment avec des enjeux de politique éducative en matière d’intégration et d’école inclusive. Cette formation ne conditionne pas l’avenir professionnel des enseignants-étudiants.

La création des CAS et DAS, encadrée par une convention de partenariat entre le DIP et l’Université, a fait émerger un questionnement explicite sur l’évaluation des enseignements et des programmes de FC. Un des facteurs déclenchants a notamment été une directive de l’Université de Genève, édictée en 2014, rendant obligatoire l’évaluation des enseignements par les étudiants (EEE) de tous les programmes universitaires de FC diplômantes (toutes facultés confondues). Cette EEE était déjà effective pour les programmes de base (baccalauréats, certificats complémentaires, maitrises). La nouveauté était de rendre cette évaluation également obligatoire pour les FC, en institutionnalisant l’utilisation d’un questionnaire standard en ligne. Ce questionnaire est le fruit d’une collaboration entre le service de FC et le service en charge des évaluations, tous deux rattachés au rectorat. Ainsi, les dimensions évaluées (opérationnalisées par les items du questionnaire) sont décidées par ces services, avec la possibilité pour chaque programme d’ajouter quelques questions spécifiques (voir annexe 2). Selon la directive en vigueur, la procédure habituelle consiste à ce que seule la direction des programmes de FC reçoive les résultats. ll est recommandé que les étudiants reçoivent également un feedback sur l’évaluation effectuée. Dans les DAS et CAS qui nous intéressent, les résultats sont transmis aux différents partenaires concernés. Cette directive a en effet fait écho aux besoins d’évaluation exprimés dès la première année de mise en oeuvre de ces programmes dans différents lieux : au sein des comités de programme qui regroupent des représentants de chaque catégorie de partenaires, dans le terrain par la voix des enseignants-étudiants parfois insatisfaits par rapport à leurs besoins immédiats, au sein du DIP par rapport aux ressources financières investies et au profil professionnel attendu notamment.

Ce contexte parait particulièrement intéressant pour interroger l’évaluation de dispositifs, thématique de ce numéro de la revue Phronesis, quand elle implique un certain nombre de partenaires ou parties prenantes, tels un employeur mandataire, des services rattachés au Rectorat, un institut universitaire de formation, des comités de programmes, des enseignants universitaires, des formateurs de terrain et évidemment des étudiants[4]. De nombreuses questions peuvent être soulevées. Par exemple, dans quelle mesure l’EEE instituée par l’Université répond-elle aux besoins de la DGEO ? Dans quelle mesure le questionnaire standard, élaboré pour tous les enseignements de FC diplômantes, permet-il de recueillir des informations pertinentes pour les CAS et DAS concernés ? Quels sont les indices de qualité qui font sens pour les partenaires ? Comment ce questionnaire peut-il s’articuler avec d’autres modalités d’évaluation ?

Parmi ces différentes interrogations, nous choisissons d’examiner ici plus spécialement le point de vue des différents partenaires à propos d’une EEE qui a pour particularité de concerner des FC diplômantes à visée de professionnalisation et qui exigent des collaborations entre différents lieux de formation. On peut penser que des enjeux et luttes de reconnaissance sont susceptibles de se manifester autour de l’évaluation alors que les partenaires portent des « références[5] » (au sens de Lecointe, 1997) possiblement en tension entre culture universitaire et culture professionnelle. Autrement dit, quelles formes et quels enjeux de reconnaissance professionnelle et de collaboration les acteurs parties prenantes de l’EEE expriment-ils à travers leur rapport à l’EEE ?

La première partie de l’article expose le cadre théorique de notre étude. Les questions de recherche sont ensuite présentées, suivies du cadre méthodologique de la recherche menée, sous forme d’entretiens, avec différentes parties prenantes du dispositif évalué. Les résultats de recherche commencent par présenter le point de vue des personnes interviewées sur le questionnaire standard et ses fonctions, puis exposent quatre cas donnant à voir différents enjeux de reconnaissance exprimés autour de l’évaluation des enseignements des FC concernées. Une brève conclusion résume et discute les principaux constats.

1. Cadre théorique de l’étude et questions de recherche

Depuis la distinction établie par Scriven (1967) entre évaluation formative et évaluation sommative dans le cadre d’évaluations de moyens d’enseignement, les travaux scientifiques distinguent volontiers deux grandes fonctions qui caractérisent toutes formes d’évaluation en éducation (e.g., Mottier Lopez, 2009 ; Strittmatter, 2007 ; Harlen, 2007 ; Hadji, 2012) : une fonction de contrôle (évaluation sommative, ou celle d’un « rendre compte » liée à la notion d’accountability, notamment), une fonction de développement (évaluation formative, évaluation « pour apprendre ou pour se former », liée à la notion d’assessment for learning, notamment). Certains auteurs insistent plus spécialement sur les incompatibilités et paradoxes que ces deux fonctions sont susceptibles de créer quand elles doivent co-exister dans un même système de formation (Kogan, Schoenfeld-Tacher & Helleyer, 2010). D’autres auteurs insistent, quant à eux, sur la légitimité de chacune des deux grandes fonctions de l’évaluation. Pour Strittmatter (2007), tout partenaire est en droit d’attendre certains niveaux de qualité et de performance, y compris à des fins de contrôle, mais qui, alors, demandent à être clairement définis et reconnus par les uns et les autres. Mottier Lopez et Laveault (2008) argumentent la possibilité d’une complémentarité entre les évaluations si elles partagent une même finalité explicitée. Dans notre contexte, ce pourrait être la finalité de contribuer au développement et à la reconnaissance de la qualité des enseignements dispensés. Pour ce qui est de l’EEE, Romainville et Coggi (2009) considèrent que les deux logiques sont susceptibles de contribuer à l’amélioration de l’enseignement.

La figure 1 illustre les grandes fonctions de l’évaluation en éducation et formation, conçues comme les deux pôles d’un même continuum (Berthiaume, Lanarès, Jacqmot, Winer & Rochat, 2011 ; Mottier Lopez, 2009 ; Romainville & Coggi, 2009 ; Younès, 2009), mis en perspective avec des enjeux de reconnaissance dans un contexte d’évaluation des enseignements à l’Université.

Figure 1

Fonctions en tension de l’évaluation des enseignements par les étudiants

Fonctions en tension de l’évaluation des enseignements par les étudiants

-> Voir la liste des figures

Dans le contexte universitaire, différentes démarches évaluatives existent en fonction des objets et niveaux concernés. Notre propos, dans cet article, porte sur l’EEE, sachant, d’une part, que cette évaluation est souvent associée à une évaluation des compétences pédagogiques de l’enseignant (Berthiaume et al., 2011) et, d’autre part, que les résultats de ces évaluations représentent une source, parmi d’autres, pour évaluer plus largement un programme, une faculté, une université (Pelletier, 2009).

Dans la figure 1, l’évaluation est associée à deux processus majeurs liés entre eux :

  • La régulation. Comme Allal (1988) le met en évidence pour le contexte scolaire, la régulation concerne toutes les fonctions de l’évaluation[6]. C’est l’objet de la régulation qui change selon la fonction. Pour notre contexte : (a) une régulation au niveau des compétences professionnelles des enseignants et des dispositifs d’enseignement et de soutien à l’apprentissage des étudiants quand il s’agit d’une évaluation à visée de développement et d’accompagnement ; (b) une régulation au niveau de la gestion du système de formation, se traduisant au niveau individuel par des décisions d’engagement, de renouvèlements, de promotion de personnes, par exemple ; au niveau des dispositifs, par l’attribution de ressources à un programme, un rééquilibrage des offres de formation, par exemple ; à la reconnaissance d’un diplôme ou une accréditation sur un plan institutionnel et social plus large.

  • La reconnaissance. Cette dernière « amplifie l’acte évaluatif à partir des processus de valorisation et de légitimation qu’elle véhicule » (Jorro, 2009, p. 11). Les auteurs qui se sont attelés à croiser les champs conceptuels de l’évaluation en éducation et de la reconnaissance (e.g., Bedin, 2009 ; Gremion, 2016 ; Jorro, 2009) puisent dans les grandes théories de la reconnaissance développées par Honneth et Ricoeur essentiellement, le premier apportant une lecture psychosociale et le deuxième une approche phénoménologique de la reconnaissance sociale. Ainsi, Bedin (2009) souligne-t-elle que la reconnaissance est considérée par Honneth (2006) comme « un ‘acte médiatisé par des motifs évaluatifs’ (p. 261), l’évaluation est placée à la source de la reconnaissance et constitue également un des moyens de sa valorisation » (p. 78).

Parmi les différentes propositions disponibles dans la littérature, nous retenons celles de Ricoeur (2004) qui différencie trois acceptions de la reconnaissance en rapport les unes avec les autres, que nous mettons en perspective avec quelques éléments caractéristiques des trois « logiques » de l’évaluation délimitées par Cardinet (1990) :

  • La reconnaissance comme identification, comprise comme un jugement qui permet de « distinguer et identifier » un objet, une personne, un savoir, etc. (Ricoeur, 2004, p. 49). Les deux actes sont vus comme indissociables : « pour identifier, il faut distinguer, et c’est en distinguant qu’on identifie » (p. 50). Le jugement d’identification, croisé au jugement évaluatif sur ce qui est identifié peut être associé à une évaluation objective. L’évaluateur ne joue pas directement un rôle sur les unités identifiées, excepté pour les distinguer, les reconnaitre, les juger. C’est une évaluation qui se fait « en extériorité » ; elle est essentiellement descriptive (De Ketele, 1986).

  • La reconnaissance de soi, dans ses capacités d’agir (c’est-à-dire de produire des évènements), de dire (produire un discours sensé), de raconter (mettre en récit sa vie, marquant ainsi une identité narrative). A quoi ajoute encore Ricoeur (2004) « l’imputabilité » qui est une capacité morale d’un « sujet qui s’atteste comme sujet responsable » (p. 153), ainsi que la « promesse » qui atteste de l’engagement du sujet face à sa parole. Cette reconnaissance de soi peut être associée à une évaluation subjective (Cardinet, 1990) qui implique une recherche de compréhension de ses actions, dans un déroulement historique des faits, et qui suppose une posture d’autoévaluation et d’autocritique réflexives.

  • La reconnaissance mutuelle, qui prend pour « cible la dialectique de la réflexivité et de l’altérité » en concevant une posture de réciprocité et de mutualité entre les uns et les autres, mais sans oublier « l’indépassable différence qui fait que l’un n’est pas l’autre » (Ricoeur, 2004, p. 242). Pour Ricoeur, la reconnaissance mutuelle entre personnes représente une « pause » dans une lutte interminable de reconnaissance qui implique des relations de pouvoir, des conflits, des disputes. Cette forme de reconnaissance peut être rapprochée de la conception d’une évaluation négociée et interactive (Cardinet, 1990) qui « s’intéresse aux points de vue respectifs et subjectifs des acteurs, mais également aux négociations qui aboutissent à un comportement social commun … l’évaluation, dans ce cas, a nécessairement des référentiels multiples et la prise de décision est toujours de type politique » (Mottier Lopez, 2015, p. 39).

Les travaux scientifiques sur l’EEE problématisent régulièrement les tensions entre les fonctions de développement et de contrôle (e.g., l’ouvrage coordonné par Romainville & Coggi, 2009 ; le dernier numéro thématique de la revue Education et Formation, coordonné par Younès, Paivandi & Detroz, 2017), ainsi que les enjeux de régulation comme le montrent les publications de Detroz et Verpoorten (2017) et de Paivandi et Younès (2017). A notre connaissance, peu de travaux interrogent les enjeux et luttes de reconnaissance à travers l’EEE d’une part, dans un contexte de formations continues professionnalisantes et diplômantes d’autre part. Il s’agit d’un des enjeux de cet article, notamment en examinant la façon dont les différents acteurs impliqués, tels ceux de notre contexte des CAS et DAS présentés plus haut, expriment ou non des marques de reconnaissance liées à la profession (Bedin, 2009). Au regard de la thématique de ce numéro de Phronesis, cette entrée permet d’interroger sous un angle original la façon dont les parties prenantes de l’évaluation pensent leurs relations et collaborations.

A partir d’un questionnement incitant les différents acteurs à exprimer leur point de vue sur le questionnaire d’évaluation standard institué par l’Université, nos questions de recherche sont les suivantes :

  • Quelles fonctions évaluatives les acteurs attribuent-ils au questionnaire standard de l’EEE des FC diplômantes ?

  • Dans quelle mesure expriment-ils un rapport plutôt positif ou négatif par rapport à cette démarche évaluative ?

  • Quelles formes de reconnaissance / luttes de reconnaissance observe-t-on dans le discours des parties prenantes, en termes d’identification des informations jugées déterminantes à évaluer, ainsi qu’en termes de reconnaissance de soi et de reconnaissance mutuelle entre les différents partenaires universitaires et du terrain ?

  • Que dévoilent ces différentes formes et luttes de reconnaissance par rapport aux enjeux de l’évaluation dans un contexte de FC diplômante qui a une visée de professionnalisation à l’enseignement et qui exige des collaborations entre les parties prenantes ?

2. Une recherche participative

L’étude présentée dans cet article s’inscrit dans une recherche participative dont la double finalité est de produire des savoirs utiles à la situation sociale étudiée (visée pragmatique) et de produire des savoirs scientifiques sur les phénomènes problématisés (visée épistémique) (Marcel, 2015). Dans notre contexte, la visée pragmatique est de contribuer à produire des résultats susceptibles de fournir des pistes de régulation des dispositifs d’évaluation des enseignements et des programmes DAS-MDAS et CAS-SP, au regard des besoins et attentes de collaboration entre les parties prenantes. Quant à la visée épistémique, elle concerne la problématisation de la relation entre l’évaluation de formations professionnalisantes continues et les phénomènes de reconnaissance (Bedin, 2009 ; Jorro, 2009), impliqués au plan individuel, interpersonnel et institutionnel dans la construction de savoirs par le moyen de l’évaluation (Figari & Remaud, 2014 ; Mottier Lopez, 2015). L’hypothèse est que cette étude fournit des résultats pour non seulement mieux comprendre cette relation complexe, en résonance avec un questionnement dans la communauté scientifique, mais que ces résultats sont aussi utiles pour penser, avec les acteurs impliqués, de possibles coordinations d’actions et formes d’évaluation et collaborations au-delà du seul questionnaire standard (QS) en vigueur. La figure 2 explicite cette conceptualisation.

Figure 2

Conceptualisation de notre recherche participative

Conceptualisation de notre recherche participative

-> Voir la liste des figures

2.1 Les parties prenantes

Trois des co-auteurs de cet article ont des responsabilités dans les programmes de formation concernés, un en tant que coordinateur de la commission générale de la FC au sein de l’institut de formation des enseignants, deux autres comme directeurs, pour l’un du DAS-MDAS et pour l’autre du CAS-SP. Le quatrième est chercheur dans le domaine de l’évaluation en éducation et préside la commission sur la formation et l’évaluation des enseignements de la faculté concernée. Tous interviennent à des degrés divers en tant que formateurs dans un des programmes concernés.

Compte tenu de la nouvelle directive de l’Université de Genève rendant obligatoire l’EEE de FC diplômantes, et au regard des besoins d’évaluation exprimés par les différents partenaires, un questionnement institutionnel a émergé dans plusieurs instances sur les points principaux suivants : la fonction des évaluations voulues par le Rectorat, la pertinence d’avoir deux évaluations (un questionnaire piloté par l’Université, un autre par la DGEO), le type d’information souhaité par les différents partenaires, les destinataires des résultats en regard des questions de diffusion et de confidentialité, notamment. Dès l’automne 2015, il a été convenu entre l’institut de formation et la DGEO que seul le QS de l’université sera utilisé, mais en laissant ouverte la façon d’exploiter les résultats et de les trianguler avec des informations produites par d’autres dispositifs dans des modalités privilégiant, si possible, le dialogue entre les partenaires. Au printemps 2016, la recherche a été conçue dans les visées pragmatique et épistémique énoncées plus haut. Elle a été soumise puis acceptée par la commission d’éthique de la Faculté de psychologie et des sciences de l’éducation de l’Université de Genève.

La démarche de recherche se fonde sur la réalisation d’entretiens semi-dirigés avec différentes catégories d’acteurs impliqués dans les deux programmes de formation concernés et sur base de volontariat. Nous les considérons comme des potentielles parties prenantes de l’évaluation, au sens de Patton (2008, cité et traduit par Hurteau, Houle & Guillemette, 2012) : « l’ensemble de personnes qui sont à la recherche de toute information valable qui leur permettra de développer une meilleure connaissance du programme, de porter des jugements, d’améliorer leurs interventions et d’augmenter l’efficacité de leurs décisions » (p. 117). Le tableau 1 présente les acteurs dont les entretiens ont été analysés dans le cadre de cet article, en tout neuf personnes.

Tableau 1

Les acteurs entretenus, parties prenantes potentielles de l’évaluation du dispositif

Les acteurs entretenus, parties prenantes potentielles de l’évaluation du dispositif

-> Voir la liste des tableaux

Les deux collaboratrices des services rattachées au Rectorat ont été proposées par la personne responsable du service en charge des évaluations. A l’exception du formateur universitaire, les personnes interviewées sont celles qui occupent la fonction qu’elles représentent. Autrement dit, il n’y avait pas d’autre choix possible. Quant au formateur universitaire, chargé d’enseignement, il a été approché en raison de son implication dès le démarrage du programme. Il n’occupe aucune fonction particulière quant à la gestion de ce programme et de son évaluation. Il dispense des enseignements explicitement liés aux stages dans le terrain. Il était volontaire. Une limite de l’étude est de ne pas avoir eu l’opportunité d’entretenir un représentant des étudiants du DAS-MDAS. Cette fonction n’existait que pour le programme CAS-SP. Pour ce qui concerne la fonction de coordinatrice pédagogique DIP « entrée dans le métier », elle ne concerne que le programme DAS-MDAS, car les autres étudiants-enseignants sont déjà engagés par le DIP. On notera que les deux directeurs de programme ont été entretenus tout en étant également co-auteurs de l’article.

2.2 Recueil de données par entretiens semi-structurés et analyses

Huit entretiens individuels, d’une durée de 35 à 50 minutes, ont été menés, excepté un entretien qui a réuni les deux collaboratrices des services rattachés au Rectorat. Les échanges ont été initiés à partir du QS présenté dans l’annexe 2.[7] Après avoir accepté de participer à la recherche, chaque acteur a reçu par courriel un exemplaire de ce QS (non rempli) avant l’entretien de recherche, afin qu’il se remémore l’outil ou en prenne connaissance pour ce qui concerne la coordinatrice pédagogique. Les entretiens ont été structurés par un guide dont les axes thématiques sont présentés dans le tableau 2. Les questions ont été adaptées en fonction du profil de la personne interviewée, notamment quand il s’est agi des deux collaboratrices des services rattachés au Rectorat. Les échanges ont été enregistrés et intégralement retranscrits. Aucun des deux directeurs de programme co-auteurs de l’article n’a transcrit ni analysé son propre entretien. Leur regard « de l’intérieur » a apporté une richesse à la compréhension des situations examinées, tout en étant objectivé par des catégories d’analyse et par la triangulation entre les chercheurs. Comme développé par Van der Maren (2004), pour qui l’objectivité totale en recherche est une illusion, « il s’agit surtout d’être objectif par la reconnaissance de sa subjectivité et par l’objectivation des effets de cette subjectivité » (p. 119).

Tableau 2

Guide d’entretien et exemples de questions

Guide d’entretien et exemples de questions

-> Voir la liste des tableaux

Les entretiens ont fait l’objet d’une analyse thématique dans une approche qualitative et interprétative. Quand un acteur interviewé occupait deux fonctions, celles par exemple de directeur de programme et de formateur, seuls les échanges portant explicitement sur la fonction concernée ont été retenus pour l’analyse. Les trois formes de reconnaissance, définies dans le cadre théorique de l’étude, ont été plus spécialement examinées. Dans un premier temps, elles ont fait l’objet d’un repérage systématique au fil de chaque verbatim. Dans un deuxième temps, des extraits de verbatim ont été regroupés dans une matrice de dépouillement (Huberman & Miles, 1991), puis condensés dans un troisième temps en mots-clés. L’annexe 4 présente les matrices condensées qui sont plus particulièrement discutées dans les résultats de recherche. Chaque matrice met en perspective les trois formes de reconnaissance inférées autour d’un thème récurrent dans le discours de l’acteur concerné. Une validation a été effectuée par un co-auteur de l’article qui n’était pas en charge de l’analyse. Cette analyse ne permet évidemment pas de généraliser les résultats, ni de contrôler pleinement le biais de désirabilité sociale qui affecte les démarches d’entretien, mais elle offre, dans une perspective exploratoire, des constats intéressants dans un contexte d’évaluation de dispositif peu étudié.

3. Résultats

La première section des résultats répond aux deux premières questions de recherche à propos des fonctions de l’évaluation du QS et du rapport de chaque acteur interviewé à la démarche évaluative investiguée. Les analyses réalisées permettent de retenir quatre cas de figure qui donnent à voir des enjeux de reconnaissance qui se sont noués autour de l’évaluation. Une section est consacrée à chacun de ces cas, répondant à nos troisième et quatrième questions de recherche portant sur les formes et luttes de reconnaissance (identification, reconnaissance de soi, reconnaissante mutuelle) entre les différents partenaires et ce qu’elles dévoilent par rapport aux enjeux de l’évaluation et des collaborations entre parties prenantes dans un contexte de FC diplômante qui a une visée de professionnalisation à l’enseignement primaire.

3.1 Points de vue général des acteurs sur le questionnaire standard : fonctions et rapports à la démarche évaluative

L’annexe 3 condense l’analyse des entretiens à propos des fonctions attribuées au QS par les différents acteurs, ainsi que le rapport au QS exprimé en des termes positifs (+ dans l’annexe) ou négatifs (-) en indiquant le point de vue premier qui en ressort.

3.1.1 Fonctions du questionnaire standard

Tous les acteurs s’accordent à considérer qu’une des fonctions du QS est de fournir des informations pour améliorer la qualité des enseignements concernés et plus généralement des programmes. Les acteurs qui ont des responsabilités de direction et de gestion pointent également la fonction de pilotage, avec des nuances entre un pilotage interne à chaque programme (cohérence modulaire, adaptation de l’offre au sein de chaque module, pertinence des enseignements, budget à disposition, etc.) et un pilotage plus global de la FC des enseignants de l’école publique genevoise. Une fonction de contrôle apparait également dans le discours du cadre du DIP, notamment par rapport à l’adéquation entre les contenus enseignés et les besoins du terrain. Les trois directeurs (institut, programmes) considèrent que le QS participe à rendre des comptes au mandataire de façon légitime. Les deux collaboratrices des services rattachés au Rectorat pointent l’emboitement entre ce qui relève du pilotage du programme et de l’amélioration des enseignements, et le niveau qualité en tant qu’exigence institutionnelle.

Comme relevé dans la littérature de recherche, il est très fréquent que plusieurs fonctions soient attribuées à une même démarche évaluative (e.g., Hadji, 2012), souvent avec une fonction prioritaire (ici, la régulation des enseignements) et des fonctions secondaires. Dans la représentation des personnes entretenues, les fonctions de développement versus de contrôle de l’évaluation (e.g., Mottier Lopez, 2009 ; Strittmatter, 2007) ne semblent pas incompatibles a priori. Nous n’aborderons pas dans cet article les biais qui peuvent découler de ces fonctions multiples. Notre propos, comme dit plus haut, est d’examiner dans le discours des acteurs les enjeux de reconnaissance qui se nouent autour de cette évaluation au regard des différents espaces de professionnalisation (à l’institut, dans le terrain) et partenaires impliqués. A ce propos, on observe déjà quelques indices dans le discours des deux directeurs de programme et de la représentante des étudiants quand ils s’expriment sur les fonctions de l’évaluation. Ainsi, pour les premiers, le QS sert à fournir des informations fiables servant aux échanges entre le programme et le mandataire DIP. Quant à la représentante des étudiants, elle considère que le QS devrait aussi fournir des informations susceptibles d’améliorer les relations entre le programme (et les personnes qu’il forme) et les différents partenaires du terrain, tels les directeurs d’établissement, les collègues, les coordinateurs pédagogiques. Nous y reviendrons dans les analyses détaillées présentées ci-après. Auparavant, examinons encore le rapport des personnes interviewées au QS en tant qu’arrière-fond interprétatif pour la suite de nos analyses.

3.1.2 Rapport des acteurs au questionnaire standard

Les deux acteurs qui ont le plus haut niveau de responsabilité hiérarchique expriment un rapport positif au QS, insistant sur la nécessité de disposer d’une telle évaluation. La directrice de l’institution de formation est particulièrement favorable à un questionnaire commun entre l’université et le DIP. Il est très important pour elle de pouvoir croiser différentes sources d’informations à des fins de gestion tant pédagogique qu’administrative. Le cadre du DIP apprécie le fait de pouvoir disposer non seulement d’indicateurs globaux de satisfaction mais apprécie aussi les commentaires qualitatifs qui sont indispensables à ses yeux pour nouer un dialogue avec les partenaires.

Les deux directeurs de programme expriment un avis globalement positif, tout en nuançant. Tous deux relèvent la pertinence des questions formulées dans le QS. Les deux directeurs considèrent cependant que le QS n’est pas pleinement adapté au profil particulier des étudiants de leurs programmes, au nombre d’étudiants parfois trop faible pour justifier la passation d’un questionnaire, à l’organisation même du programme, soit parce que celui-ci propose des cours qui font partie d’autres programmes qui ne relèvent pas d’une FC, soit parce que le programme est organisé dans une logique modulaire articulant plusieurs interventions. Des ajustements seraient donc à envisager au niveau du questionnaire lui-même et, surtout, en l’articulant à des démarches évaluatives alternatives.

Tout en soulignant que le QS répond à une exigence institutionnelle imposée aux universités suisses, les deux collaboratrices des services rattachés au Rectorat signalent que celui-ci a fait l’objet d’ajustements après des premières utilisations. Le défi majeur est de trouver un équilibre entre une standardisation de l’outil afin qu’il puisse concerner l’ensemble des programmes universitaires de FC tout en permettant une certaine prise en compte des spécificités de chaque programme. C’est pourquoi il existe une possibilité pour chaque programme de formuler quelques questions spécifiques (voir annexe 2). D’une façon générale, il ressort que plus les acteurs ont une fonction hiérarchique élevée plus leur rapport à l’EEE est positif, comme observé dans d’autres études (e.g., Nagels & Vourch, 2009).

Trois acteurs sont plus critiques. Commençons par la coordinatrice pédagogique qui n’est pas directement concernée par le QS mais qui a pour mission d’accompagner dans le terrain les étudiants du DAS-MDAS qui sont en période probatoire. Si elle commence par souligner l’importance d’avoir des retours de la part des étudiants sur les enseignements suivis, elle pense que les questions soumises aux étudiants risquent d’être éloignées de leurs préoccupations qui sont essentiellement d’ordre professionnel selon elle, en lien avec le terrain. La représentante des étudiants CAS-SP semble partager ce point de vue. En effet, après avoir souligné que le questionnaire était facile à remplir et qu’il permettait une évaluation individuelle – ce qu’elle apprécie – elle regrette cependant qu’il n’y ait pas plus de questions relatives au transfert des apports de la formation à la pratique professionnelle (une seule). Pour elle, l’évaluation devrait aussi permettre d’investiguer les relations entre le programme et le terrain. Enfin, le formateur universitaire dit ne pas parvenir à réellement exploiter les résultats du QS pour améliorer ses enseignements, en raison des évaluations trop contrastées entre les étudiants. Il verrait par contre un réel intérêt à partager les résultats de l’EEE avec ses pairs-formateurs du DAS-MDAS. Il apparait déjà ici que les retenues exprimées par les personnes ne mettent pas en question la légitimité de l’EEE et de son instrumentation, mais révèlent surtout des enjeux de relation et de collaboration entre partenaires et espaces de professionnalisation.

A partir de cette première analyse de contenu, le discours de quatre acteurs apparait particulièrement intéressant à examiner du point de vue des enjeux de reconnaissance professionnelle qui se jouent autour de l’évaluation : le formateur universitaire, les directeurs de programme, la coordinatrice pédagogique, la représentante des étudiants. L’annexe 4 présente la matrice d’analyse réduite de chacun des discours à mettre en perspective avec les résultats présentés ci-dessous. Rappelons que cette matrice s’appuie sur les catégories conceptuelles définies par Ricoeur (2004).

3.2 Le formateur universitaire : enjeux de reconnaissance entre lui et ses étudiants

Tout en ciblant son propos sur le QS qui concerne le programme de FC et le public spécifique à qui il s’adresse (étudiants du DAS-MDAS), le formateur fonde aussi son point de vue sur les nombreuses années d’expérience qu’il a de l’EEE dans les formations de base. Quand il reçoit les résultats du QS, le formateur universitaire dit identifier les tendances générales qui se dégagent des indicateurs quantitatifs. Il considère que les commentaires qualitatifs sont potentiellement plus intéressants, mais les étudiants peuvent s’y montrer « très durs » et peu « constructifs ». « Des critiques de ce type … dévalorisent … le cours ne m’a rien servi ou l’enseignant … n’est pas compétent. Et à côté, d’autres étudiants qui vont dire tout le contraire ». Le formateur étaye son propos en décrivant certains de ses dispositifs en relation avec des questions adressées aux étudiants dans le QS. Souvent, il ne comprend pas les raisons des commentaires critiques qui lui sont adressés par rapport aux dispositifs de formation qu’il propose : « c’est toujours assez difficile pour moi de saisir complétement quelles sont leurs motivations et pourquoi ils portent tel ou tel jugement sur le cours ». Globalement, il considère que les résultats du QS ont du coup un faible impact sur la régulation de son enseignement.

Il apparait que le manque de consensus entre les évaluations des étudiants est ressenti comme un déficit de reconnaissance des étudiants le concernant, produisant en retour une dévalorisation des appréciations formulées par les étudiants. Autrement dit, le manque de reconnaissance perçu par le formateur est ici mutuel : si les (certains) étudiants ne lui reconnaissent pas la valeur de son enseignement, lui-même ne reconnait pas la valeur de leurs évaluations compte tenu de leurs divergences de points de vue. Le formateur universitaire tente cependant de comprendre les raisons de cette situation, notamment en prenant en considération des éléments contextuels, le profil particulier des étudiants, leur rapport à la didactique de la discipline scolaire enseignée.

Le formateur pense qu’au fil des années, il a développé des compétences critiques d’autoévaluation, de reconnaissance de soi et de ses compétences, sans avoir forcément besoin des résultats du QS, car privilégiant des bilans interactifs avec ses étudiants. Par contre, il pense que les résultats de l’EEE pourraient servir à des échanges entre les formateurs : « je n’ai aucune idée ou très peu de connaissances de ce que mes collègues font … j’ai peu de connaissances sur le fonctionnement d’autres cours … donc je pense que déjà la possibilité d’échanger par rapport à ces éléments et puis échanger … à l’aide entre autres des réponses des étudiants peut être éclairant … un des éléments intéressant de cette évaluation pourrait être d’avoir un peu plus de matériel pour comprendre comment ces étudiants évoluent dans toute la formation … sur la manière dont on envisage ici le travail avec des MDAS ». On retiendra que pour le formateur universitaire les résultats du QS pourraient plus spécialement prendre sens dans un contexte d’échanges et de collaboration entre formateurs-pairs, y compris pour donner du sens aux dissensus qu’il perçoit dans ces évaluations.

3.3 Les directeurs de programmes : enjeux de reconnaissance entre le programme et le mandataire à travers l’évaluation des étudiants

Pour les deux directeurs, le QS représente un moyen de produire des informations vues comme fiables, servant aux échanges entre les partenaires, dont le mandataire dans un contexte de reddition de comptes. Dans le discours de la directrice du CAS-SP, les enjeux de reconnaissance, tout en étant présents, semblent moins sensibles que dans le discours de son collègue ; elle considère que les EEE sont généralement positives et que les relations entre les partenaires sont bonnes. Rappelons que, dans ce programme, les enjeux sont moins forts pour les étudiants qui sont déjà pleinement engagés par le DIP, contrairement aux étudiants DAS-MDAS. Pour ces derniers, la certification délivrée par le programme est exigée pour être stabilisés dans leur emploi, et l’employeur-mandataire a des attentes fortes par rapport aux compétences professionnelles à développer. Dans le discours du directeur DAS-MDAS, les enjeux de reconnaissance se manifestent tout particulièrement autour de l’identification par les étudiants de « dysfonctionnements » et d’insatisfactions (surcharge de travail, inadéquation de contenus enseignés ou de dispositifs, notamment). Le directeur fait une distinction entre les situations vécues avant l’existence du QS, puis avec le QS (voir annexe 4.2).

Avant que n’existe le QS, le directeur de programme percevait un manque de reconnaissance vis-à-vis de lui et plus généralement du programme car les étudiants du DAS-MDAS avaient tendance à ne pas communiquer leurs évaluations aux premières personnes concernées : « les étudiants faisaient des retours à leurs coordinateurs pédagogiques voire aux ressources humaines de la DG (direction générale) … ils ne s’adressaient pas à nous. Puis ça nous revenait par ricochets ». Il était informé des feedbacks des étudiants par le mandataire : « la DG est revenue vers nous, l’université, pour solliciter des réunions, je dirais, de concertation pour trouver des solutions aux problèmes … soulevés par les étudiants ».

Aux yeux du directeur, le fait qu’il y ait désormais un QS, produit par un service de l’université pour l’ensemble des programmes de FC diplômantes, représente déjà une source de reconnaissance (de soi) de sa fonction de direction : « ces informations-là me sont utiles, parce que c’est moi après qui me retrouve dans des séances, avec les représentants de la DG, qui le cas échéant doit faire face à un certain nombre de remontées d’informations au sujet de l’adéquation des contenus etc. Et donc, pour jouer mon rôle correctement, j’ai besoin de ces informations-là ». L’identification par les étudiants de dysfonctionnements est alors perçue comme fiable, car produite par un outil d’évaluation « contrôlé ». Pour le directeur, un enjeu en termes de reconnaissance mutuelle entre le programme et le mandataire, est d’être coresponsables de la qualité de la formation dispensée et des régulations à envisager. Le directeur parle notamment de partage des résultats sous forme de synthèses, de mutualisation des informations avec celles provenant du terrain, de création de collaborations autour de l’évaluation, de construction d’attentes communes et partagées. Le directeur pense, par exemple, que lorsque ce cadre n’existait pas, les étudiants avaient davantage de latitude à développer certains comportements stratégiques pour négocier les attentes à la baisse, vu que celles-ci n’étaient pas forcément partagées entre les partenaires. Des espaces de tension demeurent cependant du point de vue du directeur, notamment quand le mandataire exprime certaines demandes par rapport à des besoins du terrain qui peuvent sembler en décalage avec les objectifs d’une formation universitaire.

3.4 La coordinatrice pédagogique : enjeux de reconnaissance entre le terrain et le programme

Pour la coordinatrice pédagogique, les items du QS qui fournissent les informations les plus pertinentes à identifier sont ceux qui portent sur la pertinence de la matière enseignée par rapport aux besoins de formation des étudiants (item 1.3) et sur la transposition des connaissances et compétences acquises à leur pratique professionnelle (items 1.4 de l’annexe 1). Ce sont les critères d’utilité et de proximité par rapport à la pratique professionnelle qui apparaissent déterminants quand elle justifie cet avis. Toujours en termes d’identification, elle pense qu’une évaluation en amont de la formation permettrait de connaitre les « manques » des étudiants, leurs « peurs », leurs « préoccupations » par rapport au contexte spécifique de l’enseignement primaire du canton de Genève. Quant à l’évaluation en aval, elle devrait essentiellement consister à leur demander d’identifier « les 3-4 éléments » qui ont permis « d’améliorer leurs pratiques », afin « d’être plus armés pour faire leur métier ». Autrement dit, l’évaluation devrait principalement se référer à la visée professionnalisante du programme de formation.

Par rapport à ce transfert à la pratique professionnelle, la coordinatrice pédagogique dit ne pas se sentir toujours outillée pour aider les étudiants, consciente aussi des difficultés liées à son double rôle, celui d’accompagner les étudiants et celui de devoir les évaluer pendant la période probatoire : « et puis on est des évaluateurs alors on dit qu’on les accompagne mais je suis moi-même évaluatrice, donc ça fausse tout ça … par contre s’ils vont voir un pair ils peuvent discuter ». La coordinatrice croit beaucoup dans la formation par les pairs et considère que le programme devrait intégrer cette modalité. En tant que personne qui a assumé – avec un collègue – l’accompagnement des étudiants pendant 15 ans et effectué la formation de ceux-ci avant que n’existe le DAS-MDAS, elle se sent particulièrement concernée. Lors des phases de conception et de démarrage du programme, elle dit avoir regretté un manque de dialogue : « on aurait dû dès le départ se parler … ils ne m’ont pas demandé une seule fois ce que nous faisions, même si on ne faisait pas juste … mais partir de quelque chose de réel ». La coordinatrice relève cependant que la situation est en cours d’évolution : « cette année il y a eu un partage … par exemple, ils m’ont fait venir pour travailler avec les formateurs de terrain ». Elle exprime un idéal qui s’inscrit dans un rapport de mutualité : « (ce dont j’ai besoin) c’est entendre leurs discours (des formateurs), que moi aussi je me nourrisse, voilà, et qu’eux se nourrissent de nos compétences ». En termes de reconnaissance de soi, c’est finalement une peur que la coordinatrice pédagogique exprime : « des fois, j’avais besoin de me valoriser, parce que j’avais peur que les jeunes me disent : mais vous êtes quoi madame X ? ». La reconnaissance de sa propre « valeur », vis-à-vis des étudiants, passe par le fait d’être reconnue comme partenaire à part entière par les responsables et formateurs du programme et par la reconnaissance de sa professionnalité liée à son expérience. Malgré un partenariat qui a évolué positivement au fil de temps, un point sensible semble toutefois demeurer à propos des contenus enseignés. La coordinatrice considère qu’ils devraient être encore plus alignés avec les outils utilisés dans le contexte professionnel des étudiants. Lucide, elle reconnait : « c’est un peu une guerre de pouvoir, c’est un peu comme ça que je l’ai ressenti ».

3.5 La représentante des étudiants du CAS-SP : enjeux de reconnaissance de la formation par les partenaires du terrain

L’analyse de l’entretien de la représentante[8] des étudiants du CAS-SP montre une préoccupation récurrente à propos de la reconnaissance qu’elle attend, quant à elle, de la part des directeurs d’établissement et de l’équipe pédagogique à propos des compétences professionnelles spécifiques qu’elle a développées et qui ont été certifiées par la formation suivie. Si elle s’exprime parfois en des termes génériques (par rapport à la profession qu’elle représente), l’étudiante fonde le plus souvent son discours à partir de ses propres expériences et ressentis. Cette préoccupation s’exprime à partir d’une question en particulier du QS (item 1.4) qui, comme vu plus haut, porte sur le transfert des connaissances et compétences développées pendant la formation à la pratique professionnelle. L’étudiante considère que cette dimension est capitale pour apprécier la valeur des enseignements dispensés et mériterait d’être davantage investiguée par l’EEE. Elle fait le lien avec un manque de « connexion entre l’université et l’établissement, aucune connexion entre le directeur (d’établissement) malgré les efforts qui tentent d’être faits à un certain niveau, pas de connexion non plus avec les coordinateurs pédagogiques ».[9] En termes de reconnaissance de soi, elle autoévalue sa capacité à transférer, regrettant qu’il n’y ait pas davantage de soutien sur ce plan : « il y a personne, il n’y a rien qui me permet de faire le transfert … alors je suis comme, je me sens … comme l’élève en difficulté ». Elle associe cette capacité a une légitimité personnelle lui permettant, selon elle, de mieux appréhender son environnement professionnel : « on peut transférer ou pas, quelque part ça donne sur le plan personnel une légitimité qui fait que c’est plus facile de supporter les incohérences et les dysfonctionnements institutionnels ».

Le discours de l’étudiante oscille entre l’expression d’un manque perçu de reconnaissance de la part de ses partenaires de terrain et l’expression d’une quête d’une plus grande reconnaissance de leur part. Elle énonce un ensemble de souhaits, résumés dans l’annexe 4.4. Elle insiste sur des démarches de clarification par la hiérarchie à propos de son mandat d’enseignante de soutien, que ce soit au niveau des directives institutionnelles rédigées par le DIP, ou de la part de son directeur d’établissement vis-à-vis des membres de l’équipe pédagogique. Cette quête de reconnaissance pourrait, selon elle, passer aussi par la présence de formateurs universitaires dans le terrain : « quelqu’un qui vient m’observer dans ma pratique … un formateur universitaire mais avec qui il y a … une possibilité de collaboration professionnelle … qu’on me voit avec lui, tout simplement … puis le directeur il enverrait un mail en disant juste, voilà nous accueillons monsieur X, formateur, qui vient pour observer votre travail avec madame X … Ah il y a un prof d’uni qui vient ! il vient observer Y mais alors ça veut dire que ça a plus de valeur que ce que l’on croyait ! ». On note le souhait d’une collaboration « professionnelle » entre le formateur et l’étudiante, une façon de l’étudiante de rappeler qu’elle est elle-même une professionnelle (en formation continue) et qu’elle souhaite être considérée comme telle. Son aspiration est que la formation qu’elle a suivie et les compétences professionnelles qu’elle a développées soient pleinement reconnues par son directeur et ses collègues. Autrement dit, la valeur « réelle » de la formation tient à la reconnaissance de celle-ci par les partenaires du terrain, ce qui ne semble pas pleinement être acquis si on en croit l’étudiante.

Discussion conclusive

Dans cet article, nous avons choisi d’examiner le rapport que différentes parties prenantes de deux programmes de formation continue diplômante, mandatés par le « terrain », exprimaient à partir d’un questionnaire standard d’EEE. Certains acteurs étaient très directement concernés (l’étudiante qui évalue l’enseignement ; le formateur dont les enseignements sont évalués) et d’autres l’étaient de façon plus périphérique. Le questionnaire a représenté un artefact pour examiner la façon dont les différents acteurs appréhendaient les enjeux d’une évaluation portant sur des enseignements universitaires à visée professionnalisante, au regard de leurs différentes fonctions et responsabilités dans les programmes et milieux de travail concernés. Afin d’appréhender quelques enjeux de collaboration autour de ces formations et de leur évaluation, notre angle d’étude a consisté à examiner l’expression des formes de reconnaissance dans les discours tenus par les acteurs, donnant à voir la façon dont ils appréhendent leurs échanges avec les partenaires parties prenantes et ce qui « vaut » d’être évalué – en termes donc de valeurs et de sens (Dewey, 2011 ; Vial, 2012). Pour ce faire, nous avons croisé les grandes logiques évaluatives dégagées par Cardinet (1987/1990) et les formes de reconnaissances définies par Ricoeur (2004), pensées en termes de système : évaluation descriptive/ identification ; autoévaluation subjective et réflexive/ reconnaissance de soi ; évaluation intersubjective négociée/ reconnaissance mutuelle.

Il apparait dans nos résultats que plus les acteurs occupent une position hiérarchique haute, plus ils expriment un rapport positif à l’EEE. Les enjeux de reconnaissance, exprimés souvent en termes de légitimité face aux partenaires, s’expriment plutôt dans un rapport politique face aux enjeux entre prestataire et mandataire. Nous avons retenu quatre cas qui, quant à eux, donnent plus spécialement à voir des tensions et mises en question identitaires. Il apparait que l’évaluation faite par les étudiants, qui produit un jugement sur certaines dimensions des enseignements reçus, produit une rétroaction, y compris pour les acteurs qui sont dans une position plus périphérique, sur la reconnaissance de soi et sa propre légitimité professionnelle :

  • sur ses compétences à enseigner (assez logiquement pour le formateur dont l’objet de l’évaluation est son enseignement) ;

  • sur la possibilité de jouer son rôle de direction de programme, et sur sa crédibilité face notamment au mandataire (pour le directeur de programme) ;

  • sur ses propres compétences à accompagner les étudiants dans le terrain et sa « valeur » aux yeux des étudiants par rapport à la formation académique (pour la coordinatrice pédagogique) ;

  • sur les conditions de sa capacité à transférer les apports de la formation à sa pratique professionnelle pour se sentir outillé face à la complexité du métier et de l’institution scolaire (pour l’étudiante-enseignante).

Cette rétroaction sur soi prend sens eu égard à des contextes sociaux et réseaux de relations et de rapports influencés par « les professions, les fonctions, les responsabilités exercées » (Bedin, 2009, p. 95) qui mettent en jeu des luttes ou formes de reconnaissance mutuelle : entre l’étudiante et son contexte professionnel hiérarchisé, faisant notamment porter à son directeur d’établissement un rôle important de valorisation dans sa propre relation avec l’équipe pédagogique à des fins de reconnaissance de ses nouvelles compétences professionnelles ; entre la coordinatrice pédagogique et les formateurs / directeur du programme pour une meilleure prise en compte des besoins du terrain et des apports mutuels de chaque espace de professionnalisation à valoriser ; entre le formateur universitaire et ses collègues-pairs pour mieux comprendre le parcours des étudiants dans le programme, à partir des évaluations contrastées que ces derniers produisent ; entre le directeur de programme et le mandataire pour envisager des espaces de collaboration autour de l’évaluation, pour trianguler des informations issues des contextes académiques et de la pratique, et si possible construire des attentes partagées malgré des tensions qui existent à propos des contenus à enseigner.

Comme le souligne Jorro (2009), « si la question de la reconnaissance est omniprésente, en creux ou en relief, dans l’acte évaluatif, elle n’y revêt pas la même forme. Le paradigme de la reconnaissance inaugure un mouvement de singularisation dans lequel l’évaluation joue un rôle de révélateur des caractéristiques des acteurs » (p. 23). Dans notre étude, ce mouvement de singularisation se révèle notamment dans la spécification par les acteurs des dimensions à évaluer – identifiées « de l’extérieur » par un service ad hoc de l’Université, opérationnalisées par chaque item du QS – et le déplacement vers d’autres dimensions qui, selon eux, « valent » d’être évaluées au regard de la spécificité de leur identité et activité professionnelles. Ces dimensions (le transfert à la pratique professionnelle, la « connexion » entre le programme et les partenaires du terrain, les éléments qui ont permis d’améliorer la pratique professionnelle, notamment) s’inscrivent dans une aspiration à des formes toujours plus étroites de collaboration et de quête de reconnaissance mutuelle entre les partenaires qui, finalement, dépassent largement l’évaluation des enseignements par les étudiants.

Pour conclure, nous avons choisi d’interroger plus spécialement dans cet article les enjeux de collaboration autour de l’évaluation par les étudiants d’enseignements de FC diplômante à visée professionnalisante. Si, comme le souligne Vial (2012), l’évaluation implique un travail du sujet dans ses échanges avec les partenaires à partir d’une problématique relative aux valeurs et au sens, notre étude montre que ce travail d’intelligibilité, dans notre contexte, est foncièrement lié à la profession et à ce que ce capital social et culturel apporte à l’individu et aux collaborations entre acteurs impliqués. Par le moyen de la recherche participative, menées avec plusieurs acteurs parties prenantes des formations et évaluations concernées, une mise à distance des subjectivités exprimées a été rendue possible par les outils de la recherche et par la mobilisation de catégories conceptuelles circonscrites. L’implication de ces acteurs sociaux, en tant que co-chercheurs, permettra d’exploiter les résultats de l’étude dans les différents espaces de professionnalisation qui les concernent, y compris pour faire évoluer les dispositifs et envisager un renouvellement des formes de collaboration dans et autour de l’évaluation.

Parties annexes