Article body

Introduction

Dans cet article, nous proposons de clarifier les différents aspects du principe de l’emergent-fit qui caractérise les approches inductives et la recherche qualitative. Plus précisément, nous exposerons les résultats de notre analyse au sujet de ce principe primordial, analyse qui fut menée selon des méthodes inductives rigoureuses de collecte et d’analyse des données telles que nos traces méthodologiques et des écrits scientifiques, mobilisés et traités comme des données (Horincq Detournay, 2018; Tourigny Koné, 2014). L’emergent-fit se limite-t-il à la collecte et à l’analyse des données? Comment est-il mis en oeuvre dans une recherche? Comment le comprendre? Est-il une stratégie ou un fondement?

1. Problématique et intuition réflexive

Les notions d’émergence (emergent) et d’ajustement (fit) sont présentes dès le texte fondateur de la découverte de la grounded theory (GT) (Glaser & Strauss, 1967). Elles sont présentées de manière dialectique sans être attachées l’une à l’autre. Elles ont principalement trait aux conceptualisations et aux catégories et soutiennent l’un des fondements de la recherche qualitative, celui de l’induction (Glaser & Strauss, 1967). Les concepts d’émergence et d’ajustement concernent surtout l’analyse théorisante. Ce constat se répète également dans d’autres textes incontournables de la grounded theory, ceux de Strauss (1987) et de Corbin et Strauss (1990), au sujet des opérations de base, des concepts mis en relations et des théories.

Les « stratégies pour la recherche qualitative » (sous-titre du livre fondateur de Glaser & Strauss, 1967) intègrent celle de la comparaison constante entre les données, entre les données et les conceptualisations émergentes, entre les concepts (codes et catégories) et les théorisations. Il s’agit de lier et de relier les concepts émergeant des données, de manière circulaire dans une démarche compréhensive du phénomène à l’étude. Cela se réalise en respectant l’émergence (emergent) à partir des données et la vérification constante de l’adéquation et de l’ajustement (fit) des théorisations avec les données. Ceci assure le principe de l’emergent-fit.

Précisons que les approches inductives reposent sur d’autres principes méthodologiques que celui de l’emergent-fit, dont certains ont comme qualificatif le mot théorique, par exemple la sensibilité théorique et la saturation théorique, qui sont les expressions consacrées dans les écrits francophones en GT. Afin de souligner instamment l’aspect processuel en lien avec l’emergent-fit et la circularité qu’il soutient, nous choisissons de qualifier de théorisantes plutôt que de théoriques ces notions. Et nous assumons aussi d’ajouter ce qualificatif théorisantes aux autres notions qui n’en disposent pas, comme celles de l’analyse ou de l’intégration.

Glaser et Strauss (1967) et Glaser (1998, 2001, 2003) articulent et présentent simultanément les concepts de « fit » (ajustement), de « workability » (« ça marche/fonctionne » et celui de « relevance » (pertinence). Grâce à l’emergent-fit, les théorisations restent proches des données et l’enracinement est assuré. Selon Glaser, le « fitting » est le premier critère pour que la grounded theory soit crédible scientifiquement : comment les concepts s’ajustent-ils bien aux données? Les deux autres critères (relevance et workability) le suivent de près (Glaser, 2003). Cela renvoie également au concept de « grounding » qui permet, selon Glaser, d’« enraciner les concepts dans les données auxquelles ils sont liés. Cela garantit l’ajustement (fit), la pertinence (relevance) et le fait que cela fonctionne (workability) »[1] [traduction libre] (2001, p. 21). Soulignons qu’il ne s’agit pas de confirmer ce qui émerge comme conceptualisations dans les données. Il y a une remise en question constante des théorisations émergentes. Des données variées sont recherchées pour enrichir l’analyse. Il s’agit toujours de mettre les concepts et les théorisations qui émergent de l’analyse des données à l’épreuve des données (againstdata), pour développer l’ajustement à celles-ci. La visée est de renforcer l’enracinement (selon la traduction choisie et explicitée de grounded par Luckerhoff & Guillemette, 2012) des conceptualisations avec les données, auprès des données, selon une analyse itérative.

Cela permet aussi une compréhension (« understandability » [Glaser & Strauss, 1967, p. 3; Mullen & Reynolds, 1994; Strauss & Corbin, 1994]) accessible tant pour des scientifiques que des étudiantes et étudiants ou des profanes. Glaser (2003) insiste sur le fait que « fit » et « validity » (p. 163) signifient la même chose; nous y reviendrons.

Dans le livre de Corbin et Strauss (2014), le concept emergent se situe dans l’explicitation des préludes à l’analyse, mais le concept fit est transversal et apparaît tout au long du texte. Le respect de l’ajustement (fit) est donc fondamental et largement mis de l’avant. Ce qui caractérise l’ajustement, ce sont des catégories qui sont facilement applicables (sans forcer) aux données et qui ont été révélées par les données (Glaser & Strauss, 1967). Lorsque les processus de codage et de conceptualisation vont trop vite, il faut ralentir, retourner aux données, pour assurer le meilleur ajustement des concepts et l’atteinte de la saturation suffisante de l’analyse (Glaser, 2001). Les abstractions déracinées sont à éviter soigneusement en recherche.

Emergent et fit sont donc conjugués, coordonnés, conjointement présentés dans les textes fondateurs (Corbin & Strauss, 2014; Glaser & Strauss, 1967; Strauss, 1987) et ils le sont aussi dans des textes plus récents (Charmaz, 2014; Wuest, 2000). Ce sont les deux facettes d’un même processus qui assure l’induction. Mais ce sont les théorisations en méthodologie de Guillemette (2006a, 2009) et de Guillemette et Luckerhoff (2009) qui font apparaître un trait d’union entre les concepts emergent et fit, leur offrant ainsi une perspective pleinement processuelle, circulaire, hélicoïdale (Plouffe & Guillemette, 2012) et indissociable. Il s’agit du concept d’emergent-fit.

Pourquoi ces concepts continuent-ils d’exister en anglais dans des articles en français? Des traductions ont été tentées, mais elles rencontrent des difficultés majeures pour rendre compte de l’ensemble de ce processus dialectique, cette pierre angulaire de la recherche inductive. La notion d’emergent renvoie à ce qui émerge des données par la compréhension de la personne qui mène la recherche, selon sa sensibilité théorisante. Directement et au fur et à mesure, il faut continuellement s’assurer que la compréhension que l’on développe, l’interprétation qui se construit, fit, c’est-à-dire, qu’elle soit ajustée. Il s’agit donc de constamment confronter l’interprétation aux données pour qu’elle soit adaptée aux données, les mêmes données qui ont permis l’émergence de ces codes et concepts, de même que d’autres données. Ainsi, on assure l’enracinement de l’analyse et des théorisations dans les données. Ce processus d’émergence et d’ajustement est constant, des données aux concepts, et réciproquement. Il est circulaire. Le terme emergent renvoie au champ lexical qui concerne le fait d’émerger, de monter, d’être naissant. Quant au terme fit, il renvoie à celui qui concerne le fait de correspondre, d’être ajusté, adapté, de convenir, d’être à la taille, à la pointure. Pour fit, nous traduirons par « ajusté » ou « adéquat » et pour emergent, par « émergent ». Nous laisserons toutefois le concept emergent-fit sous sa forme dialectique et indissociable comme telle, en anglais et en italique.

Nous nous sommes demandé, à la lueur de notre recherche sur le sujet et de notre réflexivité méthodologique, si le principe n’était qu’une stratégie, certes essentielle, mais méthodique, utilitaire, pour réaliser la recherche. Est-ce que l’emergent-fit caractérise uniquement la collecte et l’analyse des données dans les approches inductives? C’est ainsi que nous l’avions compris selon ce qui est expliqué de l’emergent-fit dans des écrits en méthodologie. Mais notre intuition nous a suggéré qu’elle dépasse l’analyse et concerne d’autres opérations dans le processus de recherche, des principes des approches inductives. Mais lesquels?

Pour conclure cette partie, soulignons que la problématique ainsi présentée fait déjà partie de l’analyse théorisante à partir de données et répond donc également au critère de l’emergent-fit.

2. Méthodologie

La méthodologie de la théorisation enracinée (MTE) (Luckerhoff & Guillemette, 2012), version francophone qui se veut fidèle à la grounded theory (Glaser & Strauss, 1967), a été utilisée dans la démarche de nos recherches et nous l’avons également employée pour réaliser la recherche pour cet article. Notre sensibilité théorisante inclut autant notre ouverture et notre écoute relativement aux données sur le sujet concerné que notre perspective critique sur les plans méthodologique et épistémologique. Elle intègre aussi la nécessaire suspension temporaire de nos connaissances et présupposés préalables sur l’emergent-fit au sujet des analyses et des théorisations enracinées, pour mieux s’ouvrir aux données. Enfin, elle assume notre interprétation du phénomène, qui reste enracinée dans ces données, tout en dépassant la description, afin d’offrir notre compréhension actuelle du principe de l’emergent-fit et des enjeux qui le concernent.

Selon le principe de la flexibilité méthodologique (aucune procédure ne doit entraver la compréhension d’un phénomène étudié), nous avons théorisé à partir des données que sont nos traces méthodologiques et les écrits scientifiques qui concernent l’emergent-fit. Les écrits ont donc été mobilisés et traités comme des données. Ce sont les résultats de cette analyse enracinée qui sont présentés, bénéficiant de notre réflexivité au sujet de la rigueur scientifique dans les approches inductives.

3. Résultats de l’analyse des données et théorisation au sujet de l’emergent-fit

Au préalable, nous tenons à souligner que notre analyse enracinée a permis de mettre en évidence différents niveaux concernés par l’emergent-fit. Nous allons les présenter selon un ordre qui n’a d’autre logique que la rédaction de cet article. Chaque niveau concerné est lié aux autres niveaux et aucun ne précède ou suit un autre. Tout est relié de manière systémique, circulaire. L’emergent-fit est dynamique.

3.1 Principe d’induction

La recherche qualitative est fondamentalement, dans ses racines et dans ses développements, d’un paradigme inductif (Glaser & Strauss, 1967). Il existe des recherches qualitatives qui reposent sur un paradigme hypothético-déductif (Popper, 1959), dans la continuité des modes opératoires issus de la recherche quantitative qui reste encore parfois hégémonique (Luckerhoff & Guillemette, 2017). Cela pose une question et devrait être davantage étudié dans une perspective critique, en termes de rigueur scientifique notamment. Pour rappel, précisons que la recherche qualitative est inductive. En effet, en 1967 naît la grounded theory. Glaser et Strauss, deux sociologues qui travaillent sur le fait nouveau de mourir à l’hôpital (et non plus en famille ou dans un espace privé), théorisent sur une nouvelle façon de produire des connaissances scientifiques. Il s’agit de comprendre des phénomènes, de développer des théories sur ces phénomènes, à partir des vécus des personnes qui les vivent et selon des principes qui assurent la rigueur de la démarche scientifique. Leurs travaux permettent un changement radical de perspectives et des stratégies pour produire des connaissances. Il ne s’agit plus de forcer les données à entrer dans des théories et des concepts qui préexistent, ce que Glaser et Strauss (1967) « nommaient faire rentrer des données rondes (“round data”) dans des catégories carrées (“square categories”, 1967, p. 37) » (Horincq Detournay, 2018, p. 156), le risque étant qu’elles ne conviennent pas et/ou que ces dernières ne soient pas en adéquation avec les premières (Stern et al., 1982). À la place, il s’agit de développer des théories à partir des données, sans forcer (Charmaz, 1983; Hutchinson & Wilson, 2001), d’analyser ce qui vient des données (emergent), les concepts et les relations entre ces concepts qui émergent d’elles et qui sont les plus ajustés (fit) de manière émergente (« emergently fit ») (Glaser, 1978).

Cela se couple avec un principe de circularité constante. Pour schématiser, il s’agit :

  • d’analyser ce qui émerge des données;

  • de vérifier constamment l’ajustement des conceptualisations ainsi émergentes avec les données dont la variation et la variabilité sont instamment recherchées pour confronter ces conceptualisations émergentes « contre les données », pour les mettre à l’épreuve des données (« against the data », Strauss & Corbin, 1998, p. 22; Morse, 1994), les données étant des vécus variés, qui favorisent l’analyse selon d’autres perspectives, mais aussi d’autres données, dont des écrits scientifiques mobilisés (Horincq Detournay, 2018; Tourigny Koné, 2014);

  • de vérifier à chaque moment, des premières théorisations à celles qui sont finalisées au terme du processus, si celles-ci sont et restent ajustées à l’ensemble des données (de ce fait, le critère de retraçabilité de l’analyse théorisante est particulièrement important);

  • de comprendre, de manière riche, précise, fine, la plus complète possible, le phénomène à l’étude, tout en restant enraciné dans les données.

Les allées et venues, l’analyse comparative constante des données aux concepts et aux théorisations en premier lieu, mais qui forment rapidement des boucles circulaires, réciproques et rétroactives, au fur et à mesure de la montée en abstraction et du flux des idées des analystes, permettent de garder l’enracinement dans les données et la vérification de l’ajustement, ce qui constitue le principe majeur de l’induction.

Le but de la méthodologie de la théorisation enracinée / grounded theory (MTE/GT) est de produire des analyses théorisantes à partir des données, qui soient ajustées à ces données et qui montrent de la pertinence au sujet de l’étude (Charmaz, 1995). L’idée majeure est que, lorsque les théorisations sont fidèles aux données, qu’elles émergent d’elles et qu’elles sont bien ajustées à ces dernières, elles sont les plus utiles, les plus adéquates pour la compréhension d’un phénomène et aussi pour les applications concrètes de la théorisation. Cela permet aussi d’être plus respectueux des personnes et de leurs vécus (Stauss & Corbin, 1994). C’est tout le principe de l’induction comme démarche en recherche qui peut ainsi se déployer.

3.2 Sensibilité théorisante

Tout comme on ne peut pas ne pas communiquer (Watzlawick et al., 1979), on ne peut pas ne pas interpréter; donc, on ne peut pas ne pas théoriser. Quel que soit le paradigme de recherche, on ne peut pas faire de la recherche sans penser, sans comprendre, sans faire intervenir notre subjectivité, nos positionnements, notre réflexivité (c’est-à-dire la réflexion sur/pour/pendant notre réflexion et celle après coup sur notre analyse). La MTE/GT n’est pas une analyse catégorielle, ni thématique, ni descriptive. Elle est compréhensive et interprétative (Hutchinson & Wilson, 2001) à partir des données et non pas sur les données (Glaser & Strauss, 1967).

Les deux mouvements que comprend l’emergent-fit, d’une part, celui qui vient des données et, d’autre part, celui qui est bien ajusté (comme un costume qui fit bien) par rapport aux données, dans la compréhension que l’on a du phénomène que l’on étudie, sont donc indissociables. Or, ce qui émerge ne vient pas spontanément des données. C’est le processus cognitif de la personne qui mène la recherche, sa perspective compréhensive, qui permet que des choses « émergent » des données. Il s’agit néanmoins de respecter des principes de rigueur scientifique, dont la suspension temporaire des connaissances et des idées sur le phénomène étudié, ce qui fait aussi partie de la sensibilité théorisante.

Et c’est grâce à cette même sensibilité théorisante, agie selon ses deux facettes (l’ouverture et la perspective compréhensive), que des théorisations enracinées sont rigoureusement menées. D’une part, il y a la pleine ouverture aux données (tout le temps du processus de recherche) et la pleine couverture (au moins dans les premiers moments de la recherche), en s’ouvrant à ce qui est inattendu dans les données, en allant chercher des données et des vécus variés et diversifiés, en cherchant l’altérité, pour enraciner et enrichir l’analyse. D’autre part, il y a les connaissances et les subjectivités des personnes qui mènent les recherches, leur sensibilisation aux données, la perspective qui se déploie au fur et à mesure de l’analyse, ce qui permet de dépasser l’évidence et de comprendre ce qui émerge des données, pour offrir une compréhension du phénomène à l’étude. Ce qui émerge des données s’élabore autant par l’analyse rigoureuse des données que par la réflexivité des chercheurs et chercheuses, dont il faut rendre compte par écrit. Les approches inductives accordent de l’importance à rendre compte dans le journal de recherche du processus d’élaboration des théorisations, ce qui assure la rigueur de la démarche par cette réflexivité majorée, retraçable tout au long de la recherche.

3.3 Thématique à l’étude et problématique provisoire

D’où provient l’idée de faire une recherche sur un sujet? Il peut y avoir de nombreuses motivations, toujours valables, pour étudier un phénomène. La problématique initiale est définie comme provisoire. Comme les intérêts de recherche sont souvent vastes, la MTE/GT permet de partir des données, sans leur imposer des idées préconçues (Charmaz, 1995). L’évolution de la problématique à l’étude se réalise au fur et à mesure de l’analyse, selon l’emergent-fit. En fait, c’est de l’analyse théorisante, de ce qui émerge et de ce qui est ajusté aux données, que la problématique émerge et se précise. Il n’est pas rare, et c’est même souvent un signe de découverte, que la problématique finalement théorisée soit différente de celle posée au départ, en raison de l’analyse itérative menée.

3.4 Champ d’études et discipline

Tout comme pour la problématique qui évolue, la découverte peut concerner le domaine d’études. Selon Glaser (1978), ce n’est que dans un second temps (seulement), lorsque la théorisation a émergé plus complètement, que l’on peut mieux connaître les champs conceptuels d’étude dans lesquels la recherche se situe. La MTE/GT et l’emergent-fit favorisent ainsi l’interdisciplinarité et la transdisciplinarité. Les phénomènes sociaux à l’étude ne sont jamais uniquement sociologiques ou psychologiques ou… liés à un seul domaine disciplinaire. Les réalités humaines sont complexes, intègrent plusieurs perspectives et évoluent. Les théorisations ainsi élaborées dans la démarche inductive sont plus respectueuses de cette complexité et de leur aspect dynamique. Elles sont davantage emergent-fit.

3.5 Méthodologie choisie

Dans une démarche initiale de recherche, il existe certains points d’attention afin de trouver une méthodologie qui soit en adéquation (qui fit) avec les objectifs poursuivis, avec l’approche qui correspond à la rigueur scientifique du paradigme, avec les intuitions épistémologiques. Certains de ces points peuvent concerner directement l’emergent-fit, comme caractéristique pertinente au choix méthodologique. Nous proposons d’en citer quelques-uns.

Premièrement, c’est le cas lorsqu’il s’agit de comprendre un phénomène qui concerne des personnes, sans parler ni théoriser « sur » ces personnes ni « sur » leurs vécus, mais bien « à partir » de leurs expériences et de leurs vécus rapportés au sujet d’une problématique. Il s’agit alors d’enraciner les analyses et les théorisations dans l’empirie, avec un respect profond pour les vécus recueillis et les personnes. Il s’agit de ne pas pathologiser, ni diagnostiquer, ni étiqueter, ni caractériser d’aucune manière que ce soit les personnes et les vécus. Ce que les personnes amènent à propos de ce qu’elles vivent, en relation avec le phénomène à l’étude, est valable en soi. Il nous semble que cela rejoint l’éthique en recherche et le respect fondamental des subjectivités humaines et des personnes.

Deuxièmement, c’est indiqué lorsqu’il s’agit de ne pas imposer ou tester des théories préexistantes aux données, lorsque c’est la découverte et l’étonnement qui sont recherchés sur les phénomènes étudiés. Notons que les approches inductives ne sont pas exploratoires pour ensuite « confirmer » les résultats de l’analyse (les théorisations seraient alors instrumentalisées comme hypothèses) par une méthodologie hypothético-déductive (quantitative ou qualitative). Le paradigme inductif permet des théorisations qui répondent pleinement à la rigueur scientifique correspondante au paradigme et les résultats des analyses offrent de l’innovation, à partir des données (Guillemette, 2006a).

Troisièmement, si la problématique provisoire, le phénomène à l’étude ou la perspective pressentie comme la plus judicieuse sont dynamiques, il est pertinent d’adopter une perspective itérative, c’est-à-dire une méthodologie non pas linéaire, mais bien circulaire, ce que permettent les approches inductives.

3.6 Données

Les données sont la plupart du temps empiriques dans les sciences sociales, mais elles peuvent aussi être théoriques, en tout (Tourigny Koné, 2014) ou en partie, et mobilisées selon une fonction précise (Horincq Detournay, 2018). En effet, « all is data » est un leitmotiv dans bon nombre des travaux de Glaser. C’est l’échantillonnage théorisant qui soutient le choix des données à analyser, au fur et à mesure de l’analyse et de ce qui émerge. Et enfin, la flexibilité méthodologique soutient le fait de tout mettre en oeuvre pour mieux comprendre le phénomène à l’étude. Aucune procédure ne doit entraver le processus de théorisation.

Le phénomène est étudié à partir des données et lorsque ces dernières sont des vécus des personnes qui vivent le phénomène, nous avons précisé qu’elles sont toutes valables en soi. Il n’y a pas de valence, de pondération, de caractéristiques socio-économiques, d’âges, d’identités, etc., qui leur sont associés par les personnes qui mènent la recherche directement ou indirectement (par exemple, en réalisant un profil). Par contre, selon l’emergent-fit, si des personnes parlent elles-mêmes, spontanément, d’un lien qu’elles font entre leur identité ou condition sociale et le phénomène qu’elles ont vécu et qui est étudié, alors (et alors seulement) cela pourra faire partie de l’analyse théorisante, selon la sensibilité théorisante des personnes qui mènent la recherche. Cela est fondamentalement différent, car cela émerge des données et les codes et concepts qui sont développés sont et restent bien ajustés aux données.

3.7 Échantillonnage théorisant

Selon Glaser et Strauss (1967), le principe de l’échantillonnage théorisant guide le processus constant d’analyse et de collecte des données, ce qui permet la production d’une théorisation. Il y a un ajustement constant aux données et l’analyste contrôle cet ajustement dans le recueil des données pertinentes et dans la théorisation en émergence. Les situations sociales recherchées qui offrent les données évoluent ainsi au fil de l’analyse et des conceptualisations qui émergent et se complexifient. Chercher des situations sociales qui offrent des données qui ne fit pas avec les théorisations élaborées jusqu’alors mène à améliorer la compréhension de la problématique provisoire à l’étude. En effet, ce sont les théorisations qui doivent s’ajuster à ce qui émerge des données et non l’inverse.

3.8 Flexibilité méthodologique

La flexibilité méthodologique réfère aux données puisque « all is data » (Glaser, 1998), mais également aux procédures (Corbin & Strauss, 2014) qui ne doivent jamais devenir rigides ni prendre le pas sur le processus. Selon ce principe, il s’agit de mobiliser tout ce qui permet de mieux comprendre le phénomène à l’étude. Cela favorise l’émergence à partir des données, de leur analyse, en cherchant l’altérité dans ce qui émerge, afin d’approfondir, d’enrichir, de préciser la compréhension. En même temps, l’ajustement est recherché au fur et à mesure que les données sont analysées. C’est le processus de l’emergent-fit qui est central pour la rigueur de la démarche, menée avec réflexivité, ce dont témoigne notamment le journal de recherche.

3.9 Analyse, densification et intégration théorisante

Toute l’analyse est nourrie par le principe de l’emergent-fit. C’est tout le processus de théorisation enracinée qui se déploie selon la comparaison constante, la circularité, les processus de codage, la montée en abstraction, jusqu’à la densification et l’intégration théorisante. Et cela, du début à la fin (présumée) de l’analyse. Sans ce principe, l’analyse ne serait pas inductive, ni enracinée, ni ajustée aux données. En somme, elle ne serait pas de la recherche comme l’ont pensé ses fondateurs Glaser et Strauss (1967). Comme nous l’avons signifié, c’est lors de la collecte et de l’analyse constantes des données que l’emergent-fit est le plus souvent et initialement présenté. S’il était possible de résumer et de développer deux questions qui caractérisent l’emergent-fit, comme le « tic-tac » d’un balancier en mouvement incessant, ce serait : « quand j’écoute les données, qu’est-ce qui se passe ici, qu’est-ce qui émerge selon ce que je comprends? » (la démarche est compréhensive à partir des données) et « est-ce que ce que je comprends de ce qui se passe est bien ajusté aux données? » (la démarche consiste à vérifier l’ajustement aux données). Ces deux questions sont enracinées selon l’idée de Strauss et Corbin (1998). C’est ce processus dialectique essentiel qui assure l’induction au gré de l’analyse, de la première intuition jusqu’à la densification et à l’intégration théorisante.

3.9.1 Validité?

Dans les concepts reliés à l’ajustement, certaines notions et quelques enjeux gagneraient à être précisés. Glaser (1998, 2003) associe « fit » et « validity ». Selon lui, fit serait un autre mot pour validity, ce qui assurerait la crédibilité de la théorisation. En considérant les nuances fondamentales entre les termes validité, validation, test et vérification en français, nous présentons le résultat de notre analyse pour préciser ces notions en lien avec la rigueur scientifique.

Selon Glaser (1998, 2003), le concept doit représenter l’ensemble des données qu’il est censé représenter; la théorie est reliée aux données, elle émane d’elles et c’est l’exigence fondamentale de l’induction. Dans cette idée, ce qui est ajusté est donc valide. La validité renvoie étymologiquement aux notions de force et de solidité. Si c’est solide au regard des données, cela représente un portrait authentique de ce qui se passe. En ce sens, cela se rapprocherait des notions de validité interne, de crédibilité et d’authenticité (Miles & Huberman, 2003). Cependant, utiliser le concept de validité dans un paradigme inductif qualitatif alors que ce concept émerge initialement d’un autre paradigme est discutable ou tout au moins, cela pose une question. Comment comprendre le terme fit en restant au coeur de la recherche inductive, en tant que principe fondamental?

Si l’on prend le concept de validation, qui renvoie lexicalement à une action, à une procédure, Strauss et Corbin (1998) insistent sur le fait qu’il n’a pas le sens de « tester » comme dans le paradigme quantitatif ou hypothético-déductif. Ils définissent ce qu’ils entendent par validation comme le fait que la théorisation émerge des données, mais en ce qui a trait à l’intégration théorisante, cela devient une interprétation abstraite des données brutes. C’est pourquoi il est important de déterminer en quoi cette abstraction correspond aux données brutes et aussi de déterminer si quelque chose de saillant a été omis dans le schéma théorique (Strauss & Corbin, 1998). Selon eux, les stratégies de validation pour assurer l’ajustement s’exercent soit envers les données (voir s’il ne manque pas quelque chose à la conceptualisation, revenir aux données brutes après que la théorisation soit déjà bien avancée), soit envers les personnes concernées qui devraient pouvoir percevoir la conceptualisation du phénomène qu’elles vivent et qui est à l’étude, comme une explication (dite) raisonnable.

3.9.2 Auprès des données

Si l’on considère le concept de vérification, cela renvoie à la preuve, à la conformité, au vrai et au réel, au fait de s’avérer exact, ce qui ouvre à une réflexion épistémologique qui dépasse le cadre de cet article. Mais le paradigme inductif, qualitatif dans ce cas, ne se situe pas dans une recherche d’objectivité comme en quantitatif. Alors, s’il s’agit de vérifier, qu’est-ce que l’on vérifie? Les analystes vérifient si la théorisation qui émerge des données, la compréhension du phénomène à l’étude, est bien ajustée aux données, à toutes les données de l’échantillonnage théorisant, depuis le début et à celles recueillies et analysées au fur et à mesure, à celles que l’on recherche pour ce qu’elles apportent comme vécus diversifiés. Il s’agit à chaque moment de vérifier que la théorisation respecte et s’ajuste aux données, qu’elle leur soit loyale, en quelque sorte. Selon Strauss et Corbin (1998), les données ne mentent pas, il faut y revenir sans cesse. Il faut aussi comparer la théorisation qui se développe « contre » les données brutes, la mettre à l’épreuve de ces données, en réalisant une analyse comparative dite de haut niveau, afin que la théorisation puisse fournir une compréhension du phénomène en adéquation avec la plupart des situations sociales concernées (Strauss & Corbin, 1998). À travers les mémos, ou le journal de recherche, ou toute autre forme de notes de recherche, le critère de retraçabilité des théorisations, depuis l’analyse des premières données et au fur et à mesure des montées en abstraction, est appliqué. Ce qui est vérifié, c’est que les théorisations les plus abstraites restent bien enracinées dans des données et ajustées à toutes les données analysées, selon le processus réflexif développé grâce à l’emergent-fit. Dans ce sens, la vérification a comme but une certaine fidélité aux données et elle n’est pas de la validation dans le sens habituellement employé dans d’autres paradigmes de recherche. La théorisation n’est pas plus « vraie » sur le phénomène étudié parce qu’elle serait bien ajustée aux données, mais la démonstration est faite qu’elle émerge bien des données, par l’analyse théorisante, et qu’elle est ajustée aux données selon l’emergent-fit. Les théorisations qui sont ainsi présentées restent entièrement assumées par les analystes qui les ont produites en respectant tous les principes de la recherche inductive.

3.9.3 Auprès des personnes

Il y a trois perspectives de vérification possible de l’ajustement pour ce qui est des personnes : premièrement, la vérification de la compréhension des vécus, deuxièmement, la réciprocité éthique avec les personnes concernées et, troisièmement, la responsabilité des analystes.

Puisque l’on n’étudie pas les personnes ni leurs vécus, comment envisager que la vérification auprès des personnes concernées ait un sens?

Premièrement, il peut s’agir d’une vérification (check) que les interprétations de ce qui se passe au sujet du phénomène étudié s’ajustent aux perspectives des participants et participantes, au terrain et aux situations sociales. Dans cette idée, il ne s’agit pas que les personnes « valident » la théorisation présentée, qui continue à être assumée par les analystes, mais il y a une forme de « validation », une « vérification » que l’on ait bien compris leurs vécus. Cette vérification de la compréhension de leurs vécus peut être importante sous peine que ce qui émerge et que l’on croit ajusté aux données ne le soit pas suffisamment (si les vécus n’ont pas été bien entendus, compris ou encore recueillis).

Deuxièmement, il peut s’agir d’une vérification de la compatibilité entre la théorisation enracinée et le terrain par la réaction des personnes concernées. La théorisation devrait être en cohérence avec ce que les personnes considèrent comme pertinent de leur perspective (May, 1986). Or, nous suggérons que cette « vérification » cherche l’altérité et des différences et que ces divergences soient mobilisées comme des données pour enrichir et préciser la théorisation, tout comme cela peut être le cas entre la théorisation et d’autres résultats de recherche (May, 1986). Selon notre perspective, il ne faut donc pas confondre cette vérification avec le fait que, si les personnes considèrent la théorisation comme « vraie », ou sont d’accord avec celle-ci, alors c’est qu’elle est plus « valide » (et réciproquement, que si les personnes contestent la théorisation, c’est qu’elle n’est pas ajustée). Selon certaines perspectives méthodologiques et postures épistémologiques contemporaines qui dépassent le cadre de cet article, cette confusion peut exister et cela met en doute la rigueur scientifique de la démarche. La théorisation dans les approches inductives reste assumée par les analystes et rien d’autre que la rigueur déployée notamment grâce à l’emergent-fit et la réflexivité retracée ne fonde sa valeur ou sa pertinence. En effet, il se pourrait que les personnes soient « d’accord » avec la théorisation, parce que cela leur convient théoriquement, politiquement, comme modèle de compréhension. Il se pourrait aussi que des personnes ne soient « pas d’accord » avec la théorisation, parce qu’elle met en lumière des éléments dont elles n’ont pas conscience. Si la théorisation reste enracinée et ajustée par rapport aux données, dont des vécus de personnes recueillis, elle reste donc « valable » et assumée par les analystes, qui rendent compte de leur positionnement situé dans leur journal de recherche, selon leur sensibilité théorisante. Donc, toute divergence est une opportunité pour enrichir et préciser la théorisation qui reste toujours en cours de développement et de précision. On n’a jamais fini de mieux comprendre un phénomène humain. Parallèlement, toute convergence et tous les accords ne prouvent pas la validité de la théorisation et ne permettent pas non plus de la faire progresser. Par contre, le fait de créer une réciprocité avec les personnes concernées, de recueillir leurs vécus, toujours dans le but d’améliorer la compréhension du phénomène à l’étude, nous semble relever de l’éthique en recherche et, dans ce sens, nous rejoignons cette perspective (Strauss & Corbin, 1998).

Troisièmement, la responsabilité des analystes est engagée et cela rejoint l’éthique que nous venons d’aborder. Il faut assumer un devoir envers les personnes, non seulement déontologiquement, mais aussi éthiquement. Selon Strauss et Corbin (1994), les analystes ont une obligation envers les personnes concernées par la problématique étudiée. Il s’agit de leur donner de la voix, de raconter aux personnes concernées et aux autres leurs histoires au travers de la théorisation enracinée et de présenter clairement pourquoi ils ont interprété le phénomène à partir de leurs vécus comme ils l’ont fait. Cela est notamment assuré par la retraçabilité du processus de théorisation (mémos, journal de recherche, réflexivité…).

3.9.4 Ajustement et vérification

Le fait d’utiliser des concepts qui proviennent d’autres paradigmes de recherche, comme ceux de validité et d’objectivité, est questionnable et mériterait d’autres approfondissements. On peut néanmoins accorder que cela tente de favoriser la compréhension entre les scientifiques, en adoptant un langage commun, celui le plus utilisé et le mieux connu majoritairement. Mais cela peut aussi porter à confusion. Il nous semble préférable d’expliciter le contenu des termes plutôt que de présumer que nous parlons de la même chose. Nous assumons que des termes spécifiques, qui émergent du paradigme dans lequel l’analyste se situe, sont adéquats et offrent une plus grande pertinence. Lorsque Glaser (1998, 2003) associe « fit » et « validity », nous proposons plutôt d’expliciter ce que cela recouvre et d’associer l’ajustement aux données et à l’éthique par rapport aux personnes. Cela renforce la rigueur scientifique de la démarche inductive.

3.10 Saturation théorisante

Comme la variabilité des données est recherchée, puisque c’est la différence qui offre de l’information pour mieux comprendre le phénomène, il faut aussi pouvoir faire évoluer et changer constamment les codes et les concepts jusqu’à une saturation suffisante (Hutchinson & Wilson, 2001), les affiner jusqu’à ce que l’ajustement soit assez précis (Smith & Biley, 1997). La saturation théorisante est définie comme un jugement de la personne qui mène la recherche, qui considère que de nouvelles données n’apporteraient pas vraiment du neuf à la théorisation qui a émergé et qui s’est donc construite (Laperrière, 1997). Concrètement, Corbin et Strauss (2014) font remarquer que le jugement sur la saturation théorisante est aussi relatif à d’autres considérations comme celle des ressources dont dispose l’analyste, notamment en temps et en argent. Charmaz (2002) parle de la saturation comme d’un concept « élastique ». À un moment, il faut prendre une décision et clôturer, ne fut-ce que provisoirement, c’est-à-dire jusqu’à un prochain projet de recherche. Mais la saturation doit être suffisante pour présenter une compréhension assez complète et complexe aux pairs et aux collègues, pour faire progresser les connaissances scientifiques et, dans tous les cas, il faut montrer en quoi la saturation est ajustée aux données. Précisons qu’en approches inductives, la saturation n’est pas celle des données. Elle concerne l’analyse et donc la compréhension du phénomène étudié. Les données analysées ont-elles été suffisamment écoutées et entendues, les codes ajustés au maximum? La théorisation est-elle suffisamment étoffée pour comprendre le phénomène et permettre une contribution à l’avancement des connaissances? Dans les deux cas, l’ajustement réfère aux données et la saturation, à l’analyse. À un moment, on choisit que la saturation soit suffisamment atteinte, ce qui est toujours une étape. En effet, la compréhension d’un phénomène est dynamique, elle peut toujours se poursuivre à la lueur d’expériences contemporaines, par exemple. Le fait de considérer avoir atteint une saturation suffisante de la théorisation devrait émerger des données et de leur analyse, même si d’autres considérations peuvent intervenir.

3.11 Transférabilité

Les critères de scientificité en recherche inductive ou hypothético-déductive ne sont pas toujours les mêmes. Comme nous l’avons évoqué, parler de validité est discutable. De la même manière, il n’y a pas de généralisation (puisqu’il n’y a pas un échantillon représentatif d’une population). L’exigence qui correspond, en quelque sorte, à la généralisation en recherche inductive est la transférabilité. Celle-ci doit être assurée en donnant aux autres analystes des informations claires et détaillées (le critère de retraçabilité) sur le processus de théorisation mené, les codes et les concepts émergents, les relations entre ces concepts, etc. Selon Glaser et Strauss (1967), une théorisation qui est ajustée à la situation étudiée est celle qui peut répondre aux exigences de fournir des catégories claires, qui peuvent être utilisées dans d’autres recherches, même dans des recherches opérationnalisées dans un autre paradigme (par exemple, en recherche quantitative hypothético-déductive) quand cela est approprié, et être facilement comprise par les analystes en sciences sociales, quelle que soit leur perspective, les étudiantes et étudiants et des profanes. Selon Glaser et Strauss (1967), si la théorisation peut répondre à ces exigences, elle est ajustée à la situation étudiée et elle fonctionnera lorsqu’elle sera utilisée ou transférée dans d’autres contextes semblables. La transférabilité prend donc aussi racine dans l’emergent-fit. Il s’agit, par exemple, d’expliciter les conceptualisations en détail par des énoncés et des schémas conceptuels, de montrer les liens entre les théorisations et les données, de confronter et d’utiliser les théorisations qui ont émergé des données pour poursuivre éventuellement d’autres théorisations, d’expliciter la méthodologie utilisée, etc., tout cela dans d’autres contextes semblables ou pour l’étude de phénomènes partageant certaines similitudes avec le phénomène étudié dans la recherche-source.

3.12 Après la fin, ce n’est pas fini

Selon nous, l’emergent-fit est renforcé par la réflexivité et vice versa. C’est une propriété de la recherche inductive; c’est un processus, mais aussi une procédure et une stratégie; c’est un mouvement qui, une fois lancé, continue sa trajectoire et permet des recherches et d’autres projets. Le fait de présenter une réflexivité méthodologique et épistémologique approfondie a émergé de nos recherches et de nos théorisations à partir de données empiriques et elle se poursuit par la rédaction de cet article, d’autres articles (dont Horincq Detournay, 2018) ainsi que notre engagement dans des projets de recherche. L’emergent-fit demeure une préoccupation constante et ne doit jamais être tenu pour acquis. C’est un questionnement dont la fécondité dépend de la vigilance constante, jamais satisfaite.

3.13 Quelques enjeux pour une meilleure compréhension de l’emergent-fit

Si le concept d’emergent-fit est mal compris, certaines questions sensibles peuvent mener à des impasses méthodologiques et à un manque de rigueur scientifique. Nous proposons d’en présenter certaines et nous terminerons avec des éléments qui permettent de développer une meilleure compréhension de l’emergent-fit.

  • Est-ce que la MTE/GT est une approche déductive, masquée par une prémisse d’induction (cela vient des données) alors qu’ensuite, la logique est de confirmer, d’imposer les premières idées et conceptualisations qui ont émergé à d’autres données, afin de renforcer la théorisation?

Dans une approche inductive comme processus, il y a des moments de déduction. Ils sont très brefs, mais aussi nombreux qu’il y a d’idées qui émergent dans l’esprit des analystes à partir des données. En effet, ces moments de déduction correspondent à ceux où il y a la vérification de l’ajustement aux données des conceptualisations émergentes. La logique reste pleinement inductive puisque tout change tout le temps (codes, concepts, relations entre eux, conceptualisations…), au fur et à mesure de l’analyse théorisante et grâce à l’emergent-fit. Dans une logique déductive, l’idée ou l’hypothèse reste stable et fixe. Et elle est confirmée ou infirmée à la fin de la recherche. Dans une perspective inductive, l’ajustement permet et oblige l’évolution constante de la théorisation, au fur et à mesure de l’analyse des données recueillies, des modélisations qui sont nommées (Glaser, 1998).

Il y a deux propriétés à l’ajustement (fit) : le « refit » et l’« emergent fit » (Glaser, 1978, p. 4). Le refit concerne le fait que les catégories émergent rapidement, qu’il est important de les « ré-ajuster » aux données tout au long du processus de recherche, pour qu’elles correspondent bien à toutes les données dans lesquelles elles prétendent s’enraciner. Il faut pouvoir changer les catégories, les faire évoluer, les nommer, les renommer. Glaser (1978) dit que les codes et les catégories ne sont pas précieux, mais juste fascinants. Il est nécessaire de les rendre banals, dans le sens où ce sont des outils transitoires au service de la compréhension d’un phénomène et le but de l’analyste est d’enraciner l’ajustement des catégories, aussi proche que possible des données. L’emergent fit concerne le fait que de nombreuses catégories peuvent correspondre et être adéquates par rapport aux données. Pour celles qui sont préexistantes (concepts sensibilisateurs venant d’une théorie ou encore celles qui viennent des données selon le refit), la tâche consiste plutôt à développer et à trouver un accord entre les données et la catégorie et que cela fonctionne (work). Pour cela, il s’agit de faire évoluer la catégorie afin qu’elle s’adapte et s’ajuste aux données et non l’inverse. Dans ce sens, le processus d’induction est respecté, la catégorie n’a pas été importée et imposée aux données, elle a gagné son chemin dans la théorisation émergente. Ajoutons à cela que l’on recherche des données variées et qui ne correspondent pas à ce qui a été recueilli et analysé jusqu’alors. Dans d’autres recherches (quantitatives ou qualitatives, hypothético-déductives), ces données seront nommées comme des cas aberrants et mises de côté pour analyser les résultats. En MTE/GT, elles sont recherchées pour alimenter l’analyse. Le but est de mieux comprendre, de manière plus riche, le phénomène que l’on étudie. Toutes les données qui offrent une autre perspective sur ce qui a déjà été théorisé jusqu’alors sont riches à analyser, car elles participent à l’approfondissement de la compréhension du phénomène à l’étude. C’est de la différence que provient l’information pour poursuivre la conceptualisation. Les données qui offrent de la similarité (ou de la conformité) avec les théorisations ne sont pas recherchées dans ce paradigme de recherche (puisque ce n’est pas parce que des données nourrissent une même conceptualisation, même émergente, que cette dernière est « plus vraie »).

  • Est-ce que la MTE/GT est adéquate uniquement dans certaines circonstances, pour certaines recherches?

Tous les phénomènes qui concernent directement ou indirectement les humains bénéficient des approches inductives pour mieux comprendre ce qui se passe, à la lueur de leurs vécus, que les phénomènes soient nouveaux ou déjà étudiés. Laisser émerger des données des conceptualisations et vérifier l’ajustement des théorisations aux vécus et aux données en général est un processus éminemment riche en recherche, qui permet des avancées sur le plan des connaissances, avec une réelle pertinence sociale et une adéquation par rapport à ce que les personnes vivent. Chaque analyse enracinée est unique, elle est permise et assumée par l’analyste à ce moment-là de son travail.

  • Comment rester dans l’emergent-fit?

Techniquement, selon Glaser (2001), si le rythme de théorisation est rapide, lorsque les processus de codage et de conceptualisation vont trop vite, il faut ralentir, pour assurer le meilleur ajustement possible des concepts aux données, jusqu’à la décision relative à la saturation théorisante. Le risque est toujours que des théorisations s’envolent et s’éloignent des données, ce qui ne respecte pas l’induction dans son ensemble. D’un autre côté, rester proche des données, cela ne signifie pas les décrire et ne pas les analyser de manière compréhensive. La recherche sert à interpréter des éléments, des données ou des résultats dans le but de faire avancer les connaissances. Il faut s’écouter penser en analysant les données, rendre compte de ce qui émerge d’elles. Les codes, les catégories, les idées et les liens entre les données et les idées émergent et changent, ce qui permet de théoriser selon ce qui est le mieux ajusté aux données, constamment, au fur et à mesure. Les abstractions déracinées tout comme des descriptions sans théorisations sont les deux extrêmes d’une démarche qui sort de la perspective compréhensive, méthodologiquement et épistémologiquement.

  • Est-ce que l’emergent-fit concerne uniquement l’analyse et la collecte de données en recherche inductive?

Il concerne tous les principes de la MTE/GT et à chaque moment de la recherche, de la problématique initiale et provisoire, jusqu’à la saturation théorisante et au dépôt de l’épreuve écrite et des résultats de la recherche. Et, selon notre analyse, il est même possible que cette tendance à la circularité, l’emergent-fit, commence avant le début officiel de la recherche et continue après celle-ci. Plusieurs processus de recherche peuvent alors se déployer, sur d’autres phénomènes, sur d’autres sujets; ils seront reliés et ils garderont et respecteront le mouvement sans fin de l’emergent-fit qui est un processus qui possède sa propre cinétique, lorsqu’il est méthodologiquement intériorisé et mis en perspective.

  • L’emergent-fit permet-il des théorisations sans fin?

Le vivant n’arrête jamais son mouvement, ni son évolution, ni son développement. L’humain non plus, ni les phénomènes sociaux que les personnes vivent. Tenter de comprendre un phénomène, c’est comme vouloir atteindre une cible mouvante. On ne peut jamais tout comprendre d’un phénomène, la saturation théorisante a toujours une limite. Il y a des contingences (financières, de temps…) qui nécessitent de mettre un point final (ou ceux de suspension) à une recherche. La saturation est possible lorsque le phénomène a été suffisamment compris, en respectant les principes de l’induction, pour offrir une avancée dans les connaissances. De plus, s’adapter à une cible mouvante, c’est aussi pouvoir faire évoluer (autant que possible) les théorisations, en continuant constamment l’emergent-fit. De ce fait, les théories enracinées présentent de la fluidité (« fluidity », terme que Strauss & Corbin [1994, p. 279] attribuent à Joan Fujimura), parce qu’elles prennent en considération les interactions, mettent l’accent sur la temporalité et les processus, soutiennent l’exploration de chaque situation nouvelle, demandent une ouverture de la part des analystes qui mènent la recherche (Strauss & Corbin, 1994). Toute théorie présente un caractère transitoire et perfectible. La vie n’est pas statique et une théorie doit pouvoir évoluer, être modifiée pour s’ajuster aux changements, aux nouvelles données. La flexibilité est nécessaire pour assurer la pertinence d’une théorie (Hutchinson & Wilson, 2001).

  • L’emergent-fit assure-t-il la circularité qui caractérise l’induction?

C’est un principe qui est en lui-même circulaire. Tout peut évoluer, en lien avec l’itérativité de la démarche, tant que cela vient des données et que cela leur est ajusté. Par exemple, selon la circularité de l’approche, la problématique à l’étude, qui est établie initialement, peut être modifiée au fur et à mesure que les données proviennent des acteurs et actrices qui vivent le phénomène et que l’analyse évolue (Willig, 2001).

Conclusion

L’emergent-fit assure pleinement l’induction dans son double mouvement d’émergence et d’ajustement. C’est l’un des aspects méthodologiques centraux des approches inductives, qui est aussi l’une des propriétés principales de la recherche qualitative. En plus d’être un principe majeur en MTE/GT, il est aussi un ensemble de stratégies, de modes opératoires, un fondement, une façon de réaliser de la recherche et d’envisager la production de connaissances scientifiques. Cet article explique comment l’emergent-fit n’est pas réservé à la collecte et à l’analyse des données. Il les précède et les poursuit. Il concerne tous les principes de la recherche inductive, dont la problématique provisoire, la sensibilité théorisante, l’échantillonnage théorisant, la flexibilité méthodologique, l’intégration théorisante ou encore la saturation théorisante. L’emergent-fit est un processus hélicoïdal (Plouffe & Guillemette, 2012) qui se caractérise par de la transversalité et qui a sa propre dynamique. Cet article présente aussi certains enjeux pour une compréhension précise de l’emergent-fit, afin de soutenir la rigueur scientifique de la démarche. En conclusion, pour paraphraser Glaser qui souligne dans plusieurs de ses écrits que « all is data », nous dirions que dans les approches inductives, « all isemergent-fit » !