Corps de l’article

Introduction

Formé en France, Patrick Plumet s’installa au Québec en 1962 (Plumet n.d.). Cumulant des recherches sur l’occupation de l’Arctique oriental (Viking, Inuit), Patrick Plumet fut engagé en 1969 à l’Université du Québec à Montréal (UQAM) au moment même de la création de cette dernière. Il y mit alors sur pied un laboratoire d’archéologie rattaché au Département des sciences de la Terre et de l’atmosphère (Moreau 2011). Ayant obtenu une subvention majeure quinquennale du Conseil des Arts du Canada (aujourd’hui le Conseil de recherches en sciences humaines du Canada), le projet Tuvaaluk, conçu par Patrick Plumet et Jean-Paul Salaün, s’est développé entre 1975 et 1979 puis fut prolongé jusqu’en 1982 (Plumet 2002).

Le début des années 1960 est marqué par l’émergence aux États-Unis de la New Archaeology (Willey et Sabloff 1993). Ainsi, Lewis Binford affirmait dès 1962 que l’archéologie ne pouvait avoir d’autre objectif principal qu’anthropologique, c’est-à-dire expliquer les comportements humains (la culture) (Binford 1962; Gamble 1999). Cet objectif donna lieu, entre autres, à la publication de New Perspectives in Archaeology (Binford et Binford 1968), compendium de chapitres démontrant que l’interprétation anthropologique ne constituait pas seulement un objectif, mais était réalisable. Il n’en restait pas moins que cet objectif nécessitait le façonnage d’outils nouveaux, dont le Britannique David Clarke se fit le promoteur, particulièrement dans le domaine de la quantification dans Analytical Archaeology, publié en 1968[1].

Alors qu’avaient lieu ces transformations de l’archéologie dans le monde anglo-saxon, en France s’affrontaient deux conceptions de l’archéologie. L’une liée à la personne d’André Leroi-Gourhan pour qui le site archéologique est un palimpseste de l’occupation observée par l’ethnologue: il faut décaper une grande surface afin d’obtenir une perception globale de l’occupation et des activités qui s’y sont déroulées (Leroi-Gourhan 1983)[2]. Alors que Leroi-Gourhan exerçait son métier à Paris, à Bordeaux, François Bordes développait une archéologie « verticale » reposant notamment sur la stratigraphie, par opposition à l’horizontale privilégiée par Leroi-Gourhan (Bordes 1972)[3]. Sans tomber dans une simplification outrancière, ces deux approches reflètent pour une large part les milieux des terrains respectifs des deux chercheurs: milieux surtout ouverts (plein air) dans le bassin parisien alors qu’une très large proportion des découvertes dans le sud de la France relève du milieu karstique (grottes et abris sous roches).

En milieu québécois et francophone, dans le contexte de la Révolution tranquille, Patrick Plumet s’était forgé avec ses collaborateurs une méthodologie qui constitue une combinaison des objectifs poursuivis par les archéologues anglo-saxons et français. Il convient cependant de rappeler que le milieu physique québécois tend à privilégier une approche à la Leroi-Gourhan (fouille extensive) plutôt que des fouilles « verticales » à la Bordes, les milieux fermés (grottes, abris sous roche) n’y existant à peu près pas. Il demeure que le Québec en général et son aire arctique a livré des sites parfois complexes formés de plusieurs couches stratigraphiques. De surcroît, les Autochtones américains étant les descendants des ancêtres mis au jour par l’archéologie, un lien temporel direct est donc tracé entre occupations présente et passée (Moreau 1992). Bref une ethnoarchéologie peut être mise en forme (Gallay 2011), poussant un peu plus loin le concept de palethnographie développé par Leroi-Gourhan (1983).

L’émergence de l’informatique

Entre 1975 et 1982, alors qu’a été développé le projet Tuvaaluk, l’informatique n’était nullement ce que nous en connaissons aujourd’hui: appareils puissants en taille des mémoires et en vitesse de traitement des informations dans des machines de taille réduite (Waldrop 2001). Condition sine qua non pour que se développe l’informatique: des machines composées à l’origine dans les années 1960 de transistors combinés ensemble sur des circuits intégrés. Cette technologie, cependant, ne permettait pas encore des performances de mémoire et de vitesse de traitement capables de gérer de très grands ensembles de données.

À partir des années 1970, la puce électronique – composante électronique dont les couches superposées alternées de matériaux conducteurs et non conducteurs forment de grandes séries de transistors – voit le jour. Celle-ci va jouer de façon drastique sur trois facteurs de croissance liés à la taille de la mémoire, l’accélération de la vitesse de traitement et la miniaturisation. Le graphique (Figure 1) montrant l’évolution de la taille des puces sur une période de 45 ans, entre 1970 et 2015, montre sans aucune ambiguïté combien ces dernières ont crû de façon exponentielle en capacité de mémoire et de vitesse de traitement: les puces du début des années 1970 comprenaient quelque 1 000 transistors comparativement aux 10 milliards de 2015, tout cela alors que la surface des puces demeure de l’ordre de quelques cm2. Au-delà des considérations d’amélioration drastique des performances des machines, le facteur économique devient crucial avec le temps: le coût du million d’instructions par seconde (MIPS) a ainsi subi une décroissance drastique: à peine 0,01 MIPS pour 1 000$ jusqu’en 1980 alors que ce même 1 000$ permettait de se pourvoir d’ordinateurs fonctionnant à plus de 10 000 MIPS en 2005 (Figure 2).

Le projet Tuvaaluk a été créé alors que les composantes électroniques étaient faibles en termes de performance (taille de mémoire et vitesse de traitement) et coûteuses. Le coût des gros ordinateurs (taille d’un ou plusieurs réfrigérateurs) disponibles à l’époque requérait que l’appareil soit centralisé et utilisé par un grand nombre d’usagers. Dans ce contexte, il a fallu créer des outils qui permettaient de traiter l’information archéologique à travers des moyens mis au point pour d’autres fins. Ainsi, à l’UQAM, la structuration de cette information a reposé sur le recours au modèle de base de données mise au point dès la création de cette université et dont l’acronyme, TIGRE, indique bien l’objectif d’une utilisation générale: Traitement informatique pour la gestion de la recherche et de l’enseignement. Gosselin (1978a) rend compte particulièrement des caractéristiques physiques, matérielles (hardware), des machines utilisées pour l’informatisation des données du programme Tuvaaluk, puis décrit plus tard (1979) surtout des aspects logiques de ce traitement (software). Publié dans Plumet (1980: 145 et ss.), le Tableau 1 décrit la structure de la base de données de type TIGRE spécifiquement construite pour les besoins archéologiques du projet Tuvaaluk. Cette analyse générale comprend les données tirées directement du terrain – principalement la localisation des témoins archéologiques – dans la colonne de gauche et celles résultant de l’analyse de ces témoins en laboratoire dans la colonne de droite (Gosselin 1979; Plumet 1979).

Figure 1

Nombre de transistors en fonction du temps (1970-2015)

Nombre de transistors en fonction du temps (1970-2015)

Adapté de Villon de Benveniste (2014)

-> Voir la liste des figures

Nous plaçant dans la perspective de 2015, soit quelque 40 ans après le début du projet Tuvaaluk, il est facile de saisir ce en quoi consistait en terme de représentation intellectuelle le traitement des données archéologiques. En effet, qui aujourd’hui n’a pas utilisé, ne serait-ce que de façon sommaire, le tableur Excel (dont les origines d’ailleurs remontent au début des années 1980)? En bref, les diverses variables décrites au Tableau 1 sont assimilables aux colonnes d’un tel tableur alors que chacun des témoins archéologiques mis au jour occupe sa propre ligne de description des dites variables (Figure 3). Toutefois, au-delà de ces variables et des objets ainsi décrits, une composante tridimensionnelle existe dans TIGRE: une variable peut prendre plus d’une occurrence. Par exemple, une pointe de jet pourrait être décrite en termes de localisation par plus d’un point de repérage, permettant ainsi de garder trace de l’orientation de l’objet.

Figure 2

Coût du million d’instructions/seconde en fonction du temps (1970-2015)

Coût du million d’instructions/seconde en fonction du temps (1970-2015)

Adapté de Durand (2007)

Au fur et à mesure que le temps passe et, particulièrement depuis 1940, pour la même somme de 1 000 $ US ($1K) la disponibilité du nombre de milliers d’instructions par seconde a crû de façon exponentielle en même temps que décroissaient les coûts des moyens de traitement électroniques, en particulier les ordinateurs

-> Voir la liste des figures

Du terrain à l’analyse descriptive

Le projet Tuvaaluk a donc mis au point une analyse générale qui, à l’époque, constituait le croisement non seulement des conceptions anglo-saxonne et française de l’archéologie mais encore de cette combinaison avec l’instrument peu développé à l’époque qu’était l’informatique. Plumet (1979, 1980) et ses collaborateurs ont donc dressé un organigramme du travail archéologique (Figure 4) où sont distinguées quatre étapes: le terrain (collecte des données de localisation et prélèvement des témoins), l’analyse descriptive des témoins, leur catalogage et leur exploitation.

Il a fallu réfléchir à l’approche analytique à retenir et développer. En effet, l’archéologie a longtemps été une discipline où la taxonomie constituait presque une fin en soi, privilégiant ainsi la typologie des témoins matériels. L’approche retenue par Plumet et ses collègues a plutôt mis de l’avant une approche par caractères, le type devenant une variable au même titre que les autres attributs observables sur le témoin archéologique (Plumet 1979, 1980). Les variables observées sur les témoins mis au jour dans les sites de l’Arctique par le projet Tuvaaluk comprennent les variables extrinsèques (ne relevant pas de la nature même du témoin) et intrinsèques (qui en relèvent). S’il n’est aucunement question de rendre compte dans le menu détail de la description de chacune des variables, retenons-en ici les lignes principales.

La localisation spatiotemporelle (LOCST: Tableau 1, partie supérieure de la colonne de gauche) comprend le nom du site, la désignation de l’unité de fouille (m2) et les couches locale et globale où a été découvert le témoin. Suit l’indication temporelle de la découverte (JMAF). LOCAL regroupe une série de variables permettant de localiser avec précision la place de l’objet dans l’unité de fouille. La variable NOLOC, numéro de localisation, permet de différencier entre elles les multiples localisations que peut prendre, au besoin, un objet (Figure 5A). CREL permet de rendre compte de la position verticale (distance d’un plan virtuel couvrant le site) du témoin. COLL permet de dénombrer des collectifs de témoins, l’exemple fréquent consistant en une concentration d’éclats. La localisation d’ensemble de ces éclats peut être relevée au sein d’un cercle réunissant de multiples unités de fouilles (Figure 5B) ou d’une seule d’entre elle (Figure 5C) dans un quadrant d’une unité de fouille (Figure 5D). Par la suite, en laboratoire, il faudra pouvoir ventiler ces collectifs (p. ex., par matière première). RACIN est le numéro de l’ensemble du collectif alors que REGRP permet d’indiquer les bornes des numéros des témoins ventilés en divers sous-ensembles en raison de caractéristiques intrinsèques distinctes au moment de l’analyse (p. ex., selon la matière première). Les variables de terrain sont généralement enregistrées telles quelles et sans autre transformation à partir des données notées sur les fiches de terrain (p. ex., la mesure en cm des distances des objets à partir des murs nord et est d’un sondage).

Par contre, les variables intrinsèques (relevant de la nature même du témoin) font souvent l’objet d’une codification. Ainsi MATPM (matière première; première variable de l colonne de droite) consiste en une codification de l’observation faite en laboratoire. En effet, les mémoires informatiques de l’époque étaient à ce point limitées qu’il fallait restreindre dans la mesure du possible l’espace occupé par les informations au sein même des ordinateurs (afin de pouvoir traiter plus rapidement les données). Des catégories numériques de quatre caractères avaient été retenues pour les diverses matières lithiques des sites mis au jour lors du projet Tuvaaluk (Plumet 1979: 135). Ainsi en est-il encore pour l’état physico-chimique du témoin (ETPCH). POIDS rend compte du poids de l’objet en mg. DIMEN comprend les variables nécessaires pour rapporter les dimensions du témoin (longueur, largeur, épaisseur), des variables de localisation permettant d’indiquer le lieu de la mesure (p. ex., une largeur prise à mi-hauteur). C’est pourquoi LONGQ, LARGQ et EPAIQ sont à occurrence multiples selon les types de témoins. RAPPO, DISCO et SYMET décrivent la morphologie du témoin. Sous forme codées, AMENA (voir codification, Tableau 2) et OBFAB (voir codification, Tableau 3) rendent compte de diverses observations des aménagements des témoins alors que UTILI réfère à leur utilisation. TYPOY permet de raccrocher le témoin aux catégories typologiques ayant cours traditionnellement.

Tableau 1

Ficher descriptif de l’analyse générale

Ficher descriptif de l’analyse générale

Les paramètres en tête des colonnes renvoient aux contraintes imposées par la base de données TIGRE. NO: numéro de la variable pour chacune des variables. TYPE: S: une variable-structure qui comprend une série de sous-variables (E). Format: X: absence de format pour une structure; A: format alphanumérique; D: format décimal. LONG: nombre de caractères de la variable. POSI: position de la variable dans l’ensemble de la structure. OMCA: valeur 1 lorsque la variable est à occurrences multiples et 0 pour le contraire

Source: Plumet (1980: 160)

-> Voir la liste des tableaux

Figure 3

Modélisation de la base de données TIGRE

Modélisation de la base de données TIGRE
Source: Gosselin (1979: 167)

-> Voir la liste des figures

Les résultats d’analyse

On aura compris que le processus analytique est long, d’autant que les informations enregistrées sur des fiches ad hoc devaient être transmises à l’ordinateur. Ces informations stockées permettaient par la suite de générer des données pour dresser un portrait des témoins d’un site, deux types généraux de traitement étant disponibles: traitements statistiques et traitements graphiques.

Trois mémoires de maîtrise (Bibeau 1982; Desrosiers 1982; Labrèche 1984) illustrent les résultats statistiques qu’il est possible de tirer de l’exercice d’informatisation des données. On peut, par exemple, rendre compte de l’utilisation de chacune des matières premières non seulement en terme d’effectifs mais encore en terme de poids, éliminant ainsi le biais des dimensions variables des différents témoins d’une même matière première et contribuant alors à la compréhension de l’économie des matières premières lithiques (voir exemples dans Bibeau 1984: 72, 87, 99).

Par ailleurs, la représentation graphique automatisée (Gosselin 1978b) a constitué un des développements phares de l’informatique dans le projet Tuvaaluk. En effet si, aujourd’hui, les systèmes d’informations géographiques créés notamment au sein des sciences géographiques, sont des outils de travail quotidien sur les chantiers archéologiques, à l’époque il n’existait aucun programme de ce type. Il faut saluer le travail de Gosselin (1978b) qui a mené à bien une telle mise en forme sous l’oeil critique de Plumet et de ses collaborateurs.

Figure 4

Organigramme de la démarche archéologique

Organigramme de la démarche archéologique
Source: Plumet (1980: 158, 159)

-> Voir la liste des figures

Figure 5

Traitements collectifs de témoins archéologiques

Traitements collectifs de témoins archéologiques
Source: Plumet (1979: 105)

-> Voir la liste des figures

Dans les trois mémoires cités, les jeunes chercheurs de l’époque ont eu recours aux distributions qu’il était possible d’élaborer avec GRAPHE et donc ont pu les utiliser pour interpréter les distributions des témoins. À titre d’exemple, Bibeau (1984) montre que les distributions verticales des témoins ont permis d’élucider la question du nombre d’occupations et de proposer des interprétations quant aux activités présentes sur le site Diana 73. Les représentations spatiales de ces trois mémoires mettent en lumière la distribution des diverses catégories de témoins selon le quadrillage des unités de fouille (Figure 6). La Figure 7 illustre une distribution complexe combinant à la fois les caractéristiques de façonnage et les matières premières d’une catégorie d’armatures distales (pointes de jet). GRAPHE permettait aussi d’illustrer les remontages des pièces archéologiques (Figure 8).

Par ailleurs, l’utilisation plus poussée de GRAPHE a permis de proposer des représentations plus complexes, telles des vues isométriques (Figure 9; Gauvin 1990). Dans Plumet (1985)[4], les distributions verticales tout autant que horizontales ont été combinées afin de dresser un bilan interprétatif des occupations des maisons longues dorsétiennes de l’Ungava. Ces distributions sont superposées aux diverses structures (foyers, etc.), elles-mêmes ayant été l’objet d’informatisation (Figure 10).

Tableau 2

Codification du débitage et du façonnage

Codification du débitage et du façonnage
Source: Plumet (1980: 161)

-> Voir la liste des tableaux

Tableau 3

Codification des aménagements

Codification des aménagements
Source: Plumet (1980: 162)

-> Voir la liste des tableaux

Figure 6

Distribution de trois matières premières du site Diana 73. Noter la concentration d’éclats de chert à la gauche de la distribution

Distribution de trois matières premières du site Diana 73. Noter la concentration d’éclats de chert à la gauche de la distribution
Source: Bibeau (1984: 102)

-> Voir la liste des figures

Figure 7

Distribution des différentes formes d’armatures distales triangulaires selon leur catégorie de façonnage et de matières premières

Distribution des différentes formes d’armatures distales triangulaires selon leur catégorie de façonnage et de matières premières

Cette carte veut faire saisir la complexité atteinte par le programme de distribution spatiale. Ainsi est illustrée la distribution (déjà une variable en soi) de trois variables: i) la forme des pointes (armatures distales triangulaires), ii) la couche d’origine et iii) la matière première, en couleurs différentes sur l’original, ici reprises en noir et blanc

Source: Gauvin (1990: fig. 30)

-> Voir la liste des figures

Figure 8

Remontage des pièces lithiques du site Diana 4-T

Remontage des pièces lithiques du site Diana 4-T

Les lignes indiquent les pièces brisées dont les fragments se remontent entre eux. Ainsi, le remontage de deux fragments (II) peut suggérer notamment que les sous-espaces T-1 et T-2 sont contemporains

Source: Labrèche (1984: fig. 24)

-> Voir la liste des figures

Figure 9

Vue isométrique de la section D du site Diana 4

Vue isométrique de la section D du site Diana 4

Les habitations D et H consistent en dépressions de quelques mètres de diamètre bien visibles dans cette représentation de la surface du site Diana 4

Source: Gauvin (1990: fig. 23)

-> Voir la liste des figures

Figure 10

Plan d’une des maisons longues (B) du site Ungava 11

Plan d’une des maisons longues (B) du site Ungava 11

Source: Plumet (1985: hors-texte 2)

-> Voir la liste des figures

Conclusion

Entre 1975 et 1982, le projet Tuvaaluk a mis en place un système d’enregistrement novateur de traitement informatisé de l’information et de l’exploitation des données de terrain. Les machines informatiques avaient alors des tailles de mémoires très limitées et ne pouvaient traiter les données qu’assez lentement. Cela a obligé les chercheurs à créer une structure de description des données archéologiques qui requiert fréquemment la codification des données, étape intermédiaire qui s’ajoute donc à celles de l’entrée et du traitement des données. Bref, un temps considérable a dû être consacré à l’informatisation – au sens large du terme – afin de pouvoir fournir des interprétations palethnographiques des sites mis au jour. À la lumière des développements les plus récents aussi bien sur le terrain qu’en laboratoire, il est clair que ces longues périodes de temps consacrées à l’informatisation sont largement automatisées aujourd’hui (p. ex., la localisation des objets par station totale en géodésie).

Tuvaaluk s’est prolongé bien au-delà de 1982, ainsi qu’en attestent, notamment, les dates des maîtrises effectuées grâce aux données compilées au cours du programme (Bibeau 1982; Desrosiers 1984; Gauvin 1990; Labrèche 1984). Patrick Plumet lui-même a produit de multiples publications, les unes monographiques (p. ex., Plumet 1985), les autres synthétiques (p. ex., Plumet 2004a, 2004b). En fait, ces travaux ont été produits avec des ordinateurs à la fois plus performants en termes de mémoires et de traitement des informations et surtout, le tout dans un format pour bureau, voire portable. Il y a donc fallu faire migrer les données des gros ordinateurs des années 1975-1982 aux micro-ordinateurs, eux-mêmes de puissance fort différente entre leurs débuts et celui des années 1980, puis aux machines aujourd’hui disponibles. Patrick Plumet (2002) a aussi assuré qu’un site Internet diffuse les résultats des recherches effectuées dans le cadre du programme Tuvaaluk qui demeurent à ce jour ainsi accessibles au plus grand nombre de lecteurs et d’internautes.