Vous êtes sur la nouvelle plateforme d’Érudit. Bonne visite! Retour à l’ancien site

Articles spéciaux

L’irréductibilité de la connaissance et l’intentionnalité en contexte de découverte abductive

  • Philippe Gagnon

…plus d’informations

  • Philippe Gagnon
    University of St. Thomas Saint Paul, Minnesota

Corps de l’article

Le raisonnement n’est bon que dans les matières où nous n’y voyons goutte.

Joseph Joubert

Jede Erklärung ist eine Hypothese.

Ludwig Wittgenstein

Considérer la réflexion sur la connaissance au début de ce nouveau millénaire ne peut que conduire au constat d’une montée du doute relativement à ce qui pourrait demeurer irréductiblement humain en elle. Alors que ce thème de prédilection de la philosophie occidentale a souvent servi à isoler l’homme au-dessus du reste de la nature, en lui reconnaissant un pouvoir lié à une âme incorruptible qui lui serait propre, il semble qu’au cours des dernières décennies l’emploi du mot « intelligence » — un vocable dont l’usage généralisé est récent, la philosophie classique préférant plutôt parler d’« entendement » (pour Descartes la faculté de pure conception ou pour Kant celle de former des concepts) — se soit souvent métaphorisé, alors qu’on l’a appliqué à des comportements du monde animal qui semblent montrer la présence encore balbutiante mais réelle de capacités considérées auparavant comme devant figurer à l’intérieur de cette irréductibilité humaine. Ce qui toutefois ne peut manquer d’étonner, c’est de constater qu’au même moment où il devient possible de prendre conscience de l’enracinement organique de ce que nous appelons la connaissance, un des programmes de recherche les plus importants du xxe siècle s’est articulé autour d’un effort pour abriter la pensée et ses opérations cognitives hors de toute enveloppe organique, faisant de celle-ci la pure manipulation algorithmique de symboles.

D’un autre côté, nous avons laissé la réflexion philosophique sur la connaissance se modeler sur les sciences particulières au point de rendre la philosophie orpheline de sa vraie dimension. Le projet philosophique ne doit certes pas se voir réduit à n’être plus qu’un commentaire inachevable sur un ensemble de notions hyperboliques qui empêcheraient le mouvement prospectif de l’enquête de jamais s’achever. Seulement, à ne plus entendre parler que d’épistémologie naturalisée et de constructivisme, nous sommes menacés d’oublier que, même en cherchant un mécanisme qui rendrait compte de la présence en nous de l’idée ou du concept, c’est encore à la mise en place ingénieuse d’un dispositif que nous nous référerions[1].

I. La connaissance comme problème

Nous avons voulu, dans l’intitulé même de cette réflexion, omettre délibérément de compléter le mot connaissance par l’épithète d’« humaine ». Essentiellement parce que nous voulons partir du point où une expérience nous est donnée, et laisser ouverte la possibilité, sans jeu de mot, d’une prospection à la fois prospective et rétrospective.

Acceptons d’examiner d’abord ce que nous croyons tous savoir. Demandons-nous en premier lieu : qu’est-ce que connaître ? C’est essentiellement, pourrions-nous dire, rendre l’objet, la chose connue présente à soi, avec l’inévitable part de circularité d’une telle définition. Il s’agit là d’une relation, bien sûr, mais qui est asymétrique, en ce sens qu’elle n’affecte pas d’abord la chose connue. C’est dire par le fait même qu’elle ne nous rend pas présent à la chose de la même façon que cette chose l’est vis-à-vis de nous. Connaître, classiquement, ce ne serait donc pas modifier, mais être modifié.

Le mode d’existence de l’objet en nous est celui de l’intentionnalité[2], en ce sens que l’objet ne se miniaturise pas pour, conservant ses propriétés physiques, venir localement occuper quelque espace en notre esprit. Ceci étant dit, il faut maintenir qu’aucune théorie de la connaissance n’« explique » adéquatement qu’un éléphant puisse loger dans notre tête, à moins de nous créditer de la capacité de saisir un concept premier tel que l’extension implicite dans l’idée d’un tel animal. On dira que ce n’en est que l’image enregistrée sur la rétine et convertie en impulsions électriques.

Déjà Héraclite note que « [l]e soleil a la largeur d’un pied d’homme[3] ». Or, malgré tout ce qu’on pourra dire pour tenir à l’écart l’image mentale par rapport à l’image perçue, c’est par inférence que nous arrivons à nier ce que nos sens nous présentent avec obstination, c’est-à-dire que nous importons dans la situation une connaissance acquise par ailleurs dans le but d’opérer une correction qui est comprise par l’esprit sans être à strictement parler vue par lui. C’est déjà là commencer à construire le phénomène en expliquant le visible perçu par un invisible caché, ce qui de tout temps a été et sera le travail de l’épistémologie au sens technique d’une critique de la connaissance[4].

La perception de l’objet, si elle est pour n’être pas magique, suppose d’autre part que des corpuscules vecteurs d’une certaine information pénètrent dans notre oeil. Bien plus, le champ visuel où ils vont nous permettre de distinguer et de reconnaître les formes usuelles des objets suppose une coprésence des éléments les uns aux autres, leur existence dans un même lieu au sens topologique, toutes choses qu’on ne pourrait que difficilement apprendre à un automate quel qu’il soit, car les « yeux » qu’on lui construira, sans vision interne — nous y reviendrons — seront frappés ou ne le seront pas par un rayon lumineux d’une certaine intensité. Or, la reconnaissance d’une réponse correcte, la discrimination identifiant une solution plutôt qu’une autre, supposent une capacité de choix, qui elle suppose en retour une forme de « survol » d’une situation puisqu’il faudra que les deux objets à discriminer existent ensemble, et distinctement, dans le champ perceptif. Raymond Ruyer a longuement développé cette idée de « survol », idée qui peut paraître oxymorique de prime abord puisque l’intelligibilité y est à la fois étendue à l’espace comme tel, alors que l’unité de la perception est ramenée à un point[5].

II. Formation du concept et généralité

Sur le plan de l’acquisition du concept, la connaissance suppose une « immatérialisation » qui soit capable de faire abstraction des aspects individuels d’une chose. Comprendre sous un mode immatériel implique l’absence d’une connaissance directe des choses individuelles, car c’est par l’universel (et donc un certain acte mental en quoi consiste la production conceptuelle) que la chose singulière (matérielle) est connue indirectement, en tant qu’elle instancie un universel.

Pour maintenir son existence douée d’une certaine et relative indépendance, les théories de la connaissance réalistes auront souvent tendance à dévaluer le singulier perçu en en faisant quelque chose de moins que cet universel. Elles n’ont certes pas tort lorsqu’elles maintiennent que nous voyons à travers la perception guidée par le prisme d’un concept qui, en tant que forme, s’applique potentiellement à un nombre de ressortissants indéterminé. Par contre, on pourra toujours faire l’objection que la configuration rencontrée est unique et irreproductible, qu’elle ne se répétera jamais comme telle. Cependant, pour la seule opération qui consiste à la reconnaître et à prédiquer ainsi son unicité, il faut obligatoirement faire appel à une trace conservée par la mémoire sous forme d’engramme correspondant à un pattern qui ne saurait lui-même déterminer ce qui tombe sous son concept.

S’il n’y a pas de « mécanisme » de formation des concepts qui conduirait, apophatiquement en quelque sorte, à renoncer au concept de l’universel, c’est que, comme l’avait vu Lachelier[6], lorsque nous disons que cet arbre est différent de tous les autres, il nous faut quand même passer par le concept d’arbre. En faisant cette opération, on en a déjà pratiqué une autre qui empêche le nominalisme de s’établir intégralement parce qu’une performance concrète, la seule qui compte ultimement dans la perspective même à laquelle tient ce dernier, montre la saisie d’un universel indéterminé sans un dénombrement de toute une classe[7]. On peut certes porter attention aux différences plutôt qu’aux contours communs. D’où la fréquente observation relative à une tentation de sombrer dans la typologie essentialiste, rappelée par Ernst Mayr à bien des reprises, soucieux de faire remarquer la spécificité de la biologie à l’intérieur des sciences de la nature. Ceci ne vaut pourtant que jusqu’à un certain point, puisque des contours morphologiques qui empiéteraient trop les uns sur les autres briseraient cette attente[8].

1. Preuve et schématisme abstrait

Prenons un exemple. Wittgenstein nous assure qu’en mathématiques, on ne prévoit pas réellement, que l’on ne fait que voir suite au résultat de l’itération d’une certaine opération. Il ajoute, dans le but de révoquer en doute la réalité du concept d’infini, qu’une loi infiniment compliquée ne serait pas une loi parce que nous ne pourrions pas savoir qu’elle est une loi[9]. Il est évident que nous ne l’appréhenderons pas alors sub specie infinitatis mais en tant qu’indéfinie possibilité d’ouverture à de nouvelles influences non prises en compte, si bien que le tracé de son résultat pourra devoir être modifié. En réalité, loin d’exiger d’étendre une opération indéfiniment en suspendant toute extrapolation sur son compte, le fait de parler d’une loi en même temps que du concept de système exige que celui que l’on considère soit fermé et n’entretienne pas de rapport avec des influences que nous n’aurions pas prises en compte (nous y reviendrons en dernière section de cette étude). Puisque s’il le fait et qu’il ordonne des effets émergeant de la coproduction de quelques-unes de ses parties et des perturbations redevables à l’environnement, alors dès le moment où nous aurons admis ces dernières il ne sera plus possible d’enfermer la loi identifiée dans un cadre inamovible. Nous pourrons apprendre quantité de choses sur ce système sauf sa qualité d’être fermé[10].

Lorsqu’il précise et nous fait remarquer qu’une preuve revient à affirmer qu’une proposition est prouvable seulement selon le système où elle se trouve[11], on veut bien le croire, mais dire que comprendre p c’est comprendre son système au sens où p n’est prouvable que selon un système déterminé, c’est oublier qu’à tout système de preuve une syntaxe peut tout aussi bien être fournie qu’une sémantique, alors que personne ne contesterait qu’elle le soit en ce dernier cas. Le système formel, considéré en sa syntaxe, n’est lui-même qu’une lecture possible de la réalité. Cette remarque vaut pour l’ensemble de l’infrastructure logique bien plus que pour un système en particulier. Elle vaut de même pour le découpage des sciences particulières en autant de points de vue conflictuels sur la réalité.

On pourrait se rappeler l’interdiction de parler d’une proposition et de sa structure signifiante dans le langage où elle est exprimée. Mais des contre-exemples peuvent être trouvés, tels que la phrase « cette phrase contient cinq mots », qui ne manque pas d’être empiriquement vraie. Pour maintenir l’ancrage de la théorie de la signification au langage factuel, on pourra toujours la contextualiser en disant que l’idée n’en est pleinement atteinte que par le passage plus tardif à une conception du langage modelée sur les « formes de vie ». En ce sens, on pourrait parler d’une théorie iconique du langage qui en exige la correspondance aux seuls énoncés factuellement signifiants, mais il serait également possible de l’élargir et, en permettant l’introduction d’autres modes d’allusion, relatifs par exemple à des propositions portant sur une croyance ou la poursuite d’une valeur, faire remarquer qu’en ce dernier cas le statut de la thèse philosophique restrictive relative à la signification de la proposition ne peut plus résider dans la liaison à un état de chose. Si le langage est animé d’un dynamisme interne, alors l’exigence d’une correspondance avec le langage des faits qui seule permettrait la monstration du sens par l’opération ne sera plus elle-même contingente, de l’ordre d’un énoncé synthétique, mais elle acquerra plutôt le statut d’une règle jouissant de sa propre forme de nécessité. On ne peut plus nier alors qu’elle domine les contextes en ce qu’ils conservent de contingent, et que de ce fait elle transgresse l’interdit de départ de par sa propre universalisation présomptive.

Le nominalisme peut certes avoir une valeur heuristique, aider à considérer méthodiquement que les configurations que nous allons rencontrer ont quelque chose de singulier qui résistera à tous les concepts dont nous pourrons faire usage pour tenter de les classifier. Ceci peut être à n’en pas douter condition de progrès et d’analyticité pour la science. Il lui est plus difficile cependant de rendre compte de notre capacité à reconnaître ces mêmes configurations suite au passage du temps, ce qui milite contre l’inscriptionnalisme des traces encéphaliques en sa forme radicale. Ainsi, paraphrasant le titre d’un beau livre de H. Atlan, si nous sommes placés devant le vivant où la variété domine mais avec une redondance encore considérable vu le nombre de cellules d’un métazoaire, et qui réalise ce qui est a priori hautement improbable, nous pourrons dire qu’il est possible en extrapolant de la penser en direction de l’état où toutes les configurations ont une indépassable singularité, le maximum étant atteint avec la flamme qui n’en maintient aucune, les défaisant plus vite qu’elles ne se forment. Que ferons-nous toutefois devant le cristal, où les configurations atomiques, dans le diamant, ou moléculaires, dans le sucre, sont indéfiniment répétées et où il semble bien en conséquence que la nature réalise directement quelque essence géométrique ? Devrons-nous dire qu’une telle essence y est absolument singulière ? Non pas. Elle est au contraire hautement redondante et nous oblige à considérer que le pattern auquel elle répond peut parfaitement exister hors de notre perception sensorielle immédiate, en ce sens qu’il jouit de droit d’une sorte d’universalité in mente, mais dans une puissance productrice de formes survolant tant l’espace que le temps et qui est pourtant étrangère à celle de notre esprit produisant des concepts lorsque mis en présence de cas singuliers[12].

2. Discernement d’un schème dans la multiplicité

Si tout concept est acquis inductivement, il ne l’est pas non plus par dénombrement de manière à pouvoir l’affecter d’un coefficient probabiliste. Ian Hacking s’est efforcé d’identifier ce moment où la connaissance « de science » est devenue probabiliste, ce qui aide à comprendre la distance entre une certitude simplement induite et une vraie connaissance qui devrait relier antécédent et conséquent en laissant voir l’opération réelle d’une nécessité de re réfractée dans les rapports positivement confirmés qui sont tout ce que nous pouvons nous représenter en vertu des limites de notre capacité de mise en application d’un même schème[13]. Traitée à fond, la question conduirait à s’interroger sur le statut de la logique inductive.

Souvenons-nous un instant de la critique du syllogisme par J.S. Mill[14] : il n’y a pas d’inférence possible à partir des prémisses du syllogisme, puisque la majeure y affirme déjà ce qui est censé se trouver dans la conclusion ; ce dernier ne pourrait jamais conclure validement, puisque la proposition affirmant de tous les hommes qu’ils sont mortels ne serait vraie que dans une proportion mettant au numérateur le nombre d’hommes observés mortels jusqu’à ce jour et au dénominateur tous ceux qui existeront jamais. On lui a parfois objecté qu’au contraire l’extension d’un concept reste toujours indéterminée. On voit s’introduire alors une perception anticipée de l’usage par la mathématique contemporaine d’une implication vérifonctionnelle, bâtie sur l’idée leibnizienne d’implication incomplète elle-même née en contexte de logique déontique[15], alors que l’implication aristotélicienne était ancrée dans la signification des propositions, conservant un caractère ontologique et causal[16]. Nous savons comment les classes mathématiques n’ont par la suite été définies qu’extensionnellement, unissant arbitrairement divers individus[17].

Nous pourrions évoquer le cas des inductions conflictuelles, dont a déjà traité Nelson Goodman[18]. Disons par exemple que nul n’a jamais pénétré dans le Centre de commandement de la NASA qui ait été capable de parler inuktitut. Cela suggère l’induction que « si X entre au Centre, alors X ne parle pas inuktitut ». Ainsi, à propos de l’Inuit Ukuk, qui vit au Nunavut, nous pourrons prédire que si Ukuk entre au Centre, il ne sera plus capable de parler inuktitut. Or, selon Goodman, l’inférence est en défaut parce qu’elle entre en conflit avec la loi établie inductivement que les gens ne perdent pas leurs capacités langagières en pénétrant dans un lieu. Il s’agirait d’un entranched predicate. Mais comment saurons-nous que cette loi a plus d’instances confirmatrices que la régularité jusqu’à présent observée à propos du Centre ? Putnam remarque avec raison qu’un enfant, qui ne saurait dire laquelle de ces régularités doit être prise en défaut, ne serait sûrement pas victime de l’étrange induction à l’effet qu’Ukuk cessera de parler inuktitut s’il entre au Centre[19].

Tentons de préciser ceci sur une thèse que nous prendrons volontiers dans toute sa généralité. Soit la proposition « Le naturalisme est maintenant établi[20] », elle-même résultant d’une méta-induction : « Les procédures A ∧ ∧ C ∧ … n’ont fait appel qu’à des données sensorielles et empiriques et elles ont réussi », ce qui permet de poser que la prochaine tentative y réussira également. C’est là toutefois un pur fait, la conjonction d’énoncés existentiels et il n’est pas clair qu’elle puisse impliquer quoi que ce soit. On l’admettra, la structure n’en serait pas conventionnelle si nous avions dit du naturalisme qu’il « […] est vrai » et nous avons donc préférer l’éviter, d’autant plus qu’il ne serait tout au plus que « vrai dans L ». Affirmer dogmatiquement la fausseté de cette proposition ne nous ferait pas avancer bien loin. Plus encore, les tentatives de Carnap, qu’elles soient celle de l’Aufbau, du Logische Syntax der Sprache ou du Logical Foundations of Probability, ne pouvaient qu’échouer pour une raison qu’il a dû lui-même reconnaître. Pensant d’abord qu’on pouvait réduire les idéalités des énoncés théoriques à des énoncés observationnels, devant abandonner cet espoir, il déplaça son effort sur les énoncés réducteurs puis, ces derniers ne fonctionnant pas davantage, dut reconnaître que c’est d’un seul coup que les concepts théoriques s’introduisent et non pas par blocs idéalement délimités.

La science fonctionne par le moyen d’une série d’idéalisations qui sont en aval rejointes par la technologie. On peut penser au programme spatial vérifiant certains effets relativistes, ou aux expériences de pensée qui furent tout ce que Heisenberg avait devant lui pour convaincre de cette célèbre perturbation de l’électron[21], à quoi on pourrait ajouter les curieuses fluctuations dans l’estimation de la valeur de la constante de Planck[22].

Au-delà de la question de la syntaxe chère à Carnap, on peut se demander s’il n’existe pas dans la nature des expériences qui contrediraient le dynamisme de la précédente méta-induction. Lorsque nous sommes soumis au pouvoir unificateur d’une analogie, nous ne pouvons dans le même acte poser une limite ou une borne supérieure que l’esprit ne saurait franchir. Nous ne savons tout simplement pas ce avec quoi nous entrerons en résonance[23]. J.-H. Newman a tenté de poser que la seule épistémologie qui fasse justice à l’homme comme esprit connaissant, en tenant compte de l’aspect de vertu intellectuelle que cela définit[24], est celle de l’ouverture inconditionnelle. Nous devons commencer par croire (pas au sens religieux mais à celui usité en épistémologie[25]) tout ce qui nous est proposé, et nous ferons l’expérience de ce que la vérité a une réalité que l’erreur n’a pas, ce qui éliminera de soi-même les positions erronées[26].

Ce faisant, nous ne pourrons éliminer la fausseté sous prétexte de vérité donnée, il faudra inviter même ce qui est dit (toujours à certains égards) erroné, parce que la raison qui correspond à la figure du monde passée ne peut décréter l’inexistence de ce qu’elle ne connaît pas. Il existe du vrai non prouvable, nous le savons depuis les résultats de Gödel. En ces termes, le vrai actuel peut très bien ne l’être qu’accidentellement. La vérité est une recherche et une poursuite plus qu’une simple correspondance à la chose. Toute tentative de se porter au-delà de ce qui nous est présentement connu pour imposer des limites reviendra, épistémologiquement, à refuser à l’analogie ce qui lui est nécessaire comme énergie la plus primitive. Nul ne peut censurer le non-prédictible, au nom des règles d’opération de la raison, comme si celles-ci avaient été décrétées une fois pour toutes.

Empruntons un exemple à une discussion célèbre pour en faire comprendre quelque chose. Soit la proposition

  1. « Les émeraudes sont vertes jusqu’au 1er janvier 2012, et elles deviendront bleues ensuite. »

que nous contrastons à la proposition

  1. « Les émeraudes sont vertes. »

Nous serons portés à accepter la proposition (2) comme la plus probable. Le fait cependant qu’elle capture davantage, qu’elle contienne le plus d’information, devrait la rendre plus vulnérable à la réfutation. Malgré cela, on optera pour elle, puisqu’il existe une essence minérale qui fait en sorte que l’on s’attend des émeraudes qu’elles conservent leurs propriétés[27]. C’est là où, toutes choses égales par ailleurs, la plus grande vraisemblance se trouve. Si nous voulons éviter de faire de la science fondée sur un sain réalisme, dans les termes célèbres de Putnam, un « miracle permanent[28] », nous devrons chercher à l’intérieur de ce monde les facteurs conditionnant la transformation des états physiques qu’on y trouve, et même des événements qu’on considérera imprévisibles. Nul ne peut cependant transformer de telles considérations, de nature méthodologique, en une position ontologique au dire de laquelle rien d’autre que la nature ne peut expliquer la nature.

C’est qu’en effet le problème qui nous retient peut subir un tête-à-queue, si bien que l’on peut parfaitement demander au nom de quoi nous devrions refuser la proposition (1). En face d’une telle question, Goodman et d’autres ont répondu qu’il est plus rationnel de donner crédit aux entrenched predicates, ceux qui nous ont bien servi jusqu’à ce moment. Ce sont eux également qui justifient l’inertie des paradigmes épistémologiques. Pourtant, en termes de vertu intellectuelle, si cela était inconditionnellement vrai, rien de nouveau ne serait jamais découvert en sciences. Nous jugerions de la configuration du savoir à venir dans les termes de ce qui a fonctionné jusqu’à présent. De telles maximes, poussées à la limite, n’ont servi qu’à persécuter ceux qui ont changé notre vision des choses. Les prétendues limites imposées à la connaissance tant par A. Comte que par ses successeurs néopositivistes ont nui au développement de la science. La raison en est que quiconque dirait qu’il est légitime de se servir de l’analogie, de l’induction, ou encore de l’inférence à la meilleure explication, en ajoutant tout de suite après que nous ne devrions le faire que si cela est conforme aux prédicats les mieux établis, aurait en fin de compte, et ceci dans tous les cas, exclu beaucoup trop. C’est la science elle-même que nous rendrions impossible.

Dans le cas de l’enfant qui n’est pas victime de la fausse induction, on doit remarquer qu’il est capable de s’expérimenter comme s’il était dans la situation d’un autre, qu’il semble jouir d’une capacité de coïncidence occasionnelle et d’application à soi-même d’une possibilité de mise à l’épreuve qu’un automate ne saurait réaliser. Or ce n’est pas là une performance informatique sophistiquée, mais l’acte tout simple et élémentaire pour nous de percevoir ce qui détonne et ne marche pas pour continuer à l’analyser.

On se rappellera utilement des analyses de Bergson sur le rire, selon lesquelles nous serions dotés de la capacité de saisir le contraste entre un schème censément valable et excellent dans un ordre limité mais que l’on impose à une réalité diversifiée et souple qui appellerait une capacité de réagir de manière plus précise, nuancée et circonstanciée. Jean Fourastié a judicieusement remarqué que Bergson n’avait pas assez soupçonné à quel point le mécanique même pourrait acquérir quelque chose de cette souplesse, si bien qu’il a cru devoir élargir et corriger la thèse en voyant dans ce qui provoque le rire, avant toute autre chose, une rupture de déterminisme, plus encore qu’une différence à jamais indépassable entre le mécanique et le vivant[29]. Dans bien des contextes, la systématisation déductive, qui ferme le système, empêche de voir qu’un contexte autre, tout aussi cohérent, peut être révélé par un fait unique non harmonisé à ce qui est considéré à tel instant précis.

Sans trouver de solution définitive à un tel problème, on peut souligner l’intérêt qu’il y aurait à une capacité de saisie qui serait vraiment « matérielle » (par opposition à « formelle » et non pas par rattachement au matérialisme philosophique) et reconnaîtrait non pas les cas de pure déduction par concepts, ou ceux de dénombrement ampliatif, mais ceux par lesquels les instances d’une loi générale seraient connues par inversion de ce passage obligé par la classe toujours en attente de recevoir le dernier de ses membres. On connaît le cas des inférences par abduction, pour reprendre le terme forgé par C.S. Peirce qui avait à l’origine parlé également de « retroduction ». Dans le cas d’une induction, de A donné et tenu pour vrai, et en s’appuyant sur la certitude présupposée que « si A est vrai, alors B s’ensuit », on peut conclure que B doit être vrai également, dans la mesure où on a préalablement observé leur conjonction constante. Toutefois, il est également possible de se retrouver devant la situation suivante : un fait B à la fois surprenant et inattendu est enregistré ; nous nous disons que si l’hypothèse Hétait vraie selon laquelle « si A, alors », B s’ensuivrait naturellement. À partir de quoi nous inférons qu’il y a des raisons, tenant H pour vraie sans pour autant nous appuyer nécessairement sur un grand nombre d’instances où H aurait été saisie dans son exercice, de conclure que A est avéré. À la différence de l’induction, où nous généralisons ce qui est vrai pour un certain nombre de cas à toute la classe, on passe ici de l’observation des faits à la découverte d’un principe général capable de les expliquer tout en étant différent de ce que nous avons observé :

forme: forme pleine grandeur

Nous avons utilisé un trait pointillé séparant prémisses et conclusion, pour indiquer que cette inférence n’est ni déductive, ni inductive, l’induction étant conventionnellement marquée d’un double trait. Dans la terminologie de Peirce, il y aurait là inférence à un cas (ceci est un A) à partir d’une règle (tous les A sont B) et d’un résultat (ceci est un B). Peirce a compris, avant que nombre d’épistémologues récents depuis Reichenbach ne séparent trop nettement le contexte de découverte du contexte de justification, qu’une telle distinction laisserait trop échapper face à une éventuelle théorie de l’heuristique telle qu’on peut la saisir à l’oeuvre derrière la démarche scientifique dans son ensemble. Devant la présence d’un grand nombre de faits, obéissant chacun à des causes respectives, l’esprit a tôt fait de repérer des éléments d’un contexte qu’il peut déjà avoir rencontrés doués d’une organisation semblable entre eux.

Observant par ailleurs que la logique ne nous fournit jamais de connaissances nouvelles, car elle ne parle pas du monde mais des rapports entre des propositions, Peirce s’est dit très justement qu’il se devait d’exister une capacité dont l’esprit serait doué et qui lui permettrait non seulement de deviner juste, mais de faire participer le réel même au processus de l’invention du schème qui serve ensuite à le penser correctement, au point de tenir que quelque chose dans la trame de la nature « syllogise » déjà avant que l’esprit humain n’ait eu la chance de s’interroger sur le cheminement qu’il a suivi[30]. Ce serait l’étape qui, participant du cheminement logique de la pensée, contiendrait néanmoins un élément synthétique, réconciliant l’intelligible et l’empirique. Tant que l’on reste dans le domaine des processus purement logiques, l’expérience n’est interrogée que fort indirectement. Le progrès d’un savoir appuyé sur la déduction ne contient pas d’information nouvelle sur le monde, puisqu’on ne fait, à tout le moins dans la déduction naturelle — celle qui est envisagée en son mécanisme le plus dénudé — qu’appliquer des règles de transformation. D’un autre côté, l’induction n’autorise qu’une conclusion probable et elle demeure suspendue à l’exigence d’en démontrer la validité dans son ensemble, ce qui ne pourrait se faire que par un appel à la déduction[31].

Peirce considère donc que l’induction fait partie du processus de mise à l’épreuve d’une hypothèse, tandis que l’abduction est située du côté de la découverte[32]. Il note avec raison que l’induction ne porte que sur l’expérience passée et qu’elle ne permet en rien de saisir les raisons intelligibles pour lesquelles nous aurions raison de soutenir qu’au phénomène est superposé un noumène qui, de façon unique et par appel à une nécessité forte, rendrait compte de ce qu’il en est dans l’expérience[33]. À l’objection possible qu’il n’y a là qu’une manière sophistiquée de parler d’une mystérieuse capacité « to guess right », Fetzer rétorque qu’il ne faut pas perdre de vue la différence entre conclure, par exemple, au degré 0,8, et conclure que 0,8 est, dans la situation, un coefficient représentatif [34]. L’abduction est relative au second cas. Tout tient à la reconnaissance d’une anticipation par l’esprit dès avant la rencontre des prétendus « faits » et, plus précisément, à l’observation que cette anticipation est construite par un enchevêtrement complexe de perceptions antérieures guidées par diverses perspectives, elles-mêmes redevables au degré doxastique d’assentiment à des théories présupposées et faisant ainsi partie d’un bagage latéral de connaissances. Le principe semble au premier abord violer la sous-détermination des théories par les faits, mais peut-être lui pose-t-il un cran d’arrêt ?

Peirce tente de surmonter de cette manière l’obstacle évident et l’objection qu’on peut faire derrière tout appel à l’induction qui, sans la présence d’un pattern guidant l’esprit et servant à intégrer ce qui est perçu, ne pourrait pas nous permettre d’apercevoir des « formes » au sens où en parlait déjà l’épistémologie baconienne. Posant que ces dernières, envisagées comme matrices d’implication, devaient jouir de la propriété logique d’overlap, le célèbre épistémologue anglais en appelait à un mode d’appréhension parfaitement intuitif de la réalité auquel nul d’entre nous n’a accès. D’une part, Bacon ne désignait pas quelque scepticisme épistémique en recommandant de ne conférer la certitude qu’au sommet de cette procédure en présence de la seule cause formelle, position qu’on lui a souvent attribuée en lisant la Great Instauration, mais y intimait plutôt un phénomène inédit en empruntant la terminologie de l’ἀκρίβεια présente chez Aristote et rendue en latin par certitudo. D’autre part, comme Hacking nous l’a rappelé, il est erroné de considérer l’induction par énumération d’instances comme représentative du programme qu’il voulut mettre en oeuvre. Bacon y voyait même quelque chose de puéril. C’est en termes de modèles abstraits de l’univers, saisis par le moyen mais allant au-delà des données observables par nos sens, qu’il faudrait tenter de ressaisir l’inspiration derrière son projet[35].

Pour Peirce, finalement pas si éloigné de Bacon et de ses « formes », lorsque l’on met à l’épreuve une hypothèse, ce à partir de quoi on déduit et qui a au point de départ permis que nous obtenions les bonnes prémisses et les mettions à la bonne place, ce ne peut être l’induction sous peine de circularité. D’où la nécessité d’une suggestion portée par l’inférence abductive qui « fait voir » la meilleure explication et qui, procédant comme un modus ponens inverse, raisonne du conséquent à l’antécédent. Il n’est pas simple de mettre le dernier mot sur le contenu exact de cette capacité de l’esprit de découverte lorsqu’il atteint sa cible de toute évidence un très grand nombre de fois. Nous n’avons même pas le nombre de fois où il ne l’atteindrait pas, pour être rendus aptes à proposer ici quelque rapport numérique. On peut remarquer toutefois qu’en élargissant la perspective, Peirce a sans doute raison de soutenir que le progrès de la connaissance suppose, dans quelque continuum représentant toutes les hypothèses qui pourraient être proposées, l’identification de celle qui réussit à synthétiser et à coordonner le plus grand nombre de prédicats[36]. On peut penser avec Fetzer que, là où l’induction s’appuie sur la préservation d’une probabilité, suggérant une conclusion non déductive à la hauteur d’un certain coefficient, l’abduction repose sur la vraisemblance, qui est la probabilité conférée à l’évidence par une hypothèse ou P(e | h), où e est l’évidence et h l’hypothèse, et le résumé du fait que l’on acceptera de donner une certaine force à l’hypothèse au vu de l’évidence recueillie[37], une des relations qui est au coeur du théorème de Bayes.

3. Bref regard sur l’épistémologie évolutionniste

À ceci l’épistémologie évolutionniste objectera que les cas de non-réussite sont éliminés, et que nous n’avons accès qu’aux « bonnes » hypothèses, soit celles qui ont été sélectionnées. D’où l’effet de perspective qui nous porte à croire que nous devinons juste.

Ainsi a-t-on parfois proposé de renverser pour ainsi dire ce programme de recherche peircéen, en faisant valoir que les heuristiques, soit les hypothèses qui se sont avérées favorables à la découverte, pourraient provenir d’une base qualifiée de chaotique, bref d’un générateur de diversité qui ne serait régulé ultimement que par la seule variation aléatoire. De même que les gènes produiraient des variations retenues par la sélection naturelle, que nous expérimenterons comme étant les « meilleures » puisque les autres sont disparues, nous découvrirons que nos hypothèses ayant réussi peuvent très bien, en vertu d’une préadaptation, réutiliser une heuristique favorable dans un contexte antérieur.

Edward Stein et Peter Lipton qui ont défendu cette thèse tentent de l’établir par analogie à une expérience de pensée proposée par D. Dennett dans Elbow Room. Imaginons que nous possédions la liste d’adresse de joueurs invétérés. Nous la divisons en deux, et puis nous envoyons à une moitié de ceux-ci la prédiction à l’effet que l’équipe A gagnera, et à l’autre moitié la prédiction que A perdra. Lorsque l’événement se produit, la moitié des joueurs aura reçu une vraie prédiction. Si l’on répète cette procédure, en retenant la moitié de la nouvelle liste et en se livrant au même stratagème, certains des joueurs auront reçu deux preuves successives de notre art divinatoire. Dennett suggère de faire payer quiconque bénéficierait d’une troisième prédiction réussie en ligne[38] !

Nous le disions, ceci est présenté comme un analogue de ce qui se produit dans l’ordre des variations génétiques triées par la sélection naturelle, alors que seuls les organismes qui survivent peuvent être étudiés, et où en conséquence nous ne pouvons connaître les hypothèses fautives qui auraient été éliminées, d’où une propension trop facile à déclarer sagace qui aurait choisi une hypothèse parmi d’autres. Plusieurs prémisses sont prises pour acquis derrière le raisonnement de ces deux épistémologues, par exemple qu’une hypothèse sur le plan cognitif ou scientifique soit équivalente à l’organisation somatique d’un ensemble de gènes. En réalité, cette idée popularisée en son caractère variationnel par Popper passe sous silence d’importantes distinctions, relatives par exemple au fait que des théories ne sont déclarées « mortes » que par consensus, alors que des organismes sans succès reproductif disparaissent en effet par une sanction bien plus impitoyable[39].

Plus encore, pour qui s’arrête à y réfléchir à fond, sur le plan strict de l’explication en logique, cette expérience de pensée fait appel à une sorte de démon de Laplace opérant à rebours. En effet, ce ne sont pas les tirages aléatoires qui justifieraient alors l’omniscience impressionnante de qui ferait deux prédictions vraies en lignes, ou trois ou autant que l’on voudra, c’est plutôt une connaissance latérale des modes de régulation du hasard recyclés dans une ingénieuse stratégie. Pour qui connaît les modes de la distribution dite normale, le théorème de Bernouilli et de cette manière la probabilité a priori de gagner dans à peu près la moitié des cas pour peu que l’on prolonge les tirages, ce qui a été établi est, contrairement à l’intention des auteurs, que la probabilité se prête à une analyse conceptuelle, puisque dans l’esprit de qui considère la situation, aucun des tirages n’a de prépondérance sur un autre. Bien sûr, les gagnants seront toujours frappés de notre art divinatoire, et les perdants éliminés, sauf que le protagoniste ne serait en rien assuré d’un tel succès, et de pouvoir se payer la tête des gagnants, s’il s’avisait de choisir ses exemples non plus dans le monde des urnes et des tirages, mais dans le monde des faits biologiques. Si on peut se livrer à quelque prédiction que ce soit dans ce dernier cas, cela ne serait pas pour les mêmes raisons.

Si Peirce ne nous dit pas ce qui constitue ultimement cette capacité de découverte abductive, au point où de célèbres commentateurs ont pu, nous l’avons dit, baisser les bras et parler de « capacity to guess right [40] » en suggérant que cela n’irait pas plus loin qu’un coup à l’aveugle, la thèse de la variation aléatoire, qui conduit à sélectionner une parmi toutes les hypothèses défilant devant l’esprit, n’effleure même pas le problème, car elle n’explique rien du tout.

Certains cas de découvertes célèbres, qu’il s’agisse de Poincaré embarquant sur le trolley et résolvant un problème relatif à la théorie des groupes fuchsiens ou de Kekulé imaginant en situation onirique un serpent qui se mord la queue en étant ainsi conduit à élucider la structure de la molécule de benzène, nous montreraient que la créativité n’a que peu à voir avec l’attention de haut niveau, typique de la logique et des mathématiques, que David Gelernter nomme high focus. Au contraire, ces dernières semblent se produire lorsqu’on a laissé l’attention être « en vacances », mais, et ceci est capital, en présence d’un subconscient rempli à craquer des données d’un problème particulier. Dans cette expérience de low focus, inénarrable au moment où elle a lieu, nul ne conserve en soi des données abstraites et des caractéristiques générales de perceptions communes pour en dériver un concept, il s’agit plutôt de laisser les images se superposer, parce qu’on n’a pas le choix étant donné la chute de notre attention. Ce qui en émerge est un pattern que l’esprit reconnaît, qui nous semblera familier, et qui sera extrait de la situation, de cette sorte de danse féerique qui accompagne la perte de conscience.

Personne n’a compris comment l’analogie fonctionne, et les théories relatives à une sélection prise sur la variation d’un grand nombre d’heuristiques et d’hypothèses, telle que celle de Lipton et Stein que nous venons d’évoquer, n’effleurent même pas le véritable problème[41]. Il n’y a pas en effet de « point d’accrochage » qui viendrait assembler soudainement des hypothèses brassées devant l’oeil de l’esprit, comme les crochets des atomes épicuriens. Au contraire, la valeur d’une analogie tient en bonne partie au fait qu’elle surgit de nulle part et réorganise soudainement des choses non reliées, et pas du tout de ce qu’elle lierait ce qui l’est déjà.

III. La distance et la proximité

Que peuvent bien signifier des expressions telles que : coïncidence avec la chose, ou celles rendant l’esprit humain capable de ressaisir le syllogisme qui serait celui du réel même ? Il convient de remarquer que l’empirique au point de départ de la protocolarisation scientifique n’est jamais purement empirique : il n’est rendu signifiant et communicable qu’à travers des notions de classe. Ne voulant pas déduire en s’appuyant sur un concept de classe, l’expérimentateur en formera un empiriquement et en pratique par consensus. Ainsi la rationalité humaine ne sera pas pour lui une signification analysable en elle-même, mais une simple nomination conventionnelle attachée à un comportement d’une certaine complexité. Il n’a dès lors plus de difficulté à s’interroger sur l’intelligence d’une souris ou d’un singe. L’« intelligence » ne sera que la capacité de résoudre des problèmes affectant un agent particulier. Pour transmettre ce qu’il a appris, il ne lui restera plus qu’à décrire l’objet par une proposition dont le prédicat est un universel. Ne se prononçant pas sur des questions métaphysiques, ce n’est pas l’affaire de l’expérimentateur de déterminer si le concept qu’il s’est forgé par regroupement numérique fait partie ou non de la classe universelle.

Or tout le problème vient de ce que la conclusion à laquelle il prétend arriver ne sera valide que si le sujet observé est membre de cette classe métaphysique, parce que la raison n’a rien à faire de singuliers, elle ne s’occupe que d’universaux, lesquels ne sont jamais empiriques. Les lois scientifiques sont des généralisations, mais le langage vit d’universaux. Si la science s’interdit d’en appeler à un universel métaphysique, que nul ne peut observer, elle ne peut en revanche, en raisonnant, que s’en servir sous peine de ne faire aucun progrès rationnel[42]. Schrödinger l’exprimait d’une manière poignante à la fin de Mind and Matter : la connaissance scientifique repose sur la perception sensorielle, alors que le produit final du travail de la science met en scène des propositions où plus rien ne subsiste des données sensorielles[43]. L’épistémologie faillibiliste et réfutationniste, si elle a sans doute réussi à réprimer un moment les discussions plus ou moins métaphysiques relatives à la causalité pour ne la redéfinir qu’en tant que question purement logique relative à l’induction, n’a résolu le problème que par une décision outrée et en vidant les choses de toute réalité. Comme on l’a observé : « […] on tombe dans ce paradoxe […] que la science ne parvient bien à s’assurer de sa rationalité qu’en cessant de traiter de la réalité[44] ».

La transposition numérale, condition du pouvoir génératif du calcul mathématique, tire sa puissance de ce qu’elle n’a de contraintes qu’externes, mais qu’en revanche la voie est toujours libre pour elle tant qu’une contradiction ne sera pas produite par l’arithmétique qui est en dernière instance le générateur d’une telle effectivité opératoire. Cela permet également de mieux comprendre le rôle joué par les symboles mathématiques, qui sont des liaisons auxiliaires permettant à la connaissance de reproduire le comportement de niveaux de réalité qu’elle privilégie et sur lesquels elle a fait porter un très grand nombre d’expériences, tout en éliminant au niveau supérieur, où se fait l’opération réflexive pleinement conscience d’elle-même, les liaisons trop nombreuses pour être toutes identifiables.

S’il est juste de dire, contre un réalisme trop naïf, qu’on ne peut s’obstiner dans une conformité au réel, puisque ce dernier se doit d’être perpétuellement non conforme à toute idée préconcevable de façon à ce que puisse s’immiscer quelque nouveauté dans les configurations qu’il lui est possible d’adopter, il convient en ce point de ne pas être victime de la prédilection de la pensée occidentale depuis Parménide pour les oppositions bivalentes sans tiers. Cette prédilection est encore plus délétère que la platitude que l’on a parfois tirée de la première identifiée au réalisme et tenant à la correspondance entre la chose et l’esprit.

Le réalisme a toujours refusé d’entrer dans ce qu’il considère être un faux problème, représenté classiquement par l’assertion qu’un au-delà de la pensée est impensable, ce qui serait censé établir que la pensée n’a accès à rien d’autre qu’elle-même et qu’on ne peut jamais s’assurer d’une correspondance au réel puisque, dans la formulation reçue depuis Frege, nous ne comparerions toujours que des énoncés à d’autres énoncés.

S’il n’y a pas de chose, il n’y aura tout simplement pas de connaissance[45]. En fait, si nos sens ne saisissaient rien d’autre qu’eux-mêmes, le problème de la connaissance n’en serait pas un sur lequel nous aurions loisir de nous étendre : il ne se poserait pas. Par ailleurs, quel serait l’étalon qui nous permettrait de dire que notre perception est alors affaiblie par rapport au réel ? Poser un jugement de cette sorte, c’est faire intervenir d’autres rapports qui ont précisément pour caractère propre de n’être pas présents au moment même où s’énonce cette déclaration. C’est sans doute par cette pente, par cet emprunt latéral, que l’empirisme sensualiste verse, comme on l’a parfois remarqué, dans un idéalisme solipsiste.

Tel est le problème de David Hume et de John Locke, pour ne nommer qu’eux. Il consiste à dire que, comme nous n’aurions pas accès au réel même, il nous faudrait chercher à savoir quelle est la valeur de ce sous-produit dérivé, de ce « pâle reflet » internalisé, identifié à l’imagination et obtenu par impression à partir des choses matérielles[46]. Nous nous créons quelque intermédiaire et le considérons tellement représentatif de l’objet connu que nous en venons à croire qu’en étant capables de le reproduire nous aurions trouvé l’accès à l’énigme de la connaissance[47]. Tel est également en bonne partie le problème de base de l’intelligence artificielle (désormais désignée IA) avec ses convictions du genre « connaître une chose, c’est s’en faire un modèle ». On voudra alors simuler ce que fait le cerveau, par les réseaux neuronaux, ou même ce que fait l’« esprit » lorsqu’on est plus ambitieux, en n’ayant pas considéré que tous deux ne font que ce qui est nécessaire pour bien coïncider avec ce qui les provoque à s’activer, ce qui vient les actuer dirions-nous plus philosophiquement. L’intellect est une capacité de compréhension et de pensée, sans pour autant qu’on puisse mettre la main sur la pensée et tenter de la disséquer comme nous le ferions devant un objet de laboratoire. Elle n’est rien en dehors de ce qu’elle pense au sens de ce à quoi elle pense[48].

Il y a une immense distance entre cette capacité de compréhension, cette puissance capable d’opérer la rétention de quelque chose des formes perçues, et ce qu’il faudrait nommer l’armoire à fabriquer des concepts. Le concept bien entendu n’est rien en dehors de ce qu’il visait, ce qui revient à dire qu’en le considérant à part il se dessèche et meurt, comme la manne des Israélites dans le désert lorsqu’elle n’était pas consommée et transformée en substance vitale. Une conséquence en est que lorsque la connaissance est comprise comme présence à l’objet, elle n’est que sortie hors de soi et visée ab alio et qu’elle ne peut faire au même moment la théorie d’elle-même.

Or ce qui est produit par nous, ce qui est en ce sens « artificiellement » construit, c’est ce dont nous connaissons le mode de fonctionnement. Même si on pouvait la déduire de l’observation que le vivant est ce qui devient par soi et non pas quelque automate dont on voudra évaluer jusqu’à quel degré il pourrait ressentir de la douleur[49], l’objection de fond qu’on doit faire ici est encore bien plus radicale.

À force de vivre entourés d’objets qui précisément ne portent plus d’autre signature que la nôtre, nous avons peut-être oublié que l’étonnement, le θαυμάζειν qui provoqua l’effort des premiers philosophes n’a pas porté sur des objets qui ont le propre d’être sans devenir, d’être inintéressants et de ne rien nous apprendre sur nous-mêmes en tant que conscience dans ce que les phénoménologues ont appelé le « monde de la vie ». Nous ne remarquons pas assez à quel point l’expression même d’« intelligence artificielle » est grevée d’une difficulté. Une intelligence (l’intus-legere, la faculté de lire dans le donné par intuition) univoquement artificielle n’aurait qu’à extraire d’elle-même ses propres contenus pour connaître le monde. Or, une pensée qui jouirait d’une telle aptitude créerait par son exercice même la vérité des choses ; elle ne pourrait en rigueur de termes s’appliquer qu’à la pensée divine. Nous aurions raison de protester contre une véritable « escroquerie sémantique » (Omar Aktouf) cachée derrière le vocable d’intelligence artificielle. Il aurait fallu depuis le début parler d’une intelligence de l’artificiel, suite à quoi nous aurions à ajouter qu’il n’y a nul exploit à ce que nous la possédions, puisqu’elle émane de nous. Elle ne serait que la codification des opérations mécanisables du régime des axiomes et postulats par nous adopté, ce qui du reste contient une part importante de création libre et arbitraire. Il serait non seulement incorrect mais proprement autistique de faire entrer toute intelligence dans une telle acception.

IV. Unité et multiplicité de l’acte de connaître

D’où vient l’inaccessible potentialité qui nous distancierait de l’automate ? Si nous avons commencé par remarquer comment connaître c’était, de l’avis général, rendre quelque chose présent à soi, on peut certes métaphoriser le tout et parler d’une présence en soi et il semble alors moins difficile de penser intégrer tout cela dans un automate que nous programmerions. Or, la pensée est en même temps toujours distance face à la chose appréhendée, laquelle distance est rendue nécessaire pour l’exercice du jugement.

Ce sur quoi nous avons insisté jusqu’à maintenant n’était donc encore que le premier moment de l’énigme de la connaissance. Suite à l’inattention à soi et à l’existence en l’autre constitutive de l’appréhension, nous demeurons capables de renaître à la conscience de notre séparation d’avec l’objet. Se savoir autre, en étant capable de coïncider intentionnellement avec l’autre. Ni présence d’un objet à l’intérieur d’une capacité de rétention, qu’elle soit naturelle ou artificiellement construite, ni dissolution du centre de conscience en direction de son objet. On voit dès lors comment le penchant moniste et exclusiviste ne peut être satisfait. Il s’agit de maintenir une distance « comblable » qui est loin de toujours correspondre à une désignation rigide attachée à une sélection de symboles.

Ensuite, la présence intentionnelle à l’objet vise à nous rendre autres, mais le propre de la connaissance serait à chercher avant tout dans la direction de ce qui nous permet de conserver la capacité à n’être pas absorbé dans la chose, ce qui signifie une communauté de forme entre elle et nous mais avec un écran et une distance. Il est totalement déraisonnable de tenir que, dans la mesure où nous nous dissolvons intentionnellement en direction de la chose pour sympathiser avec sa forme, ainsi que Bergson l’a fort bien exposé, cette forme en puissance d’éveiller chez un être réflexif l’opération visant à la décoder et à la posséder en entier soit de quelque manière nécessaire, dans son état « second » comme résultat d’une opération d’abstraction, à ce que cette chose se voie conférer une valeur intelligible.

Ce second moment, celui du jugement, est un acte qui permet de rapporter à la réalité, logiquement figurée par le sujet d’une proposition, les prédicats qui ont été saisis en elle et considérés à part. Qu’une telle opération soit possible montre que la pensée peut se rendre présent l’absent en tant qu’absent : ainsi est-il possible à quiconque de songer en ce moment à une ville idyllique qu’il aurait déjà visitée. On pourrait certes dire qu’elle est « rendue présente » en nous par une image, mais s’il n’y avait que cela nous ne la connaîtrions toujours que comme présente (comme c’est le cas dans le rêve ou encore l’hallucination). D’ailleurs, sur ce point, un examen de la recherche en neurophysiologie nous ferait rencontrer des cas de performances fort complexes, tels des meurtres, la conduite de véhicules routiers, et même l’atteinte par un médecin d’un diagnostic correct en état de somnambulisme. Si on peut ainsi se livrer à nombre d’actions qui nous semblent requérir la conscience de soi au sens clairement qualitatif, on ne voit pas pourquoi cette interruption de la conscience ne pourrait pas s’envisager pour n’importe laquelle de ces fonctions mentales. Sans doute y a-t-il alors défilement d’images sans jugement. Elitzur réussit à dramatiser un peu la situation et à nous faire prendre conscience de son importance en posant la question : supposons qu’un expérimentaliste nous propose de fermer l’« interrupteur » de notre conscience pour une rondelette somme, 1 000 000 $ par exemple, ce qui ne changerait rien au compte rendu de nos actions, sans nous garantir le moins du monde qu’il ne nous la redonnera jamais[50]. Lequel d’entre nous accepterait les termes d’une telle entente ?

Ainsi, connaître un objet comme non présent montre un affranchissement des conditions du temps et de l’espace. La mise en ordre de ce que nous savons de l’objet, son fractionnement analytique, n’est toujours et ne peut être qu’un moment second. Le rattrapage qui s’impose à la pensée articulée, pensée réfléchie, à la remorque de ce qui l’a mise en branle à partir de la simple appréhension immédiate d’un donné, correspondant à l’expérience de la pensée réfléchissante, est une condition permanente de toute intellection. Il y a là une dualité définitive et indépassable.

Russell lui-même, dans un précieux manuscrit qui ne nous a été restitué, hélas, que tardivement, admet qu’il y a un moment qui correspond à l’acte de comprendre et qui, comme tel, est indépendant de la vérité ou de la fausseté d’une proposition[51]. Il rejette le jugement qu’il identifie à la conviction idéaliste qui ne distinguerait pas suffisamment logique et psychologie, en supposant un élément indépendant de quelque esprit connaissant particulier, incapable de subsister dans un monde de purs faits entièrement détachés de la question de savoir s’il existe un esprit[52]. Il le rejette, mais en lui faisant tout de même correspondre un moment évaluatif.

Un troisième moment, le raisonnement ou calcul logique, correspond à l’assurance d’un savoir fondé et où tous les développements s’enchaînent validement à ceux qui les précèdent. Il fait avant tout appel à la mémoire et à ses exigences en permettant la plus grande désindividualisation et désimplication possibles, au sens où il devient tout à fait secondaire de savoir qui raisonne, tout autant que la manière par laquelle a été obtenue la proposition qui tient lieu de prémisse.

Nous avons peut-être trop tendance à projeter sur la certitude de la connaissance un mode d’appréhension qui est un sous-produit du développement de la connaissance scientifique moderne. Celle-ci conduit en effet à soumettre à un critère extérieur toute intégration à un corps de propositions articulées entre elles. Or, cette définition d’un critère de vérité applicable en tous les cas n’est toujours valable pour l’ensemble des cas entrevus qu’à l’intérieur d’une épistémologie régionale. Une telle démarche ne peut cependant que suivre psychologiquement — même si elle semble la précéder logiquement — l’établissement d’une vérité première donnée dans l’expérience antéprédicative d’éprouver le réel dans sa vérité.

Certes, le praticien de la science, lorsqu’il revient sur son parcours et se fait épistémologue, se rend compte qu’il a eu raison de chercher un tel critère de vérité, afin de s’assurer de l’ordre, de la cohérence et de l’universelle transmissibilité de sa démarche, mais il est également capable de se rendre compte qu’un critère ainsi défini n’a rien de définitif. Ce faisant, il peut mieux percevoir à quel point il subsiste un niveau d’expérience encore plus général, qui est l’expérience interne la plus originelle. Une telle expérience, lieu à partir duquel pourra ensuite s’élaborer une démarche réflexive visant à retrouver et à faire apparaître devant soi en son caractère dénudé ce que l’on sait déjà, ne saurait être déterminée par un critère ou par l’appel à une instance qui lui serait extérieure. Une telle vérité ne peut être qu’immédiate conformité à la réalité saisie. C’est alors que l’affection sensible, dans l’expérience de la perception, est conduite à élaborer un jugement, qui est un moyen détourné de se distancier de ce qui est éprouvé pour, se rendant maître de soi, adhérer à la réalité éprouvée de manière immédiate et poser l’existence objective de cette réalité ressentie.

En définitive, l’idée d’une vérité statique qui, à la manière de quelque en soi, servirait d’instance extérieure à tout jugement, est comme telle intenable. D’abord à cause de la régression à l’infini dans laquelle elle nous engagerait, car le critère extérieur de la vérité d’un jugement exigerait toujours d’être lui-même établi en vérité de manière tout aussi extranéiste. Ensuite parce que seul le monde de la pensée libre de toute autre attache que la non-contradiction, celui des relations sans termes et de l’intelligibilité mathématique détachée de tout ancrage au sensible, a pu permettre d’édifier cette doctrine d’une vérité qui pourrait être pensée hors de toute relation à un objet.

Sur ce point, Spinoza nous a rendu un mauvais service, qu’on peut voir dans la façon dont le premier Wittgenstein en a adopté la conviction relativement à l’existence hors de l’esprit d’une forme logique des faits du monde[53], lesquels subsisteraient entièrement détachés et extérieurs les uns aux autres, alors que le travail de la science serait de dévoiler le pur langage des états de chose (Fälle), le logicien qui en reconstruit la langue à la manière de Frege étant promu au rang de théologien naturel. Selon la suggestion de Per Brandt, il faudrait faire de Spinoza l’ancêtre de la philosophie analytique[54]. Russell de son côté représente l’opposé d’une telle conviction, d’une manière solipsiste pour finir, refusant comme préjugé toute croyance non obtenue par une inférence elle-même factuelle ou appuyée sur une analyse de faits[55]. Ces deux extrêmes reposent évidemment sur un enflement de la bivaluation, tuant en son acte l’esprit qui juge dans le cas de Wittgenstein dont les objections ont conduit Russell au bord du désespoir, ou encore cherchant dans le cas de Russell à se faire soi-même un « petit absolu mortel », selon la fine remarque de Lawrence rapportée par F. Kerr[56].

Ce qui précède représente une position plutôt classique du problème, attentive au lien qui se doit de subsister entre l’entendement qui juge et l’énigmatique capacité dont il se sait investi, mais dont il ne peut rendre compte, d’unifier en une vision de l’esprit le courant de ses expériences individuelles. De cette épistémologie on peut comme les médiévaux tirer la théorie des relations mixtes, qui rend attentive à l’inconnaissable qui gît au coeur du réel même lorsque l’esprit a l’impression d’en avoir schématiquement saisi le déploiement causal au moyen de l’explication : omne individuum ineffabile. Le behaviorisme niera tout caractère additionnel d’une expérience de la connaissance. S’affairer à le réfuter risque de passer pour une entreprise inutile, équivalente à quelque défoncement de portes ouvertes. Toutefois, il est possible en une solution fréquemment rencontrée de reconnaître à la conscience, comme courant interne d’expérience, toute sa réalité en affirmant cependant qu’elle ne produit aucun effet physique et ne change donc rien dans la description empirique du réel accessible à l’observation sensorielle. C’est la thèse de la conscience épiphénoménale ou inefficace.

Nous avons cité Schrödinger remarquant que tout le travail de la science consiste à passer de perceptions sensorielles qui sont singulières, mettant ainsi en contact avec quelque indépassable singularité, à un contexte de reconstruction et de schématisme conceptuel dans lequel plus rien ne semble subsister de cette expérience de donation initiale. Même le néopositiviste qui contrôle quelque énoncé au moyen des critères purement phénoménistes initialement proposés par Neurath, devra transposer les énoncés tels que « Otto perçoit 20 kPa sur cet indicateur à telle date et telle heure en tel lieu » en un contexte dans lequel ils pourraient devenir une instance substituable à l’enregistrement de la même valeur. Étant dès lors identiques ceteris paribus, ils sont, par une loi avérée due à Leibniz, indiscernables. Il est évident que le système dont ils marquent un des états est, lui, constamment soumis à l’usure. Tout cela est repoussé dans les conditions initiales, qu’une position scientiste ne thématisera plus suite à leur mise entre parenthèses initiale. Un système physique agissant, ce qui est déjà une exception incompréhensible dans le cadre d’une science qui ne connaît que des actions de proche et des réactions, opère en ayant une certaine structure. Celle-ci modifie l’environnement et en fin de compte introduit, dans la considération même des données physiques, quelque chose de la circularité typique de l’herméneutique[57].

Plus encore, la lecture de l’indicateur mettait bien en oeuvre le qualitatif en un sens différent, par exemple, telle aiguille noire sur fond blanc. Ceci n’était d’ailleurs pas du tout nié par Carnap, dont l’épistémologie élaborée dans le Der logische Aufbau der Welt n’a jamais admis le sensualisme pur ni la pulvérisation de données sensibles sans schème unificateur. C’est à la Gestalttheorie qu’il eut vraisemblablement recours lorsque se présenta la nécessité de trouver quelque assise qui fasse au moins office de cran d’arrêt face à une possible régression[58]. Rien de l’idée russellienne d’acquaintance, ni de quête de la certitude par l’analyse du construit et d’un donné prétendument hard. Il serait tentant d’en rester là, affirmant qu’un chacun a bel et bien son expérience interne, incorrigible et irréfutable mais que précisément, en vertu de cette irréfutabilité et du fait qu’elle englobe toute perception possible, elle ne peut être mise à l’épreuve scientifiquement.

La difficulté de toujours qui attend quiconque voudra dépasser la thèse de la conscience inefficace est de spécifier de quelle manière elle pourrait être dite changer quelque chose dans le monde de la matière et de l’énergie. L’efficacité de la conscience devra-t-elle impliquer que cette dernière se doive d’insérer quelque énergie dans le monde ?

Des expériences de pensée peuvent aider à suggérer la persistance d’une énigme et le caractère non satisfaisant de l’exclusion du problème en tant que véritable centre d’intérêt pour la philosophie de l’esprit. Lors de discussions provoquées par l’ouvrage The Conscious Mind de Chalmers[59], on a pu, à la suite de Moody, imaginer un monde de zombies qui expérimenteraient toutes nos affections, nos états émotifs par exemple, et puis nos états cognitifs, aussi bien que l’ensemble de la description observationnelle qui les rendrait indistinguables des êtres humains. Moody affecte les opérations de ces simulacres dénués de cognition mais behavioralement indiscernables d’êtres humains d’un indice supérieur « z » : ainsi le zombie aimez, il connaîtz, etc., là où nous aimons et connaissons. On pourra trouver un correspondant descriptif pour la totalité de ce qui peut se retrouver dans l’analyse des capacités cognitives de l’homme, cette fois sans indice supérieur. Il reste que nous ne rencontrerions de « problème » de la conscience et de son irréductibilité que dans la situation où un zombie, duquel on peut même prédiquer un conscientz et un subconscientz si on veut, cesserait de nous dire qu’il a lui aussi ceci et cela, pour s’étonner un instant et même, pourquoi pas, nier avoir quelque conscience que ce soit. Alors seulement saurions-nous qu’il en a une.

Plus précisément, on peut imaginer des zombies philosophes et même philosophant sur l’esprit, puisque nous rédupliquons l’intégralité de ce qui est behavioralement donné avec nos pratiques. On voit mal quel sens aurait pour eux le problème des « other minds ». Sans doute pourraient-ils comprendrez la théorie disant que le rêve est une recombinaison de souvenirs, mais la thèse du rêve comme expérience ne pourrait leur être communiquée ou expliquée.

Le problème du « spectre inversé », de la vision du monde depuis le centre perceptif d’un robot, fréquemment mise en scène dans les films de science-fiction, leur serait de même étrangère comme d’ailleurs toute autre allusion à une « vision interne ». Pour Moody, le fait de parler du rêve ou de la vision interne peut certes ne requérir aucune expérience de la conscience, mais la présence de tels concepts dans une communauté de locuteurs le requiert[60]. Ainsi y aura-t-il de nécessaires différences entre ces zombies et nous, puisqu’il est des concepts dont ils ne sauraient parlerz qu’en leur déniant toute réalité. L’impossibilité à laquelle nous serions acculés, de ne pouvoir leur transmettre une expérience quelconque de la vision interne devrait suffire à nous les rendre suspect.

On voit donc que la question cruciale à l’égard d’une véritable démarcation en cette affaire n’est pas du tout relative à un énoncé qui puisse se formuler alternativement à partir de deux points de vue, ainsi que de célèbres articles de Putnam le laissaient supposer[61]. Que je puisse parler d’« eau » là où d’autres parlent de H2O ou de « lumière » là où certains parlent de spectre électromagnétique n’est pas la question. Elle n’est pas non plus dans le fait d’exprimer behavioralement une douleur. Bien au contraire, c’est d’avoir soif ou d’expérimenter subjectivement cette douleur, là où le neurophysiologiste n’y enregistrerait rien du tout, qui continue à faire problème.

V. Le projet d’artificialisation de la pensée au regard de certaines performances concrètes

L’idéal scientifique qui a motivé les premières conquêtes des sciences cognitives d’une autre époque ainsi que le projet de l’IA, en approchant le problème de la connaissance, s’est le plus souvent modelé sur celui d’une connaissance où les conséquences d’un énoncé n’ont qu’à être extraites de quelque générateur, moyennant l’insertion de l’input représenté par une situation singulière. Une telle pensée ne « connaîtrait » que par un abus du terme, car d’une part elle ne « lit » rien dans l’autre, et d’autre part elle ne naît pas davantage à lui. S’il est juste de dire que l’expérience de la vérité et sa définition complète ne se réfère pas seulement à une réalité extérieure qui ferait office d’instance et d’arbitre ultime, on peut légitimement se demander quel intérêt il y aurait à ce qu’une machine ait son propre monde intérieur, à supposer même que nous puissions le réaliser, car sa perception serait quelque chose de fort métaphorique, puisque nous ne l’aurions toujours définie qu’à partir d’une approche qui procède selon la conviction qu’il existe une fonction interne à exposer au regard de tous et à simplement réinscrire sur un autre support.

Une pensée réduite à la projection d’une fonction sur une variable liée ne pourrait rien faire d’autre que de totalement désingulariser l’improbable et peut-être non réitérable configuration représentée par son objet. Au lieu de construire un hypothétique système transformant des symboles comme ceux que l’homme est capable d’élaborer, et de le placer dans sa tête ainsi que le font les computationnalistes, on peut penser que l’esprit n’opère pas ailleurs que dans la réalité et qu’il réorganise perpétuellement son champ d’exercice[62].

Dire quelle décision un agent prendra en jouant aux échecs, ou plus problématiquement quelle décision il prendra en termes de vendre ou d’acheter des actifs, nous montrerait, à en pousser l’analyse en particulier dans les termes de la théorie des jeux, qu’il n’existe peut-être qu’une seule manière de se représenter de telles décisions, soit en nous tenant le plus près possible des derniers choix opérés. Si les agents choisissaient de systématiquement maximiser leur gain, ou de s’en départir entièrement, nous saurions au moins comment commencer à poser le problème. Comme l’a fait remarquer Herbert Simon, ce n’est pas ce qu’ils font, ils se contentent de ce qui est « à peu près bon[63] » ; ils abaissent ou haussent leurs attentes d’une manière qui ne se laisse pas représenter. Analyser un tel choix en schéma d’action, si nous prenions comme méthode les séries temporelles additives et la transformée de Fourier devrait signifier, comme l’a défendu Stuart Kauffman, d’accepter de ne s’en tenir qu’à un nombre fort limité d’ondes sinusoïdales[64].

On peut certes concevoir la programmation dans un automate de l’exemple d’une situation prévisible, d’un template, mais la mise en rapport de toutes les possibilités sera hors d’atteinte pour un appareillage quelconque qui ne ferait que les envisager analytiquement, successivement même si très rapidement, et séparément. (On a estimé par exemple qu’en appliquant des règles, d’ailleurs mal connues, à la spécification en trois dimensions de protéines à partir de la séquence d’une centaine d’acides aminés, un superordinateur en aurait pour 10127 années pour arriver à une forme finale viable.) L’esprit humain n’est certes pas apte lui non plus à les computer toutes, mais, appréhendant qualitativement ce qui l’entoure, il sait identifier avec une dépense d’énergie infime la bonne « classe » opératoire, la série où les nombreux cas qui n’ont pas pu être tous vérifiés s’inséreront.

C’est dire en d’autres termes qu’il possède encore une fois l’aptitude de retenir une connaissance, de ne pas immédiatement tout faire entrer dans quelque modèle qui définira, pour l’automate, la réussite et la possibilité de ne plus retenir l’information après qu’on l’ait déclarée élément d’une solution admise. On l’a vu avec les programmations très nombreuses du jeu d’échecs. Contrairement à la formule d’un champion d’échecs des années 1930 : « Je n’étudie qu’un coup : le bon », l’ordinateur n’envisage pas son jeu à long terme ; il épuise les états possibles d’un arbre mathématique. Il a certes en sa faveur la « force brutale » que lui confère sa vitesse de calcul, celle de centaines de millions d’opérations par seconde et encore de tels chiffres sont-il constamment révisés à la hausse. BlueGene/L développé par IBM attendrait 500 téraFLOPS par seconde (opérations à virgule flottante sur des nombres réels). Mais cela reste une bien pauvre stratégie, celle du « tout, tout de suite ».

D’où vient-elle cette capacité de protension de l’esprit humain ? On aurait envie de répondre : du non-usage d’arbres de décision à la manière des automates programmés jusqu’à ce jour ; ceux-ci sont parfaitement utiles pour une mise en ordre de ce que l’on sait et une réorganisation seconde, mais ils ne permettent pas de bien juger de la reconnaissance des formes, non au sens tout optique dans lequel l’informatique est parvenue à faire lire aux machines des lettres ou des configurations spatiales géométriques, mais au sens où il est possible de voir, par analogie, la même forme se profiler entre des champs d’expérience constitués d’instances individuatrices différentes. Rappeler avec David Lewis qu’il est trop facile de tout rendre analogique à tout, représente certes la mise en garde contre un danger[65], mais il y a malgré cela bien plus de valeur heuristique à penser avec Konrad Lorenz que, par définition, toute analogie est vraie, puisque l’opération mathématique de découpe ignore ce qu’elle disjoint, alors que, même si on ne cesse de mettre en garde contre l’association libre en s’en servant comme d’un épouvantail, la saisie d’isomorphismes par-delà les secteurs d’organisation de la connaissance reste fondamentalement une aptitude qui croît avec l’assimilation de ce qu’elle implique[66]. On lui pardonne mal de relever plus de l’art que de la science, mais elle est sans doute, lorsque par exemple elle se donne comme une hypothèse de travail sur la « bisociation des matrices[67] », un lieu prometteur pour rétablir la puissance de l’analogie qui est au coeur de la connaissance. Le problème n’est pas d’abord relatif à l’analogie, mais à cet esprit de raffinement, correspondant au bagage de connaissances latérales qui oriente le jugement et le fait pencher du côté de la rétention d’un produit instantané de l’imagination qui s’avérera finalement utile. C’est d’une imagination éduquée dont il est finalement question[68].

Nous sommes portés à la découverte de rapports entre des secteurs apparemment indépendants par une connexion inattendue, et celle-ci le plus souvent nous vient comme un moment de grâce non recherché. C’est par émotion, par un sentir, que nous y entrons. Il ne s’agit pas d’un acte intellectuel. Les médiévaux, mentionnés précédemment à propos des relations mixtes, savaient que les actes cognitifs les plus importants se font par inclinaison et « connaturalité ». La faculté nommée cogitative en latin, opérant le lien de la sensibilité et de la raison, désignait une capacité d’appréhender l’universel à la rencontre de l’individuel[69]. Faire reposer sur ceci une explication quelconque, en se comportant comme si des natures existant dans la réalité étaient des évidences, pourra faire grincer les dents de quelques-uns. La sympathie pour une telle idée s’est perdue à la suite de l’éthologie de la cognition, de Uexküll à Deleuze, en ce qu’elle réemprunte le chemin de la mécanisation cartésienne du support de l’âme matériel et étendu[70].

Porter le regard dans cette direction peut certes représenter une heuristique, mais où s’arrêter ? Dira-t-on, à l’extrême, que c’est seulement en reproduisant l’ensemble du corps, du support moléculaire du cerveau et de tous les sous-systèmes neurologiques qu’il commande, que nous nous approcherions de la position correcte du problème ? Gelernter l’a pensé[71].

Nous nous sommes posé la question de savoir ce qui conditionne et peut être dit caractériser l’intelligence en son irréductibilité. Si nous tentons de saisir cette dernière en acte, lorsque par exemple elle trouve la solution à un problème, nous devrons d’abord reconnaître qu’elle le fait souvent, comme l’a remarqué Simon, en le réduisant à ce qui a déjà été solutionné[72]. Tentant de sauver quelque chose de la thèse de l’ontogenèse récapitulant la phylogenèse, pour soutenir une justification évolutionniste de notre capacité à comprendre la complexité, Simon affirme qu’en toute connaissance, la récapitulation partielle conduit souvent à une connaissance plus avancée. Il en vient, en déplaçant la discussion, à se demander s’il est utile d’enseigner les erreurs passées pour ensuite les corriger[73]. Si ce que nous avons présenté est juste, revisiter le contexte d’un problème, ce sera également prendre conscience de ce que les données qui nous servent à l’identifier ne le contiennent pas lui-même. Dire comme on l’entend parfois, et comme le reprenait récemment Weinberg, qu’un étudiant de première année de physique en sait plus qu’Einstein sur la relativité générale, est à la limite absurde, parce que c’est méconnaître entièrement les problèmes sur lesquels méditait Einstein et les confondre avec l’itération de formules et d’équations vides de tout contenu[74]. La connaissance ne possède pas le surplus d’information dont nous aide à prendre conscience la near-decomposability, le fait qu’il n’est généralement pas dommageable de décrire en ne pouvant nous rendre jusqu’au plus bas degré de composition ; quelque chose pourtant « tient » tout cela pour nous, à défaut d’un meilleur terme nous dirons que c’est le « corps[75] ».

Faire ce chemin c’est en quelque sorte « re-singulariser » le problème, car en repassant par le contexte de son apparition originale, on tente alors le pari de tenir deux éléments qui semblent pointer dans des directions différentes, d’un côté l’absence de pattern sur lequel l’esprit se focaliserait, et d’un autre côté l’attente de ce que l’exposition aux mêmes données fasse revivre sous nos yeux la connexion alors sentie. S’il en est ainsi, on peut penser après tout qu’une forme nourricière pour l’esprit est présente dans la manière même dont les choses sont structurées.

Nous ne cherchons pas ici à condamner quelque programme de recherche que ce soit. Certains se dépêcheront de dire que seule la phénoménologie permet d’avancer parvenu à ce point. Nous ne le ferons pas. Il est clair cependant que, s’il doit être dit penser comme nous, l’ordinateur devra posséder les symboles qu’il manipule d’une autre manière que celle de la pensée aveugle, et qu’il est purement métaphorique de dire qu’il « chercherait » quoi que ce soit. Seule la connaissance humaine permet de se trouver entre deux mondes, elle seule rend capable de thématiser ce que Husserl nommait un « résidu ».

VI. Stratégie du sens et universalité concrète

Or le mode de fonctionnement de la pensée scientifique, dont on peut penser qu’il est le seul qu’aient eu en vue les premiers protagonistes des sciences cognitives, au contraire de ce qu’ils ont pensé, ne s’exerce pas nécessairement par mode de vision et de représentation. Sur le plan de la théorie scientifique, de quelque nature qu’elle soit, nous sommes situés entre deux énoncés-limites. D’une part, le premier pourrait s’exprimer par l’affirmation suivante, empruntée au logicien Charles Serrus : « Le savant aspire à la constitution de systèmes formels, c’est-à-dire de systèmes dans lesquels aucune connaissance n’entrerait plus du dehors, mais résulterait strictement, par déduction, du régime des principes, axiomes, ou postulats[76]. »

Ce type de conviction est encore largement présent, bien qu’il ait subi en partie le même genre de désaffection que la philosophie formaliste avec laquelle il entretenait des liens étroits. On sait comment, voulant éviter par ce moyen les paradoxes et contradictions en mathématiques, Hilbert avait convenu de faire subir une transformation au contenu abstrait des théories mathématiques pour qu’il n’en subsiste plus qu’un jeu de formules régies par des règles mécaniques d’engendrement puis, la formalisation croissant en proportion inverse du recours à l’intuition, en venir à démontrer par des moyens combinatoires l’impossibilité de dériver une contradiction de théories ainsi formalisées. Tout ce qui déborderait l’usage de signes et de relations combinatoires entre eux, ainsi de notions telles que le transfini discutées à l’époque, ne serait que façon de parler. On aboutit ainsi à vouloir n’employer que des moyens finitistes pour sauver des parties existantes de l’édifice mathématique, telles que l’idée d’infini en acte, auxquelles on n’accorde secrètement de statut que celui d’als ob kantien, de fiction commode. On s’est ensuite rendu compte de ce que l’intuition jouait un rôle directeur chez Hilbert, qui n’a jamais cru ou travaillé à son élimination[77].

L’ennui, c’est que le savant dont il est question dans cette citation n’est qu’une représentation idéalisée construite par les philosophes ; la majorité des savants, qui savent tous quelles sont les obstructions épistémologiques qui se sont introduites sur le chemin d’un tel projet, même s’ils ne les étudient pas nommément, pensent au contraire qu’une connaissance de ce genre — si on peut encore à son propos utiliser ce vocable — est une chose profondément suspecte identifiable à quelque dogmatisme, soit l’exact opposé d’une thèse scientifique.

D’autre part, nous aurions comme second énoncé-limite cette autre affirmation due à Jules Lagneau : « Si tous les phénomènes étaient au fond identité, il n’y aurait rien[78] ». En effet, lorsqu’elle acquiert véritablement son autonomie, la théorie ne constitue plus une image représentative d’une réalité-tableau. Comme le souligne Jean Ladrière, « [e]lle fait saisir les structures constitutives du monde non en montrant mais en opérant[79] ». Au lieu d’une représentation, la connaissance pourrait tout aussi bien se désigner par la métaphore d’une résonance entre deux dispositifs oscillatoires qui peuvent être différents, mais qui auraient la même période de vibration.

C’est en ce point qu’il peut être utile d’évoquer ce qu’affirmait le physicien Robert Hofstadter : un électrophone parfait, à supposer que nous puissions le construire, serait par là même suicidaire. En effet, il devrait reproduire toutes les vibrations, et celles-ci incluent les vibrations internes ou externes qui aboutiraient à l’autodestruction de l’appareil. L’isomorphisme total serait donc un état où toute discontinuité et digitalisation d’un univers serait illusoire, puisque rien ne différerait de rien. C’est pourquoi l’électrophone véritable est rendu isomorphe à plusieurs vibrations et se laisse ainsi traverser par une harmonie, mais il y a toujours des limites inhérentes à la possibilité d’un pur redoublement. C’est ce qui conduisait Yves Barel à dire que la stratégie du sens consiste

[…] à superposer à l’isomorphisme bien tempéré du monde son propre isomorphisme bien tempéré. Concrètement, cela signifie que le sens repose sur une ruse principielle : il trouve de la ressemblance quand il faut en trouver, mais dans des conditions telles que le discours garde toujours la possibilité d’être à distance de ce qu’il dit, suggérant, à voix basse, qu’il ne faut pas être dupe de la ressemblance[80].

Cette stratégie du sens ne consiste pas à tout mettre en ordre, à clarifier tous les rapports d’antécédent à conséquent impliqués par la structure la plus générale du réel, mais bien à « parier pour le sens » en « écoutant » docilement la forme que montre le réel. Il s’agit de bien plus que d’une clarification logique de la pensée, car encore une fois cela pourra signifier l’exercice d’une rétention, d’une attente jusqu’au point où l’esprit qui l’a pressenti puisse retrouver l’universel. La question qui nous occupe alors, posée à fond, obligerait de s’interroger sur le statut de ce que la philosophia perennis nommait logica maior.

Une des prérogatives du jugement tel que nous l’avons caractérisé, est de pouvoir se mouvoir en tous sens à partir de ce qui a été appréhendé, sans devoir suivre un ordre d’exposition conforme à l’ordre d’acquisition. Là où ce dernier conserve un caractère accidentel, l’effort créateur de liaisons vise à trouver un ordre d’exposition qui serait déjà réfracté dans la structure du réel, non pas seulement au sens où la logique matérielle serait celle de notre ordre d’acquisition des vérités dans un ordre discursif non totalement séparable de lui et y comportant une part d’enchevêtrement, selon l’aspect rappelé par Serge Robert[81], mais au sens où à la logique formelle, utile à l’exposition mais muette quant à la forme saisissable au creux de la réalité, pourrait peut-être se superposer ce qui serait la forme de la logique matérielle saisie dans un envers dont on pourrait faire l’hypothèse qu’il est un endroit, considéré sous l’aspect confus et progressif tout juste mentionné. Se pourrait-il que, par moments, nous soit donnée la grâce de toucher à cette forme ? Cette question est le pari des recherches sur l’abduction.

Il semblera en effet totalement invraisemblable de tenir que l’ajustement des parties à l’intérieur d’un isomorphisme que nous appliquerions au réel serait le même que l’ajustement qui permet aux parties de subsister dans la réalité. Nous serions reconduits aux problèmes typiques de l’idéalisme qui consistent à tenter de savoir en quoi nous pouvons nous assurer de la conformité de notre représentation à la réalité.

Il peut exister analogiquement une transposition de cette aptitude sur le plan d’ensemble où se construit l’intelligibilité de la connaissance scientifique. Gaston Bachelard a bien saisi de quelle manière la négation ne devrait s’employer que suite à un mouvement de saisie du caractère bouleversant pour nos catégories dans l’étonnante structuration du réel. Il a raison de tenir qu’une négation fine est moins dommageable, puisqu’elle ne se débarrasse pas, dans une dialectique de salon, de théories en entier, mais rend possible de reposer circonstanciellement la question à laquelle une réponse négative aurait d’abord été fournie[82]. En pareil cas, la thèse de la near-decomposability est inversée. Traiter du monde dans toute sa complexité par le principe de paliers de stabilité hiérarchiques, ainsi que la suggère Simon, est excellent pour nous aider à modéliser. Croire cependant que nos modèles ont la même valeur ontique que leurs référents premiers, comme s’ils leur étaient substituables, est une source de confusion et d’erreur[83].

Nous verrions volontiers une constante propre à la tradition française de philosophie des sciences dans cette interprétation archétypale du problème, dont on a parfois rappelé de quelle manière elle a toujours su éviter, outre le linguistic turn, de forcer le travail de la science à s’insérer dans un schème logique simplifié et souvent réducteur[84]. C’est une autre façon de nommer cette obstination à coïncider par en dessous avec la logique qui se montrerait dans la structure du réel même, d’apprendre à penser selon une Sachlogik plutôt que selon une Sprachlogik. C’est également une des raisons pour lesquelles les logiciens ont été en retard sur les développements de ce qu’on a parfois nommé les sciences de synthèse, inspirées de la théorie de l’information, et ne les ont que fort peu compris. Réfléchissant sur la cybernétique naissante, certains n’ont pas manqué de remarquer comment leur technique scolaire et abstractrice s’y voyait dépassée par une volonté de mieux coïncider avec cette logique immanente au réel, reproduisant certes la différence sur laquelle se fondent l’opération disjonctive et la bivalence des valeurs de vérité, mais tout autant la répétition, la pulsation et le rythme[85].

La transition que nous voudrions faire ressortir se trouve dans la perception de la différence entre le connaître englobant fictivement la totalité en l’exorcisant de ses aspects individuels alors même qu’il prétend n’être attentif qu’au singulier, ramenant l’a priori à des définitions et tautologies comme l’ont fait les néopositivistes à la suite d’un Wittgenstein mal compris, tuant dans l’oeuf l’intelligibilité mathématique et son pouvoir génératif [86], et la capacité de ressaisir le réel qui est sous le langage dont, avec une tradition philosophique, on peut penser qu’il est le langage que parlent d’abord les choses, exprimé par la priorité du λόγος sur la φύσις[87]. Pour se livrer à cette reconnaissance, passant outre aux objections de l’empirisme et du nominalisme, l’esprit doit avoir parié sur la possibilité de poursuivre un monde de formes parfaitement détachées, parce qu’il les a d’abord saisies en acte dans leur plénitude d’expressivité, sans en faire des signes sans signification. Car, en effet, ainsi que l’a observé Michel Serres, dans la mesure où l’on réussit à jeter le doute sur l’existence indépendante des vérités mathématiques, on est presque contraint à écouter la voix de l’empirisme, à moins de chercher à voir plus loin et au-delà du bruit qu’elle génère[88].

Toutefois, l’effort de l’IA est loin d’être vain pour tout cela. Si nous prenions pour objet d’étude et de réflexion la connaissance « incarnée » dans toutes les dimensions de ce terme, au lieu de ne viser qu’un idéal de dissolution analytique motivé par l’impression fallacieuse d’une pure transparence de la pensée à elle-même, nous pourrions non seulement mieux apprécier ce qu’est la connaissance, mais nous servir également de ce précieux auxiliaire que peut devenir le système expert. Celui-ci en effet doit être envisagé autrement que l’automate de connaissance qui aurait remplacé le cerveau humain, il n’a de sens que dans une forme de dialogue avec un opérateur rencontrant une machine qui a incorporé certains de ses caractères, tels que par exemple le traitement de connaissances incomplètes. À bien y regarder, nous verrions aisément que dans toutes les formes antérieures d’informatisation et d’automatisation, la prise en charge de certaines fonctions humaines en suscitait toujours de nouvelles : la surveillance de la machine-outil, sa programmation à commande numérique comme système d’automatisation flexible, etc. Ce qui serait alors souligné serait la prise en charge de tâches fastidieuses par la machine programmée par l’homme, qui permet de libérer l’esprit humain et de lui redonner sa capacité de créativité et d’inventivité[89]. Il faudra apprendre à parler désormais non plus d’intelligence artificielle, mais d’intelligence augmentée.

Vouloir identifier précisément pour quelles raisons notre connaissance humaine ne sera jamais atteinte par celle de l’IA, c’est déjà entrer dans un faux problème, qui d’ailleurs ne troublera que ceux qui n’ont pas longuement médité sur ce qu’est la connaissance humaine. Ce serait en fait concéder une vision de celle-ci solipsiste et purement opératoire, en même temps qu’instrumentaliste, entrant ainsi dans un problème dont on a tacitement accepté que les règles du jeu soient définies à partir de postulats contre lesquels on cherche précisément à se défendre.

Parties annexes