Les oeuvres de Bernard Lonergan
L'insight: ch. 2 - Les structures heuristiques de la méthode empirique

 

PREMIÈRE PARTIE

L’insight en tant qu’activité

 

2

Les structures heuristiques de la méthode empirique

Le chapitre précédent traitait de l'insight sous un aspect statique. Il faisait état des relations de l'insight avec la recherche, les images, les données empiriques et différents types de concepts explicatifs positifs et négatifs. Ce chapitre premier présentait un ensemble de notions fondamentales, mais son propos ne traduisait aucun effort de saisie du dynamisme essentiel de l'intelligence humaine. Il faut maintenant faire un premier pas dans cette direction; et comme la science empirique est manifestement et méthodiquement dynamique, il serait bon de commencer par un exposé des ressemblances et des dissemblances entre les insights mathématiques et les insights scientifiques.

1. Comparaison des insights mathématiques et des insights scientifiques

1.1 Ressemblances

La détermination de la loi de la chute des corps par Galilée est un modèle de procédé scientifique. De plus, elle offre l'avantage de présenter bon nombre de ressemblances notables avec le processus, déjà examiné, de la définition du cercle à partir de l'image d'une roue de charrette.

Tout d'abord, Galilée a restreint sa recherche à l'intelligibilité immanente d'une chute libre. Nous avons écarté toute considération sur la raison d'être des roues de charrette, sur les matériaux utilisés pour leur fabrication, sur les charrons et leurs outils, tout comme Galilée, que n'intéressait pas la cause finale de la chute des corps, n'a pas établi de distinction entre les différentes matières qui tombent, et n'a fait aucun effort pour déterminer quels sont les agents qui causent une chute.

Deuxièmement, nous sommes partis d’un indice, l'égalité des rayons. Galilée de même a supposé qu'il y avait une certaine corrélation à trouver entre les aspects mesurables des corps qui tombent. Il a en effet commencé par montrer l'erreur de la corrélation ancienne, aristotélicienne, selon laquelle la chute des corps est fonction de leur poids. Puis il a prêté attention à deux aspects mesurables immanents dans chaque chute : le corps parcourt une distance déterminée, et il le fait en un temps déterminé. Il a obtenu les données et les mesures requises grâce à une série d'expériences, pour constater alors que ces mesures pouvaient satisfaire à une règle générale : la distance parcourue est proportionnelle au carré du temps de la chute. Cette corrélation a été vérifiée directement ou indirectement depuis plus de quatre siècles.

Troisièmement, après avoir établi la définition d'un cercle, nous nous sommes trouvés dans un monde du non-imaginable, du simplement supposé. Curieusement, la formulation de la loi de la chute des corps entraîne une situation semblable. Cette loi s'applique dans le vide, et il est impossible de réaliser le vide parfait. L'expérimentation permet d'établir simplement que la justesse de la loi de l'accélération constante s'avère dans la mesure où l'on s'approche des conditions du vide.

1.2 Dissemblances

Une comparaison des insights mathématiques et des insights scientifiques fait ressortir également des différences, qui sont peut-être plus instructives que leurs ressemblances. La simple image d'une roue de charrette nous a suffi comme point de départ pour l'établissement de la définition d'un cercle. Nous n'avions pas besoin d'effectuer de recherches sur le terrain. Galilée par contre a dû avoir recours à des expériences pour parvenir à la loi de la chute des corps. Il est monté dans la tour de Pise, il a construit des plans inclinés, et cela était essentiel pour son entreprise, car il cherchait à comprendre comment la chute des corps se produit en réalité, et non ce que l'imagination peut s'en représenter.

Deuxièmement, les données qui donnent lieu à des insights sur la rondeur sont continues; par contre, les données qui donnent lieu à des insights sur la loi de la chute des corps sont discontinues. On peut imaginer la roue de charrette dans son ensemble ou un anneau de fil très fin. Quel que soit le nombre d'expériences effectuées sur la chute des corps, le résultat sera toujours une série de points distincts sur un graphique distance-temps. Il est possible, bien sûr, de tracer une courbe continue passant par l'ensemble de ces points, mais cette courbe représentera simplement une présomption de ce que la compréhension permettra de saisir, et non des données connues.

Troisièmement, l'insight sur l'image de la roue permet une saisie de la nécessité et de l'impossibilité : si les rayons sont égaux, la courbe doit être ronde, et si les rayons tracés à partir du centre ne sont pas égaux, la courbe ne peut être ronde. L'insight dans la série discontinue des points du graphique consiste cependant en une saisie, non pas de la nécessité ou de l'impossibilité, mais simplement de la possibilité. La plus simple courbe continue pourrait représenter la loi de la chute des corps. Il existe toutefois une vaste gamme de courbes plus complexes qui toutes peuvent bien passer par tous les points connus.

Quatrièmement, une fois saisie la loi du cercle, l'insight et la définition qui en résulte exercent une influence rétrograde sur l'imagination. Le géomètre imagine des éléments d'espace non linéaires minuscules (dots) et il pense à des points (points); il imagine des traits fins et il pense des lignes. La pensée est exacte et précise et l'imagination fait de son mieux pour suivre la pensée. De même, le chercheur empirique tente-t- il de doter ses images des caractères les plus approchants possibles des lois qu'il conçoit. Pourtant, même si son imagination fait de son mieux, même si ses perceptions sont profondément influencées par les habitudes de son imagination, les données dont l'observateur idéal peut disposer ne font aucun effort pour être conformes à ces attentes conceptuelles. Dans l’insoumission de leur multiplicité non analysée, elles résistent à toute mesure qui dépasse l'approximation.

Cinquièmement, comme nous l'avons vu, on parvient à des points de vue supérieurs en mathématiques lorsque des images initiales donnent lieu à des insights, que les insights donnent lieu à des définitions et à des postulats, que les définitions et les postulats orientent des opérations symboliques et que les opérations symboliques produisent une image plus générale où émergent les insights du point de vue supérieur. La méthode empirique comporte un cercle semblable, mais dont le parcours est légèrement différent. Les opérations qui exploitent la formulation des lois ne sont pas purement symboliques. Car la formulation exprime une saisie de la possibilité. Il s'agit d'une hypothèse. Elle constitue une base de déductions et de calculs tout autant que les prémisses mathématiques. Par contre, elle constitue également une base pour d'autres observations et expériences. Ce sont ces observations et ces expériences, dirigées par une hypothèse, qui tôt ou tard attirent l'attention vers des données que l'on avait ignorées ou négligées au départ. Et c'est l'attention à ces données qui provoque la révision des points de vue initiaux et produit le développement de la science empirique.

Le circuit du développement mathématique peut donc être qualifié d'immanent; il va des images aux insights et aux conceptions, pour aboutir à la production d'images symboliques à partir desquelles peuvent être obtenus des insights supérieurs. Le circuit du développement scientifique comporte par contre une action sur des choses extérieures; il passe de l'observation et de l'expérience à la mise en tableaux et aux graphiques, et de là aux insights et aux formulations, puis des formulations aux prévisions, des prévisions aux opérations, qui permettent d'obtenir des éléments de preuve nouveaux justifiant soit une confirmation soit la nécessité d'une révision des vues existantes.

2 Les structures heuristiques classiques

Un aspect de notre bref exposé exige quelques précisions complémentaires. Nous avons parlé, de manière bien superficielle, de l'indice initial. Mais de quoi s'agit-il au juste? D'où provient cet indice? D'une simple conjecture? Nous pouvons être amenés tout naturellement à la définition du cercle à partir du soupçon qu'une roue de charrette est ronde parce que ses rayons sont égaux. De même, une démarche intelligible peut mener à la détermination de la loi de la chute des corps, s'il est présumé au départ que cette loi sera une corrélation des aspects mesurables d'une chute libre. Cependant, ces considérations ne font qu'accentuer l'importance de l'origine de l'indice, ou du soupçon, ou de la suggestion, ou de la présomption.

2.1 Une illustration tirée de l'algèbre

En soulignant une fois de plus, à l'exemple de Descartes, l'importance de la compréhension des choses extrêmement simples, nous allons nous pencher sur l'habitude étrange de l'algébriste qui résout des problèmes en posant : x va désigner le nombre à trouver.

Supposons donc que nous avons à déterminer quand pour la première fois après trois heures la grande aiguille d'une horloge va recouvrir exactement la petite aiguille. Nous écrirons : x représente le nombre de minutes après trois heures. Nous déduirons ensuite que dans l'espace de temps où l'aiguille des minutes va se déplacer de x minutes, celle des heures va se déplacer de x/12 minutes. Puis nous observerons qu'à trois heures l'aiguille des heures a déjà une avance de quinze minutes sur l'autre. Donc, x = x/12 + 15 = 16 4/11. Le procédé consiste 1) à désigner l'inconnu par un mot ou un symbole, 2) à déduire les propriétés et les relations de l'inconnu, 3) à saisir la possibilité de combiner ces propriétés et ces relations pour former une équation et enfin 4) à résoudre l'équation1.

2.2 La « nature de ... »

Nous allons maintenant généraliser.

Toute recherche empirique comporte des éléments connus et des éléments inconnus. Les éléments connus peuvent toutefois être appréhendés sans forcément être compris; ce sont les données des sens. Les éléments inconnus, d'autre part, sont ce que l'on saisira par l'insight et que l'on formulera dans des conceptions et des suppositions.

Nous allons en conséquence dénommer les éléments inconnus. Ou plutôt, nous allons porter attention au fait qu'ils ont déjà une désignation. On appelle en effet nature des données ce que la compréhension de ces données permettra de connaître. Tout comme en algèbre le nombre inconnu à trouver est désigné par la valeur x, ainsi dans la recherche empirique l'inconnu que l'insight doit permettre d'atteindre est appelé la nature de ... ». Après la découverte de sa loi, Galilée savait que la nature d'une chute libre était une accélération constante. Mais avant de découvrir cette loi, il savait déjà, du simple fait de sa recherche, qu'une chute libre possédait une nature, même s'il ne connaissait pas encore cette nature.

À la première étape de la généralisation, le chercheur empirique pose donc d'abord : l'inconnu sera la nature de ..., à l'instar du mathématicien qui déclare : le nombre cherché sera x.

2.3 Classifications et corrélations

De plus, les éléments semblables sont connus de façon semblable.

En conséquence, puisque l'individualité tient du résidu empirique, il appert que la « nature de ... » sera universelle et qu'une fois ces données comprises, les données semblables seront comprises exactement de la même façon.

Par conséquent, à l'instar du mathématicien qui, après avoir désigné l'inconnu par la valeur x, établit les propriétés de x, le chercheur empirique qui déclare vouloir trouver la « nature de... » note ensuite que cette « nature de ... » doit être la même pour tous les ensembles de données semblables.

Il existe toutefois deux genres de ressemblances.

Tout d'abord, il y a les ressemblances des choses considérées par rapport à nous. Les choses peuvent ainsi être semblables sous l'aspect de la couleur ou de la forme, ou des sons qu'elles émettent, ou de leur goût, ou de leur odeur, ou encore de qualités tactiles exprimées par des adjectifs tels que : chaud, froid, mouillé, sec, lourd, léger, rude, doux, dur, mou.

D'autre part, il y a les ressemblances des choses dans les relations existant entre elles. Les choses peuvent par exemple se trouver ensemble ou séparées, elles peuvent croître et décroître de façon concomitante, elles peuvent avoir des antécédents ou des conséquents semblables, elles peuvent être semblables dans les proportions qu'elles présentent les unes par rapport aux autres, ces proportions pouvant former des séries de relations, comme celles qui existent au sein de la classification périodique des éléments en chimie ou entre les formes de vie successives dans la théorie de l'évolution.

Les ressemblances sensibles, qui se manifestent dans les rapports des choses avec nos sens, peuvent être connues avant que la « nature de ... » soit découverte. Elles constituent la base des classifications préliminaires. Elles spécifient la « nature de... » recherchée : le but de la recherche de vient la nature de la couleur, la nature de la chaleur, la nature du changement, la nature de la vie.

Par ailleurs, les ressemblances des choses dans leurs relations réciproques constituent les matériaux prochains des insights sur leur nature. Pour souligner ce fait, le chercheur empirique dira que son objectif n'est pas simplement de déterminer la « nature de ... », mais, plus précisément, la corrélation non spécifiée à spécifier, la fonction indéterminée à déterminer.

La deuxième étape de la généralisation est donc celle où, à l'instar du mathématicien qui affirme chercher un x ayant telle et telle propriétés, le chercheur empirique établit qu'il veut découvrir une « nature de ... » qui est spécifiée antérieurement par une classification fondée sur les ressemblances sensibles et qui, conséquemment, sera connue lorsque quelque fonction indéterminée sera déterminée.

Galilée s'est justement distingué de ses adversaires aristotéliciens en pratiquant ce deuxième type de généralisation. Les aristotéliciens se contentaient de traiter de la nature de la lumière, de la nature de la chaleur, ainsi de suite. Galilée a inauguré la science moderne en soutenant qu'il ne suffisait pas de traiter de la nature de la pesanteur; il fallait passer des ressemblances sensibles des choses dans leurs rapports avec nos sens aux relations existant directement entre les choses elles-mêmes.

2.4 Les équations différentielles

Les corrélations et les fonctions qui relient les choses directement les unes aux autres sont déterminées empiriquement par les mesures, par le report des mesures sur des graphiques et par la saisie, devant les points épars d'un graphique, de la possibilité de tracer une courbe continue, ou encore d'établir une loi ou une formulation. Ce qui nous intéresse ici toutefois ce sont les indices antécédents, heuristiques. Aussi convient-il de rappelerb que le continuum, tout comme l'individualité, appartient au résidu empirique. Et à l'instar de la démarche qui dégage l'universel en faisant abstraction de l'individuel, les techniques du calcul infinitésimal portent sur l'intelligibilité que l'on obtient en faisant abstraction de l'infinité non chiffrable du continuum.

Nous passons à une troisième étape de la généralisation quand nous observons le parallèle entre la démarche du mathématicien posant la valeur x pour représenter un nombre recherché et celle du chercheur empirique désignant une fonction indéterminée ƒ (x,y,z, ...) comme fonction à cerner. Comme le mathématicien, par des énoncés au sujet de x, établit ce qu'est x, de même est-il possible, en recherche empirique, de progresser vers la détermination de la fonction indéterminée posée par le chercheur en notant les équations différentielles auxquelles cette fonction doit satisfaire.

Lindsay et Margenau, dans leur ouvrage Foundations of Physics, appellent cette démarche : la méthode de l'abstraction élémentaire. Les auteurs illustrent ladite méthode par un examen des caractéristiques générales d'un fluide en mouvement. Si le fluide est continu, il présentera à chacun de ses points les composantes de vitesse u, v et w et une densité r. Si le fluide ne se dissipe pas, l'excès de sa vitesse d'écoulement par rapport à sa vitesse d'entrée, à l'égard de n'importe quel volume infinitésimal, sera égal au taux de décroissance de la densité dans ce volume. On peut donc établir l'équation suivante :

∂(ru)/∂x + ∂(rv)/∂y + ∂(rw)/∂z = - ∂r/∂t

Il faut ajouter que si le mouvement se produit dans une seule direction, deux des termes du côté gauche disparaissent. Si le fluide est incompressible, et que par conséquent sa densité ne varie pas dans le temps, le terme de droite devient zéro. Si le fluide est également homogène, et que par conséquent sa densité ne varie pas dans l'espace, la densité, r, parmi les termes de gauche, disparaît. Enfin, si les éléments de vélocité u, v et w sont égaux aux premières dérivées partielles de quelque fonction des coordonnées x, y et z, alors émerge l'équation de Laplace.

Il est possible de combiner l'équation de la continuité susmentionnée et d'autres équations fondées sur des considérations semblablement générales. Ainsi, le remplacement des facteurs vitesse et densité par l’accélération et la pression permet d'obtenir trois autres équations différentielles. Et l'ajout de suppositions et de restrictions adéquates permet d'élaborer l'équation différentielle d'un mouvement ondulatoire2.

Qu'est-ce qui se produit en réalité? Voyez la démarche de l'algébriste, que nous généralisons, et observez l'isomorphisme. Nous posions auparavant : x représentera le nombre recherché, alors que maintenant nous disons: l'équation ƒ (x, y, z, t) = o sera la corrélation requise. Auparavant nous observions que l'aiguille des heures allait se déplacer de x/12 minutes pendant que la grande aiguille allait avancer de x minutes; et maintenant nous élaborons une équation différentielle qui exprime mathématiquement certaines caractéristiques très générales des données. Auparavant nous reconnaissions comme donnée le fait qu'à trois heures l'aiguille des heures avait une avance de quinze minutes sur l'autre; maintenant nous tournons notre attention vers les conditions limites qui restreignent la gamme des fonctions pouvant satisfaire à l'équation différentielle.

2.5 L'invariance

Au chapitre 5, consacré aux notions d'espace et de temps, nous tenterons de cerner la notion d'invariance de façon moins inadéquate. Nous devons tout de même aborder quelque peu cette notion ici, à l'intérieur du présent exposé sur les indices et les anticipations scientifiques. En conséquence, nous pouvons souligner que les différences des temps particuliers et des lieux particuliers tiennent du résidu empirique et que, pour cette raison, non seulement les découvertes scientifiques sont-elles indépendantes de l'endroit et du moment de leur origine, mais les milieux scientifiques peuvent de plus leur attribuer une validité égale et uniforme, sans égard aux différences purement spatio-temporelles. Les formules des composés chimiques, par exemple, ont non seulement la même intelligibilité et la même signification mais aussi exactement la même représentation symbolique en tout temps et en tous lieux. Les principes et les lois physiques sont toutefois exposés à une difficulté : ils ont trait au mouvement, à un mouvement de tel ou tel type. Un mouvement est un changement de lieu et de temps. Les lieux et les temps renvoient à des référentiels construits de façon à inclure et à désigner tous les points et les instants relativement à une origine et à une orientation particulières. Par conséquent, si les principes et les lois physiques ont trait à des mouvements, ils ont aussi trait à l'origine et à l'orientation particulières de quelque référentiel particulier. Et à moins d'un effort contraire spécial, un changement dans le choix du référentiel peut entraîner un changement de l'énoncé du principe ou de la loi. D'autre part, lorsqu’un tel effort spécial est fourni, l'expression mathématique des principes et des lois physiques ne subit aucun changement de forme malgré les changements de point de vue spatio-temporel, et alors l'expression mathématique est dite invariante à l'intérieur d'un groupe désigné de transformations.

L'invariance signifie donc en bref trois choses : 1) tous les scientifiques comptent que leurs corrélations et leurs lois seront indépendantes des différences purement spatio-temporelles; 2) les physiciens sont aux prises avec une difficulté spéciale puisqu'ils doivent avoir recours à des référentiels; et 3) les physiciens surmontent cette difficulté particulière en exprimant leurs principes et leurs lois dans des équations mathématiques toujours invariantes malgré les transformations des référentiels.

Pour déterminer à l'intérieur de quel groupe de transformations l'invariance doit être réalisée, il faut toutefois faire appel à quelque autre principe; et en fait des théories scientifiques différentes feront appel à des principes différents. Le principe le plus général, le principe d'équivalence, pose l'identité des principes et des lois physiques pour tous les observateurs. Une telle affirmation paraît ambiguë à première vue. Que signifie-t-elle au juste? Que les objets physiques présentent toujours le même aspect, quel que soit le point d'observation? Ou que les principes et les lois physiques sont tout simplement et tout à fait hors du champ de la vue, de l'ouïe, du toucher, du sentir, et de tous les autres actes d'observation directs et indirects?

Certains auteurs semblent favoriser la première interprétation. Einstein par contre soutient une position qui ne laisse planer aucun doute et qui découle de façon tout à fait plausible de la prémisse selon laquelle la science empirique cherche à établir les relations réciproques des choses plutôt que les rapports entre les choses et nos sens. Il a été noté en effet que les observations cédaient la place à des mesures, que les mesures établissaient les relations réciproques des choses plutôt que les rapports entre les choses et nos sens, et que seules les relations les plus lointaines entre les mesures donnaient lieu aux corrélations, aux fonctions et aux lois empiriques. Or s'il est possible d'affirmer que manifestement les lois sont établies par l'élimination des rapports entre les choses et les sens des observateurs et par l'établissement des relations entre les relations mesurées des choses, alors il existe un fondement extrêmement solide permettant de poser que les principes et les lois sont les mêmes pour tous les observateurs, parce qu'ils se trouvent simplement et complètement hors du champ des activités d'observation. Par exemple, ce n'est pas l'apparence des couleurs, mais l'explication générale faisant appel aux longueurs d'ondes de la lumière, qui reste toujours exactement la même, quel que soit l'état des yeux de l'observateur, l'éclairage lui permettant de voir ou la vitesse à laquelle il peut être en train de se déplacer par rapport à l'objet observé.

Donc, si les principes et les lois physiques sont indépendants de tout mouvement des observateurs, ils doivent être également indépendants de tout mouvement semblable des référentiels. Les observateurs par contre peuvent se déplacer à n'importe quelle vitesse linéaire ou angulaire pourvu que le mouvement soit continu et pourvu qu'il ne comporte aucune excursion dans les sections imaginaires d'une diversité construite par l'introduction de nombres complexes. Il s'ensuit que les principes et les lois physiques devraient être indépendants de mouvements semblables des référentiels. En conséquence, en raison du principe d'équivalence, on doit compter que l'expression mathématique des principes et des lois physiques sera invariante, dans la mesure où les équations de transformation sont des fonctions continues de variables réelles.

La mise en œuvre de cette conclusion, qui n'est rien de plus qu'une anticipation générale fondée sur la théorie de la connaissance, exige deux étapes additionnelles. Tout d'abord, il faut concevoir précisément, en fonction des tenseurs, l'invariance générale que nous avons décrite. Deuxièmement, il faut formuler et vérifier des hypothèses empiriques appropriées. Ces étapes mènent toutefois à la théorie générale de la relativité et à la théorie généralisée de la gravitation; il n'est peut-être pas inutile de noter en passant que notre anticipation offre une explication simple de certains aspects de ces théories. Car ce que nous avons anticipé, c'est le fait que les lois abstraites ne sont pas liées à des observateurs. Il s'ensuit que les conséquences de l'anticipation ne devraient pas être vérifiées 1) si les lois perdent leur caractère abstrait par particularisations3 ou 2) si l'investigation se concentre sur les fréquences des événements concrets accessibles aux observateurs, comme cela semble être le cas de la mécanique quantique.

Le postulat fondamental de la relativité restreinte contient une anticipation moins générale de l'invariance. Déjà lorsque nous avons illustré la notion d'insight à rebours, nous avons pu présenter ce postulat sous forme d'un syllogisme explicatif où la majeure exprimait une anticipation de l'invariance et où la mineure énonçait le défaut d'intelligibilité dans les transformations inertielles. Dans la présente analyse, la différence entre les anticipations que représentent respectivement la relativité générale et la relativité restreinte tient donc au trait suivant : si dans les deux cas le caractère abstrait des principes et des lois est censé produire une expression mathématique invariante, la relativité générale concrétise cette attente en faisant appel à un insight direct sur la signifiance des mesures, alors que la relativité restreinte fait appel, aux mêmes fins, à un insight à rebours sur l'insignifiance de la vitesse constante.

Deux remarques additionnelles peuvent permettre de clarifier la nature exacte de cette différence. Tout d'abord, elle n'empêche pas que l'on considère la relativité restreinte comme un cas particulier de la relativité générale, car la relativité générale n'attribue aucune signifiance à la vitesse constante, et la relativité restreinte a trait principalement aux lois obtenues par établissement de relations entre les mesures. D'autre part, la différence est une différence non seulement de degré mais également de genre, car les anticipations de la relativité générale ne valent pas lorsque les résultats des recherches incluent des données constituées par des rapports avec les observateurs, alors que les anticipations de la relativité restreinte valent dans la mesure où l'insignifiance de la vitesse constante s'applique à l'ensemble de la physique. Peut-être cela permet-il d'expliquer le succès de l'accouplement des anticipations de la relativité restreinte avec la mécanique quantique4.

Une troisième anticipation encore moins générale de l'invariance a été attribuée rétrospectivement à la dynamique newtonienne, et il n'est pas difficile de saisir en fonction de l'insight le bien-fondé de ce point de vue. Car, comme nous l'avons déjà noté, seul le recours à un contexte positif d'insights directs concomitants permet de formuler le défaut d'intelligibilité qui est connu dans l'insight à rebours. Nous avons remarqué en particulier que le défaut d'intelligibilité dans la vitesse constante avait été exprimé pour la mécanique par Newton dans sa première loi du mouvement alors que pour la physique de façon générale il avait été posé par Einstein dans le postulat de base de la relativité restreinte. Il est donc possible de reculer d'Einstein à Newton à condition 1) que le défaut d’intelligibilité de la vitesse constante reste posé tout au long de cette démarche et 2) que soit modifié le contexte concomitant des insights directs en fonction duquel est exprimé l'insight à rebours au sujet de la vitesse constante.

Or le contexte concomitant présente trois ordres de différences pertinentes. Premièrement, la relativité restreinte touche à tous les principes et à toutes les lois physiques, alors que la dynamique newtonienne a trait principalement à la mécanique. Deuxièmement, la relativité restreinte est d'abord une théorie du champ, c'est-à-dire qu'elle a trait non aux causes efficientes, instrumentales, matérielles ou finales des événements, mais plutôt à l'intelligibilité immanente des données. La dynamique newtonienne par contre semble être d'abord une théorie des causes efficientes, des forces, de leur action, et de la réaction que suscite l'action. Troisièmement, la relativité restreinte est formulée comme une doctrine méthodologique portant sur l'expression mathématique des principes et des lois physiques, alors que la dynamique newtonienne est posée comme une doctrine concernant les objets auxquels les lois s'appliquent.

Ce qu’Einstein a énoncé pour la physique en fonction des propriétés de transformation de l'expression mathématique des principes et des lois, Newton l'a donc énoncé pour la mécanique en faisant appel aux forces qui meuvent les corps. Ce qui est énoncé dans les deux cas, c'est une négation d'une intelligibilité dans la vitesse constante. Dans le contexte einsteinien, toutefois, l'énoncé devient une affirmation de l'invariance en dépit des transformations inertielles, alors que dans le contexte newtonien l’énoncé est une affirmation d'un mouvement rectiligne uniforme se poursuivant malgré l'absence de forces extérieures. Enfin, si l'énoncé d’Einstein peut être considéré comme une règle méthodologique régissant l'expression des principes et des lois physiques, l'énoncé de Newton peut être considéré comme une condition limite générale complétant les lois qui posent une équation entre 1) la force et un taux de changement de moment et 2) l'action et une réaction égale opposée.

2.6 Résumé

Notre propos était la genèse méthodique de l'insight. Les scientifiques parviennent à la compréhension, mais seulement au terme d'une recherche. De plus, leur recherche est méthodique, et la méthode consiste à ordonner des moyens en vue d'une fin. Comment est-il possible toutefois d'ordonner des moyens en vue d'une fin si la fin est la connaissance et que cette connaissance n'est pas encore acquise? C'est la structure heuristique qui fournit la solution de cette énigme. Il s'agit de désigner l'inconnu, d'en établir les propriétés, et d'utiliser ces propriétés pour diriger, ordonner et guider la recherche.

La pensée préscientifique appelle « nature de ... » ce qu'elle doit connaître lorsqu'elle parviendra à la compréhension. Comme les éléments semblables sont compris de façon semblable, la « nature de ... » devrait être identique pour toutes les données semblables; par l'établissement de classifications fondées sur les ressemblances sensibles, l'objet se précise et devient la nature de la lumière, la nature de la chaleur, ainsi de suite.

La pensée scientifique implique une anticipation plus exacte. Ce qui doit être connu, lorsque les données seront comprises, est une corrélation ou une fonction qui établit de façon universelle les relations existant entre les choses et non leurs rapports avec nos sens. L'anticipation scientifique est donc anticipation de quelque corrélation non spécifiée à spécifier, de quelque fonction indéterminée à déterminer; cette tâche de spécification ou de détermination s'effectue par mesurage, par disposition des mesures en tableaux, par obtention d'un insight sur les mesures tabulaires, et par l'expression de cet insight au moyen d'une corrélation ou d'une fonction générale qui, si elle est vérifiée, définira une limite vers laquelle convergeront les relations entre toutes les mesures appropriées subséquentes.

Il existe deux autres voies d'enrichissement de cette anticipation et de ce procédé de base. Tout d'abord, les fonctions sont des solutions d'équations différentielles; dans beaucoup de cas toutefois on peut déduire des équations différentielles pertinentes de considérations très générales. Le scientifique peut donc anticiper que la fonction, qui est l'objet de sa recherche, sera l'une des solutions des équations différentielles pertinentes. Deuxièmement, les fonctions que le scientifique parvient à connaître dans la mesure où il parvient à la compréhension sont, à la fois quant à leur origine et quant à leur application, indépendantes des différences entre les lieux particuliers et entre les temps particuliers. Dans une science comme la physique, cette anticipation d'indépendance vient à être formulée comme l'invariance des principes et des lois à l'intérieur de divers groupes de transformations, et on fait appel à des fondements différents pour déterminer quel groupe de transformations ne modifiera pas la forme de l'expression mathématique des lois. Un insight direct sur la signifiance des mesures produit donc les anticipations de la relativité générale; un insight à rebours sur l'insignifiance de la vitesse constante produit les anticipations de la relativité restreinte; enfin, une restriction de cet insight à rebours au contexte de la dynamique newtonienne produit les anticipations parfois désignées comme relativité newtonienne.

Voilà brièvement les anticipations qui constituent la structure heuristique classique. La structure est appelée « classique » puisqu'elle est restreinte aux insights d'un type que permet facilement de cerner l'évocation des Galilée, Newton, Maxwell et Einstein. Elle est appelée « heuristique », puisqu'elle anticipe des insights de ce genre et, tout en se détachant de leur contenu encore inconnu, permet une élaboration de leurs propriétés générales de façon à orienter méthodiquement la recherche. Enfin, elle est appelée « structure » puisque, même si elle est opérative, elle n'est pas connue de façon explicite tant que la méprise à propos de l'insight (overrsight of insight) ne fait pas place à l'insight dans l'insight.

Il convient de noter en particulier que la structure heuristique classique ne comporte aucune supposition, sinon les suppositions minimales de l'occurrence d'un certain type d'insights et de la possibilité que la recherche visant de tels insights soit méthodique et non aléatoire. De plus, l’attention à la structure heuristique classique n’exige aucune supposition additionnelle, sauf la possibilité d'un insight permettant de saisir l'ensemble des relations qui lient la recherche méthodique à tout ce qui est anticipé : insights, données, ressemblances dans les données, mesures, établissement de courbes, fonctions indéterminées, équations différentielles, principe d'inertie, relativité restreinte et relativité générale. Si une certaine saisie de ces objets si divers a été communiquée à l'intérieur d'un point de vue unique, alors c'est un insight concernant la genèse de l'insight qui a été communiqué. Cela ne représente qu’une toute petite chose, certes. Un insight n'est rien de plus qu'un acte de compréhension. Il peut être vrai ou faux, ou il peut présenter divers degrés de probabilité intermédiaire. Pourtant, notre propos était simplement la communication de cet acte de compréhension. Si les lecteurs se sont préoccupés d'autre chose, ils ont fait tout ce qu'il fallait pour rater l'objet restreint de notre propos dans le présent contexte.

Une autre remarque a aussi son importance. Étant donné justement que nos suppositions et notre objectif étaient si limités, notre exposé sur la structure heuristique classique est essentiellement dégagé de toute opinion touchant les corpuscules, les ondes, la causalité, le mécanisme, le déterminisme, l'uniformité de nature, la vérité, l'objectivité, l'apparence, la réalité. En conséquence, si nous nous hasardons à employer la désignation « classique », nous le faisons en toute liberté par rapport à n'importe lequel des points de vue extra-scientifiques associés dans le passé aux découvertes scientifiques et qui, dans une mesure plus ou moins grande, en ont influencé l'interprétation. Cette précision a bien sûr une grande importance à une époque où le prestige d'une nouvelle structure heuristique statistique a augmenté de façon considérable et où il est devenu assez difficile d'établir si la nouvelle approche s'oppose aux suppositions de la science du passé ou seulement aux opinions extra-scientifiques des scientifiques du passé. Enfin, pour conclure cette section sur une note encore plus générale, il n'est peut-être pas téméraire d'affirmer qu'une analyse des procédés scientifiques axée sur l'insight représente également une approche nouvelle et que, pour vérifier la valeur d'une telle analyse, il faut absolument en élaborer les implications et les confronter, non pas avec des opinions sur la science fondées sur d'autres analyses, mais uniquement avec des anticipations, des procédés et des résultats strictement scientifiques.

3. Inférences concrètes établies à partir des lois classiques

Avant d'aborder la structure heuristique statistique, il convient de se demander jusqu'où la pleine réalisation des anticipations classiques mènerait le scientifique sur la voie d'une compréhension adéquate des données. Nous nous interrogeons donc au sujet de la gamme des inférences concrètes établies à partir des lois classiques; cette interrogation importe d'autant plus que les discussions sur ce sujet semblent avoir souffert d'une méprise à propos de l'insight (oversight of insight).

En fait, l'insight, qui est un intermédiaire nécessaire entre des ensembles de mesures et la formulation des lois, est également requis dans le processus inverse où les lois connues sont appliquées aux situations concrètes. Une inférence scientifique concrète présente donc trois conditions plutôt que deux : elle suppose une information sur une situation concrète, elle suppose une connaissance des lois, et elle suppose un insight sur la situation donnée. Car c'est seulement par l'insight qu'il est possible de savoir 1) quelles lois doivent être choisies pour l'inférence, 2) comment les lois choisies doivent être combinées pour représenter la configuration spatiale et dynamique de la situation concrète, et 3) quelles dimensions dans cette situation doivent être mesurées pour fournir les valeurs numériques qui particulariseront les lois choisies et combinées.

De plus, de telles inférences peuvent être réalisées de deux façons. Les gens pratiques attendent que les situations concrètes surgissent avant d'essayer d'en tirer les conséquences, alors que les esprits théoriques s'appliquent à anticiper des cas idéaux ou typiques et à déterminer comment il peut être possible d'effectuer une déduction dans chaque cas.

Dans ces inférences concrètes anticipatoires entre en scène un type d'insight différent. Dans l'inférence pratique en fait la situation détermine l'insight pertinent, et l'insight détermine la sélection, la combinaison et la particularisation des lois. Dans l'inférence anticipatoire toutefois l'insight est créatif et constructif. Il n'est entravé par aucune situation donnée. Il tend plutôt à être une libre exploration des potentialités des lois connues, et son fruit principal est la formulation de processus idéaux ou typiques dominés de long en large par l'intelligence humaine. Car dans de tels processus la situation de base est une situation quelconque satisfaisant aux exigences de l'insight constructif; si le processus est fermé à toute influence étrangère, chaque situation antécédente et chaque situation conséquente doivent revêtir les dimensions déterminées par les étapes successives du modèle imaginaire.

Il se peut aussi que ces processus idéaux ou typiques puissent être vérifiés dans une séquence de situations concrètes, ce qui entraîne trois conséquences très notables. D'abord, il est possible, par un insight ou un ensemble d'insights unifiés, de saisir non seulement le processus comme un tout mais également tous les événements que comporte ce tout. Deuxièmement, il est possible d'exprimer cet insight ou cet ensemble unifié dans une combinaison correspondante de lois choisies et toute situation peut être déduite de n'importe laquelle des autres situations sans aucune considération explicite des situations intermédiaires. Troisièmement, lorsque de tels processus existent et que leurs lois sont encore inconnues, une recherche portant sur ces processus présente un certain nombre d'avantages particuliers. Car l'unité intelligible du processus en son entier implique 1) que les données d'une situation quelconque et les données du processus en son entier sont équivalentes, 2) que si des données sont signifiantes dans une situation, les données similaires seront signifiantes dans toute autre situation et 3) que la justesse des rapports produits sur n'importe quelle situation peut être vérifiée par des inférences établies à partir de rapports portant sur d'autres situations. De plus, une fois surmontées les difficultés initiales et obtenus les insights de base, l’investigation approche d'un moment suprême où soudain toutes les données s'alignent dans une même optique, où des déductions vastes et pourtant justes deviennent possibles et où des prédictions exactes subséquentes s'avèrent régulièrement correctes.

Toutefois, pour comprendre la nature de la recherche statistique, il importe au plus haut point de saisir qu’un processus d'un type tout à fait différent peut être non seulement construit mais aussi probablement vérifié. Nous allons donc opérer une division des processus construits de façon idéale en processus systématiques et non systématiques. Les processus systématiques, nous les définirons en fonction des propriétés déjà énumérées : toutes choses étant égales d'ailleurs, 1) le tout d'un processus systématique et chacun de ses événements ne possèdent qu'une seule intelligibilité, correspondant à un insight unique ou à un ensemble unique d'insights unifiés, 2) toute situation peut être déduite de toute autre situation sans considération explicite des situations intermédiaires et 3) l'investigation empirique de tels processus est marquée non seulement par la facilité remarquable que présentent la vérification et la confirmation de données abondantes et signifiantes, mais aussi par un moment suprême où toutes les données s'alignent dans une même optique, où il devient possible d'effectuer de vastes déductions et où les prédictions exactes subséquentes se réalisent de façon régulière.

Cependant, chaque fois que se construit un groupe ou une série en fonction de principes déterminés, il est toujours possible de construire un groupe ou une série différente, en violant tout simplement des principes déterminés. Or le groupe des processus systématiques est construit en fonction de principes déterminés. Il est donc possible, en violant les principes, de construire d'autres processus qui seront non systématiques.

Il convient de noter que la construction de processus non systématiques repose sur la même connaissance des lois et sur la même intelligence créatrice que la construction des processus systématiques. En conséquence, tout esprit enclin à élargir le groupe des processus systématiques en postulant une connaissance complète des lois et une inventivité illimitée doit convenir que la construction du groupe des processus non systématiques se fonde également sur une connaissance tout aussi complète des lois et sur une inventivité tout aussi illimitée (même si parfois elle peut être pervertie). Enfin, même si nous ne connaissons pas toutes les lois, nous pouvons tout de même former la notion générale du processus systématique; de même, malgré notre ignorance de beaucoup de lois, pouvons-nous former la notion générale du processus non systématique.

En fait, tout d'abord, s'il y a compréhension du processus non systématique, cette compréhension sera multiple. Elle ne se réalisera pas dans un seul insight, ni dans un seul ensemble d'insights unifiés, permettant une maîtrise instantanée de tout le processus et de tous ses événements. La compréhension correcte d'un tel processus ne se réalisera que dans un ensemble d'insights différents, ou encore dans un ensemble de différents ensembles unifiés. Dans le premier cas les insights différents ne seront pas unifiés de façon intelligible et donc ne seront pas reliés les uns aux autres dans quelque série ou progression ou groupement ordonné. Dans le second cas les ensembles différents d'insights unifiés ne posséderont aucune unité intelligible supérieure et donc ne seront pas reliés les uns aux autres dans quelque série ou progression ou groupement ordonné. Enfin, disons qu'une série, une progression ou un groupement est ordonné si les relations entre les éléments de la série, de la progression ou du groupement 1) peuvent être saisies par un insight qui peut s'exprimer en termes généraux ou 2) peuvent être déduites de quelque insight unique ou de quelque ensemble unique d'insights unifiés.

Deuxièmement, comme différentes parties du processus sont comprises différemment, aucune combinaison unique de lois choisies ne peut valoir pour l'ensemble du processus. Au contraire : pour chaque insight différent ou pour chaque ensemble différent d'insights unifiés il y aura une combinaison différente, voire une sélection différente, de lois. Et les sélections et combinaisons différentes ne satisferont à aucune série, à aucune progression, à aucun groupement ordonné, à l'instar des insights différents ou des différents ensembles unifiés d’insights.

Troisièmement, tous les événements de tels processus non systématiques peuvent être déduits. Supposons 1) une absence d'interférence étrangère, 2) une information complète sur une situation donnée, 3) une connaissance entière de toutes les lois pertinentes, 4) des insights corrects sur la situation de base, 5) une maîtrise suffisante de la manipulation des expressions mathématiques, 6) des insights corrects sur des situations déduites et 7) une absence de restriction de temps pour la déduction à opérer. Il est alors possible de déduire, de la situation donnée, l'occurrence et les dimensions de la situation notablement différente qui suit. L'obtention d'insights corrects sur les données déduites touchant cette situation permet la déduction de l'occurrence et des dimensions de la troisième situation notablement différente. Enfin, comme il est possible de répéter cette démarche indéfiniment et comme on dispose d'un temps illimité pour opérer la déduction, le nombre de situations notablement différentes n'importe pas.

Quatrièmement, les processus non systématiques présentent, d'un certain nombre de façons, des agrégats fortuits. Un agrégat est fortuit 1) si ses éléments possèdent une unité fondée sur la juxtaposition spatiale ou la succession temporelle ou les deux et 2) s'il n'y a pas d'unité correspondante au niveau de l'insight et de la relation intelligible.

Or un processus non systématique, en tant que tout, présente une unité spatio-temporelle, mais ne possède pas d'unité correspondante au niveau de l'insight ou de la relation intelligible.

Les quelques insights qui permettent de comprendre les quelques parties d'un processus non systématique forment un autre agrégat fortuit. Au niveau de l'intelligibilité ils représentent une variété, mais l'unité spatio-temporelle du processus leur confère quelque unité.

La succession des différentes prémisses permettant la déduction de différentes étapes des processus non systématiques forme, de même, une troisième variété fortuite, puisque ces prémisses représentent également une variété au niveau de l'intelligibilité, tout en possédant une certaine unité qu'elles tirent de l'unité spatio-temporelle du processus.

De plus, la situation de base d'un processus non systématique doit être une variété fortuite. Car un tel processus possède une unité créée par la juxtaposition spatiale, mais n'en a aucune aux niveaux de l'insight et de la relation intelligible. Si la situation de base du processus représentait une unité intelligible, la déduction du processus à partir de cette unité intelligible constituerait un groupement ordonné pour l'ensemble des différents insights et pour la succession des différentes combinaisons de lois choisies. Or l'ensemble des différents insights et la succession des différentes combinaisons de lois choisies sont des agrégats fortuits qui ne peuvent être unifiés par quelque série ou progression ou groupement ordonné. La situation de base ne peut donc être rien de plus qu'une unification purement spatiale de différentes intelligibilités que seul un ensemble d’insights différents et indépendants permet de saisir.

De même, s'il faut de nombreux insights différents et indépendants pour comprendre la situation de base, les prémisses permettant une déduction à partir de cette situation ne peuvent être une simple combinaison unifiée de lois choisies. Et comme un agrégat fortuit de prémisses entraîne un agrégat fortuit de conclusions, chaque situation que l'on peut déduire, si elle est une situation totale, sera également un agrégat fortuit. De plus, lorsqu'il arrive que d'un processus non systématique émerge un processus systématique (comme c'est le cas dans les récentes théories sur l'origine des systèmes planétaires), la situation totale doit donc se diviser en deux parties : une partie satisfait aux conditions d'un processus systématique et l'autre, à l'exigence « toutes choses égales d'ailleurs ».

La règle de la construction des processus non systématiques émerge finalement. Car une situation est « aléatoire » si elle est une situation quelconque et si les conditions d'intelligibilité spécifiées ne sont pas remplies. Or un processus non systématique découle de toute situation de base qui, d'un point de vue définitif, est dépourvue d'unité intelligible. La construction des processus non systématiques doit donc se réaliser à partir d'une quelconque situation aléatoire de base.

Cinquièmement, si les processus non systématiques existent, la difficulté d'une recherche sur leur nature s'accroît en fonction du nombre et de la diversité de leurs intelligibilités distinctes et indépendantes. Les données sur une situation n'équivalent pas aux données sur l'ensemble du processus; elles ne sont pertinentes que pour l'une des nombreuses parties du tout. De même, les types de données qui sont signifiants dans une partie ne sont pas signifiants dans des parties disparates et exigent donc que soient entreprises plusieurs recherches distinctes. Troisièmement, il n'est pas possible d'ordinaire de vérifier les rapports sur une situation en les comparant avec les inférences établies à partir des rapports sur d'autres situations. Quatrièmement, il n'y a pas de moment suprême où toutes les données s’alignent tout à coup dans une même optique, car une telle optique unique ne peut exister. Cinquièmement, même lorsque les lois s'appliquant au sein du processus sont comprises entièrement, même lorsque l'on peut disposer de rapports à jour et exacts de centres d'information habituellement dignes d'intérêt, il est toujours possible que de tels écarts légers dans les questions de fait entraînent des écarts si grands dans la suite des événements qu'il faille restreindre les déductions au court terme et que les prédictions doivent se limiter à l'indication de probabilités. C'est peut-être ce qui explique que les astronomes peuvent indiquer de façon exacte le moment des éclipses des siècles passés comme des siècles à venir, alors que les météorologues ont besoin constamment de renseignements nouveaux et précis pour nous prédire le temps qu'il fera demain.

Arrêtons-nous un moment pour voir où nous en sommes. Nous avons d'abord noté que les inférences concrètes établies à partir des lois classiques supposent non seulement une connaissance des lois et une information sur quelque situation de base, mais également un insight qui assure une médiatisation entre la situation et une connaissance générale. Nous avons ensuite distingué les insights pratiques, qui réalisent l'application des lois à des situations données, et les insights constructifs, qui assurent l'invention de processus typiques ou idéaux. Nous avons cherché à expliquer que les insights constructifs, qui peuvent élaborer des processus systématiques avec toutes leurs propriétés belles et commodes, peuvent tout aussi bien élaborer les processus non systématiques comportant un ensemble complet de propriétés tout à fait contraires. Il convient tout de même d'ajouter quelques corollaires de nature plus générale.

Premièrement, il faut signaler qu'un processus systématique est monotone, alors qu'un processus non systématique peut être matrice de nouveauté. Car la possibilité d'un saut déductif depuis une situation quelconque d'un processus systématique à n'importe quelle autre situation est fondée sur le fait qu'un processus systématique est, à peu de choses près, la répétition perpétuelle de la même histoire, pour l'essentiel. Par ailleurs, il faut suivre le dévoilement d'un processus non systématique dans la séquence de situations qu'il comporte. Des changements signifiants interviennent et en conséquence les insights pertinents changent. Il est donc possible, comme le montrera le chapitre 4, de bâtir, au sein d'un vaste processus non systématique, une pyramide où des schèmes surmontent d'autres schèmes dans une splendide progression de nouveauté et de créativité.

Deuxièmement, il semble que les processus systématiques sont réversibles, c'est-à-dire qu'ils fonctionneraient aussi bien, si, pour ainsi dire, l’avenir était le passé et que le déroulement des processus se faisait à reculons. Un processus systématique est en effet l'expression d'une idée unique. Chaque situation successive est liée à la suivante en accord avec les préceptes de l'idée. Un renversement de la succession des préceptes permettant de faire commencer le processus à la dernière situation et de le dérouler jusqu'à la première, à reculons, n'entraîne donc pas l'intégration d'une idée nouvelle, mais simplement une application différente et, semble-t-il, tout aussi praticable de la même idée. Les processus non systématiques, par ailleurs, peuvent facilement être irréversibles. Car ils ne consistent pas dans le dévoilement d'une idée unique, et les situations successives ne sont pas liées en accord avec les préceptes d'un insight unique ou d'un ensemble unique d'insights unifiés. Ce n'est pas l'intelligence qui assure le contrôle dans ce cas, mais toute situation aléatoire de base, et la séquence fortuite de situations fortuites qui en résulte inclut facilement à la fois l'émergence et la destruction de processus systématiques. La réversibilité d'un processus non systématique signifierait donc une réémergence de ses ruines d'un processus systématique détruit, et la résolution en ses origines d'un processus systématique inversé, au moment et de la façon appropriés, même si rien n'assure les conditions d'une telle résolution.

Troisièmement, la distinction entre les processus systématiques et non systématiques met en lumière le sens précis de la notion de fermeture. Il y a en effet une fermeture externe qui exclut toute interférence extérieure. L'intelligence maîtrise de façon relativement aisée le cours entier des événements lorsqu'il s'applique à un processus systématique. Toutefois, lorsque le cours des événements s'applique à un processus non systématique, il permet aux facteurs internes d'interférer d'autant plus librement.

Quatrièmement, pour établir si un processus universel est systématique ou non systématique, il faut recourir à la méthode empirique qui consiste à poser les deux hypothèses, à en tirer de façon aussi exhaustive que possible les implications et à confronter les implications avec les faits observables.

Cinquièmement, si le processus universel s'avère non systématique, il contient des agrégats fortuits et le mot « aléatoire » revêt un sens objectif. La science statistique est alors considérée par certains comme la science de ce qui existe. En d'autres termes, il serait faux dans ce cas de dire que la science statistique doit être une simple couverture de l'ignorance. De plus, même si un processus universel s'avère systématique, cela ne sera vrai que selon des principes empiriques et a posteriori; il ne peut donc être vrai a priori que la science statistique ne peut être la science de ce qui existe. Dans cet ordre de raisonnement, aucun argument théorique valide n'est possible, qui permette d'établir que la science statistique, dans tous les sens possibles du terme, doive être une simple couverture de l'ignorance.

4. Les structures heuristiques statistiques

4.1 Contrastes élémentaires

L'investigation classique et l'investigation statistique accusent des différences marquées qui nous offrent un point de départ commode pour la présente section.

Tout d'abord, l'investigation statistique s'en tient à des situations concrètes, contrairement à l'investigation classique qui vise à déterminer des fonctions et à les systématiser. Par conséquent, alors que les conclusions classiques ont trait à ce qui existerait si toutes choses étaient égales d'ailleurs, les conclusions statistiques ont trait directement à des agrégats d'événements tels les séquences d'occasions où sont lancés une pièce de monnaie ou des dés, les séquences de situations créées par la mobilité des molécules dans un gaz, les séquences des générations où naissent des bébés, où se marient les jeunes et où meurent les aînés.

Deuxièmement, la recherche statistique porte sur des résultats palpables et non sur des processus théoriques. Galilée cherchait l'intelligibilité immanente d'une chute libre; de même, Maxwell a cherché à établir l'intelligibilité immanente du champ électromagnétique. Dans l'investigation statistique, toutefois, de telles analyses et constructions théoriques sont écartées. Le mouvement des dés répond parfaitement aux lois de la mécanique, mais ces lois ne peuvent servir de fondement pour la détermination de la probabilité de l'obtention d'un « sept ». Les médecins réussissent communément à diagnostiquer les causes des décès, mais la détermination de ces causes n'est d'aucune utilité lorsqu'il s'agit d'établir les taux de mortalité. Il semble suffire au spécialiste des sciences statistiques de définir des événements et des domaines, de compter le nombre de cas de chaque classe définie à l'intérieur du domaine défini et d'offrir une présentation générale mais plutôt vague des choses dans leur ensemble.

Troisièmement, la science statistique est empirique, mais elle ne cherche pas à mesurer ni à corréler les variables spatiales, temporelles et autres qui fascinent tellement les chercheurs classiques. Elle centre son attention sur les fréquences qui sont des réponses numériques simples à la simple question : « Combien de fois? » Ces fréquences peuvent être idéales ou réelles. Il est vrai que la fréquence ou la probabilité idéale peut être source de controverses; par contre, la fréquence réelle constitue un rapport transparent, non sur ce qui devrait ou pourrait ou va se produire, mais sur ce qui est arrivé de fait. De telles fréquences réelles sont absolues lorsqu'elles établissent le nombre réel d'événements d'une sorte donnée, dans un domaine donné, pendant une période donnée. Toutefois, comme en général des domaines différents ne sont pas comparables, on procède d'habitude, à partir de fréquences réelles absolues, à l'établissement, soit de taux, disons par tranche de population de mille, soit, lorsque les classes d'événements représentent des possibilités alternatives, de fréquences réelles relatives qui sont des ensembles de fractions propres, disons p/n, q/n, r/n, ... où n = p + q + r + ...

Quatrièmement, ces différences plutôt superficielles cachent une différence profonde de mentalité entre le chercheur classique et le chercheur statistique. Si les astronomes s'étaient contentés de considérer les déplacements des planètes comme des phénomènes purement aléatoires, personne n'aurait jamais découvert le système planétaire. Si Joule n'avait pas prêté attention aux écarts mineurs, l'équivalent mécanique de la chaleur nous serait encore inconnu. Les chercheurs statistiques se chargent toutefois d'établir une distinction dans leurs tables de fréquences entre les différences significatives et les différences purement aléatoires. En conséquence, même s'ils se donnent beaucoup de mal pour parvenir à des résultats exacts, les chercheurs statistiques ne semblent pas se préoccuper de l'étape qui suit manifestement, celle de l'explication exacte. Dans la mesure où les écarts de fréquences oscillent autour de quelque moyenne, on les estime sans importance; seul un changement de la moyenne elle-même éveille la curiosité intellectuelle et amène à considérer pertinente une poursuite de la recherche.

4.2 L'insight à rebours (Inverse Insight)

L'existence d'une telle différence radicale de mentalité appelle une explication, et l'explication manifeste tient à l'occurrence de quelque chose comme un insight à rebours. Un insight à rebours en effet possède trois caractéristiques : il suppose un objet de recherche positif; il est négation d'intelligibilité de l'objet; et cette négation va à l'encontre des anticipations spontanées de l'intelligence. Toutefois, les différences déclarées aléatoires sont des questions de fait : elles se produisent dans des fréquences que détermine le comptage d'événements d'une classe donnée, dans un domaine donné, au cours d'une période donnée. De plus, les chercheurs statistiques ne considèrent pas les différences aléatoires comme intelligibles. Ils ne s'exprimeraient sans doute pas de cette façon, mais c'est du moins l'opinion que semble bien traduire leur façon d'agir. Lorsque les différences ne sont pas aléatoires, la poursuite de la recherche s'impose; lorsque les différences sont aléatoires, non seulement le chercheur n'essaie pas d'entreprendre une recherche, mais le simple fait d'envisager une recherche serait jugé stupide. Enfin, cette négation d'intelligibilité s'oppose ouvertement aux anticipations de l'investigation classique. Le précepte et l'exemple de l'investigation classique, en effet, enseignent sans relâche qu'aucun écart ne doit être ignoré. Cette attitude classique n'est peut-être pas plus spontanée que l'attitude opposée, mais il est possible d'évoquer à tout le moins un insight à rebours banalisé (devaluated inverse insight) qui divise les anticipations classiques et statistiques.

De plus, même si cet insight à rebours banalisé porte sur les fréquences des événements, il ne s'ensuit pas nécessairement que le manque d'intelligibilité réside dans les événements particuliers. Il semble tout à fait possible en fait de reconnaître des différences aléatoires dans les fréquences tout en maintenant que les événements particuliers sont déterminés, qu'ils ne sont pas aléatoires et même qu'il est possible d'en déduire l'occurrence. Les événements doivent à tout le moins être assez déterminés pour être comptés, autrement il n'y aura pas de fréquences ni par conséquent de différences aléatoires dans les fréquences. On peut ainsi reconnaître des différences aléatoires dans les taux de mortalité sans poser que les décès particuliers aient été aléatoires ou que les médecins se soient montrés incapables de réaliser un diagnostic valable. Enfin, si les événements particuliers ne sont pas nécessairement aléatoires, il peut être possible d'en déduire l'occurrence. Car s'il est possible de passer par raisonnement de l'effet à la cause, du conséquent à l'antécédent, il doit être également possible de passer de la cause à l'effet, de la détermination de l'antécédent au conséquent déterminé.

Il semble donc que pour trouver une explication tout à fait générale de la signification des différences aléatoires, il faille considérer non pas les événements particuliers mais les événements en tant qu'éléments d'un groupe. La question qui se pose est donc : comment peut-il y avoir un manque d'intelligibilité dans un groupe d'événements si chaque événement pris à part est tout à fait déterminé, si aucun événement n'est aléatoire, et s'il est possible de déduire un à un chacun de ces événements?

Heureusement, sinon accidentellement, notre exposé précédent sur les inférences concrètes établies à partir des lois classiques offre une réponse tout indiquée à cette question. La connaissance des lois, en effet, peut s'appliquer 1) aux événements particuliers, 2) aux processus systématiques et 3) aux processus non systématiques. De plus, comme l'affirmation de différences aléatoires dans les fréquences ne doit pas nécessairement signifier que les événements particuliers sont indéterminés ou aléatoires ou qu'il n'est pas possible de les déduire, ainsi dans un processus non systématique chaque événement peut être déterminé, il n'est pas nécessaire qu'un seul événement soit aléatoire et, parfois du moins, si notre temps n'était pas si précieux, il serait possible de les déduire tous. Et la notion d'un processus non systématique, comme l'affirmation de différences aléatoires, découle d'un insight à rebours banalisé. En fait, un processus non systématique est un objet de recherche aussi positif que tout autre processus. Il est non systématique puisqu'il lui manque l'intelligibilité qui caractérise les processus systématiques. Et ses propriétés sont très surprenantes en fait, en regard de la signification communément admise de l'affirmation de Laplace, voulant que toute situation de l'histoire humaine pourrait être déduite de n'importe quelle autre situation.

La similitude entre ces deux insights à rebours banalisés nous fournit un indice manifeste. Pour exploiter cet indice nous allons prêter attention à quatre affirmations : 1) la recherche statistique porte sur les agrégats fortuits d'événements; 2) la recherche statistique porte sur ce que néglige la recherche classique; 3) la recherche statistique trouve une intelligibilité dans ce que néglige la recherche classique; et 4) cette intelligibilité est niée lorsqu'est affirmée l'existence de différences aléatoires.

La recherche statistique a pour objet les agrégats fortuits d'événements. Elle ne porte pas, en effet, sur des événements d'un processus systématique, groupés de façon intelligible : il n'existe pas de statistiques sur les phases de la lune ou sur la trajectoire de Vénus, et les tables astronomiques ordinaires ne présentent pas d’écarts aléatoires. Elle ne porte pas non plus sur des événements pris dans leur particularité. Chaque événement particulier, en effet, ne représente qu’une unité de plus ou de moins dans les tables de fréquences et, de façon générale, une différence d'une unité en plus ou en moins peut être considérée comme aléatoire. De plus, il est possible de discerner des écarts aléatoires dans certains groupes d'événements où chaque événement est déterminé et peut être déduit et où aucun événement n'est aléatoire. Il reste donc que la recherche statistique a pour objet les agrégats fortuits d'événements, c'est-à-dire les agrégats d'événements auxquels la juxtaposition spatiale ou la succession temporelle, ou les deux, confèrent une certaine unité, mais qui ne possèdent pas l'unité qui se trouve au niveau de l'insight et de la relation intelligible. Autrement dit, la recherche statistique a pour objet les processus non systématiques.

Deuxièmement, la recherche statistique porte sur ce que néglige la recherche classique. Car même si l'on convient que la recherche classique permet d'établir les lois qui expliquent chaque événement, il reste que la science classique se préoccupe rarement de fournir des explications des événements particuliers des processus non systématiques, et encore moins d'offrir quelque technique en vue d'une étude ordonnée de groupes de tels événements. Cette négligence repose même sur d'excellentes justifications. La déduction de chacun des événements d'un processus non systématique commence par une sollicitation de renseignements plus abondants et plus exacts que ceux que l'on pourrait obtenir. Elle se fait à travers une séquence d'étapes déterminées par les coïncidences d'une situation aléatoire. Il faut postuler un temps illimité pour être en mesure d'affirmer la possibilité d'accomplir la déduction. Le résultat de cette déduction n'aurait pas la généralité voulue; car ce résultat serait bien valable pour un processus non systématique exactement similaire, mais ordinairement il ne fournirait pas d'assise sûre pour une approximation du cours d'un autre processus non systématique dont la situation de base serait légèrement différente. Enfin, il serait absurde de chercher à déduire le cours des événements pour chaque processus non systématique. Non seulement faudrait-il surmonter un très grand nombre de fois les difficultés que nous venons d'évoquer, mais cette tâche herculéenne apparaîtrait vaine. Comment classifier les processus non systématiques? Comment énumérer de façon ordonnée la totalité des situations de tous les processus non systématiques? Sans une telle classification, sans une telle liste, pourtant, comment identifier les situations données avec les situations contenues dans les déductions extrêmement longues des ensembles extrêmement vastes de processus non systématiques?

Troisièmement, la recherche statistique découvre une intelligibilité dans ce que néglige la recherche classique. Jusqu'ici nous avons cherché à souligner le manque d'intelligibilité dans les processus non systématiques. Or un simple manque d'intelligibilité ne peut servir à fonder une méthode scientifique. Il faut un insight direct complémentaire qui renverse la situation par rapport à ce manque d'intelligibilité. Comme la généralisation scientifique exploite le fait que l'individualité tient d'un résidu empirique, comme les nombres réels, la théorie des fonctions continues et le calcul infinitésimal exploitent le manque d'intelligibilité dans le continuum, comme la collaboration scientifique est possible du fait que les lieux particuliers et les temps particuliers tiennent du résidu empirique, comme le principe d'inertie et le postulat de base de la relativité restreinte reposent sur un aspect empiriquement résiduel de la vitesse constante, ainsi la science statistique est l'avance positive de l'intelligence à travers la non-intelligibilité que comportent les agrégats fortuits d'événements.

En conséquence, il faut reconnaître dans la science statistique, au-delà de l'insight à rebours banalisé dont nous nous sommes occupés jusqu'ici, un autre moment fondamental qui est positif et créatif. Aristote percevait très nettement ce que nous appelons les processus non systématiques, lui qui prétendait que le cours entier des événements terrestres n'était qu'une série d'accidents. Il n'a toutefois pas ajouté à cet insight à rebours banalisé le moment créatif ultérieur. Au lieu de découvrir la méthode statistique, il a essayé de rendre compte de la continuité manifeste de la série des accidents terrestres en faisant appel à l'influence continue des sphères célestes en mouvement de rotation continue.

Quatrièmement, c'est cette intelligibilité ultérieure qui est niée par l’affirmation de différences aléatoires. Si le chercheur statistique s'occupe de processus non systématiques, en effet, il ne trouve l'intelligibilité des processus systématiques ni dans les différences qu'il déclare signifiantes ni dans les différences qu'il déclare aléatoires. Pour découvrir l'intelligibilité que la science statistique trouve dans les processus non systématiques, il faut nous tourner vers les différences déclarées signifiantes. Les écarts dans les fréquences d'événements sont donc aléatoires quand il leur manque non seulement l'intelligibilité des processus systématiques, mais aussi celle des processus non systématiques.

4.3 La signification de la probabilité

Pour les lecteurs, la définition de cette intelligibilité a tout de même plus d'intérêt que le fait de son absence dans les différences aléatoires. Cette intelligibilité est appelée probabilité; la saisie de la signification de cette désignation permet d'en obtenir une définition explicativec. Commençons par poser la définition, que nous chercherons ensuite à comprendre.

Prenons un ensemble de classes d'événements : P, Q, R,... et supposons que dans une séquence d'intervalles ou d'occasions les événements de chaque classe se produisent p1, q1, r1, ... p2, q2, r2, ... p3, q3, r3, ... fois respectivement. La séquence des fréquences réelles relatives des événements sera donc la série d'ensembles de fractions propres : pi/ni, qi/ni, ri/ni, ... où i = 1, 2, 3, ... et dans chaque cas ni = pi + qi + ri + .... Si toutefois il existe un ensemble de fractions propres constantes, disons p/n, q/n, r/n, ... tel que les différences p/n – pi/ni, q/n – qi/ni, r/n – ri/ni, ... sont toujours aléatoires, alors les fractions propres constantes seront toujours les probabilités respectives des classes d'événements, l'association de ces probabilités et des classes d'événements définit un état, et l'ensemble des fréquences réelles relatives observées est un échantillon représentatif de cet état.

L'alinéa qui précède décrit un procédé dont le moment central est un insight. Par cet insight le chercheur fait abstraction du caractère aléatoire des fréquences pour découvrir des régularités qui sont exprimées dans des fractions propres constantes appelées probabilités. Cette découverte entraîne la solution de deux problèmes méthodologiques en suspens. Puisque les probabilités doivent avoir valeur universelle, le problème de l'atteinte d'une connaissance générale des événements dans les processus non systématiques se trouve résolu. Et comme les états sont définis par l'association des classes d'événements avec les probabilités correspondantes, le problème de la distinction et de l'énumération des processus non systématiques se trouve contourné. Les probabilités, tout comme les états qu'elles définissent, sont toutefois simplement le fruit d'insights. Ce sont des entités hypothétiques dont l'existence doit être vérifiée et en fait se trouve vérifiée dans la mesure où des fréquences d'événements subséquentes se conforment aux attentes probables. Cette exigence de vérification donne lieu par ailleurs à une formulation simple pour la notion d'échantillon représentatif. Un ensemble de fréquences réelles relatives est en effet un échantillon représentatif si les probabilités auxquelles il donne lieu s'avèrent correctes. Un ensemble de fréquences réelles relatives, par contre, n'est pas un échantillon représentatif si les probabilités auxquelles il donne lieu vont à l'encontre des faits. Le problème pratique fondamental de la recherche statistique est donc celui de la sélection des échantillons représentatifs et de fait la solution de ce problème ne tient donc pas simplement à un développement théorique complet de la méthode statistique, mais également aux connaissances générales du chercheur et à ses insights sur les questions particulières qu'il est effectivement en train d'étudier.

Voilà pour le contexte général. Nous devons toutefois centrer notre attention sur l'insight qui permet à l'intelligence à la fois de faire le saut des fréquences aux probabilités et de faire abstraction de l'aspect aléatoire dans les fréquences. Un insight n'est toutefois pas une définition, ni un postulat, ni un argument: c'est un événement préconceptuel. Nous devons chercher en conséquence à encourager chez le lecteur l'occurrence consciente des événements intellectuels qui rendent possible la connaissance de ce qui se produit quand il y a saisie de la probabilité. Nous allons donc examiner d'abord un insight plus facile qui présente quelque ressemblance générale avec les insights sur la probabilité. Ensuite, nous nous pencherons sur un insight qui advient lorsqu'il y a compréhension d'un cas particulier de probabilité. Troisièmement, nous allons nous approcher de la structure heuristique générale au sein de laquelle s'élabore la notion de probabilité et sont mises au point les méthodes pour en déterminer le contenu précis.

Tout d'abord, comme la notion mathématique de limite et la notion de probabilité présentent des traits de ressemblance générale, examinons la simple somme

S = 1/2 + 1/4 + 1/8 ... (jusqu'à n termes]
= 1 - 1/2n

où, à mesure que n s'accroît, la fraction qui représente l'écart entre S et l’unité diminue. Ce qui signifie qu'en attribuant à n des valeurs de plus en plus grandes, il est possible de réduire à volonté la différence entre la somme S et l'unité. Donc, à la limite, quand le nombre de termes de la série est infini, la somme S équivaut à l'unité. Il n'est toutefois pas possible d’établir un nombre infini de termes, ni même de concevoir chacun des éléments d'une quantité infinie de termes. De plus, s'il est contradictoire de supposer finie une série qui n'a pas de fin, on peut toutefois comprendre le principe sur lequel est établie chaque fraction de la série, on peut dire si chaque fraction appartient ou non à la série, on peut concevoir autant de fractions que l'on veut, et on peut saisir que plus une série compte de termes, plus sa somme approche de l'unité. Enfin, il n'est pas contradictoire de vouloir évoquer tous les termes de la série, et manifestement il n'y a pas lieu de se préoccuper de la conception explicite des termes qui restent, puisqu'il ne reste pas de termes qui n'ont pas déjà été compris. Or l'attention à cette absence d'intelligibilité dans le reste de la série constitue l'aspect abstractif de l'insight qui veut que le contenu et les propriétés de toute la série soient suffisamment compris pour que la somme puisse être établie et qu'elle corresponde à l'unité.

Une probabilité est toutefois un nombre, à l'instar d'une limite mathématique. Et comme une limite mathématique, une probabilité est un nombre qui ne peut être atteint à partir des données d'un problème sans l'intervention d'un insight. De plus, comme la limite que nous avons considérée se trouve au-delà du nombre maximal de termes concevables, ainsi il y a une probabilité cachée dans les oscillations aléatoires des fréquences réelles relatives. Enfin, comme l'intelligence peut atteindre une limite en saisissant qu'il n'y a rien de plus à comprendre dans l'ensemble infini, non conçu, des termes ultérieurs, ainsi l'intelligence peut-elle parvenir à des probabilités en faisant abstraction des oscillations aléatoires des fréquences réelles relatives, pour découvrir un ensemble de constantes universellement valides.

Deuxièmement, pour cerner de plus près l'objet de notre propos, analysons ce qui passe si nous jouons à pile ou face dans l'espoir d'obtenir l'insight permettant d'établir que la probabilité du résultat « face » se situe à cinquante pour cent. Quand la pièce de monnaie tombe, on obtient donc l'un ou l'autre élément de l'alternative : « pile » ou « face ». Dans n'importe quel cas le résultat aurait pu être différent 1) si la position initiale de la pièce avait été différente, ou 2) si on lui avait communiqué un mouvement linéaire et un mouvement angulaire différents, ou 3) si le mouvement de la pièce s'était arrêté à un endroit différent. Nous allons appeler déterminants des résultats ces trois conditions et prêter attention à l'ensemble de combinaisons de déterminants possibles.

Tout d'abord, cet ensemble est très vaste, car il est possible de combiner une position quelconque d'un groupe très vaste de positions initiales et un moment quelconque d'un groupe très vaste de moments linéaires et angulaires initiaux. Et l'on peut combiner également n'importe laquelle de ces combinaisons et l'un des très nombreux points possibles où le mouvement de la pièce aurait pu s'arrêter.

Deuxièmement, l'ensemble des combinaisons possibles se divise en deux parties absolument égales. Car chaque fois que le résultat est « pile », il aurait été « face » si la pièce avait été retournée, puis avait subi exactement le même lancement et la même prise au vol. Et de même, chaque fois que le résultat est « face », il aurait été « pile » si la pièce avait été retournée, puis avait subi exactement le même lancement et la même prise au vol.

Troisièmement, chaque séquence de combinaisons réelles représente une sélection aléatoire à l'intérieur de l'ensemble des combinaisons possibles. Il s'agit d'une sélection vu qu'il n'est pas nécessaire qu'elle inclue toutes les combinaisons possibles. Et il s'agit d'une sélection aléatoire vu qu'elle peut être n'importe quelle sélection possible, si des conditions d'intelligibilité précises ne sont pas remplies. Il convient de préciser qu'il faut exclure l'intelligibilité, non pas des lancements particuliers de pièces de monnaie, mais plutôt de la séquence des lancements à titre de séquence. Il ne faut pas exclure l'intelligibilité des lancements particuliers car rien ne permet de supposer que le fait de lancer une pièce de monnaie implique une suspension des lois de la mécanique ou de quelque autre science semblable. Il faut l’exclure par contre de la séquence comme séquence parce que nous avons toutes les raisons d'affirmer qu’une séquence de lancements n'est pas un processus systématique. Chaque séquence de combinaisons réelles de déterminants est donc un agrégat fortuit. Elle présente l'unité d'une succession temporelle. Toutefois, si on peut déduire des événements antérieurs n'importe quelle combinaison particulière, il n'est possible de déduire une séquence quelconque de combinaisons que d'un agrégat fortuit antérieur; car la séquence ne peut être ordonnée au sens où son contenu exact pourrait être déterminé par un insight ou un ensemble d'insights unifiés qui peut s'exprimer en termes généraux.

Or la fréquence réelle relative de « face » est la fraction obtenue par la division du nombre de fois où le résultat est « face », dans une succession quelconque de lancements, par le nombre de lancements dans cette succession. Manifestement, cette fraction peut et va souvent différer de une demie, car le résultat de chaque lancement est fonction de la combinaison réelle des déterminants, et cette combinaison peut être n'importe laquelle des combinaisons possibles. Les écarts entre les fréquences réelles relatives et une demie doivent toutefois être un agrégat fortuit. Sinon ils formeraient une série ordonnée; et si les écarts formaient une série ordonnée, il faudrait que les résultats forment également une série ordonnée; et si les résultats formaient une série ordonnée, la séquence des combinaisons de déterminants formerait une série ordonnée. La conclusion est fausse ex hypothesi. La supposition était donc fausse également. De plus, les fréquences réelles relatives doivent forcément marquer des écarts par rapport à la demie. L'ensemble des combinaisons possibles se divise en effet en deux parties exactement égales; et chaque séquence de combinaisons réelles constitue une sélection aléatoire à l'intérieur de l'ensemble des combinaisons possibles. Dans une sélection aléatoire d'une séquence, la séquence est privée de tout ordre, de toute régularité, de toute loi; cette séquence peut et va en fait comprendre des suites de « pile » et des suites de « face », mais elle ne peut s'en tenir à un élément de l'alternative à l’exclusion de l'autre, et la fréquence réelle relative va donc sûrement osciller autour de la demie.

Il a été démontré que les fréquences réelles relatives de « face » 1) peuvent s'écarter et en fait s'écartent souvent de la demie, mais 2) seulement de façon aléatoire et 3) d'une façon qui constitue une oscillation autour de la demie comme centre. L'intelligence peut donc saisir une régularité dans les fréquences en faisant abstraction de leurs caractères aléatoires et en établissant quel est le centre autour duquel elles oscillent. L'affirmation que la probabilité des « face » est de une demie exprime I’insight, qui est la saisie abstractive de l'intelligibilité.

Ce n'est toutefois que dans les jeux de hasard que l'on peut discerner une symétrie antécédente dans l'ensemble des combinaisons possibles de déterminants d'événements. Dans les autres cas on ne peut établir les probabilités qu'a posteriori, ce qui exige l'élaboration d'une structure heuristique statistique. C'est ce dont traite notre prochaine section, non en vue de déterminer ce que la probabilité doit être précisément dans tous les cas, mais plutôt aux fins de permettre une saisie des anticipations sous-jacentes qui éclairent la recherche statistique et que l'on espère voir parvenir graduellement, par tâtonnements, et grâce aux découvertes théoriques et au perfectionnement des techniques, à une position méthodologique harmonieuse, comme celles que connaissent déjà les investigations classiques. Autrement dit, à part la genèse méthodique des insights scientifiques, il y a la genèse de la méthode scientifique elle-même; et si la possibilité d'une explication adéquate de la genèse des insights scientifiques fait toujours l'objet de débats obscurs, l'examen de la genèse de la méthode scientifique n'en éclaire pas moins notre étude de la compréhension humaine.

4.4 Analogie entre les structures heuristiques

La présente section est une longue analogie. Nous allons, en dix points, rappeler les caractéristiques de la structure heuristique classique, en noter la raison ou le fondement, et dans chaque cas faire le lien avec une caractéristique analogue d'une structure heuristique statistique.

En premier lieu vient le concept heuristique non spécifié. Car le but de toute recherche est un acte de compréhension, et le mécanisme fondamental de la recherche méthodique consiste à désigner l'inconnu qui sera connu lorsque se produira l'acte de compréhension anticipé. Donc, à l'instar du chercheur classique qui cherche à connaître la « nature de ... », le chercheur statistique va chercher à connaître l'« état de ... ».

Deuxièmement, le concept heuristique est spécifié par une description préscientifique. Toute recherche empirique présuppose en effet quelque objet déjà présent mais non encore compris, objet qui possède toujours sa description préscientifique, servant de spécification initiale pour le concept heuristique. Donc, à l'instar du chercheur classique qui parvient à la connaissance des natures par la compréhension de « données de divers genres », le chercheur statistique parvient à la connaissance des états par la compréhension des « suites d'événements ordinaires et exceptionnelles, normales et anormales ».

Troisièmement, le théorème heuristique assure le lien entre le concept heuristique ouvert et l'objet décrit de façon préscientifique. Comme les choses semblables sont comprises de façon semblable, les natures sont liées aux données classées en fonction de leurs ressemblances sensibles. Ainsi parlons-nous de la nature de la couleur ou de la nature du son. De même, comme il y a compatibilité entre une régularité notable et des écarts aléatoires dans des suites d'événements, des états sont liés à des suites qui sont ordinaires ou normales, malgré des manques occasionnels, ou encore à des suites déclarées exceptionnelles ou anormales, même si elles contiennent quelques éléments ordinaires ou normaux. Ainsi parlons-nous de l'état de santé d'une personne, ainsi les courtiers causent-ils de l'état du marché et le président des États-Unis de l'état de la nation.

Quatrièmement, pour réaliser une transformation des anticipations et des descriptions préscientifiques, il faut formuler un idéal d'explication scientifique. C'est pourquoi, à l'instar du chercheur classique qui situe la connaissance de la nature dans la découverte et la vérification de relations fonctionnelles déterminées, le chercheur statistique situe la connaissance des états dans l'association des ensembles de catégories d'événements avec des ensembles correspondants de probabilités. Autrement dit, alors que la mystérieuse nature de la gravité s'avère pour le savant être tout simplement une accélération constante, de même l'état mystérieux de la santé de M. Dupont s'avère pour le savant être un tableau de probabilités lié à un tableau de catégories d'événements.

Cinquièmement, la formulation de l'objectif scientifique précis entraîne le remplacement de la description préscientifique par la description scientifique. Pour déterminer des relations fonctionnelles, on ajoutera donc la mesure à l'observation, et la simple ressemblance sensible cédera la place à des ressemblances en fait de conjonction et de séparation, de proportion et de variation concomitante. De même, pour déterminer des ensembles de probabilités, on remplace les qualificatifs « ordinaire » et « exceptionnel », « normal » et « anormal » par le comptage effectif d'événements et la mise en tableau consécutive de taux ou de fréquences réelles relatives. De plus, pour justifier cette exactitude numérique, il faut emprunter des classifications exactes à la science classique et employer toutes les ressources disponibles pour délimiter dans la mesure du possible les volumes-intervalles d'événements qui sont homogènes sur le plan interne.

Sixièmement, à l'instar de la recherche classique qui tire de l'investigation mathématique des fonctions et des relations spatio-temporelles une vue générale de ses possibilités, la recherche statistique trouve dans le calcul des probabilités une orientation et une direction semblables.

Septièmement, tout comme la recherche classique élabore des techniques pratiques d'établissement de courbes pour faciliter la transition des mesures aux relations fonctionnelles, la recherche statistique développe des techniques similaires pour faciliter la transition des fréquences réelles relatives aux probabilités.

Huitièmement, à l'instar de la recherche classique qui procède non seulement du bas vers le haut, des mesures jusqu'à l'établissement de courbes, mais également du haut vers le bas, des équations différentielles vers leurs solutions, un département comparable de la recherche statistique a découvert que la solution des équations d'opérateur permet d'obtenir des fonctions propres et des valeurs propres servant à la fois à la sélection des classes d'événements et à la détermination des probabilités respectives des classes sélectionnées.

Neuvièmement, tout comme la découverte classique est un saut de l'intelligence constructrice allant au-delà des mesures établies pour établir une relation fonctionnelle vers laquelle doivent converger comme vers une limite les relations entre toutes les mesures subséquentes appropriées, ainsi la découverte statistique (il s'agit d'autre chose que de l'information statistique) est un saut de l'intelligence constructrice qui va au-delà des fréquences réelles relatives constatées, pour établir des probabilités telles que les écarts entre les probabilités et les fréquences réelles relatives 1) doivent toujours être des agrégats fortuits et 2) doivent dans chaque cas pouvoir être éliminés par prolongation de la recherche sur ce cas.

Par conséquent, tout comme les lois classiques sont universelles et constantes, même si les mesures sont particulières et sujettes aux variations causées par des influences étrangères, ainsi les états statistiques sont-ils universels et constants, même si les fréquences réelles relatives sont particulières et sujettes aux écarts aléatoires.

Toutefois, même si les deux types de découverte sont universels et donc abstraits, ils font appel à des genres d'abstraction différents. Tant les constructions classiques que les constructions statistiques font abstraction des aspects empiriquement résiduels de l'individualité, du continuum, des lieux et des temps particuliers ainsi que de la vitesse constante. Les lois classiques cependant, du moins dans la détermination de chaque loi, font également abstraction des agrégats fortuits étant donné qu'elles exigent la condition « toutes choses égales d'ailleurs ». Les états statistiques traduisent par contre l'existence d'une intelligibilité immanente aux agrégats fortuits, et pour l'atteinte de cette intelligibilité il est fait abstraction des écarts aléatoires dans les fréquences réelles relatives.

Dixièmement, les états statistiques exigent une vérification, tout autant que les lois classiques. C'est par un saut de l'intelligence constructrice en effet que l'on parvient à la connaissance des états à partir des fréquences particulières. Ce saut n'est ni la reconnaissance d’un fait, ni la saisie d'une nécessité, mais tout simplement un insight sur une possibilité. La supposition d'un état manifesté universellement par des événements de classes déterminées, se produisant selon des probabilités déterminées, cadre avec les fréquences connues. Une recherche plus poussée peut toutefois compromettre ce résultat de diverses façons. Elle peut révéler que les événements ont été mal classifiés, que la complexité de la séquence des situations a été sous-estimée, et que l'on n'a pas réussi à obtenir des échantillons représentatifs. Il faut alors vérifier les fréquences réelles relatives sur une base plus exacte ou plus vaste, et refaire d'une façon nouvelle le saut de l'intelligence constructrice.

L'hypothèse classique et l'hypothèse statistique exigent toutes deux une vérification, mais la vérification n'a pas le même sens dans les deux cas. Comme les relations entre les mesures convergent vers les relations fonctionnelles qu’expriment les lois classiques, il est possible de remplacer les variables, entre lesquelles les lois établissent des relations fonctionnelles, par les valeurs numériques que déterminent les mesures. Par contre, comme les fréquences réelles relatives diffèrent des probabilités de façon aléatoire, il n'est pas possible de déduire les probabilités de quelque formule mathématique entièrement déterminée en remplaçant les variables de la formule par les fractions qui correspondent aux fréquences réelles relatives.

La différence entre les prédictions classiques et statistiques permet de saisir la réciproque de cette différence de signification de la vérification. Les prédictions classiques peuvent être exactes à l'intérieur de limites assignables, puisque les relations entre les mesures convergent vers les relations fonctionnelles que formulent les lois classiques. Étant donné par contre que les fréquences réelles relatives diffèrent des probabilités de façon aléatoire, les prédictions statistiques ont trait d'abord aux probabilités d'événements et accessoirement déterminent les fréquences correspondantes qui diffèrent des probabilités de façon aléatoire. Par conséquent, même lorsque les nombres sont très grands et les probabilités élevées, comme par exemple dans la théorie cinétique des gaz, il faut reconnaitre la possibilité qu'il y ait des exceptions; et lorsque les prédictions reposent sur une structure axiomatique statistique, comme dans la mécanique quantique, la structure elle-même semble impliquer un principe d’indétermination ou d'incertitude.

4.5 Questions additionnelles

Nombreuses sont les questions additionnelles qui se posent. Notre propos toutefois — le lecteur perspicace l'aura deviné – n'était pas d'élaborer les fondements définitifs pour la science statistique, mais de saisir d'une certaine façon la structure heuristique statistique qui non seulement permet d'aborder des problèmes particuliers, mais développe également ses propres méthodes à mesure qu'elle avance et par le fait même établit une exigence de fondements toujours nouveaux et meilleurs.

On me demandera si des événements probables finissent par se produire tôt ou tard. La réponse, du point de vue de la recherche empirique, semble être affirmative. Si des événements sont probables, ils ne divergeront pas systématiquement de leurs probabilités. Si par contre ils ne se produisent ni tôt ni tard, cette absence de réalisation constitue une preuve empirique de l'intervention de quelque facteur systématique.

Si toutefois, avec les mathématiciens, on envisage une infinité d'occasions, alors l'expression « ni tôt ni tard » peut être définie de façon si large qu'il devient impossible d'obtenir jamais la preuve empirique d'un facteur systématique. On résout communément cette antinomie en posant qu'il faut négliger les très faibles probabilités; cette position peut se défendre, je crois, si l'on accorde une existence mathématique et si l'on refuse une existence empirique à l'infinité d'occasions supposée. Une telle solution implique cependant sur le plan logique que la probabilité mathématique et la probabilité scientifique sont des notions distinctes qui présentent des implications distinctes. Ou peut-être une telle solution invite-t-elle à l’élaboration d'une théorie mathématique comportant une expansion graduelle du champ des occasions.

On pourrait me demander quelle est la signification opérationnelle de l'agrégat fortuit, hautement théorique. La réponse est que l'opération appropriée se produit sur le plan de la méthodologie. Une gamme d'observations doit être subsumée, soit sous une structure heuristique classique, soit sous une structure heuristique statistique. Dans la première hypothèse il sera possible de découvrir quelque série, progression ou groupement ordonné. La deuxième hypothèse ne permet pas l'existence d'une telle série, d'une telle progression ni d'un tel groupement. Les deux hypothèses peuvent être formulées. Il faut en tirer les implications. Les faits ensuite détermineront laquelle des hypothèses constitue, sinon la vérité ultime, du moins la meilleure opinion disponible à un stade donné du développement scientifique.

Enfin, si les probabilités doivent être vérifiées, il est vrai également qu'il y a une probabilité des vérifications. Il importe toutefois grandement de saisir que cette seconde probabilité n'est pas de même nature que la première, malgré l'identité de désignation. La première probabilité, en effet, si l'on fait exception des différences aléatoires, correspond à la fréquence réelle relative des événements. Il s'agit de la régularité dans les fréquences, que permet de connaître un saut de l'intelligence constructrice qui saisit la régularité en faisant abstraction du caractère aléatoire. La seconde probabilité, par contre, n'est pas une fraction qui, exception faite des différences aléatoires, correspond à la fréquence réelle relative des vérifications. Il ne suffit pas que la majeure partie des tests donne des résultats favorables pour conférer à une conclusion un caractère de quasi-certitude; un très petit nombre de tests défavorables suffisent de fait à rendre cette conclusion très improbable. Sur un plan plus fondamental, ce n'est pas par un saut de l'intelligence constructrice faisant abstraction des différences aléatoires que l'on peut connaître la seconde probabilité, car de tels sauts ne produisent jamais que des hypothèses. Comme nous le verrons aux chapitres 9 et 10, ce sont des actes de compréhension réflexive et de jugement qui permettent de connaître la seconde probabilité. Ce qui signifie qu'une affirmation ou une négation mène vers l'inconditionné. Ce n'est pas en comptant les vérifications et en faisant abstraction des différences aléatoires que l'on estime cette probabilité, mais en soumettant les vérifications à une appréciation critique et en prenant en compte tout ce qui est pertinent.

C'est pour ces raisons que nous établissons une très nette distinction entre ce qui « se produit probablement » et ce qui « est probablement vrai ». Et nous refusons pour les mêmes raisons d'identifier la « certitude » au sens de la probabilité de valeur une, avec la « certitude » au sens de « vérifié de façon certaine ». Nous jugeons donc dénué de sens de représenter par une fraction la probabilité d'une vérification. De même trouvons-nous fallacieuse l'affirmation selon laquelle des événements probables ne sont pas des événements certains étant donné que des jugements probables ne sont pas des jugements certains. Un raisonnement aussi fallacieux en fait saperait notre analyse. Non seulement faut-il reconnaître deux significations de la notion de probabilité et deux significations de la notion de certitude, mais il faut également distinguer deux modes de recherche possible sur certains événements des processus non systématiques. Les procédés classiques permettent d'aboutir à des conclusions particulières, vérifiées de façon probable, au sujet d'événements individuels auxquels est attribuée une probabilité de valeur une, alors que les procédés statistiques aboutissent à des conclusions générales, vérifiées de façon probable, au sujet d'événements pris comme éléments d'agrégats fortuits, en leur attribuant une probabilité fractionnaire.

Avant de conclure ce chapitre, il convient de présenter quelques remarques sur l'utilisation des mots « classique » et « statistique ». La physique contemporaine distingue habituellement « classique » et « quantique », « statistique » et « mécanique ». De ces distinctions résulte la division familière entre mécanique classique (Newton), statistique classique (Boltzmann), mécanique quantique (Schrödinger, Heisenberg) et statistique quantique (Bose-Einstein, Fermi-Dirac). La présente étude des structures heuristiques exige toutefois manifestement une division en deux et non en quatre volets. Ou bien l'intelligence anticipe la découverte des relations fonctionnelles vers où convergeront les relations entre les mesures, ou bien elle anticipe la découverte de probabilités dont les fréquences réelles relatives peuvent diverger, même si ce n'est que de façon aléatoire. Nous pouvons manifestement appeler « statistique » la deuxième option. Pour ce qui est de la première, elle ne se limite pas à la mécanique newtonienne et, de l'avis de beaucoup, elle n'a pas trait à la mécanique quantique. Il s'agit du mode de recherche qu'ont en commun Galilée, Newton, Maxwell et Einstein. Aussi familier au chimiste qu'au physicien, longtemps considéré comme le seul mode de recherche scientifique, il a été la principale source de la haute réputation que s'est méritée la science. Dans un ouvrage comme le présent livre, personne je crois ne sera induit en erreur si une démarche aussi classique est appelée « classique ».

5. Vue d'ensemble

Nous avons peut-être suffisamment progressé dans notre démarche pour que s'éclaire l'orientation assez nouvelle de la présente recherche. Nous avons d'abord décrit une découverte pour ensuite relever l'existence d'insights, et porter attention à leur accumulation qui permet d'atteindre des points de vue supérieurs. Nous avons mis en lumière également l'importance de saisir que parfois ce qu'il faut comprendre, c'est qu'il n'y a rien à comprendre. Le présent chapitre n'avait pas pour objet de nous faire avancer vers l'extérieur, pour nous permettre d'atteindre des conclusions sur des objets, mais plutôt de nous ramener en arrière et vers l'intérieur, vers les anticipations chez le sujet d'insights qui ne se sont pas produits et vers l'exploitation méthodique de telles anticipations. Ce mouvement vers l'intérieur permet aux lecteurs de prévoir la direction que prendra l'ensemble de l'ouvrage. Notre propos n'est pas de cerner un objet scientifique, une vérité universelle et nécessaire, ou une proposition première. Notre propos, c'est le sujet concret, individuel, existant qui produit de façon intelligente, évalue de façon critique, et révise progressivement tout objet scientifique, toute affirmation imprudente, tout refuge rigoureusement logique qui permette un apaisement prématuré du dynamisme toujours actif de la compréhension humaine. Notre ambition est de cerner non pas le connu ni le connaissable, mais le sujet connaissant. Le chapitre 1 traitait des insights que le sujet connaissant cherche à avoir. Le chapitre 2 a introduit la notion des structures heuristiques qui informent cette recherche. Les chapitres 3 à 5 consolideront cette position. Les chapitres 6 et 7 traiteront des activités du sens commun, réalisées de façon plus ou moins intelligente. Le chapitre 8 joint la science et le sens commun. Les chapitres 9 et 10 portent sur les problèmes du jugement critique et, de façon accessoire, permettront aux lecteurs impatients de comprendre le sens de la démarche des huit premiers chapitres, qui visaient à leur communiquer les insights préalables nécessaires. Enfin, les chapitres 11 à 17 constituent un effort de saisie en un même point de vue de la façon dont la totalité des points de vue sur la connaissance, l'objectivité et la réalité procèdent de la conscience empirique, intellectuelle et rationnelle du sujet concret.


a on peut faciliter ... la solution ... en traçant un diagramme : une remarque caractéristique, qui évoque une habitude typique chez l'auteur; ceux qui ont suivi les cours de Lonergan se souviennent bien des diagrammes qu'il traçait même lorsqu'il exposait des questions de théorie de la connaissance ou de métaphysique.

b de rappeler : Lonergan renvoie ici à un passage du chapitre 1 qui figurait dans la version de 1953, mais qu'il a supprimé dans les révisions effectuées par la suite.

c la saisie de la signification de cette désignation permet d'en obtenir une définition explicative : Lonergan semble employer ici le mot « signification » au sens d'une pleine signification — c'est-à-dire de l'intelligibilité de l'objet désigné. Il s'écarte ainsi de l'usage qu'il fait ordinairement de ce terme, en fonction duquel il établit une nette distinction entre les définitions nominales et les définitions explicatives. Voir par exemple, dans le présent ouvrage : « Les définitions nominales nous renseignent simplement sur l'usage correct des termes. Les définitions explicatives comprennent un élément additionnel » (chapitre 1, § 2.6); « entre la compréhension d'un usage verbal et la compréhension de ce que dénotent les mots utilisés, il y a un énorme fossé, une zone d'obscurité » (chapitre 17, § 1.3). (Voir également dans A Note on Geometrical Possibility (p. 94 de Collection [University of Toronto Press 1988], les observations de Lonergan au sujet des définitions nominales et essentielles.)


1 Comme l'insight est insight sur les présentations des sens et les représentations de l'imagination, on peut faciliter la troisième étape de la solution de tels problèmes en traçant un diagrammea et en marquant toutes les quantités pertinentes. Dans le présent exemple l'équation devient évidente une fois marquées les trois distances x, x/12 et 15.

2 Voir Lindsay et Margenau, Foundations of Physics p. 29-48.

3 Ibidem, p. 368.

4 Ibidem, p. 501-514.

 

 

Accueil | Actualités | Diffusion de sa pensée
Entretiens | L'homme et l'oeuvre | Gaston Raymond | Introduction à sa pensée | Liens | Repères biographiques
Les oeuvres de Lonergan | Textes particuliers | Théories économiques | Blogue

Index du site