Les oeuvres de Bernard Lonergan
L'insight: ch. 4 - Investigations classiques et statistiques : leur complémentarité

 

PREMIÈRE PARTIE

L’insight en tant qu’activité

 

4

Investigations classiques et statistiques :
leur complémentarité

La façon la plus expéditive d'aborder le problème du présent chapitre est peut-être de passer en revue les principaux points considérés comme acquis.

Nous avons entrepris notre étude de l'intelligence humaine en exposant les aspects psychologiques de l'insight. Nous avons examiné ensuite les définitions géométriques, qui sont les produits de l'insight, puis les redéfinitions qui découlent des points de vue supérieurs. Nous avons abordé en troisième lieu un curieux type d'insight, grâce auquel on peut saisir que la compréhension de certaines données ou de la réponse à une certaine question consiste en la compréhension du fait qu'il n'y a rien à comprendre. Nous avons enfin procédé à une généralisation permettant de reconnaître dans toutes les données un résidu empirique dont l'intelligence fait toujours abstraction.

Au deuxième chapitre, nous nous sommes penché sur les insights dans le domaine de la science empirique. Après avoir comparé brièvement les développements respectifs de la compréhension en mathématiques et en sciences, nous avons prêté attention à l'origine des indices qui constituent le premier moment de l'insight. Nous avons vu que par la recherche l'intelligence anticipe l'acte de compréhension qu'elle s'efforce d'obtenir. Il est possible d'attribuer une désignation heuristique au contenu de cet acte anticipé. Les propriétés de ce contenu anticipé et désigné sont, pour l'intelligence, autant d'indices qui orientent sa démarche vers la découverte. Enfin, comme il n'y a pas que les insights directs, permettant de comprendre ce qu'il y a à comprendre, mais également ce curieux type d'insights qui consistent à comprendre qu'il n'y a rien à comprendre, les structures heuristiques se divisent en deux groupes, soit les structures classiques et les structures statistiques. Une structure heuristique classique est une anticipation intelligente du systématique-et-abstrait vers lequel converge le concret. Une structure heuristique statistique est une anticipation intelligente du systématique-et-abstrait qui établit une frontière ou une norme dont le concret ne peut diverger de façon systématique.

Les structures heuristiques en elles-mêmes sont vides. Elles constituent une anticipation d'une forme à remplir. Or comme il est possible d'anticiper les propriétés générales de la forme, il est également possible d'anticiper les propriétés générales du processus même de remplissage de cette forme. Il existe donc des canons de la méthode empirique. Si l'insight doit porter sur des données, il y a un canon de la sélection. Si les insights dans des données s'accumulent pour former un circuit d'attention aux données, d'insights, de formulations, d'expériences, de nouvelle attention aux données, il existe un canon des opérations. Si la science appliquée a recours à des insights portant sur les matières, les buts, les agents et les outils, la science pure, comme elle est antérieure à la science appliquée, n'a d'autre objet que l'intelligibilité immanente aux données, et est donc soumise à un canon de la pertinence. Si la science pure dépasse les données dans la mesure où elle en saisit l'intelligibilité immanente, elle n'ajoute toutefois aux données rien de plus que ce contenu intelligible : d'où l'existence d'un canon de la parcimonie, lequel exclut toute affirmation qui va au-delà de ce qui peut être vérifié dans les données. Si certaines données doivent être comprises, alors toutes les données doivent être comprises. La science ayant pour objectif la compréhension de tous les phénomènes, la méthode scientifique est soumise à un canon de l'explication complète. Par conséquent, aucune étendue expérimentée ni aucune durée expérimentée ne peut être écartée, ce qui implique le passage d'un point de vue galiléen à un point de vue einsteinien. Enfin, si toutes les données doivent être expliquées, certains aspects de l'ensemble des données sont toutefois expliqués de la manière curieuse déjà mentionnée. Il y a des résidus statistiques, puisque le systématique est entièrement abstrait, que l'abstrait n'est appliqué au concret que par l'ajout de déterminations et qu'il est intrinsèquement impossible de relier systématiquement les unes aux autres ces déterminations nouvelles.

Cette simple énumération des acquis de nos trois premiers chapitres fait toutefois apparaître un problème. Nous devons reconnaître l'existence d'une dualité, et dans les structures heuristiques de la science, et dans les canons de la méthode empirique. Non seulement l'intelligence humaine saisit-elle l'intelligibilité immanente aux données de façon positive, mais elle saisit également une domination de l'abstrait-et-systématique sur le concret. Cette dualité est un fait, certes. Mais est-ce un fait fondamental? Les recherches classiques et les recherches statistiques sont-elles des démarches isolées ou reliées? Leurs résultats sont-ils isolés ou reliés? Le présent chapitre propose en trois parties un essai de réponse à ces questions.

Nous poserons d'abord que les investigations classiques et les investigations statistiques sont complémentaires en tant que types de connaître. Nous démontrerons en effet que ces types se complètent mutuellement dans leurs anticipations heuristiques, dans leurs procédés, dans leurs formulations, dans les différences de leur caractère abstrait, dans leur vérification et dans leurs domaines de données.

Deuxièmement, à la complémentarité qui existe dans le connaître s’ajoute la complémentarité présente dans le à-connaître. Que cela nous plaise ou non, les structures heuristiques et les canons de la méthode constituent un a priori. Ils établissent par avance les déterminations générales, non seulement des activités du connaître, mais également du contenu à connaître. Tout comme les notions de science et de méthode d’Aristote sont à l'origine de sa hiérarchie cosmique, tout comme la réduction des qualités secondes aux qualités premières chez Galilée a nécessité un déterminisme mécaniste, ainsi notre affirmation simultanée des investigations classiques et des investigations statistiques implique une vision du monde. Mais de quelle vision s'agit-il?

Troisièmement, la mise en relief est source de clarification. En conséquence, après nous être efforcés de déterminer la vision du monde à l’égard de laquelle nous engage l'acceptation des structures heuristiques et des canons de la méthode empirique, il faut établir les différences entre cette vision du monde et celles d'Aristote, de Galilée, de Darwin et des indéterministes contemporains.

1 Complémentarité concernant le connaître

1.1 Structures heuristiques complémentaires

Tout d'abord, les anticipations heuristiques des procédés classiques et statistiques sont complémentaires. Car le systématique et le non-systématique sont les éléments contradictoires d'une dichotomie. La recherche du type classique est une anticipation du systématique. La recherche du type statistique est une anticipation du non-systématique. Or les relations entre les données doivent être soit systématiques, soit non systématiques. En conséquence, dans tout cas particulier, il faut que l'anticipation classique ou l'anticipation statistique soit correcte.

Deux corollaires s'ensuivent.

Le premier est l'ouverture de la méthode empirique. Le simple fait de la recherche constitue en soi une présupposition, car il implique qu'il y a quelque chose que la compréhension des données va permettre de connaître. Cette présupposition est pourtant inévitable, puisqu'elle marque la différence entre les attitudes scientifique et non scientifique envers l'expérience. De plus, une telle présupposition est minimale. Car elle ne détermine pas a priori si une gamme choisie de données doit être réduite à un système de la manière classique ni, par ailleurs, si l'on doit en rendre compte en montrant comment le concret diverge non systématiquement des attentes systématiques.

Le second corollaire consiste en la pertinence de la méthode empirique. Car la méthode empirique procède par tâtonnements et la seule façon de déterminer si un agrégat donné d'observations peut ou ne peut pas être réduit à un système est de formuler les deux hypothèses, d'en dégager les implications et de mesurer celles-ci en regard des résultats observés.

1.2 Procédés complémentaires

De plus, les investigations classiques et les investigations statistiques représentent des procédés complémentaires. Car elles opèrent une séparation entre les données systématiquement liées et les données non systématiquement liées; l'isolement de l'un des deux types marque une étape vers la détermination de l'autre.

Tout le monde connaît bien une telle séparation dans sa forme physique, pour l'avoir expérimentée. Comme nous l'avons vu, l'objectif de l'expérimentateur est d'isoler une conjonction définissable d'éléments et d'en montrer les opérations lorsqu'elles sont libres de l'influence de facteurs étrangers.

Comme la séparation physique n'est pas toujours possible, il faut donc réaliser mentalement ce qui est impossible matériellement. Ainsi, dès qu'une science a fait quelque progrès, elle a recours à ses lois connues pour chercher à déterminer l'inconnu. Une fois la loi de Boyle connue, le scientifique l'admet dans la détermination de la loi de Charles; une fois ces deux lois connues, le scientifique les admet toutes deux dans la détermination de la loi de Gay-Lussac. De même, dans tous les domaines, a-t-on recours aux lois connues pour orienter l'expérimentation, pour détourner l'attention de ce qui a déjà été expliqué et pour fournir des prémisses pour l'interprétation des résultats observés.

Une telle séparation, physique ou mentale, ne se limite pas aux lois classiques. Toutes les lois appartiennent à un même champ complémentaire. C'est pourquoi il a été possible de faire appel à la loi des erreurs probables et d'éliminer de ce fait un élément non systématique dans les observations et les mesures. De même, les lois statistiques de Mendel sur les caractères génétiques macroscopiques ont permis la postulation d'entités microscopiques appelées gènes. On a attribué à chaque gène, selon le modèle classique, une manifestation et un effet particuliers. Les gènes dont les effets étaient incompatibles ont été qualifiés de dominants et récessifs; ainsi les combinaisons statistiques des gènes conçus selon le modèle classique sont-elles devenues l'explication de phénomènes non systématiques, macroscopiques.

Le lecteur se surprendra peut-être de nous voir considérer dans une même perspective les lois des erreurs probables et les lois de l'hérédité de Mendel. Pourtant ces lois vont bien ensemble de notre point de vue. Dans les deux cas, les données comportent un élément qui est soumis à une loi. Dans les deux cas, la découverte de la loi fonde une séparation mentale entre l'élément soumis à la loi connue et d'autres éléments encore à déterminer. Dans les deux cas, cette séparation mentale ouvre la voie à la détermination d'autres lois. Dans les deux cas, enfin, c'est la découverte d’une loi statistique qui fonde la séparation mentale et peut mener à la découverte des lois classiques tout autant que des lois statistiques.

Cette complémentarité des procédés classiques et statistiques a un corollaire important. Car l'exclusion physique, expérimentale, des facteurs étrangers n'est pas toujours possible. Il existe alors une solution de rechange, qui consiste à découvrir la loi du facteur étranger puis à tenir compte de son influence dans l'interprétation des résultats obtenus. Le corollaire sur lequel nous attirons l'attention est le suivant : on peut employer les lois statistiques de cette façon pour déterminer les lois classiques. Car la connaissance des lois statistiques permet de séparer mentalement l'élément non systématique dans les données, ce qui laisse le champ libre pour une investigation de l'élément systématique ainsi isolé.

Peut-on s'attendre dans ce contexte à ce que les investigations statistiques de la mécanique quantique ouvrent la voie à un retour en force de la pensée classique dans le domaine de la physique subatomique?

Je trouve cette question ambiguë. Le retour à cet ancien mode de pensée peut signifier un retour aux modèles imaginables de la pensée classique, à la croyance de la pensée classique en la possibilité universelle d'une synthèse imaginaire, à son affirmation d'un déterminisme mécaniste, et à sa conception de l'explication définie comme la réduction des qualités secondes aux qualités premières. On peut aussi parler de pensée « classique » en un sens transposé et analogue. On accorderait alors à l'imagination une valeur heuristique notable, puisque les images fournissent les matériaux des insights. On n'accorderait toutefois aucune valeur représentative aux images non vérifiées et non vérifiables. On concevrait que les lois classiques sont abstraites et que l'abstraction est enrichissante; la pleine connaissance des lois classiques n'empêcherait donc pas l'existence de résidus statistiques.

Une fois cette distinction établie, notre réponse à la question posée plus haut ne fait plus de doute. Dans la perspective des canons de l'explication complète, de la parcimonie et des résidus statistiques, le retour à l'ancienne forme de pensée classique n'est plus possible. Dans cette perspective nous devons nous attendre à ce que la mécanique quantique, interprétée de manière statistique, ouvre la voie à un nouveau développement de la pensée « classique » en un sens transposé et analogue. De fait, le principe d'exclusion de Pauli fournit une prémisse pour la détermination des états des électrons dans les atomes; et même si les changements, dans ces états, semblent se produire de façon statistique, la série des états présente pourtant la même régularité et le même caractère systématique que la table périodique des éléments chimiques1. De même, la découverte de nouvelles entités subatomiques, au-delà des entités plus familières que sont les électrons, les protons et les neutrons, peut présenter des tendances classiques.

1.3 Formulations complémentaires

Troisièmement, les formulations classiques et les formulations statistiques sont complémentaires. Car les formulations classiques ont trait aux conjugats, lesquels ne sont vérifiés que dans des événements. Et les formulations statistiques ont trait aux événements, lesquels ne sont définis que par des conjugats.

Un examen de la signification de la disposition classique « toutes choses égales d'ailleurs » met en lumière le lien de dépendance de la formulation classique à l'égard de la formulation statistique. Quelles sont ces « choses »? En quoi sont-elles « égales »? Il est impossible de répondre à ces questions de façon à la fois détaillée et systématique. Car la disposition, qui limite les lois classiques, est effectivement toute configuration pertinente d'une série de conditions divergentes. Cette série varie selon les circonstances, et l'agrégat des configurations de cette série est à la fois énorme et non systématique. Autrement dit, les lois classiques expriment ce qui arriverait si les conditions étaient réunies; les lois statistiques indiquent la probabilité d'une réunion des conditions; et ainsi la locution « toutes choses égales d'ailleurs » n'est qu'une vague allusion aux résidus statistiques, qui constituent le secteur des lois statistiques complémentaires.

En s'interrogeant sur la portée scientifique des investigations statistiques, on se trouve à mettre en lumière une dépendance inverse, celle des formulations statistiques à l'égard des formulations classiques. Une telle portée diffère selon qu'on cherche à déterminer combien il y a de joueurs de trombone qui ont les cheveux roux, ou à mesurer l'intensité du spectre de raies. Dans les deux cas, le résultat obtenu est un nombre qui peut être considéré comme une fréquence réelle. Il ne semble toutefois pas que les deux types d'investigations offrent des chances égales de contribution à l'avancement de la science. Car c'est une démarche qui consiste à partir des connaissances acquises pour donner la solution de problèmes bien formulés qui assure l'avancement de la science. Dès qu'un domaine scientifique a dépassé les étapes de sa genèse, il commence à s'écarter du langage ordinaire pour s'inventer des termes techniques propres. Ces termes techniques, qui tirent leur origine des corrélations jugées significatives, sont eux-mêmes ce que nous avons appelé des conjugat purs, ou dépendent d'une façon ou d'une autre de tels conjugats purs. Er conséquence, comme il s'affaire, à la lumière des connaissances acquises, à résoudre des problèmes bien formulés, le chercheur statistique sera amené à définir les événements en faisant appel, directement ou indirectement, aux conjugats purs qui sont implicites dans les lois classiques.

Faut-il néanmoins considérer un tel point de vue comme définitif? Il est vrai que les classifications et les définitions scientifiques actuelles sont fonction de la découverte et de la formulation des lois classiques. Ne peut-on pas s'attendre toutefois à ce qu'un développement plus complet de la recherche statistique entraîne la définition implicite des termes techniques par les lois statistiques, et non par les lois classiques?

Certains semblent disposés à répondre par l'affirmative à cette question. Mais je ne vois pas comment je peux être d'accord avec eux, et ce pour les raisons suivantes. Pour attribuer une signification déterminée à un « oui » exprimé en réponse à une question relevant de la réflexion, il faut accomplir la démarche contraire, c'est-à-dire passer du « oui » à la question et à ses origines dans la réponse descriptive ou explicative à une question relevant de la compréhension. Or l'événement, l'occurrence, correspond au simple « oui ». Pour exprimer ce qui se produit, ce qui arrive, il faut poser une question à laquelle on ne peut répondre par « oui » ou par « non ». Il faut faire appel soit aux conjugats expérientiels de la description ou aux conjugats purs de l'explication. Dans cette optique, on ne peut s'attendre à ce que les événements engendrent leurs propres définitions, ni à ce que le « oui » ou le « non » déterminent ce qui est affirmé ou nié. Enfin, si les événements ne peuvent engendrer leurs propres définitions, les fréquences des événements ne peuvent le faire davantage, car il ne semble y avoir aucune raison de compter que différents types d'événements doivent présenter des fréquences numériques différentes, voire que les fréquences numériques pourraient servir à préciser les genres d'événements auxquels on souhaite se référer.

Il y a donc une complémentarité des formulations classiques et des formulations statistiques. Pour contribuer de façon significative à l'avancement de la science, en effet, les formulations statistiques doivent faire appel aux conjugats expérientiels et aux conjugats purs des classifications et des définitions classiques. Par contre, les conjugats des formulations classiques ne sont vérifiables que dans les événements qui se produisent de façon statistique; et la disposition « toutes choses égales d'ailleurs » révèle leur immanence aux résidus empiriques.

Il n'est peut-être pas inopportun de conclure cette section en déchiffrant une petite énigme. Il est vrai que les lois statistiques sont elles aussi immanentes aux résidus empiriques, et donc qu'elles tiennent quand est établie la disposition générale « toutes choses égales d'ailleurs ». Si « P suit Q » a une probabilité p/q, il y a tout de même des conditions pour que se produise l'occasion Q; et la probabilité p/q n'est vérifiable que lorsque ces conditions sont remplies. On peut exprimer la fréquence d'un tel accomplissement des conditions en disant que « Q suit R » a une probabilité q/r, de façon qu'une loi statistique dépende d'une autre loi statistique. Une telle interdépendance des lois statistiques est bien réelle, certes, mais là n'est pas notre propos. Elle n'infirme en rien l'affirmation importante que la disposition « toutes choses égales d'ailleurs » révèle la dépendance des formulations classiques à l'égard des formulations statistiques.

1.4 Modes d'abstraction complémentaires

Quatrièmement, il existe une complémentarité dans les modes d'abstraction.

Le procédé heuristique classique se fonde sur la supposition que dans une certaine mesure, les relations entre les données sont systématiques; il vise à déterminer ce que sont précisément ces relations systématiques.

Le procédé heuristique statistique se fonde sur la supposition de l'existence de relations non systématiques; il vise à déterminer une fréquence idéale dont les fréquences réelles peuvent diverger, certes, mais seulement de façon non systématique.

Dans les deux cas le résultat obtenu est abstrait. Car la loi classique représente le systématique et ignore le non-systématique. Par contre, la loi statistique représente non pas la fréquence réelle des événements réels, mais la fréquence idéale dont les fréquences réelles divergent.

Les deux types de loi sont abstraits, certes, mais leurs modes d'abstraction différent. La loi classique ne vise que le systématique et néglige le non systématique. La loi statistique, au contraire, assume le non-systématique comme prémisse. Bien entendu, une telle prémisse ne peut en elle-même conduire à des conclusions telles que les fréquences abstraites, idéales, universelles que nous appelons probabilités. Le chercheur statistique ne se préoccupe donc ni du purement systématique ni du purement non-systématique. Son objet est plutôt le systématique en tant qu'il fixe les limites idéales dont le non-systématique ne peut diverger de façon systématique.

Ces deux modes d'abstraction sont manifestement complémentaires. Dans son mouvement premier, la recherche vise à déterminer l'élément systématique présent dans les données; dans son mouvement second la recherche aborde la tâche plus concrète qui consiste à déterminer la façon dont l'élément systématique présent dans les données tempère le non-systématique. Ce sont les deux mouvements combinés qui produisent le point de vue complet. Ces deux mouvements sont donc complémentaires.

Cette complémentarité présente un autre aspect. Les relations systématiques, sur lesquelles porte la recherche classique, sont principalement les relations réciproques des choses et non leurs rapports avec nos sens. Dans la mesure où les relations réciproques des choses sont considérées dans l’abstrait, et donc indépendamment de leurs rapports avec nos sens, un principe d'équivalence est posé pour tous les sens, puisqu'il est fait également abstraction de tous les sens. Par contre, avec le passage de la recherche classique à la recherche statistique, l'interprétation susmentionnée du principe d'équivalence n'est plus possible. Bien sûr, comme on ne saurait nier à la théorie de la probabilité l'avantage des fonctions continues, il n'y a pas lieu de la priver, a priori, de l'avantage de l'invariance totale. Toutefois, comme nous l'avons déjà vu2, la théorie statistique porte sur des événements sélectionnés au sein des processus par la possibilité de mesures précises, et la continuité de ses fonctions semble se rapporter non pas à la continuité du processus concret mais, pour ainsi dire, à la disponibilité permanente des normes idéales dont les événements divergent de façon non systématique. L'invariance de ces normes, comme les normes elles-mêmes, se situe hors du champ des relations explicatives.

1.5 Complémentarité concernant la vérification

Cinquièmement, les lois classiques et les lois statistiques sont complémentaires dans leur vérification. Pour simplifier, on peut dire que les lois classiques déterminent ce qui se produirait si les conditions étaient remplies, et que les lois statistiques déterminent combien souvent l'on peut compter que les conditions seront remplies. Il est cependant possible de fournir une explication plus complète de cette complémentarité en montrant comment la détermination opérée par l'un des deux types de lois laisse place à la détermination opérée par l'autre.

Ainsi, si nous supposions une connaissance exacte et complète de toutes les lois classiques, nous n'éliminerions pas la possibilité de la vérification des lois statistiques. En effet, pour qu'un ensemble de lois classiques, disons P, soit exact et complet, il faut qu'il n'y ait aucune possibilité de le remplacer par un autre ensemble, disons Q. Or il n'y aurait aucune possibilité de remplacer P par Q s'il n'y avait aucune divergence systématique entre les données et l'ensemble de lois P, car les ensembles P et Q diffèrent comme des lois diffèrent, c'est-à-dire systématiquement; et ainsi la vérification de l'ensemble Q au lieu de l'ensemble P suppose une divergence systématique entre l'ensemble P et les données. Enfin, même s'il n'existe pas de divergence systématique entre l'ensemble P et les données, il peut néanmoins exister une divergence non systématique qui serve de champ pour l'investigation et la vérification des lois statistiques.

Comme nous l'avons déjà mentionné3, non seulement la connaissance exacte et complète des lois classiques peut mais elle doit laisser une place à l'investigation statistique possible. Une telle connaissance exacte et complète engloberait en effet toutes les relations systématiques entre des données déterminées. Une telle connaissance serait néanmoins abstraite et exigerait donc des déterminations nouvelles pour être applicables aux cas concrets; les déterminations nouvelles ne peuvent donc pas être liées les unes aux autres systématiquement. Donc, il doit y avoir un champ pour les lois statistiques.

Enfin, les investigations statistiques, de leur côté, ne présentent aucune tendance véritable à des aspirations totalitaires. Outre les prédictions statistiques, il y a en effet les prédictions tout à fait précises dont témoigne l'astronomie, qui reposent sur l'existence de schèmes de récurrence. De plus, la façon intelligente de faire ces prédictions est d'analyser les schèmes en dégageant les lois classiques qui leurs sont propres. Copernic a corrigé le schème imaginatif de Ptolémée. Kepler a corrigé les cercles de Copernic. C'est toutefois Newton qui a élaboré les lois sous-jacentes et Laplace qui a révélé la périodicité du système planétaire. Le grand mouvement de pensée que nous appelons la science moderne a reçu sa confirmation la plus puissante de la découverte de telles lois. C'est qu'une telle découverte a mis fin, au moins pour deux siècles, à la tendance plus courante des humains à parler du cours commun des événements ou du cours ordinaire de la Nature, plutôt que de lois précises. La portée profonde des lois statistiques commence à apparaître actuellement. Mais pour que ce nouveau mouvement ne dégénère pas en propos surannés au sujet de ce qui se produit généralement, il doit rester en prise directe avec la précision, établie empiriquement, des formulations classiques. Car les lois statistiques ne possèdent pas plus de portée scientifique que les définitions des événements dont elles déterminent les fréquences; si ces définitions ne sont pas déterminées scientifiquement, la pensée scientifique verse dans l'insignifiance préscientifique.

1.6 Complémentarité concernant les données expliquées

Sixièmement, les lois classiques et les lois statistiques présentent des domaines de données complémentaires. Il ne s'agit pas là en fait d'un partage des données, certaines étant expliquées par les lois classiques et les autres par les lois statistiques; la complémentarité signifie plutôt que certains aspects de toutes les données sont expliqués selon l'optique classique, alors que d'autres aspects des mêmes données reçoivent une explication de type statistique.

Comme nous l'avons déjà mentionné4, selon la supposition heuristique classique, on comprend les éléments semblables de façon semblable. Les classifications préliminaires sont donc fondées sur les ressemblances perçues par rapport aux sens. Le scientifique s'intéresse toutefois aux relations réciproques des choses et non à leurs rapports avec nos sens. Les classifications préliminaires cèdent donc la place à l'émergence et au développement de termes techniques dérivés non de la ressemblance sensible, mais des similitudes de proportions qui sont constantes ou qui varient de façon régulière; à la limite, nous parvenons à ce que nous avons appelé les conjugats purs, c'est-à-dire des termes définis implicitement par les corrélations établies empiriquement, dans lesquelles ils se produisent.

Une explication des données dans leur rapport de similitude n'est toutefois pas une explication des données dans tous leurs aspects. Chaque donnée n'est qu'un cas de ce qui est présent. Chaque donnée émerge d’une multiplicité continue. Chaque donnée se situe dans un lieu particulier et un temps particulier. Elle se produit soit rarement soit fréquemment. Or les explications du type classique négligent ces aspects que présentent toutes les données. La loi du levier ne nous apprend rien au sujet de la fréquence de l'existence des leviers, des lieux où ils se trouvent, des moments où ils sont utilisés. Les explications du type classique doivent donc être complétées par les explications d'un type différent.

Il n'est pas difficile non plus de voir, du moins de façon générale, que les lois statistiques peuvent fournir l'explication complémentaire. Car la forme générale de la loi statistique veut que sur p occurrences de l'occasion P il tende à y avoir q occurrences de l'événement Q. Or l'occasion P est en elle-même un événement ou une combinaison d'événements. Dans l'un ou l'autre cas elle a sa probabilité. De même, les occasions dans lesquelles P est probable auront également leur probabilité, et il se produit une régression indéfinie des probabilités des événements de type Q. De façon plus générale, il y a, pour les événements d'un type X quelconque, des régressions indéfinies correspondantes de probabilités.

La possibilité de combinaison de telles régressions en un point de vue unique ne s'impose pas immédiatement. Il suffit toutefois, ici, de signaler que la possibilité d'une telle combinaison nous permettrait de nous acheminer vers une explication statistique des données quant à leurs nombres et à leur distribution spatio-temporelle. Soulignons, pour nous en tenir aux considérations les plus simples, que les très grands nombres d'occasions compensent les probabilités faibles; ainsi, un événement dont la probabilité n'est que de un sur un million d'occasions risque de se produire un million de fois sur un million de millions d'occasions. De même, les longs intervalles de temps compensent la rareté des occasions; ainsi, une occasion qui se présente une fois seulement dans un million d'années se produira tout de même mille fois en mille millions d'années. Ce fait met en lumière la portée explicative des lois statistiques. Pourquoi, dans le monde de notre expérience, y a-t-il des nombres si grands et des intervalles de temps si énormes? Comme les probabilités sont faibles, les nombres doivent être importants; comme les occasions sont rares, les intervalles de temps doivent être longs.

Voilà une conclusion très modeste en soi. Pourtant, même si ce que nous avons réalisé est tout à fait négligeable, les potentialités ainsi mises en lumière sont extrêmement importantes. Les lois statistiques possèdent une capacité de produire une explication. La supposition heuristique sur laquelle elles se fondent est simplement que le non-systématique ne peut diverger systématiquement du systématique. Toutefois, une telle incapacité de divergence systématique, dans un contexte de très grands nombres et de longs intervalles de temps, équivaut à une tendance positive, à un ordre intelligible, à un dynamisme effectif, lesquels ne sont pas moins explicatifs que des conclusions rigoureuses fondées sur les lois classiques. Autrement dit, la probabilité et le hasard sont choses bien différentes. La probabilité est une norme idéale qui, toute idéale qu'elle soit, finit par se concrétiser entièrement à long terme. Le hasard n'est que la divergence non systématique entre les fréquences réelles et les fréquences idéales appelées probabilités. Le hasard n'explique rien. Il appartient irrémédiablement au résidu simplement empirique, aux aspects des données dont l'intelligence fait toujours abstraction. La probabilité par contre est une intelligibilité; elle est pour ainsi dire réchappée du résidu simplement empirique par le mécanisme détourné grâce auquel l'intelligence en activité de recherche établit les anticipations heuristiques du type d'investigation statistique.

1.7 Résumé

Nous avons examiné la complémentarité des investigations classiques et des investigations statistiques en tant que formes du connaître. Nous avons constaté l'existence de cette complémentarité à chaque étape ou dans chaque élément du processus de la recherche. Nous avons noté l'anticipation heuristique classique du systématique, puis l'anticipation heuristique statistique complémentaire du non-systématique. Nous avons vu ensuite que la détermination d'une loi classique ou d'une loi statistique préparait la voie à la détermination d'autres lois de l'un ou l'autre type, car les lois classiques, tout comme les lois statistiques, appartiennent à un champ complémentaire unique, et la connaissance d'un type de lois entraîne une séparation mentale entre des types de données déjà expliquées et des types de données qui ne sont pas encore expliquées. Troisièmement, il y a une complémentarité des formulations; on ne peut vérifier les conjugats expérientiels et les conjugats purs des lois classiques que dans les événements. Les événements ne se produisent que si toutes choses sont « égales d'ailleurs ». Et le fait de ne pas préciser ce que sont ces choses équivaut à une reconnaissance inconsciente de l'agrégat non systématique des configurations de séries divergentes de conditions. Par contre, de même que les conjugats ne sont vérifiés que dans les événements, ainsi les événements ne sont définis que par les conjugats. Les lois statistiques des événements ne peuvent avoir une portée scientifique que dans la mesure où elles ont recours à des définitions produites par les procédés classiques. Quatrièmement, il y a une complémentarité dans les modes d'abstraction. Ainsi, les lois classiques portent sur le systématique, abstraction faite du non-systématique; elles portent sur les relations réciproques des choses, abstraction faite de leurs rapports avec nos sens. Les lois statistiques, elles, considèrent le systématique en tant qu'il fixe les limites du non-systématique, et se confinent aux événements observables qui incluent un rapport avec nos sens. Cinquièmement, les deux types de lois sont complémentaires dans leur vérification. Une connaissance exacte et complète des lois classiques ne peut envahir le domaine des lois statistiques; les investigations statistiques obligent le chercheur à se pencher sur des récurrences régulières qui se prêtent aux explications du type classique. Il y a enfin une complémentarité dans les aspects des données, lesquels sont expliqués par les différents types de lois. L'explication du type classique touche aux données dans leur similitude; tandis que les nombres les distributions des données ne deviennent intelligibles que grâce à quelque synthèse de considérations statistiques.

2 Complémentarité concernant le connu

La première partie du présent chapitre exposait la complémentarité des investigations classiques et statistiques du point de vue du connaître. Nous consacrerons la deuxième partie à la détermination de la complémentarité correspondante du point de vue de ce qui doit être connu. Car s'il n'y a pas identité du connaître et du connu, il existe tout de même une certaine correspondance entre ces deux pôles. Sans le connaître, rien ne peut être connu; les propriétés structurelles des deux pôles vont forcément être similaires. La vision aristotélicienne du monde découlait de la distinction que le philosophe établissait entre les lois nécessaires des corps célestes et les lois contingentes des choses terrestres. Le déterminisme mécaniste a trouvé son fondement scientifique dans le concept galiléen de l'explication comme réduction des qualités secondes aux qualités premières. De la même façon, aucune méthodologie entièrement consciente ne peut éviter une implication parallèle. Si nous voulons éviter de jouer à l'autruche, nous devons donc affronter la question suivante : dans quelle vision du monde nous engageons-nous en affirmant à la fois les lois classiques et les lois statistiques?

2.1 Caractéristiques générales de cette vision

Nous pouvons dès maintenant souligner certaines caractéristiques générales de notre position.

Tout d'abord, notre position aura trait à l'intelligibilité immanente à l'univers de notre expérience. Il s'agira en effet d'une conclusion tirée de la structure de la méthode empirique; le canon de la pertinence limite la méthode empirique à la détermination d'une telle intelligibilité immanente. Dans le présent chapitre, nous n'aurons donc rien à dire sur la fin ou le but de l'univers, sur les matériaux ayant pu servir à le façonner, ni sur les facteurs principaux ou secondaires ayant présidé à son existence. Nous nous bornerons à déterminer la conception ou l'ordre immanents, caractéristiques d'un univers où prévalent à la fois les lois classiques et les lois statistiques.

Deuxièmement, notre exposé de cette conception ou de cet ordre sera générique. Un exposé spécifique devrait faire appel au contenu des sciences empiriques; il devrait être étayé non pas par les lois classiques ou statistiques en général, mais par les lois précises qu'il est possible d'établir empiriquement. Or notre exposé ne se fondera pas sur les résultats des investigations scientifiques, mais uniquement et simplement sur la structure dynamique de l'intelligence en activité de recherche. Si au cours de notre exposé, nous évoquons telle ou telle conclusion scientifique, elle aura une fonction d'illustration et non de détermination. Tout comme le déterminisme mécaniste a constitué une vision du monde indépendante du contenu précis des lois classiques, notre objectif est une structure semblablement générique qui soit compatible non seulement avec les lois classiques et statistiques actuelles mais également avec les révisions futures de ces lois.

Troisièmement, notre explication de la conception ou de l'ordre de notre univers sera relativement invariante. Le contenu des sciences naturelles est une variable. Il y a eu la science de la Renaissance. Il y a eu la science de l'époque des Lumières. Il y a la science d'aujourd'hui. Il y aura les étapes successives du développement scientifique de demain. Mais il y a un élément sous-jacent, invariant, qui joint ces diverses manifestations de la pensée scientifique, et qui ne produit les manifestations successives que pour entraîner leur révision et leur transformation conséquente. Cet élément, on peut l'appeler de façon approximative, méthode scientifique et, de façon plus exacte, je crois, structure dynamique de l'intelligence en activité de recherche. Car comme nous l'avons vu, c'est le désir de comprendre qui mène à la fois à la structure heuristique du procédé classique et à la structure complémentaire de l'investigation statistique. Et c'est la nature de l'insight qui explique les six canons, c'est-à-dire : la sélection, les opérations, la pertinence, la parcimonie, l'explication complète et les résidus statistiques, en accord avec lesquels les structures heuristiques engendrent les séries de théories et de systèmes scientifiques. Notre prémisse doit être non pas le contenu variable des sciences, mais les formes invariantes qui régissent l'investigation scientifique. La conception de l'univers que nous établirons dans nos conclusions présentera donc le même caractère d'invariance que la prémisse à laquelle nous ferons appel.

J'ai signalé cependant que l'invariance de notre position serait relative; la raison en est on ne peut plus claire. Nous allons faire appel non pas à la structure de l'esprit humain en elle-même, mais seulement à notre explication de cette structure. Comme les sciences de la nature peuvent faire l’objet de révisions, nous pouvons aussi nous attendre à ce que notre exposé sur l'intelligence en activité de recherche soit aussi l’objet de réarrangements, de modifications, d'améliorations. De tels changements auront sur les conclusions de notre raisonnement et sur ses prémisses la même influence. La vision du monde à présenter sera donc invariante, parce qu'indépendante des changements de contenu des sciences de la nature; cette invariance sera toutefois relative, puisque cette vision du monde ne peut être indépendante des révisions de notre analyse de la méthode empirique.

Quatrièmement, notre exposé d'une vision du monde se situant dans les limites de la science empirique ne sera pas complet dans le présent chapitre. Lorsque nous avons traité du canon de la parcimonie, nous avons remis à plus tard l'examen de la validité de la notion de l'être. Il faudra aborder cette question dans un chapitre ultérieur, ce qui constituera un complément du présent exposé.

Cinquièmement, notre exposé ne se voudra pas déductif. Il serait peut-être possible, à partir de la structure complémentaire du connaître, de conclure, de façon strictement déductive, à la complémentarité correspondante du connu. Si un tel procédé est possible, il exige tout de même une élaboration qui serait excessive aux fins de notre propos. C'est donc à l’insight que nous ferons appel. Nous commencerons par aborder le problème que constitue la présentation d'une fusion possible des lois classiques et des lois statistiques en une seule intelligibilité unifiée, proportionnée à l'univers de notre expérience. Pour ce faire nous établirons notre indice, c'est-à-dire le schème de récurrence. Le monde de notre expérience présente une profusion de continuités, d'oscillations, de rythmes, de routines, d'alternances, de circulations, de régularités. Le schème de récurrence non seulement cadre avec ce fait global, mais est aussi lié intimement à la fois aux lois classiques et aux lois statistiques. Car la notion de schème émerge dans la formulation même des canons de la méthode empirique. Dans l'abstrait, le schème est en soi une combinaison de lois classiques. Concrètement, le schème commence, continue et finit de fonctionner en accord avec les probabilités statistiques. Voilà notre indice, notre insight naissant. Pour le développer nous allons considérer 1) la notion de série conditionnée de schèmes de récurrence, 2) la probabilité d'un schème en particulier, 3) la probabilité émergente d'une série de schèmes et 4) les caractéristiques conséquentes d’un ordre universel.

2.2 Schèmes de récurrence

La notion du schème de récurrence est apparue lorsqu'il a été noté que les séries divergentes des conditions positives d'un événement pouvaient s'enrouler pour former un cercle. Les événements d'une série A, B, C, ... seraient ainsi liés entre eux de telle façon que l'accomplissement des conditions d'un événement consisterait en l'occurrence des autres. Il est donc possible de représenter schématiquement un tel schème par une série de conditionnels : si A se produit, B va se produire; si B se produit, C va se produire; si C se produit, ... A va se reproduire. Une telle disposition circulaire peut comporter un nombre quelconque de termes, offrir une possibilité de voies de rechange et de façon générale présenter un degré quelconque de complexité.

On peut remarquer deux cas de complexité supérieure. D'une part, un schème peut consister en un ensemble de dispositions circulaires presque complètes, dont aucune ne peut fonctionner seule, mais qui toutes peuvent fonctionner si elles sont jointes en une combinaison d'interdépendance. D'autre part, les schèmes peuvent être complétés par des cercles défensifs, de telle sorte que, si un événement F tendait à perturber le schème, il y aurait une séquence de conditions du genre : si F se produit, G va se produire; si G se produit, H va se produire; si H se produit, F sera éliminé.

Comme exemple d'un schème de récurrence, les lecteurs peuvent songer au système planétaire, à la circulation de l'eau à la surface de la terre, au cycle de l’azote, bien connu des biologistes, aux routines de la vie animale, aux rythmes économiques répétitifs de production et d'échange. Comme exemple d'un schème doté d'un cercle défensif, on peut penser aux équilibres généralisés. Comme une réaction en chaîne est une série cumulative de changements qui entraînent une différence explosive, ainsi un équilibre généralisé est une combinaison de cercles défensifs telle que tout changement, à l'intérieur d'une gamme limitée, est compensé par des changements opposés qui tendent à rétablir la situation initiale. La santé d'une plante ou d'un animal est un équilibre généralisé; l'équilibre de diverses formes de vie végétale ou animale dans un environnement donné est un équilibre généralisé; le processus économique a été conçu par les économistes d'antan comme un équilibre généralisé.

Toutefois nous nous occupons, non pas des schèmes individuels, mais d'une série conditionnée de schèmes. Disons que les schèmes P, Q, R ... forment une série conditionnée si tous les membres antérieurs de la série doivent fonctionner effectivement pour que tout membre postérieur devienne une possibilité concrète. Alors, le schème P peut fonctionner même si ni Q ni R n'existe; le schème Q peut fonctionner même si R n'existe pas encore; par contre, Q ne peut fonctionner que si P fonctionne déjà; R ne peut fonctionner que si Q fonctionne déjà.

En guise d'illustration, on peut songer aux schèmes alimentaires des animaux. Il n'est pas possible que tous les animaux carnivores se nourrissent d'autres animaux carnivores. Un schème alimentaire de carnivores suppose l'existence d'un autre schème, soit un schème d'herbivores, alors qu'il pourrait y avoir des animaux herbivores même s'il n'y avait pas d'animaux carnivores. De la même façon, les plantes en général ne peuvent se nourrir de produits animaux. Le schème de leur alimentation comprend es processus chimiques; il peut fonctionner indépendamment de toute vie animale. Enfin, si les cycles chimiques ne sont pas indépendants des lois physiques, les lois de la physique peuvent néanmoins être combinées dans des schèmes de récurrence qui sont indépendants des processus classiques.

Voilà un aperçu très rapide de la notion de série conditionnée de schèmes de récurrence. Nous allons maintenant chercher à préciser un peu mieux cette notion en établissant une distinction entre trois éléments : 1) la sériation possible, 2) la sériation probable et (3) la sériation effective.

La sériation effective est unique. Elle comprend les schèmes qui ont fonctionné, qui fonctionnent ou qui vont fonctionner au sein de notre univers, ainsi que des précisions sur les lieux, la durée de leur existence, ainsi que leurs relations réciproques.

La sériation probable est différente de la sériation effective. Car l’effectif diverge des prévisions de probabilité de façon non systématique. L'effectif c'est le factuel, alors que le probable c'est l'idéal. Par conséquent, même si la sériation effective possède l'unicité d'une question de fait, la sériation probable doit présenter les ramifications cumulatives des autres schèmes probables. La sériation probable ne forme donc pas une série unique mais une variété de séries. À chaque étape d'un processus universel, il existe un ensemble d'étapes probables suivantes, les unes plus probables que les autres. La sériation effective ne comprend que les étapes qui se produisent. La sériation probable comprend tout ce qui se produirait sans divergence systématique à l'égard des probabilités.

La sériation possible est encore plus éloignée de la sériation effective. Elle inclut tous les schèmes de récurrence qui pourraient être conçus à partir des lois classiques de notre univers. Elle les ordonne en une série conditionnée qui se ramifie non seulement en fonction des autres schèmes probables, mais aussi en fonction de la simple possibilité ou d'une probabilité négligeable. Quels que soient ses nombres, ses diversités et la distribution de ses éléments au point de départ, elle est pertinente tout autant pour notre univers que pour tout autre univers où s'appliqueraient les mêmes lois classiques.

Parmi les trois types de sériation, c'est la sériation possible qui présente le plus haut niveau de complexité et de variété. Elle ne tient qu'à une considération des lois classiques. Elle souffre de l'indétermination de l'abstrait, et manifeste donc le processus de tout univers où s'appliqueraient des lois semblables aux nôtres. La sériation probable est fonction à la fois de lois statistiques et de lois classiques; et de fait elle est fonction des lois statistiques qui tirent leur existence de la situation initiale ou fondamentale de notre monde. Moins abstraite que la sériation possible, elle est tout de même idéale. Elle attribue à chaque moment de l'histoire du monde un avenir très probable. Elle attribue toutefois à chaque moment une série d’avenirs moins probables, et doit reconnaître que n'importe lequel de ces avenirs possibles peut s'avérer être la réalité. Enfin, la sériation effective est unique, mais elle achète cette unicité en dépassant le domaine de toutes les lois, classiques et statistiques, pour pénétrer dans le domaine de l'observation où seules sont déterminées les divergences non systématiques à l'égard de la probabilité.

2.3 La probabilité des schèmes

Notre aperçu de la notion d'une série conditionnée de schèmes de récurrence suppose qu'il est possible d'attribuer une probabilité à l'émergence et à la survie d'un schème de récurrence. Notre explication de la probabilité faisait appel toutefois à la fréquence des événements et non des schèmes. Les schèmes ont-ils une probabilité? Si oui, y a-t-il une probabilité distincte pour leur émergence et une autre pour leur survie? Il nous faut affronter de telles questions.

Prenons un ensemble d'événements de types A, B, C, ... et une situation universelle où ces types d'événements ont respectivement les probabilités p, q, r, ... En vertu d'une règle générale de la théorie des probabilités, la probabilité de l'occurrence de tous les événements de l'ensemble sera alors le produit pqr ... de leurs probabilités respectives.

Supposons encore que l'ensemble des événements A, B, C, ... satisfait à un schème conditionné de récurrence, disons K, dans une situation universelle où le schème K ne fonctionne pas, mais pourrait commencer à fonctionner si des conditions antérieures étaient remplies. Alors, si A se produisait, B se produirait. Si B se produisait, C se produirait. Si C se produisait ... A se produirait. Bref, si l'un des événements de l'ensemble se produisait, toutes choses égales d'ailleurs, les autres événements de l'ensemble suivraient.

Dans ce cas-ci, nous pouvons certes supposer que les probabilités des événements particuliers sont respectivement les mêmes qu'auparavant, mais nous ne pouvons pas supposer que la probabilité de la combinaison de tous les événements dans l'ensemble est la même qu'auparavant. Il appert manifestement que la possibilité concrète de l'amorce du fonctionnement d'un schème fait passer la probabilité de la combinaison du produit pqr ... à la somme p + q + y + ... Car, en vertu des conditions du schème, il est maintenant vrai que A et B et C et ... vont se produire si A ou B ou C ou ... se produit; et, en vertu d'une règle générale de la théorie des probabilités, la probabilité d'un ensemble de situations possibles est égale à la somme des probabilités des situations possibles.

La somme d'un ensemble de fractions propres p, q, r, ... est toujours supérieure au produit des mêmes fractions. Or une probabilité est une fraction propre. En conséquence, lorsque les conditions préalables du fonctionnement d'un schème de récurrence sont remplies, la probabilité de la combinaison des événements qui constituent le schème passe d'un produit de fractions à une somme de fractions.

Il existe donc une probabilité d'émergence d'un schème de récurrence. Cette probabilité consiste en la somme des probabilités respectives les événements compris dans le schème; elle se concrétise dès que sont réunies les conditions préalables du fonctionnement du schème.

Il y a également une probabilité de survie des schèmes qui ont commencé de fonctionner. Un schème tend en effet à assurer sa propre perpétuité. Les conditions positives de l'occurrence des événements qui le composent consistent en l'occurrence de ces événements. On peut même élaborer des cercles défensifs pour parer à des conditions négatives, à l’intérieur de certaines limites. La perpétuité du schème n'est tout de même pas nécessaire. Comme les lois classiques, les schèmes constitués par combinaison de lois classiques sont soumis à la disposition : « toutes choses égales d'ailleurs ». Le maintien de l'égalité des choses est une question que seules les lois statistiques peuvent permettre de cerner. La probabilité de survie d'un schème de récurrence est donc la probabilité de la non-occurrence de l'un quelconque des événements qui perturberaient le schème.

2.4 Probabilité émergente

Nous avons formulé la notion d'une série conditionnée de schèmes de récurrence, ainsi que le sens général dans lequel on peut parler de la probabilité de l'émergence et de la survie de schèmes particuliers. Ces considérations mettent en lumière la notion de probabilité émergente. Car le fonctionnement effectif de schèmes antérieurs dans la série réalise les conditions de la possibilité du fonctionnement des schèmes postérieurs. Lorsque ces conditions sont réunies, la probabilité de la combinaison des événements constitutifs dans un schème passe d'un produit d'un ensemble de fractions propres à la somme de ces fractions propres. Or ce qui est probable se produit tôt ou tard. Et lorsque ce qui est probable se produit, à une probabilité d'émergence succède une probabilité de survie; et tant qu'il survit, le schème accomplit aussi les conditions de la possibilité d'autres schèmes postérieurs de la série.

Voilà donc pour la notion générale de probabilité émergente. Elle est le produit de la combinaison de la série conditionnée de schèmes et de leurs probabilités respectives d'émergence et de survie. Extrêmement aride en elle-même, cette notion présente toutefois des potentialités d'explication remarquables. Nous allons exposer brièvement ces potentialités, et à cette fin nous devons traiter quelque peu de la portée de la probabilité émergente de la distribution spatiale, des nombres absolus, des longs intervalles de temps, de la sélection, de la stabilité et du développement.

La notion d'une série conditionnée de schèmes implique des concentrations spatiales. Chaque ensemble ultérieur de schèmes devient possible en effet là où fonctionnent déjà les schèmes antérieurs. Les schèmes les plus élémentaires, qui sont les premiers de la série, peuvent donc se produire n'importe où dans la distribution initiale des matériaux. Par contre, le deuxième lot ne peut se produire que là où le premier s'est effectivement produit, le troisième ne peut survenir que là où le deuxième s'est réalisé, ainsi de suite. De plus, comme la réalisation des schèmes cadre avec les probabilités, qui peuvent être faibles, on ne peut compter que toutes les possibilités soient actualisées. Les schèmes élémentaires ne seront donc pas aussi fréquents qu'ils pourraient l'être, ce qui rétrécit la base possible des schèmes du deuxième lot; ceux-ci ne seront pas aussi fréquents qu'ils pourraient l'être, ce qui rétrécit la base possible des schèmes du troisième lot, ainsi de suite. En conséquence, aussi vaste soit l'échelle de la réalisation des schèmes élémentaires, le champ spatial où peuvent se réaliser les schèmes ultérieurs subit des rétrécissements successifs. Autre conséquence : les contours, pour ainsi dire, du plus grand et du plus petit rétrécissements se situent là où les probabilités d'émergence de l'ensemble de schèmes suivant sont respectivement la plus faible et la plus forte. Dernière conséquence : comme les derniers schèmes de la série présentent le plus grand nombre de conditions d’existence, leur occurrence sera limitée à un nombre de lieux relativement peu élevé.

Deuxièmement, il nous faut considérer l'importance des nombres absolus. Car les grands nombres compensent les faibles probabilités. Il est à prévoir que ce qui se produit une fois sur un million d'occasions va se produire un million de fois sur un million de millions d'occasions. Or la probabilité minimale appartient aux derniers schèmes de la série, car leur émergence suppose l'émergence de tous les schèmes antérieurs. En conséquence, plus les derniers schèmes de la série conditionnée présentent un niveau de probabilité faible, plus grands doivent être les nombres absolus initiaux représentant les cas de réalisation possible des schémas élémentaires. Bref, la dimension d’un univers est inversement proportionnée à la probabilité de ses schèmes de récurrence ultimes.

Troisièmement, il faut relever l'importance des longs intervalles de temps. Quelles que soient la dimension de l'univers et la portée du fonctionnement de ses schèmes élémentaires, il y a une concentration croissante des volumes spatiaux dans lesquels les schèmes ultérieurs peuvent réaliser. Ces rétrécissements successifs de la base de développements ultérieurs entraînent tôt ou tard la perte de l'avantage initial des grands nombres. À ce moment-là par contre les longs intervalles de temps deviennent importants. Un million de millions de possibilités simultanées donnent lieu à un million de réalisations dont la probabilité est de l'ordre de un sur un million; de même, un million de millions de possibilités successives donnent lieu à un million de réalisations probables dans les mêmes conditions d'anticipation.

Quatrièmement, il convient de noter l'importance sélective rattachée à la distinction entre les probabilités d'émergence et les probabilités de survie. Si les probabilités des deux types sont faibles, l'occurrence du schème sera à la fois rare et éphémère. Si les probabilités des deux types sont élevées, les occurrences seront à la fois courantes et durables. Si la probabilité d'émergence est faible, alors que la probabilité de survie est élevée, on doit s'attendre à ce que le schème soit rare mais durable. Enfin, dans le cas contraire, le schème devrait être courant mais éphémère.

Cinquièmement, ce caractère de sélectivité a de l'importance pour la stabilité. Le fonctionnement des schèmes antérieurs conditionne celui des schèmes ultérieurs, de telle façon que l'effondrement des premiers entraîne l'effondrement des autres. Ce sont donc les schèmes courants et durables qui présentent le maximum de stabilité, et les schèmes rares et éphémères qui présentent le minimum de stabilité.

Sixièmement, il faut prêter attention à la possibilité du développement tout autant qu'à la stabilité. Ces deux aspects peuvent malheureusement entrer en conflit. Les schèmes qui présentent de fortes probabilités de survie ont tendance à emprisonner les matériaux dans leurs propres routines. Ils assurent une base très stable pour les schèmes ultérieurs; mais ils ont également tendance à empêcher l'émergence de ces schèmes ultérieurs. Ce problème serait résolu si les schèmes antérieurs qui conditionnent les autres présentaient une forte probabilité d'émergence mais une faible probabilité de survie. Ils constitueraient une population flottante, dont pourraient dépendre successivement les schèmes ultérieurs. Comme leur probabilité de survie serait faible, ils abandonneraient facilement des matériaux pour fournir à des schèmes ultérieurs l'occasion d'émerger. Comme leur probabilité d'émergence serait élevée, ils seraient facilement disponibles pour remplir les conditions du fonctionnement de schèmes ultérieurs.

Les considérations qui précèdent sont, bien sûr, extrêmement rudimentaires. Elles se limitent à la probabilité émergente de toute série conditionnée de schèmes de récurrence. Elles ne cherchent aucunement à élaborer cette notion pour qu'elle s'applique aux conditions de l'émergence et de la survie des modes de vie. Toutefois, même si dans l'absolu il serait souhaitable de présenter la notion de façon plus exhaustive, un exposé purement générique de l'ordre universel ne se prête pas à un tel approfondissement. Car ce n'est pas le contenu des sciences naturelles, mais la possibilité et la validité de leurs suppositions et de leur méthode qui constituent une prémisse d'une explication générique.

Ce que nous cherchons à établir en fait dans le cadre de notre prémisse restreinte, c'est que la notion de probabilité émergente est explicative. La recherche intelligente vise l'insight. Par contre, les lois classiques seules n'offrent aucun insight sur les nombres, les distributions, les concentrations, les intervalles de temps, la sélectivité, la stabilité incertaine ou le développement. Ces lois font, au contraire, abstraction du cas, du lieu, du moment et des conditions concrètes du fonctionnement effectif. Les lois statistiques, par ailleurs, prises comme simple agrégat, affirment dans divers cas la fréquence idéale de l'occurrence des événements. Elles ne prétendent aucunement expliquer pourquoi il y a tant de sortes d'événements ou pourquoi chaque sorte d'événements possède la fréquence qui lui est attribuée. Pour obtenir une explication à ce niveau, il faut réaliser la synthèse concrète des lois classiques de façon à former une série conditionnée de schèmes de récurrence, établir que ces schèmes, comme combinaisons d'événements, acquièrent d'abord une probabilité d'émergence puis une probabilité de survie dans la réalisation de la série conditionnée et, enfin, saisir que si une telle série de schèmes se réalise en accord avec les probabilités, nous disposons d'un principe général qui offre des promesses de réponse aux questions concernant la raison des nombres et des distributions, des concentrations et des intervalles de temps, de la sélectivité et de la stabilité incertaine, du développement et des effondrements. L'élaboration des réponses relève des sciences naturelles. Si l'on saisit que la probabilité émergente est une idée explicative, on comprendra le sens de la caractérisation de notre objectif comme explication générique, relativement invariante et incomplète, de l'intelligibilité immanente, de l'ordre, de la conception de l'univers, objet de notre expérience.

2.5 Conséquences de la probabilité émergente

Il nous reste à dégager les propriétés génériques d'un processus universel dont la conception ou l'ordre est constitué par la probabilité émergente. Nous allons procéder en deux grandes étapes principales. Nous allons d'abord exposer brièvement les caractères essentiels de la notion de probabilité émergente, pour ensuite passer en revue les conséquences de cette notion qui doivent se vérifier dans un processus universel.

Il est possible de faire ressortir les caractères essentiels de la notion de probabilité émergente dans la série d’affirmations suivantes :

1) Un événement est ce qui doit être connu quand nous répondons « oui » à des questions du genre : « Cela est-il arrivé? », « Cela se produit-il? », « Cela va-t-il se produire? »

2) Le processus universel est une variété spatio-temporelle d'événements. En d'autres termes, il y a beaucoup d'événements, et chacun a un lieu et un temps propres.

3) Les événements appartiennent à des genres. Chaque événement ne constitue pas une nouvelle espèce, sinon il ne pourrait y avoir ni lois classiques ni lois statistiques.

4) Les événements sont récurrents. Beaucoup d'événements appartiennent à un même genre, et ils ne se produisent pas tous en même temps.

5) Il y a des événements dont la récurrence est régulière. Une telle régularité peut se comprendre puisque des combinaisons de lois classiques donnent lieu à des schèmes de récurrence. Les schèmes sont des relations circulaires entre des événements à l'intérieur de genres donnés. Ces relations sont telles que si les événements se produisent une fois en vertu des relations circulaires, alors, toutes choses égales d'ailleurs, ils se produisent continuellement, indéfiniment.

6) Les schèmes peuvent être disposés dans une série conditionnée de sorte que les schèmes antérieurs n'aient pas besoin de l'émergence des schèmes ultérieurs pour fonctionner, mais que les schèmes ultérieurs ne puissent émerger ou fonctionner si les schèmes antérieurs ne fonctionnent pas déjà.

7) Les combinaisons d'événements présentent une probabilité, laquelle saute, d'abord quand un schème devient concrètement possible parce que ses conditions préalables sont remplies, et deuxièmement quand le schème se met effectivement à fonctionner.

8) Les fréquences réelles des événements de chaque genre, à chaque endroit et à chaque moment, ne divergent pas systématiquement de leurs probabilités. Les fréquences réelles peuvent toutefois diverger des probabilités de façon non systématique. Une telle divergence non systématique constitue le hasard. Il faut donc éviter de confondre hasard et probabilité, qui sont choses distinctes.

9) La probabilité émergente est la réalisation successive, en accord avec des tables de probabilités successives, d'une série conditionnée de schèmes de récurrence.

Les propriétés conséquentes d'un processus universel dont la conception tient de la probabilité émergente se présentent comme suit :

1) Il y a une succession de situations universelles. Chacune d'elles est caractérisée a) par les schèmes de récurrence qui fonctionnent effectivement, b) par les schèmes ultérieurs qui sont devenus concrètement possibles et c) par la table courante des probabilités de survie des schèmes existants et des probabilités d'émergence des schèmes concrètement possibles.

2) Le processus universel est ouvert. Il consiste en une succession de réalisations probables de possibilités. Il ne suit donc pas les voies rigides tracées par les déterministes, pas plus qu'il n'est un amas non intelligible d'événements purement aléatoires.

3) Le processus universel est de plus en plus systématique. Il est, en effet, la réalisation successive d'une série conditionnée de schèmes de récurrence, et plus il y a de schèmes dans la série qui se réalisent, plus grande est la systématisation à laquelle les événements sont soumis.

4) Le renforcement du caractère systématique du processus universel peut être assuré. Aussi réduite soit la probabilité de réalisation des schèmes les plus élaborés et les plus conditionnés, l'émergence de ces schèmes peut être garantie par une augmentation suffisante des nombres absolus et un prolongement suffisant des intervalles de temps. Car les fréquences réelles ne divergent pas systématiquement des probabilités; il n'en reste pas moins que plus les nombres sont élevés et plus les intervalles de temps sont longs, plus s'impose clairement la nécessité d'une intervention systématique pour empêcher l'occurrence du probable.

5) La signifiance de la situation universelle fondamentale ou initiale se limite aux possibilités qu'elle contient et aux probabilités qu'elle attribue à ses possibilités. Par « situation universelle initiale » j'entends la situation qui est première dans le temps et par « situation universelle fondamentale » le prolongement partiel des conditions initiales dans le temps. Ce qu'illustrent certaines hypothèses contemporaines concernant la création continue.

Dans les deux cas, ce qui est signifiant réside dans les possibilités et leurs probabilités, car, à toutes ses étapes, le processus universel est la réalisation probable des possibilités. Le déterministe voudrait disposer d'une information complète, exacte jusqu'à la nième décimale, concernant sa situation initiale ou fondamentale. Les tenants de la probabilité émergente, quant à eux, trouvent tout à fait satisfaisante une situation initiale où les schèmes les plus élémentaires peuvent émerger et vont probablement émerger en nombre suffisant pour soutenir la structure subséquente.

6) Le processus universel admet une énorme différentiation. Il présente une ouverture sur la totalité des possibilités définies par les lois classiques. Il réalise ces possibilités en accord avec ses tables successives de probabilités. Et avec les nombres et le temps suffisants, même les probabilités les plus faibles deviennent assurées.

7) Le processus universel peut connaître des effondrements. La survie des schèmes n'est que probable, en effet, de sorte que chaque schème présente une certaine probabilité d'effondrement. Et comme les schèmes antérieurs conditionnent les schèmes ultérieurs, un effondrement des premiers entraîne un effondrement des autres.

8) Le processus universel comporte des impasses. Car les schèmes qui ont une forte probabilité de survie présentent une certaine probabilité d'émergence. Dans la mesure où ils émergent, ils emprisonnent dans leur fonctionnement régulier les matériaux rendant possibles des schèmes ultérieurs, et bloquent ainsi la voie d’un développement plus entier.

9) La distribution des schèmes rétrécit à mesure que l'on progresse dans la série conditionnée. La réalisation effective est moins fréquente que sa possibilité concrète, en effet, et chaque ensemble ultérieur de schèmes ne devient concrètement possible qu'au moment où fonctionnent les schèmes antérieurs qui le conditionnent.

10) Plus la base d'émergence de chaque ensemble ultérieur de schèmes est étroite, plus il devient nécessaire de faire appel à de longs intervalles de temps puisque, dans ce cas, il n'est pas possible de disposer grands nombres.

11) Plus les probabilités d'impasses et d'effondrements sont élevées, plus grands doivent être les nombres absolus initiaux pour que la réalisation de la série entière des schèmes soit assurée. Car, dans ce cas, il se peut que le recours aux longs intervalles de temps ne soit pas efficace. Les impasses, avec leurs routines inertes, pourraient durer pendant des périodes extrêmement longues, et lorsqu'elles ont subi un effondrement, elles peuvent donner lieu à d'autres impasses. Une situation ayant mené à un certain développement pour se terminer par un effondrement peut simplement répéter ce processus plus fréquemment dans un intervalle de temps plus long. Par contre, les grands nombres initiaux ont pour effet d’assurer l'existence d'au moins une situation où la série entière des schèmes va parvenir à se réaliser.

12) Les propriétés susmentionnées du processus universel sont génériques. Elles sont fondées sur la supposition qu'il y a des lois du type classique, mais non sur celle du contenu déterminé de quelque loi classique particulière. Elles se fondent sur la supposition que les lois classiques peuvent être combinées au sein des relations circulaires des schèmes, mais sans aller jusqu'à offrir une analyse de la structure de quelque schème que ce soit. Elles se fondent sur la supposition qu'il existe des lois statistiques, mais sans comporter de supposition quant au contenu déterminé de quelque loi statistique.

De plusa, ces propriétés sont relativement invariantes. Elles reposent sur la présupposition nécessaire du scientifique selon laquelle il y a des lois classiques et des lois statistiques à déterminer. Par contre, ces propriétés ne préjugent pas de la détermination de ces lois ni de la façon dont elles doivent être combinées pour donner lieu à des schèmes de récurrence et à leurs probabilités successives. Ces propriétés ne peuvent donc être perturbées par quelque somme de travail scientifique consacré à la détermination des lois classiques et des lois statistiques.

Ces propriétés expliquent le processus universel. Elles révèlent un ordre, une conception, une intelligibilité. En effet, elles expliquent de façon générique les nombres et les intervalles de temps, les distributions et les concentrations, les impasses et les effondrements, la différenciation énorme, la systématisation croissante, la stabilité qui ne tient pas de la nécessité, l'assurance qui ne tient pas du déterminisme, le développement qui ne tient pas du hasard.

Enfin, l'intelligibilité offerte par l'explication est immanente au processus universel. Elle fait apparaître la conception interne du processus universel comme une probabilité émergente, et de cette conception elle conclut aux caractères génériques exceptionnels du même processus. En conséquence, comme la méthode empirique vise une telle intelligibilité immanente, la probabilité émergente est une vision de l'ordre universel dans les limites de la méthode empirique. Nous avons au début invité les lecteurs à saisir l'intelligibilité immanente à l'image d'une roue de charrette; nous les invitons à accomplir un acte du même genre une fois de plus. La seule différence est que nous substituons à l'image d'une roue de charrette les grandes caractéristiques de l'univers, objet de notre expérience.

3 Clarification par mise en relief

Les idées peuvent être clarifiées par mise en relief par rapport à des idées contraires. Nous avons soutenu que l'acceptation et des lois classiques et des lois statistiques entraîne une vision du monde qui serait probabilité émergente; nous devons maintenant voir comment des positions méthodologiques différentes produisent des visions différentes du monde.

3.1 La vision aristotélicienne du monde

Aristote reconnaissait à la fois les lois naturelles et les résidus statistiques. Toutefois, ses lois naturelles réunissaient, dans une confusion primitive, non seulement les lois classiques et les schèmes de récurrence, mais également un élément ou un aspect des lois statistiques. Aristote distinguait le nécessaire et le contingent. Le nécessaire étant ce qui se produit toujours, comme les mouvements des étoiles. Et le contingent, ce qui se produit de façon habituelle; ainsi les corps lourds tombent habituellement sur terre, mais il arrive parfois qu'ils soient maintenus dans leur sphère et ne tombent pas.

Aristote ne saisissait pas les lois abstraites de la nature, de type classique; il répudiait même explicitement la possibilité d'une théorie de la probabilité. Il considérait tous les événements terrestres comme contingents. Certes, l'effet découle de la cause, mais il en découle à condition que certaines autres causes n'interviennent pas. Et leur intervention est purement fortuite. Il est vrai que toute situation fortuite découle de situations fortuites antérieures, qui elles-mêmes sont le fruit de situations fortuites antérieures. Une recherche des antécédents se situera forcément à l'intérieur de la catégorie du purement fortuit, qui ne présente aucun élément dont une science puisse se saisir. Par conséquent, même s'il reconnaissait l'existence des résidus statistiques et des configurations concrètes de séries de conditions divergentes, Aristote ne disposait pas d'une théorie de la probabilité qui lui aurait permis de faire entrer ces éléments dans le champ de la connaissance scientifique.

Aristote ne voulait pourtant pas laisser le processus terrestre s'enliser dans le bourbier des interférences fortuites. Pour exorciser une telle entropie, il a fait appel aux variations saisonnières pour conclure à l'influence des corps célestes sur les activités terrestres. Étant marquées au sceau de la nécessité, et se déroulant à des positions différentes successives, les opérations du soleil, de la lune, des planètes et des étoiles, constituaient un fondement et une cause suffisantes de la périodicité et de la perpétuité des changements terrestres. Ainsi prirent forme les notions aristotéliciennes d'un paradis éternel, d'une terre éternelle et d'une récurrence cyclique éternelle.

La probabilité émergente diffère de la vision aristotélicienne du monde, parce qu'elle repose sur une autre notion de la science et de la loi. Les lois classiques sont abstraites. Les mouvements prétendument nécessaires des cieux ne sont que des schèmes de récurrence auxquels le déploiement des probabilités a donné lieu, et qui vont survivre en accord avec les probabilités. Les régularités du processus terrestre sont essentiellement semblables, bien qu'en fait les schèmes soient ici plus complexes et les probabilités plus faibles. Enfin, la récurrence cyclique éternelle disparait pour faire place, en accord avec les tables de probabilités successives, à la réalisation successive d'une série conditionnée de schèmes de récurrence de plus en plus complexes. Ce n'est pas la nécessité céleste qui assure le succès du processus terrestre, mais plutôt la probabilité émergente qui assure la conception de tout processus; et cette conception n'est pas celle d'une récurrence éternelle et cyclique, mais bien la réalisation par la concrétisation de probabilités d'une série conditionnée de schèmes de plus en plus développés.

3.2 La vision galiléenne du monde

Galilée a bel et bien découvert notre loi de la chute des corps, mais il n'en a pas reconnu le caractère abstrait. Il a saisi avec justesse que l'explication réside au-delà de la description, qu'il importe de dépasser les rapports des choses avec nos sens, pour saisir les relations réciproques des choses, et que, pour ce faire, l'outil clé est une géométrisation de la nature. Galilée n'a toutefois pas coulé ses découvertes méthodologiques dans la terminologie que nous venons d'employer. Il n'invoque pas les rapports des choses avec nos sens mais plutôt les qualités secondes, purement apparentes, des choses. Il ne parle pas des relations réciproques des choses mais des qualités premières réelles et objectives, qu'il concevait comme les dimensions mathématiques de la matière en mouvement.

La méthodologie galiléenne est pénétrée de suppositions philosophiques concernant la réalité et l'objectivité, suppositions qui ne sont pas très heureuses. Leur influence chez Descartes est évidente. Leurs ambiguïtés transparaissent chez Hobbes et Locke, Berkeley et Hume. Leur déficience fondamentale est manifeste chez Kant, où il apparaît que les corps réels et objectifs de la pensée galiléenne ne constituent rien de plus qu'un monde phénoménal.

Jusqu'ici, nous nous sommes rigoureusement abstenu d'aborder toute question philosophique au sujet de la réalité et de l'objectivité. Nous devrons nous pencher sur ces questions en temps et lieu. Notre considération présente porte sur le fait que la conception des lois galiléennes de la nature ne fait pas abstraction des éléments sensibles ou du moins imaginables et que les lois galiléennes se situent donc non pas dans le champ de nos lois classiques abstraites, mais dans celui de nos schèmes de récurrence où peuvent se combiner les lois abstraites et les éléments imaginables.

Ce caractère concret de la conception des lois naturelles comporte une double conséquence. D'une part, il donne lieu à l'hostilité de l'incompréhension à l'égard des lois statistiques. D'autre part, il entraîne une vision mécaniste de l'univers. C'est que dans l’abstrait les lois classiques sont universelles et nécessaires. La pensée galiléenne reconnaît cette universalité et cette nécessité, mais ne peut reconnaître leur caractère abstrait. Cette universalité, cette nécessité, la pensée galiléenne les considère directement liées à des particules imaginables, ou à un éther imaginable, ou encore à ces deux éléments à la fois. Galilée estime que ces caractères sont déjà concrets, et n'ont donc pas besoin de déterminations additionnelles pour le devenir. Il ne peut reconnaître l'existence de déterminations additionnelles qui seraient liées non systématiquement les unes aux autres. Comme il ne nourrit pas de doute au sujet de l'existence des lois classiques, Galilée ne peut donc tenir les lois statistiques pour autre chose que de simples formulations de notre ignorance. Il existe un vaste agrégat d'éléments discrets ou continus mais tout de même imaginables; ces éléments sont soumis à des lois universelles et nécessaires; et au scientifique incombe la lourde tâche de déterminer ces lois et ainsi de prédire ce qui ne peut pas ne pas se produire.

De plus, dans un tel contexte, la négation des lois statistiques implique une vision mécaniste. Une machine est un ensemble de parties imaginables dont chacune a des relations systématiques déterminées avec toutes les autres. De la même façon, l'univers implicite dans la méthodologie galiléenne est un agrégat de parties imaginables dont chacune est en relation systématique avec toutes les autres. Seule différence : le fonctionnement de l'univers peut être entravé par d'autres éléments imaginables. Mais quelles interventions imaginables peuvent avoir lieu en dehors de l'univers des éléments imaginables? Le mécanisme devient donc un déterminisme.

Cette vision galiléenne a prévalu jusqu'à tout récemment dans les milieux scientifiques. Elle a survécu aisément aux implications plutôt voilées du darwinisme. Les affirmations explicites de la mécanique quantique semblent toutefois lui avoir porté un dur coup. Notre argumentation se porte cependant sur un autre terrain. Elle ne fait appel au darwinisme et à la mécanique quantique qu'à titre d'illustrations de l'intelligence scientifique. Elle a pour véritables fondements la structure dynamique de la recherche empirique et les canons qui en régissent le déploiement. Notre propos était de souligner, dans ce domaine, que l'abstraction est enrichissante et non appauvrissante, qu'au sens d'un enrichissement les lois classiques sont abstraites, qu'une unification systématique des lois classiques n’implique pas la possibilité d'une synthèse imaginaire et que la concentration des relations systématiques dans le champ de l'abstrait fait que les nouvelles déterminations nécessaires aux applications concrètes sont liées entre elles de façon non systématique. Les lois classiques et les lois statistiques sont donc complémentaires plutôt qu'opposées. Les régularités de notre univers ne sont donc pas fondées seulement sur le jeu des lois classiques, mais sur la combinaison de ces lois et des constellations appropriées de circonstances concrètes. Dernière conséquence : les schèmes de récurrence – tout comme les machines fabriquées par les humains – émergent et fonctionnent, survivent et disparaissent, en accord avec les tables successives de probabilités pour la réalisation d'une série conditionnée de schèmes.

3.3. La vision darwinienne du monde

Il en est pour qui l'aube de l'intelligence humaine se situe au moment de la publication de De l'origine des espèces par voie de sélection naturelle, en 1859. Cet ouvrage, même s'il ne pose de façon systématique aucun fondement méthodologique, constitue en fait un cas exceptionnel d'emploi de la probabilité comme principe d'explication. Premièrement, c'est effectivement une explication que le darwinisme propose. Il propose d'expliquer pourquoi les espèces diffèrent, pourquoi elles sont réparties selon leurs distributions spatio-temporelles observables, pourquoi chaque espèce s'accroît, se maintient ou décroît parfois jusqu'à l'extinction. Deuxièmement, cette explication présente une intelligibilité immanente aux données, fondée sur les similitudes et les différences, sur les populations et leurs taux de changements, sur leur distribution sur la surface de la terre et dans les diverses époques géologiques. Troisièmement, cette intelligibilité immanente est radicalement différente de l'intelligibilité immanente offerte par exemple par la théorie de la gravitation universelle de Newton ou par l'affirmation de Laplace selon laquelle un esprit convenablement doué peut, grâce à une formule mathématique donnée, déduire toute situation universelle, s'il dispose de toute l'information portant sur une situation particulière. Car le disciple de Laplace ne peut aboutir à quelque conclusion déterminée s'il ne dispose pas de toutes les précisions voulues sur la situation de base. Le disciple de Darwin par contre n'a que faire des détails de sa situation de base, et il obtient ses conclusions en faisant appel à la sélection naturelle des variations fortuites qui se produisent dans n'importe quel processus au sein d'une vaste gamme de processus terrestres, à partir de n'importe quelle situation parmi une grande variété de situations initiales.

Il n'est pas difficile de discerner dans la sélection naturelle des variations fortuites, exprimée par Darwin, un cas particulier d'une formule plus générale. Ce qui a de l'importance pour le processus évolutif, en effet, c'est une combinaison de variations et non pas la variation simple et isolée. Et même si de telles combinaisons de variations peuvent être imputées au hasard, au sens où le biologiste se préoccupe non pas d'une causalité efficiente mais d'une intelligibilité immanente, ce qui est important pour l'évolution c'est la probabilité d'émergence de telles combinaisons de variations et non la divergence non systématique par rapport à leur probabilité, qui constitue pour nous le sens du mot « fortuit ». Enfin, comme une variation fortuite représente un cas de probabilité d'émergence, la sélection naturelle est un cas de probabilité de survie. La sélection artificielle est l'œuvre du phytogénéticien ou de l'éleveur, qui croise les plantes ou accouple les animaux possédant les caractéristiques qu'il veut favoriser. La sélection naturelle est l'œuvre de la nature, qui accorde une espérance de vie plus brève et en conséquence des portées moins fréquentes aux espèces qui sont moins bien équipées pour se débrouiller toutes seules. Cette sélection, la nature ne l'opère pourtant pas de la manière exactement prévisible qui caractérise les phases de la lune; elle crée plutôt une tendance générale qui souffre des exceptions et dont l'efficacité croît en proportion des nombres et de la prolongation des intervalles de temps. Bref, la sélection naturelle signifie la survie en accord avec les probabilités.

De plus, ces combinaisons de variations, qui présentent des probabilités d'émergence et de survie, sont pertinentes pour les schèmes de récurrence. Car la vie concrète de toute plante ou de tout animal peut être considérée comme un ensemble de séquences d'opérations. Ces opérations appartiennent à différents genres. De nombreuses opérations appartiennent au même genre. Et les opérations de même genre se produisent à des moments différents. Chaque ensemble de séquences comporte donc des opérations récurrentes, et la régularité de la récurrence révèle l'existence et le fonctionnement des schèmes.

La plante ou l'animal n'est qu'un élément à l'intérieur de tels schèmes. Le cercle schématique des événements ne se situe pas tout entier dans la chose vivante, mais déborde dans l'environnement dont la chose vivante tire ses moyens de subsistance et où naît la progéniture. Plus on a affaire à un type élevé d'animal, plus les événements sont complexes et plus grande est la proportion d'événements signifiants qui se produisent dans l'animal lui-même. Toutefois, cette complexité supérieure signifie tout simplement que le grand cercle est lié à une série de cercles plus petits et incomplets. La circulation vasculaire se produit dans l'animal, mais elle dépend du système digestif, lequel dépend de la capacité qu'a l’animal de se tirer d'affaire dans son environnement; cette capacité est à son tour fonction de la croissance et de l'alimentation assurée par le système vasculaire.

La plante ou l'animal est un élément à l'intérieur d'une gamme de schèmes. Contrairement aux planètes qui se maintiennent constamment dans leur parcours à l'intérieur du système solaire, et à l'instar des électrons que l'on peut imaginer sautant d'une orbite à l'autre, la plante ou l’animal entre dans l'un quelconque des ensembles d’une gamme d'ensembles de schèmes possibles. La structure et la capacité immanentes limitent une telle gamme. Mais si elle est limitée, cette gamme est ouverte à d’autres possibilités. Car s'il n'y a pas de changement de structure ou de capacité de base, la plante ou l'animal continue de survivre dans les limites de certaines variations de température et de pression, de l'eau ou de l’air ambiants, de la lumière du soleil et du sol, ainsi que de la population flottante des autres plantes ou animaux dont il tire sa subsistance.

Les différences entre le darwinisme et la probabilité émergente commencent toutefois à se manifester ici. Dans l'optique de la probabilité émergente, on affirme une série conditionnée de schèmes de récurrence qui sont réalisés en accord avec des tables de probabilités successives. Dans l’optique du darwinisme, on affirme une série conditionnée d'espèces de choses qui doivent se réaliser en accord avec des tables successives de probabilités. Les deux points de vue présentent des structures formelles parallèles. Ils sont liés, puisque des espèces de choses vivantes émergent et fonctionnent à l'intérieur de gammes d'ensembles possibles de schèmes de récurrence. Il existe néanmoins une différence profonde. Car les probabilités d'émergence et de survie darwiniennes ont trait, non pas aux schèmes de récurrence, mais aux composantes potentielles sous-jacentes de chaque schème au sein d'une gamme limitée, et la série darwinienne des espèces est une séquence de potentialités supérieures qui manifestent leur développement par leur capacité de fonctionner dans des gammes toujours plus grandes d'autres ensembles de schèmes.

Cette différence nous incite à signaler que le présent exposé de la probabilité émergente ne se voulait pas exhaustif. Nous n'avions pas abordé la définition de la notion de chose. Nous n'avions pas déterminé s’il existe une réponse à cette question qui satisfasse au canon scientifique de la parcimonie. Nous avons donc présenté ici la probabilité émergente en posant que, lorsque nous aurons plus loin exploré la notion de chose, il faudra peut-être élaborer davantage notre analyse.

Toutefois, il n'est peut-être pas mal à propos de dire tout de suite que notre recherche sur le sens du mot « chose » mettra tout simplement en lumière, une fois de plus, le dualisme de la pensée non critique. Le darwinisme, tout comme le déterminisme mécaniste, comportait une vision extra-scientifique du monde. Nous avons remplacé la sélection naturelle des variations fortuites par une probabilité émergente des schèmes de récurrence; aussi constaterons-nous au chapitre 8 qu'une notion critique de « chose » nécessite une répudiation encore plus nette des suppositions philosophiques inconscientes de la science du dix-neuvième siècle.

3.4 L'indéterminisme

L'indéterminisme désigne une tendance contemporaine dont les origines tiennent des équations vérifiées de la mécanique quantique, mais qui déborde ce cadre puisqu'il porte des affirmations sur la nature de la connaissance scientifique et même sur des questions philosophiques. Radicalement opposé au déterminisme mécanique, il présente néanmoins des aspects positifs qui ne sauraient faire l'objet d'une description sommaire. Mieux vaut donc passer en revue un certain nombre de questions.

Premièrement, tout comme Galilée a établi une distinction entre les qualités secondes purement apparentes et les dimensions réelles et objectives de la matière en mouvement, ainsi certains indéterministes proposent un exposé quelque peu analogue de la nature de la réalité. La vieille distinction entre le réel et l'apparent tient toujours, mais le réel est maintenant microscopique et aléatoire, alors que le purement apparent est le macroscopique où semblent se vérifier les lois classiques. Toutefois, si nous mentionnons cette question, ce n'est pas pour engager une discussion dès maintenant. Plus tard, dans un contexte philosophique, nous proposerons une explication de la variété presque illimitée de points de vue qui existent sur la réalité et l'objectivité. Nous devons pour le moment nous en tenir au canon de la parcimonie : le scientifique peut affirmer ce qu'il peut vérifier, et il ne peut affirmer ce qu'il ne peut vérifier.

Deuxièmement, les indéterministes ont tendance à rejeter les particules et ondes imaginables de jadis en faveur d'un certain type de symbolisme conceptuel. La question qui se pose une fois de plus est la nature précise de la réalité, mais en faisant appel au canon de la parcimonie nous pouvons maintenant établir deux conclusions. D'une part, il semble que la seule possibilité de vérification de l'imaginé en tant qu'imaginé réside dans une sensation correspondante. Si, par conséquent, les particules sont trop petites et les ondes trop subtiles pour être perçues comme particules et comme ondes, alors les particules en tant qu'imaginées et les ondes en tant qu'imaginées ne peuvent être vérifiées. Et si elles ne peuvent être vérifiées, leur existence ne peut être affirmée par les scientifiques. D'autre part, il est possible de vérifier les formulations conceptuelles si elles présentent des implications sur le plan sensible; en effet, la vérification de la formulation conceptuelle est près d'être réalisée dans la mesure où il s'avère qu'un nombre et une variété croissants de telles implications correspondent à l'expérience sensible. Ainsi la relativité restreinte est-elle considérée comme probable non parce qu'un grand nombre de scientifiques estiment avoir pu voir nettement une variété espace-temps à quatre dimensions, mais parce que de nombreux scientifiques, travaillant sur des problèmes différents, ont pu appliquer avec beaucoup de succès des procédés et des prédictions fondés sur la relativité restreinte.

Troisièmement, l'imprécision des données amène certains à poser l’invérifiabilité fondamentale des lois classiques. Je ne trouve pas un tel raisonnement très convaincant, mais il mérite je crois qu'on y prête attention. C'est qu'il fait appel au critère de vérifiabilité, prend appui sur le fait incontestable de l'imprécision des données et exclut des conceptions erronées sur la nature des lois classiques.

Tout d'abord, on ne saurait nier l'imprécision des données. Ce qui est de soi déterminé n'est jamais une donnée mais toujours un concept. Les données en elles-mêmes peuvent être considérées comme déterminées matériellement ou potentiellement, mais elles ne deviennent formellement déterminées que dans la mesure où elles sont subsumées dans les concepts. Et ce processus de subsomption peut se prolonger indéfiniment. Une plus grande détermination formelle des données est donc possible tant que les concepts scientifiques peuvent être révisés de façon à produire des objets plus précis à mesurer et dans la mesure où les techniques scientifiques peuvent être améliorées pour rendre les mesures plus précises. Cependant, tant qu'une détermination formelle plus grande est possible, la détermination effectivement atteinte s’unit à un reste non spécifié de détermination purement potentielle. Ce reste non spécifié est l’imprécision des données, qui existera tant que seront possibles de nouveaux concepts et des mesures plus précises.

Toutefois, la seule imprécision des données ne suffit pas à prouver l’invérifiabilité des lois classiques. Il est impossible logiquement qu'une conclusion valide contienne un terme qui n'apparaisse pas dans les prémisses. Plus concrètement, il se pourrait que de nouvelles lois classiques soient découvertes chaque fois que des données deviennent plus déterminées formellement. Dans ce cas, l'imprécision des données prouverait, non pas que les lois classiques sont invérifiables, mais qu'il faut toujours réviser les lois classiques existantes pour produire d'autres lois classiques.

Nous cernons la question de plus près si nous posons que les lois classiques sont des formulations conceptuelles, qu'elles possèdent toute la précision et toute la détermination formelle des concepts, qu'elles ne peuvent perdre cette précision et cette détermination sans cesser d'être des lois classiques. Quant aux données, elles sont irréductiblement imprécises. Comme les mesures ne peuvent être précises à la nième décimale près — n représentant un nombre de décimales aussi élevé que l'on voudra —, les lois classiques ne peuvent jamais être qu'approximatives. Leur détermination essentielle est en conflit radical avec l'imprécision des données; il s'ensuit que les lois classiques sont essentiellement invérifiables.

Un tel raisonnement ne tient que si l'on interprète concrètement les lois classiques. En effet, dans une telle interprétation concrète, on suppose que les lois classiques établissent des relations entre des données ou entre des éléments en correspondance stricte avec les données. Il ne peut toutefois pas y avoir de relations entièrement déterminées entre des termes essentiellement imprécis; les lois classiques, dans leur interprétation concrète, ne peuvent donc être qu'approximatives.

Or il n'est pas nécessaire d'interpréter concrètement les lois classiques. Ces lois peuvent être des énoncés d'éléments dans un système abstrait où 1) le système abstrait est constitué par des relations et des termes définis implicitement, 2) le système abstrait est lié aux données, non pas directement, mais par la médiation d'un ensemble complémentaire de concepts descriptifs, et 3) les lois du système abstrait sont considérées comme vérifiées étant donné qu'elles établissent des limites vers lesquelles, toutes choses égales d'ailleurs, convergent de grandes variétés de données. Dans cet ordre de raisonnement, les relations complètement déterminées des lois classiques se situent donc entre les termes complètement déterminés qu'elles définissent implicitement. Cette structure fermée est mise en rapport avec les données par l'intermédiaire d'un ensemble de concepts descriptifs et donc approximatifs. Enfin, il s'avère que cette structure fermée est pertinente pour les données, non par coïncidence exacte, mais parce qu'elle établit la limite vers laquelle convergent les données.

Quatrièmement, l'affirmation d'une convergence comporte également l'admission d'une divergence. Une telle admission n'équivaut-elle pas à l'affirmation qu'en fin de compte les lois classiques ne sont pas vérifiables?

Une fois de plus, la question porte sur la nature précise de la vérification. On peut difficilement dire qu'une loi particulière n'a pas été vérifiée parce qu'elle n'a pas expliqué l'ensemble de notre expérience. Toutefois, ce qui vaut pour les lois particulières peut valoir également pour la totalité des lois classiques. L'existence de la divergence prouve que les lois classiques ne constituent pas la totalité de notre connaissance explicative. Elles peuvent en constituer tout de même une partie. Et les lois classiques qui forment en fait une telle partie sont celles qui sont vérifiées, en ce sens qu'elles établissent la limite vers laquelle convergent les données.

Cinquièmement, on prétend que la mécanique quantique est la théorie plus générale et qu'elle englobe notamment la mécanique newtonienne comme cas particulier.

Il faut souligner ici la pertinence d'une distinction entre inclusion logique et application concrète. Il n'y a pas lieu, selon moi, de contester l'assertion voulant que l'on puisse par simplification assimiler l'équation temporelle de Schrödinger à la deuxième loi de mouvement de Newton. Il ne s’ensuit toutefois pas nécessairement que cette simplification n'ait son pendant dans le monde des événements. Au contraire, il semblerait que pareille opération existerait si les schèmes de récurrence se réalisaient parfaitement. Il semblerait difficile dans ce cas de soutenir que la précision des observations fondamentales ne constitue pas la seule limite de la précision des prédictions. Il est plus réaliste d'affirmer que, dans la mesure où les schèmes ne se réalisent pas parfaitement ou que leur réalisation parfaite ne peut être assurée, au moins la raison des divagations objectives ou de l'ignorance subjective serait établie.

Sixièmement, on pourrait soutenir que le déterminisme doit être vrai ou faux et que nous semblons esquiver cette alternative. Or le fait d’admettre cette disjonction nous force à nous engager dans des questions philosophiques. Dans le présent contexte, du moins, nous affirmons que le déterminisme d'antan, avec ses implications philosophiques, doit être remplacé par un point de vue nouveau, purement méthodologique, lequel consiste en une anticipation évolutive d’un objet déterminé.

Un tel point de vue se situerait dans les limites de la science empirique. Il établirait une distinction entre un élément antécédent, constitué de suppositions méthodologiques, et un élément conséquent, constitué de lois et de fréquences probablement vérifiées. Ces deux éléments seraient toutefois jugés variables. L'élément antécédent se développe. Il est constitué au départ de vagues généralités, du genre « il y a une raison pour toute chose ». À mesure que la science progresse, cet élément acquiert la précision croissante des structures heuristiques différenciées avec une justesse de plus en plus grande. Quant à l'élément conséquent, il est peut-être soumis à des variations, car ce qui est considéré comme vérifié à un moment donné peut être remis en question et faire l'objet d'une révision. La conjonction concrète de ces deux éléments dans l'esprit des scientifiques constitue à tout moment leurs anticipations d'un objet déterminé. Et lorsque les éléments subissent des changements en profondeur, les anticipations deviennent naturellement quelque peu incertaines.

Selon ce raisonnement le déterminisme d'antan était erroné, non seulement parce qu'il comportait des prises de position philosophiques, mais également parce qu'il ignorait la possibilité d'un développement des structures heuristiques. Ce déterminisme supposait universellement valide un type d'explication que seule permet la réalisation parfaite des situations schématiques. Il ignorait la possibilité d'un type d'explication où les probabilités du non-schématique rendent compte de l'émergence du schématique.

La vérité de l'indéterminisme réside dans la négation du déterminisme ancien. Il n'échappe toutefois pas à la nécessité des suppositions et des préceptes méthodologiques; il ne peut empêcher la jonction, dans la pensée, de ces suppositions et préceptes avec les lois et les fréquences considérées comme vérifiées; il ne peut donc parvenir même à retarder le jour où, d'un point de vue neuf, les anticipations scientifiques seront une fois de plus tournées vers un objet déterminé à connaître.

Il serait quelque peu difficile de préciser maintenant, de façon universellement acceptable, ce qu'est exactement l'objet déterminé que la science doit anticiper. Qui explore la connaissance humaine peut formuler des propositions portant sur l'élément antécédent; j'ai donc proposé un point de vue unifié permettant d'anticiper à la fois le systématique et le non-systématique, sans exclure, dans des cas particuliers, l'insight dans des situations concrètes non schématiques. La possibilité d'un insight concret dans des situations non schématiques dans l'ordre subatomique suscitera probablement des objections à la fois aux plans pratique et théorique. Mon propos ne vise toutefois pas cet aspect de la question, surtout parce qu'il a trait à l'élément conséquent des anticipations méthodologiques, mais également parce qu'à mon sens toute discussion sur la possibilité concrète souffre d'une ambiguïté radicale. Car un insight nouveau est toujours possible à propos de toute question concrète. Lorsqu’un tel insight se produit, ce qui semblait impossible auparavant s'avère très faisable après tout.

Conclusion

Il est temps de conclure ce long chapitre. Nous avons abordé au départ le problème de la dualité apparente à laquelle donne lieu l'existence de deux types d'insights, de deux structures heuristiques et de deux méthodes distinctes d'investigation empirique. Nous n'avons pas cherché à éliminer cette dualité, puisque les insights des deux types, soit les insights directs et les insights à rebours, se produisent. Restait donc à réunir en un même tout divers procédés et divers résultats. Une première section a été consacrée à l'affirmation de la complémentarité des investigations classiques et des investigations statistiques en tant qu'activités cognitives. Dans une deuxième section nous avons constaté comment il est possible de combiner en une même vision du monde leurs résultats, quel qu'en soit le contenu précis. Dans un troisième temps, nous avons marqué les différences entre cette vision du monde et celles d’Aristote, du déterminisme mécaniste et de Darwin, ainsi que les tendances contemporaines favorisant l'affirmation d'un indéterminisme. Notre argumentation a fait apparaître de plus en plus nettement le problème de la notion de chose et, partant, le problème de l'objectivité. Avant d'aborder de front des questions aussi vastes, il convient que nous élargissions la base de nos opérations. Nous allons donc maintenant nous pencher sur les notions de l'espace et du temps.


a De plus : ce paragraphe et les deux suivants font partie de la description de la douzième propriété d'un processus universel. Ces paragraphes étaient en retrait originalement. Nous suivons ici la présentation de l'édition critique de F.E. Crowe et R.M. Doran (University of Toronto Press) qui ne mettent aucun des douze points en retrait.


1 Voir Lindsay et Margenau, Foundations of Physics, p. 488-493.

2 Voir chapitre 3, § 6.6.3.

3 Voir ci-dessus, chapitre 3, § 6.1-6.5.

4 Voir ci-dessus, chapitre 2, § 2.3.

 

 

Accueil | Actualités | Diffusion de sa pensée
Entretiens | L'homme et l'oeuvre | Gaston Raymond | Introduction à sa pensée | Liens | Repères biographiques
Les oeuvres de Lonergan | Textes particuliers | Théories économiques | Blogue

Index du site