Théorie, Modèle, calcul et variabilité du réel

Plan de l'article

 

Auteur

Bachimont Bruno

BACHIMONT Bruno

Professeur en philosophie du numérique et logique mathématique
COSTECH UR-2223      
 
Université de Technologie de Compiègne
Rue Roger Couttolenc
60 200 Compiègne
France
  

 

Citer l'article

Bachimont, B. (2022). Théorie, Modèle, calcul et variabilité du réel. Revue Intelligibilité du numérique, 3|2021. [En ligne] https://doi.org/10.34745/numerev_1859

 

 

Résumé : La modélisation fait partie de l’activité scientifique. Traditionnellement, un modèle mobilise diverses lois et théories qu’il approxime et articule pour représenter un objet particulier ou une situation concrète et en tenir lieu : le modèle permet d’expérimenter ce qu’il représente. Cela s’effectue de manière privilégiée à travers des artefacts computationnels qui permettent de simuler la réalité étudiée. Mais ces artefacts peuvent avoir plusieurs statuts : modèles de théories, ils opérationnalisent de manière calculatoire une conception théorique de l’objet ou de la situation. Modèles de données, ils permettent par exploration et abstraction d’induire de telles conceptions. Mais si les modèle de théories permettent d’observer un réel qui dit non, les modèles de données, s’appuyant sur des masses de données qui tiennent lieu de réalité, interrogent davantage les approches formelles pour les traiter que la réalité dont elles seraient les données. Si notre rapport au monde repose sur des manières de l’interroger des raisons d’y agir, comment fonder ces interrogations et ces actions et répondre de nos engagements et comportements ? Si le modèle doit conduire à la décision et pas seulement à l’interprétation, l’enjeu n’est plus seulement épistémologique mais éthique.

Mots-clés : modèle, théorie, données, variabilité, preuves, raison d’agir.

 

Abstract : Modelling is part of scientific activity. Traditionally, a model mobilizes various laws and theories that it approximates and articulates to represent a particular object or a concrete situation and to take its place: the model makes it possible to experiment with what it represents. This is done in a privileged way through computational artefacts that allow the simulation of the reality under study. But these artefacts can have several statuses: theory models, they operationalize a theoretical conception of the object or situation in a computational manner. As data models, they allow such conceptions to be induced by exploration and abstraction. But if theory models allow us to observe a reality that says no, data models, relying on masses of data that take the place of reality, question more the formal approaches for processing them than the reality of which they would be the data. If our relationship with the world is based on ways of questioning it and reasons for acting in it, how can we base these questions and actions and answer for our commitments and behaviour? If the model is to lead to a decision and not only to interpretation, the issue is no longer only epistemological but ethical.

Keywords : models, theory, data, variability, proofs, rationale of action. 

 

Introduction

Comment enserrer le réel dans les rets de la raison ? Comment dominer la variabilité infinie du réel et son inépuisable contingence pour ne pas être constamment pris au dépourvu, contredit, dépassé par ce qui arrive ? Comment articuler l’innovation de l’événement et la répétition du connu ?  Car ces deux termes sont de prime abord antinomiques et s’excluent. En effet, l’événement est toujours nouveau car il fait rupture entre ce qui est et ce qui advient : c’est en cela qu’il y a événement et pas seulement permanence ou continuité entre ce qui est et ce qui sera. Par ailleurs, le connu est ce qui est reconnu, motif répété à l’envi dans les théories de la connaissance depuis Platon et son Ménon ((Platon, 1999) jusqu’à Schlick (2005 [1925]). Si le nouveau est ce qui fait rupture avec le déjà advenu, c’est-à-dire le connu, il devient difficile de comprendre comment il est possible de rendre compte du nouveau dans une théorie de la connaissance, à savoir du déjà connu qui se répète et qui donc se reconnaît.

La réponse traditionnelle est de rapporter le nouveau au variable. Le nouveau n’est plus ce qui fait rupture, mais ce qui s’inscrit dans une variabilité inscrite dans la compréhension du connu. Le futur est rapporté à un schéma reconnu dont il n’est qu’une des déclinaisons déjà recensées et repérées, plus ou moins probables. Une rupture apparaît seulement si ce qui advient ne peut se réduire à une variation du déjà-là. Dans ce cas, il faut revoir les connaissances, et les faire évoluer, changer de théorie voire de paradigme (Kuhn, 1983). C’est la connaissance comme forme des variations admises qu’il faut faire évoluer. Cette évolution est plus ou moins importante : d’une loi à modifier, d’un périmètre de validité à reconsidérer, ou d’une forme radicalement nouvelle de connaissance à élaborer.

Mais, on l’a compris du fait même des termes employés, le débat est non seulement métaphysique (au sens de structures fondamentales du réel), mais également épistémologique ou noétique (au sens de structures fondamentales de la pensée et du pensable). En effet, il ne s’agit pas seulement d’articuler nouveau et advenu, mais aussi le réel et le pensable : d’une part, un réel qui évolue ou s’enrichit, d’autre part une pensée qui en rend compte.

Comment donner un statut ontologique et noétique au variable si ce dernier constitue in fine la manière de comprendre notre rapport au monde ? Est variable ce qui est déjà arrivé, ou pourrait arriver sans remettre en cause les lois de l’être. Le variable n’est pas seulement ce qui existe, dans l’infinie variété d’une nomenclature tenant le registre de ce qui est déjà arrivé, mais il consiste aussi dans ce qui n’est jamais arrivé, que ce soit ce qui n’est pas encore arrivé ou qui n’arrivera jamais. La notion de variabilité revient à considérer comme réel ce qui n’est pas réalisé ni ne le sera. Ce qui implique que, du côté noétique, on puisse penser et se représenter ce réel irréalisé. Comment peut-on penser ce qui n’existe pas, mais pourrait exister mais s’il n’existera jamais ? Et comment distinguer une telle pensée d’une pensée fausse, absurde, vide de sens ? La question du nouveau, rapportée à celle du variable, aboutit finalement à celle du pensable dans son rapport au réel.

C’est bien là que gît le fond du problème, quelle connivence peut-on établir entre la pensée et le réel : depuis Parménide et ses apories, on sait que si on les unit, alors la pensée comme telle disparaît pour se confondre avec l’être, et si on les sépare, on ne comprend pas alors comment on peut dans une pensée distincte du réel pouvoir penser ce dernier, voire le connaître. Ce sera notre prologue.

La réduction du nouveau au variable est donc le fruit d’une genèse longue et compliquée. C’est pourquoi, à défaut d’en faire une généalogie précise, nous présenterons les principales étapes par des raccourcis synthétiques. Nous pourrons alors considérer comment de manière contemporaine la variabilité est traitée dans les sciences expérimentales : un domaine du réel est traduit par une théorie, qui se formule en lois. Ces lois, universelles et nécessaires dans le domaine concerné, permettent d’élaborer des modèles d’objets particuliers ou de situations singulières. Ces modèles ont pour fonction de tenir lieu de ce qu’ils représentent pour être interrogés et expérimentés en lieu et place du réel. C’est pourquoi ils se traduisent en modèles physiques (maquettes, modèles réduits) ou en modèles calculatoires qui répondent aux questions (paramètres d’une situation) qu’on leur pose.

Mais cette approche est d’une certaine manière reconfigurée et renversée par les nouvelles figures du calcul : opérant sur des données qui émanent du réel dont elles prétendent parfois tenir lieu, le modèle calculatoire n’est plus la conséquence d’une théorie et des lois qu’elle mobilise ; il est l’abstraction qui se dégage des corrélations ou figures construites à partir des données. Il remplace la théorie dont il n’aurait plus besoin.

Mais ce remplacement implique que le réel n’est plus la source de nouveauté ou de contingence, mais seulement de variabilité appréhendée par le calcul. Tout ce qui arrive se laisse quantifier pour être ensuite soumis à des calculs de corrélation. Il ne s’agit donc pas d’un changement technique, mais d’une posture épistémologique et métaphysique. La donnée n’est plus en cas ce que le réel nous donne, mais ce que nous nous donnons comme base de réflexion, dans un arbitraire ininterrogé. En particulier, le variable devient la répétition de ce qui arrivé dans les limites de l’extrapolation autorisée par le calcul. C’est la conception métaphysique de la variabilité qui évolue subrepticement ici, en donnant une place singulière au calcul qui porte en lui les hypothèses ontologiques et noétiques permettant d’aborder la variabilité.

Il conviendra de considérer s’il ne faut pas plutôt envisager une conception plus large du réel pour prendre en compte non seulement ces nouvelles possibilités calculatoires dont il serait dommage de se priver mais aussi des figures métaphysiques et épistémologiques complémentaires qui permettent d’appréhender le nouveau qui peut être sous-jacent à la variabilité constatée.

Prologue : un legs philosophique

Sur un plan philosophique, la possibilité même de la pensée s’est constituée sur le principe d’une séparation d’avec la présence massive et éternelle de ce qui est, pour permettre d’envisager ce qui pourrait être même si cela n’est pas. Autrement dit, pour penser, il faut accepter le divorce d’avec ce qui est pour envisager des possibles qui ne sont pas mais qui pourraient être. Toute la difficulté est alors de pouvoir caractériser ce possible qui n’est pas, mais qui n’est pas pour autant impossible et qui n’est pas un pur néant, néant logique car contradictoire, néant ontologique car irréalisable, néant psychologique car impensable. Comment ce qui n’a jamais été encore pensé est-il néanmoins pensable ? Comment ce qui n’est jamais arrivé peut-il encore arriver ? Comment distinguer l’impossible du possible ?

Cette tension est au principe même de la pensée philosophique : c’est la geste parménidienne et son dénouement platonicien. En effet, dans son fameux poème (Parménide, 1998) Parménide affirme :

C’est la même chose penser et la pensée que « est » car, sans l’étant dans lequel « est » se trouve formulé, tu ne trouveras pas le penser. Rien en effet n’est ni ne sera d’autre à part l’étant, puisque c’est lui que le destin a attaché pour que complet et immobile il soit. (fragment VIII, 35).

Ce texte, très célèbre, affirme que c’est la même chose que penser et être, comme on le trouve ainsi formulé dans d’autres traductions (par exemple celle de Dumont (Parménide, 1988)). Cette phrase, à vrai dire assez énigmatique, peut être comprise comme l’idée selon laquelle la seule possibilité de la pensée est son adhérence totale avec le réel, avec l’être. Autrement dit, une pensée qui ne serait pas identique à ce qui est, n’est pas une pensée mais n’est qu’un pur néant. Selon Parménide, il n’y pas de place pour le possible : seul est à considérer ce qui est ; une pensée qui ne renvoie pas à ce qui est mais à ce qui est possible n’est pas une pensée. On connaît les conséquences intenables de cette conception qui n’affirme que l’identité à l’être, l’identité de l’être avec lui-même (puisque penser et être sont la même chose), et que toute autre option est impossible : l’être est, le non-être n’est pas. Derrière cette apparente platitude, tout le non-être est réduit au néant, à la non-existence, et ne peut revendiquer aucun statut. En particulier, le possible, le pensable, le réalisable, puisqu’ils ne renvoient pas à l’être dans sa présence et immédiateté, relèvent du non-être et du néant. C’est la pensée comme telle, la pensée comme langage (logique) ou la pensée du réel (physique) qui sont impossibles. Comme le résume excellemment Joseph Moreau (1985):

L'être de Parménide est exactement conforme à l'exigence d'identité, qui est la loi de la pensée : éternellement un et identique à soi-même, il est exclusif de tout changement et de toute diversité.  La conception éléatique de l'être entraîne des conséquences inadmissibles : 1) dans l'ordre physique, l'impossibilité du changement, illustrée par Zénon ; 2) dans l'ordre logique, l'impossibilité de la prédication, du jugement d'attribution, et du jugement en général.  Si l'être, en effet, est exclusif de toute diversité, la science s'épuise dans cette double assertion tautologique : l'être est, le non-être n'est pas ; et à supposer même qu'on distingue une pluralité de sujets, on ne saurait sans se contredire affirmer d'un sujet un attribut autre que lui; il faudra se borner à dire : l'homme est homme, le blanc est blanc ; on n'aura jamais le droit de dire : l'homme est blanc. 

Le dénouement viendra de Platon qui, dans son dialogue du Sophiste, mettra dans les propos de l’Etranger le parricide qu’il faudra bien commettre à l’égard de Parménide pour que la philosophie soit possible. Le problème que se pose Platon est de savoir si, quand on dit que quelque chose de faux, on dit quand même quelque chose. Autrement dit, y a-t-il place pour l’erreur, c’est-à-dire un discours sensé mais faux ? Si c’est la même chose que penser et être, l’erreur est impossible car son écart à l’être ou à la vérité l’abîme dans le néant. L’Etranger dit ainsi :

[L’Etranger] C’est que réellement, cher jeune homme [Théétête], notre recherche est extrêmement difficile. Qu’une chose apparaisse ou semble, sans cependant être et que l’on dise quelque chose, sans cependant dire la vérité, voilà que tout cela est plein de difficultés, non seulement à l’heure actuelle et dans le passé, mais toujours. Mais il est tout-à-fait difficile de trouver un moyen pour expliquer comment est-il nécessaire que dire ou penser le faux soit réel, sans être empêtré dans une contradiction quand on prononce cela.

[Théétête] Pourquoi ?

[L’Etranger] Parce que cet argument a l’audace de supposer que le non-être existe, car autrement, le faux ne pourrait pas devenir une chose qui est. Mais le grand Parménide, mon enfant, quand nous-mêmes étions des enfants, témoignait de cela d’un bout à l’autre, aussi bien en prose qu’en vers, chaque fois qu’il disait « Que ceci ne soit jamais imposé : qu’il y a des choses qui ne sont pas. Quand tu recherches, éloigne ta pensée de ce chemin. » Voilà son témoignage […]. Le Sophiste, 237e (Platon, 1993)

L’enjeu est donc de donner un statut à ce qui n’est pas réel sans n’être rien pour autant. Comment penser quelque chose quand ce quelque chose n’est pas ? Comment la pensée peut avoir un contenu, une signification, un sens, si elle ne renvoie à rien de réel ou présent ?

Mais on dépasse l’aporie parménidienne pour une autre : si en effet il est intenable de dire que penser et être sont la même chose, il est tout aussi intenable de vouloir les séparer car il devient impossible de comprendre leur articulation. Si la pensée n’est pas ce qui est, et que le réel n’est pas le pensable, comment peuvent-ils se rencontrer ? Si on ne peut connaître que ce qui est accessible par la pensée, puisque la connaissance est une pensée, comment le connu pourrait-il avoir un rapport avec le réel s’il relève de la pensée, puisque cette dernière n’est pas l’être ? L’aporie classique est donc que la pensée doit s’écarter du réel pour exister mais devient vide de contenu du fait de cette séparation.

Sortir de cette aporie fut long et laborieux. Maintenir la séparation de la pensée et du réel sans perdre pour autant leur cohérence et connivence revient à les aborder comme les deux faces d’une même pièce, les deux parties symboles l’une de l’autre si on reprend l’étymologie de ce terme : le symbole est en effet un objet issu de la coupure ou fracture d’un objet unique, devenant ainsi le symbole de l’autre partie puisque seules elles deux peuvent recomposer l’unité perdue. La pensée est le symbole du réel, qui est donc le symbole de la pensée. Gilbert Simondon invite notamment à penser ainsi cette symbolisation de l’unité primitive de l’humain et de la réalité (1989).

Pour scander cette symbolisation de la réalité, où la pensée renvoie au réel comme à son symbole, nous retenons deux figures qui se sont succédé de l’âge antique à l’âge classique. Ce fut pour la première, qu’on appellera « métaphysique », la résorption du réel dans l’essence appréhendée par une définition ou espèce intelligible, le réel ne débordant l’essence que par une contingence ineffable et impensable, donc in fine irréelle ; et pour la seconde, qu’on appellera « épistémologique », la solution sera de résorber le réel dans le conceptuel, le réel se manifestant par le sensible donné dans l’expérience et réglé, soumis aux règles des concepts.

Selon l’approche métaphysique, le réel est réel dans la mesure où il renvoie à des essences, des entités universelles et nécessaires qui sont ce qu’elles ont à être et ne peuvent être autrement. Elles sont exprimées à travers des individus que l’on rencontre dans l’expérience du monde. Ces individus sont réels dans la mesure où ils correspondent ce que prescrivent les essences, mais les variations qu’ils présentent vis-à-vis de ces dernières sont contingentes, c’est-à-dire accidentelles : elles pourraient être autrement, ne pas être. Elles ne suivent aucune nécessité d’où leur irréalité. L’individu, pour la science antique et médiévale, est ineffable car ce qui est connaissable en lui n’est pas son individualité mais l’essence qui le caractérise (Erismann, 2011 ; Marenbon, 1988, 1991 ; Pasnau, 1997). On comprend ainsi que la pensée accède à la loi du réel à travers les essences qu’elles appréhendent. Ces essences ne sont pas des entités mentales ou conceptuelles, mais elles ne sont accessibles que par la pensée qui les abstraient de l’expérience (tradition aristotélicienne) ou les intuitionnent directement (tradition augustinienne).

Selon l’approche épistémologique, le réel se donne via l’expérience sensible pour être arraisonné par l’entendement ou la faculté des concepts. Autrement dit, la variation du réel est soumise à ce que le concept peut en rendre compte par les lois / règles qui le traduisent et lui correspondent. C’est le concept de causalité, ou de gravité, qui se traduit par une loi sur les phénomènes mesurés d’espace et de temps. La philosophie kantienne (Kant, 1997) s’inscrit notamment dans cette approche.

On comprend bien les enjeux : le statut ontologique défini (l’essence, l’expérience sensible) définit un corrélat noétique qui prescrit en retour la variabilité associée et dès lors autorisée. L’essence définit la variation comme contingente, l’expérience sensible varie selon la norme prescrite par la règle conceptuelle. C’est selon cette dernière approche que l’on peut, certes grossièrement, envisager comme la modernité a assumé la variation du réel comme réponse au problème de connaître ce qui sort de la simple permanence ou répétition du même. 

Une articulation traditionnelle : Théorie – Loi – Modèle

Dans l’approche contemporaine de l’articulation pensée versus réalité, l’aporie parménidienne est réduite en considérant que l’apport du réel peut se représenter comme une variabilité enserrée dans la portée d’une loi qui en prescrit la forme. Chaque domaine scientifique s’est ainsi forgé une conception qui lui est propre pour caractériser et décliner cette articulation qui reste vague quand elle est considérée en général. Il est donc délicat d’en tirer des considérations qui se voudraient universelles. Cependant, un schéma semble se dégager qui serait en quelque sorte un idéal-type de la construction scientifique contemporaine dans les disciplines expérimentales. Idéal-type dans la mesure où il ne s’agit pas d’avoir l’essence de la science, ni une norme à laquelle tendre, mais un cadre conventionnel autour de définitions précises à partir desquels marquer les différences et les écarts que l’on peut constater çà et là entre les différentes pratiques scientifiques. Universaux de description et non de constitution, convention de formalisation et non de normalisation vers laquelle il faudrait tendre, le schéma général et les concepts associés que nous allons esquisser est une norme qui plus intéressante par les écarts qu’elle permet de constater que par les convergences qu’elle commanderait aux différentes disciplines.

Ce schéma général s’articule autour de trois notions complémentaires, celles de théorie, de loi et de modèle. Précisons les pour comprendre leur coopération.

Théorie

La théorie est la forme la plus générale qu’adopte une compréhension du monde ou d’une partie de ce dernier. Une théorie se constitue autour d’un objet ou d’un concept autour desquels se rattachent un ensemble de phénomènes que l’on peut rassembler d’une part et distinguer des autres d’autre part. Ainsi parlera-t-on de théorie de la chaleur, du mouvement, de la formation de l’univers, du vivant, de l’esprit, etc. L’objet d’une théorie est en première intention un objet vague abstrait du réel. En seconde intention, c’est le concept que la théorie propose pour rendre compte de l’objet réel. Ainsi la théorie du mouvement, objet vague concernant ce qui bouge ou se déplace, se traduit au sein de la théorie dans le concept de trajectoire mesurée en termes de temps et d’espace. Et la théorie, quand elle s’appelle mécanique classique, proposera les principes de la dynamique newtonienne pour montrer comment les mesures effectuées sur la trajectoire peuvent être comprises dans leur variabilité, selon les différentes configurations des systèmes considérés.

Mais quelle peut être la forme sous laquelle une théorie exprime la compréhension que l’on peut avoir des phénomènes mesurés ou constatés autour du comportement de l’objet étudié ? Cette forme est celle de lois qui prescrivent comment varient ces phénomènes et les grandeurs ou entités qui les caractérisent.

Loi

Une loi est l’expression idéalisée, autrement dit universelle et nécessaire, d’un rapport entre phénomènes. Si on prend l’exemple de la loi de la gravitation universelle, l’idée est qu’elle s’applique partout et tout le temps (elle est universelle), pour tout système, et qu’elle ne connaît aucune exception (elle est nécessaire). Universalité et nécessité sont liées : si quelque chose est nécessaire il est universel, et s’il est universel et ne peut connaître d’exception, c’est qu’il est nécessaire. Comme il est difficile de déterminer si une loi connaît ou non des exceptions, l’universalité constatée n’est que l’indice ou le symptôme de la nécessité et non la preuve. C’est pourquoi l’universalité nécessaire est postulée et non prouvée, et qu’elle ne s’applique pas au réel directement, mais seulement à des phénomènes idéalisés considérés à partir de ce dernier. Ainsi, la loi de gravitation ne s’applique qu’à des objets considérés comme des masses, elles-mêmes pouvant être rapportées à des points, i.e. des masses ponctuelles ce qui, pour être une expression habituelle des manuels, n’en reste pas moins une formulation paradoxale car un point qui, en mathématique n’a pas de surface, aurait néanmoins en physique une masse. Le principe d’inertie reste également un exemple de loi universelle s’appliquant à des systèmes idéalisés, car on considère un système en mouvement parfaitement isolé, ce qui en tout rigueur n’est vérifié que par l’univers entier lui-même, et seulement lui.

Le point important à cette étape est que la loi ne possède de rigueur que parce qu’elle se rapporte à des phénomènes idéalisés et décontextualisés. On constate par ailleurs, que la notion de loi peut avoir des acceptions nuancées selon les domaines en fonction de l’idéalisation apportée aux phénomènes considérés.

En effet, comme on vient de l’évoquer, les lois physiques sont d’une rigueur implacable dans la mesure où elle ne s’applique pas directement à la réalité, mais à des phénomènes réduits et idéalisés, que l’on peut rapporter à des mesures effectuées selon des protocoles traduisant dans la pratique l’idéalité portée par la théorie. C’est le propre du laboratoire que de permettre cette traduction et idéalisation, faisant de l’expérimentation une tout autre affaire que la simple expérience sensible ou vécue. L’expérimentation est le fait de convoquer le réel pour qu’il réponde d’une manière contrôlée et réduite, conforme à l’idéalité du phénomène étudié. L’enjeu alors de l’expérimentation est de s’adjoindre une théorie de l’erreur et de l’approximation pour que la variation de la mesure ne soit pas imputé au phénomène mesuré, qui reste fixe et invariable dans son idéalité (la masse de l’objet, la vitesse du mobile), mais bien au dispositif concret mis en œuvre. Et, pour que les deux soient compatibles, l’approximation de la mesure et des erreurs engendrées d’une part et l’idéalité du phénomène d’autre part, on fait de l’ensemble des mesures une distribution statistique autour d’un principe qui est la vraie mesure recherchée.

Mais dès qu’on s’intéresse à des phénomènes plus concrets ou plus complexes, où l’idéalisation est plus malaisée ou la réduction plus délicate, la loi devient moins universelle et nécessaire : elle connaît des exceptions, des variabilités lui échappent sans la remettre en cause. Ainsi en biologie. Alors que la gravitation universelle serait définitivement réfutée pour une seule mesure déviante, les lois biologiques sont moins inflexibles dans leur application : l’exception ne vient pas d’une erreur de mesure ou d’une fausseté de la loi, mais d’une erreur dans la mise en œuvre de cette loi par cette même nature dont la loi exprime le mode de fonctionnement : ainsi parle-t-on communément d’erreur de la nature, mais plus spécifiquement d’erreurs, par exemple dans la réplication d’un code génétique, où ce qui est prévu par la loi n’est pas réalisé du fait du dispositif biologique considéré.

La variabilité du vivant n’est donc pas de même nature que celle du physique et son rôle et rapport vis-à-vis de la légalité scientifique diffère. Alors que la loi physique rencontre les exceptions comme des réfutations, la loi biologique aborde l’exception comme une variation non prévue, non expliquée par la théorie, mais renvoyant à une variation dans la mise en œuvre de cette loi ne valant pas réfutation de cette dernière.

Enfin, autre domaine mettant en avant le concept de loi, le droit. Mais dans ce cas, on s’intéresse au fait humain en tant qu’il est vécu et assumé par des agents moraux ou civiques, c’est-à-dire des sujets de l’imputation morale ou juridique, et de l’engagement contractuel (en s’inspirant d’une approche de l’éthique et du droit héritée de (Ricoeur, 1990)). La loi juridique régule les faits en tant que les agents doivent pouvoir en rendre compte, rendre raison de leur attitude et action, et les engagements en tant que les agents choisissent de s’y conformer et acceptent de rendre compte des raisons qui auraient pu motiver de pas les tenir.

Dans ce cas, la variation non conforme à la légalité des faits n’est ni sur le mode de la réfutation ou de l’erreur, elle se module sous la forme de l’écart dont il faut rendre raison. La loi ne doit changer par ce qu’elle serait fausse, la nature humaine n’a pas commis d’erreur dans la mise en œuvre de la loi, mais les circonstances et le contexte ont conduit des agents à ne pas suivre la prescription de la loi, et il faut alors juger si cet écart est bien une infraction à la loi, infraction alors à punir, ou bien si d’autres motivations sont à considérer pour retenir d’autres facteurs que le simple écart, comme la conformité à d’autres principes ou lois.

On pourrait encore citer d’autres acceptions de la notion de loi où la variation prend d’autres connotations (voir tableau ci-dessous) : ainsi, dans le domaine anthropologique ou sociologique, la loi exprime plutôt des stéréotypes ou des moyennes qui n’ont pas pour vocation de constituer un cadre dans lequel enfermer les phénomènes, mais de décrire ce que l’on rencontre la plupart du temps en fonction de certaines prédéterminations sans interdire qu’il puisse en être autrement là ou ailleurs.

Domaine

Phénomènes considérés

Valeur de la variation non légalement prévue

Physique

Mesures approximant des phénomènes idéalisés de la nature

Erreur de mesure : l’expérimentation doit être refaite.

Réfutation : la loi doit être révisée

Biologie

Mesures approximant des phénomènes concrets rencontrés dans des systèmes vivants

Erreur : la loi repose sur des mécanismes dont le fonctionnement « normal » prescrit des résultats nécessaires, mais dont la mise en œuvre peut connaître des erreurs.

Droit

Faits imputés à des agents humains

Infraction : la loi doit être confrontée aux circonstances et aux lois ou principes

Sociologie

Faits collectifs

Écart : l’individu est décrit dans son écart à la norme ou la loi, non pour réviser la seconde ou juger le premier, mais pour en rendre compte en tant qu’individu.

Mais la loi doit être révisée quand les écarts dans leur multiplicité réfutent le caractère typique qu’elle prédit.

 

Modèle

La théorie se traduit par des lois qui prescrivent le comportement des phénomènes. Mais le caractère légal des lois, ce qui peut faire d’elles des lois, n’est obtenu qu’en opérant une abstraction et une idéalisation des phénomènes considérés. La loi est légale car elle ne porte pas sur le réel concret, mais celui abstrait et réduit par le laboratoire et convoqué par l’expérimentation.

Si cette articulation théorie – loi permet de comprendre de larges pans de notre environnement, elle ne permet pas toujours de comprendre l’ici et le maintenant des objets et des situations que l’on rencontre. Pour que la compréhension scientifique des phénomènes puisse enrichir notre compréhension et manipulation du réel qui nous environne, il est nécessaire d’adjoindre un troisième volet, celui de modèle.

Nous appellerons modèle toute représentation d’un objet ou d’une situation permettant de les étudier sans avoir à convoquer le réel dont le modèle est la représentation. Autrement dit, le modèle fournit un substitut du réel que l’on peut directement expérimenter sans avoir à se confronter au réel lui-même. Mais pour que la substitution soit pertinente et efficiente, certaines conditions doivent être remplies, en particulier la conformité aux lois et théories.

Précisons à présent les termes de notre définition et comment ils s’agencent. Tout d’abord, un modèle est la représentation d’un objet ou d’une situation. Cela implique qu’on a affaire à une réalité concrète mais bornée, délimitée. On veut faire le modèle d’un dispositif, d’une machine par exemple, ou d’une situation, des objets dans un contexte particulier. Or, puisque l’on envisage des objets ou situations concrets, ces derniers peuvent relever de différentes théories ou points de vue. En effet, une théorie, comme on l’a dit, définit arbitrairement un segment du réel qu’elle envisage à travers une notion ou un phénomène centraux : le mouvement, la chaleur, etc. Or, un même objet peut manifester ces deux phénomènes ainsi que d’autres encore. Il faut donc mobiliser ces différentes théories pour rendre compte d’un même objet ou d’une même situation. Ce sont donc plusieurs lois qu’il faut composer, alors que les théories dont elles relèvent ne prescrivent pas par elles-mêmes comment il faut procéder à une telle composition : une théorie mécanique du mouvement ne dit pas comment elle peut s’articuler à une théorie de la diffusion de la chaleur. Le modèle propose par lui-même une manière de les composer, et pour ce faire, propose des simplifications ou réductions pour rester intelligible et exploitable.

Par ailleurs, le modèle simplifie lois et théories pour rendre compte d’un objet ou d’une situation : il n’est donc valable que pour ces derniers, et dans certaines conditions de fonctionnement ou de comportement. Autrement dit, contrairement aux théories et lois, les modèles ne sont ni universels ni nécessaires, mais locaux et contextuels.

Enfin, un modèle ne sert pas à remettre en cause les lois dont il procède : le modèle permet d’expérimenter l’objet et la situation qu’il représente. On suppose que les lois sont justes, et il faut ajuster les paramètres et simplifications qui ont permis d’élaborer le modèle. Aussi distingue-t-on deux étapes essentielles :

  • Dans un premier temps, le modèle est calibré : en considérant les objets ou situations réelles modélisés, on vérifie que le modèle se comporte, répond, comme l’objet ou la situation représentés. Cela permet de s’assurer que les simplifications et paramétrages sont corrects. Cette vérification porte sur des plages de valeurs, ce qui permet de délimiter un périmètre de validité. Autrement dit, non seulement le modèle est local à un objet ou une situation, mais il est en outre local à une certaine plage de fonctionnement où on le considère comme valide ; en dehors, il est inutilisable.
  • Dans un second temps, en restant dans le périmètre de validité, le modèle est exploité : il peut être utilisé pour répondre à la place du réel aux questions que l’on se pose à propos de ce dernier, étant attendu que ces questions ne portent que sur les objets et situations modélisés dans les limites de la calibration effectuée.

L’exploitation du modèle peut répondre à différentes finalités selon les questions qui lui sont posées :

  • Finalité cognitive : le modèle sert à comprendre comment fonctionne l’objet et se comporte en fonction des conditions de fonctionnement ;
  • Finalité prédictive : le modèle sert à prédire comment évolue le système modélisé à travers son fonctionnement ; le modèle simule alors le réel. Cette finalité prédictive peut avoir également différentes finalités :
    • Finalité de conception : le modèle permet de faire varier un objet et de le simuler pour déduire les principales caractéristiques de son comportement ; c’est une approche très habituelle en conception mécanique par exemple ;
    • Finalité de diagnostic : en face d’un objet défectueux, on considère un modèle dans lequel on reproduit ce qu’on pense être l’origine de la panne, et la simulation permet de constater si on reproduit bien le même défaut, confirmant ainsi l’hypothèse diagnostic, et permettant donc de préconiser la réparation à effectuer. C’est l’approche notamment mises en œuvre dans les jumeaux numériques.
    • Finalité décisionnelle : le modèle sert à prévoir l’évolution à partir d’une situation présente dont on a mesuré les principaux paramètres ensuite injectés dans le modèle. Selon le résultat obtenu, une décision peut être prise pour modifier les paramètres du réel et entraîner une évolution jugée plus vertueuse.

Cette liste n’est bien sûr pas exhaustive et n’est limitée que par le respect des limites de validité du modèle.

Modèle comme machine à prédire, reposant sur des machines à calculer

On a donc une déclinaison qui part d’une théorie qui se traduit en lois qui elles-mêmes se composent et se déclinent en modèles. Alors que les lois sont universelles et nécessaires, portant sur des phénomènes idéalisés, dont l’idéalité est la condition de possibilité de l’universalité et nécessité légales, les modèles qui en procèdent sont locaux, propres à des situations et objets d’une part et à des conditions particulières de fonctionnement de ces derniers d’autre part.

Une question peut se poser concernant la mise en œuvre des modèles et leur opérationnalité. En effet, pour se substituer au réel et répondre aux questions qu’on leur pose, les modèles doivent se comporter comme une reproduction du réel, bref, comme une machine. L’enjeu est que le modèle puisse produire un résultat à partir des paramètres des objets et situations à reproduire. Cette reproduction machinale peut reposer sur des maquettes, des « modèles réduits » ou encore sur des machines à calculer. Ces configurations se rapprochent beaucoup de l’expérience en laboratoire, mais une différence fondamentale les distingue: alors qu’une expérience scientifique, permettant l’élaboration d’une loi, vise à observer un phénomène idéalisé et générique, le modèle par l’expérimentation qu’il propose vise à simuler un objet concret ou une situation singulière.

Dans le contexte calculatoire, les lois scientifiques mobilisées dans les modèles, les simplifications et hypothèses adoptées, aboutissent à des règles de fonctionnement qui se traduisent par des calculs à effectuer. Pour cela il est nécessaire que ces règles soient quantitatives et possèdent des traductions ou versions numériques. Le modèle devient la plupart du temps numérique pour être effectivement exploitable (ce n’est pas une condition nécessaire : les diagrammes scientifiques comme les diagrammes de phase, ou de diagrammes de Feynman, etc., sont des machines permettant d’obtenir des résultats sans pour autant être des outils numériques informatisés (Ferri, 2021)).

Au final, il est désormais habituel que les modèles soient numériques et computationnels. Par l’intermédiaire du calcul, les lois sont opérationnalisées dans leur mobilisation dans le modèle. Le modèle est donc un artefact qui produit des réponses calculées à la place d’un objet du réel et à partir de sa représentation, qui s’appelle, par métonymie, modélisation.

Une hiérarchie bouleversée par le calcul

L’idéal-type qui se dégage est donc simple : une théorie donnant un point de vue sur le monde, autour d’un objet ou d’une notion abstraite, des lois qui formalisent les phénomènes s’y rattachant, des modèles qui articulent ces lois entre elles et avec celles d’autres théories pour représenter des objets ou situations concrets, et enfin des artefacts computationnels qui opérationnalisent les modèles pour en faire des machines à simuler ce que modélisent les modèles sans avoir à les consulter.

Cette hiérarchisation correspond à une spécialisation croissante et une validité ou généralité décroissante. En effet, si la théorie est générale, car valable toujours et partout pour les phénomènes idéalisés qu’elle considère, un modèle n’est valable que pour des circonstances et contextes clairement identifiés sous peine d’obtenir des réponses erronées ou ininterprétables.

Cependant, le caractère calculatoire des artéfacts computationnels amène à renverser cette hiérarchie, voire à en faire l’économie. En effet, le modèle peut suggérer qu’il peut fonctionner dès lors qu’il est possible de lui soumettre des données numériques. On peut envisager d’obtenir des modèles reposant seulement sur leur capacité à mettre en relation des données numériques, indépendamment des théories et lois que reflèteraient ces données.

Cette possibilité est assumée à divers titres et à plusieurs niveaux. D’un point de vue épistémologique, Gray dans (Hey, Tansley, & Tolle, 2009) propose de considérer qu’il existe un nouveau paradigme, dans son sens kuhnien (Kuhn, 1983), succédant aux trois paradigmes historiques précédents : le premier correspondant à l’expérience (e.g. le soleil se lève à l’est, tous les jours), le second à la théorie (e.g. la loi de la gravitation universelle, les lois de la mécanique quantique), le troisième aux modèles calculatoires (au sens où nous les avons définis ici, par exemple les modèles numériques utilisés pour la prévision météorologique). Il y a lieu de parler d’un nouveau et quatrième paradigme dans la mesure où il remplace les précédents et permet de faire l’économie de la théorie et des modèles calculatoires : les données fournissent une base numérique calculatoire suffisante (ce qui rend compte du troisième paradigme), représentant dans sa masse le savoir empirique (ce qui rend compte du premier paradigme), permettant d’abstraire des régularités et corrélations donnant lieu de lois et savoirs abstraits (rendant compte finalement du deuxième paradigme).

D’un point de vue de la pratique scientifique, on peut citer les nouvelles perspectives que cela ouvre pour des disciplines pour lesquelles la modélisation est par construction un exercice délicat voire artificiel, notamment les sciences humaines. Lev Manovich (2008) a pu ainsi proposer de développer une analytique de la culture (cultural analytics) où les données culturelles permettent de dégager des motifs et schémas d’analyse et interprétation des contenus culturels. On peut enfin citer pour mémoire un point de vue plus polémique, à savoir celui de Chris Anderson (2008) qui évoque une disparition de la théorie.

L’artefact computationnel obtenu à partir des données et de leur traitement n’est pas un modèle au même sens que celui que possède ce terme dans la hiérarchie Théorie – Lois – Modèle – Artefact. En effet, le modèle au sens de cette hiérarchie est un modèle du monde, un modèle d’un objet concret ou d’une situation effective. Appelons ce type de modèle « modèle de théories », le pluriel de ce dernier terme provenant du fait que les modèles sont souvent à l’intersection de plusieurs visions théoriques qu’il faut agencer. En revanche, le modèle obtenu à partir du traitement d’une masse des données n’est pas un modèle d’un objet précis, mais consiste dans un modèle des données précisément, dans leur relation mutuelle et leurs éventuelles dépendances ou redondances. Au lieu de porter sur un réel dont la connaissance a permis d’ajuster les simplifications et les approximations des lois déclinant les différents points de vue à mobiliser sur ce réel, le modèle numérique de données n’est obtenu que par abstraction à partir des données et non à partir d’intégration de connaissances préalables. C’est la raison pour laquelle ce modèle numérique de données peut faire l’économie de la théorie mais qu’il ne peut tenir lieu des modèles qui en sont tirés. Appelons ce type de modèle « modèle de données ».

Modèles de théories et modèles de données

Modèles de théories et modèles de données sont donc deux figures épistémiques opposées : l’une préconise d’élaborer des modèles par des ajustements et compromis théorique, la seconde considère le théorique comme l’abstraction obtenue par le modèle composé de données et opérant sur elles. Cette opposition est cependant à relativiser.

D’une part, les approches sociohistoriques sauraient argumenter contre nous que, loin de s’opposer, ces deux types de modèles ne cessent de se composer dans l’histoire des sciences telles qu’elles se sont élaborées. Nous en convenons volontiers et tel n’est pas notre propos de renoncer à ces évidences historiques.

D’autre part, et c’est le point qui nous intéresse directement ici, les modèles de données mobilisent bien de la théorie sans l’induire ni l’abstraire, mais la nature et la mobilisation des théories en jeu sont bien différentes de celles associées aux modèles de théories. Dans les modèles de données, la manière dont sont collectées et formatées les données repose sur des hypothèses plus ou moins explicites sur le lien existant entre la donnée et ce dont  elle est la donnée : lien indiciaire, représentationnel, arbitraire ou conventionnel, etc. En outre, la recherche de corrélations entre les données s’effectue sur le fondement de lois, théories relevant de théories statistiques, probabilistes, c’est-à-dire sur des lois formalisant la variabilité que l’on peut trouver dans les données.

Ce qui est particulièrement intéressant dans les modèles de données est que l’import théorique ne repose pas directement sur une théorisation du réel, mais sur la manière de considérer la distribution et la variation des données. D’une certaine manière, on passe des lois physiques utilisées dans les modèles de théories aux lois numériques dans les modèles de données.

Enfin, le rapport à la variabilité n’est pas le même dans les modèles de théories et les modèles de données. Alors que les premiers produisent des données variables lors de leur utilisation, on veut retrouver par exemple le comportement d’une turbine dans ses différentes situations de fonctionnement, les seconds produiront plutôt des théories variables à partir de même corpus de données. En effet, la constitution récente des grandes masses de données en a fait des ressources rendues plus ou moins accessibles, comme autant de mondes représentés et donnés à tester et expérimenter. Aussi est-il recommandé de livrer ses données, de référencer les corpus ou masses de données utilisés pour que l’on puisse refaire le travail ou les utiliser pour que d’autres expérimentations extraient de nouvelles propositions théoriques.

Sous-jacent à ces bonnes pratiques recommandées par la communauté scientifique travaille l’idée que ces données tiennent lieu du réel, qu’elles donnent le réel dans une forme directement exploitable. Cette supposition est largement problématique : les données ne sont pas données par le réel, mais un dispositif de collecte ou d’enregistrement qui institue un réel, le décrète et le conforme. La donnée est une forme sophistiquée et modernisée de l’idéalité classique des lois théoriques : ces dernières ne parlent pas du réel mais du monde idéalisé dont elles formulent la cohérence, les données ne parlent du réel et ne le donnent pas plus qu’elles ne sont données par lui, elles ne parlent que du dispositif qui les a constituées et des hypothèses qui les ont formatées pour les soumettre aux calculs à venir.

Non pas traces du réel, vestiges ou enregistrements de ce dernier, les données sont des conventions plus ou moins arbitraires pour abstraire des relations entre elles. Les modèles de données ne sont donc pas des substituts des modèles de théories, ils ne les remplacent pas car ils ne peuvent répondre aux mêmes questions. Ils nous renseignent sur le réel qu’à condition de les replonger dans une problématisation du lien entre les données et ce dont elles sont la donnée. C’est donc à une articulation entre ces types de modèles qu’il faut désormais travailler.

Une nouvelle articulation à envisager

Il pourrait être tentant d’opposer les deux types modèles auxquels nous avons abouti selon le rôle joué par l’artefact calculatoire correspondant à leur opérationnalisation. Cependant, puisqu’il est probable qu’il est plus fécond de les composer que de les opposer, il nous semble plus pertinent de revenir à notre problème initial, la variabilité du réel d’une part et notre capacité à en rendre raison sans l’annuler pour autant. Il s’agit alors de définir s’il y a lieu de dégager différentes raisons rendant compte de différents régimes de variabilité.

Le départ du raisonnement est la notion de situation : il s’agit du contexte dans lequel l’être humain est toujours déjà plongé, ce qui le comprend et l’enserre. S’il lui est possible de considérer la situation dans sa globalité, il ne peut s’en extraire et la considérer comme s’il en était extérieur car son point de vue fait partie du système qu’il veut représenter : l’humain est un être déjà jeté selon la terminologie heideggerienne d’Être et Temps (Heidegger, 1986 [1927]). Mais nous l’avons suggéré, l’humain peut envisager la situation qu’il rencontre et la penser pour raisonner à son endroit ; comme dit Pascal dans ses Pensées (Pascal, 2015) : « Par l’espace l’univers me comprend et m’engloutit comme un point, par la pensée je le comprends ». Il en est de même d’une situation.

Comment la penser alors ? Nous proposons de la caractériser d’une part comme une phénoménalité qui se manifeste et donc qui possède des formes variées d’une part, et comme une histoire qui possède ses dynamiques et forces en présence. Dynamiques de ce qui y agit, formes de ce qui s’appréhende, une situation est la rencontre entre ce que l’on perçoit (ou non) et l’action à laquelle on participe (ou non). Cette perspective permet alors de comprendre ce qui arrive ou survient dans une telle situation et de déterminer la réponse qu’on y apporte. Cela ne signifie pas d’ailleurs que nous, agent humain, comprenons pour agir ensuite comme si l’action résultait d’une réflexion préalable, mais plutôt que notre action est toujours une réponse à ce que nous avons saisi de la situation, des formes manifestées et des forces en présence.

C’est pourquoi on peut d’une part de poser la question de ce que l’on peut saisir et comprendre, et les différentes manières de le faire, et d’autre part distinguer les raisons qui déterminent la réponse apportée.

La situation entre fait et événement, répétition et irruption

Comme la philosophie de la connaissance l’a thématisé dès son origine ainsi que nous l’avons dit, et comme la phénoménologie l’a reconduit, comprendre ce qui nous arrive est d’abord reconnaître ce qui arrive comme étant déjà arrivé, comme la répétition d’un déjà survenu, d’un fait que l’on sait qualifier comme tel car on reconnaît sa nature et on en détermine les propriétés : on rencontre un autre être humain, et on constate sa taille par exemple. Mais en cas d’échec, il y a événement, c’est-à-dire irruption d’un nouveau, de ce qui fait date pour devenir un fait potentiellement reproduit par la suite. La situation est donc un mixte de faits (reconnus car déjà survenus) et d’événements nouveaux (irruption de ce qui n’est pas reconnu mais à connaître). La distinction entre faits et événements n’est pas exclusive, chaque fait pouvant porter sa part de nouveau : l’individu que je rencontre, que je le reconnais comme être humain mais je ne le connais pas comme personne, et j’apprends donc à la connaître. Mais, et c’est là un motif cher à la phénoménologie (Romano, 1998), il y a des événements échappant à toute reconnaissance préalable, l’inouï (au sens littéral, ce qu’on n’a encore jamais entendu), l’incroyable. On sait qu’il arrive quelque chose, mais on ne sait pas ce qui arrive. On a donc une sorte de continuum allant du parfaitement reconnu à l’irruption du parfaitement inconnu, avec toute sorte de gradation entre ces extrêmes.

Si on pose que toute situation s’aborde comme une répétition de ce que l’on connaît déjà ou l’irruption de ce que l’on ne connaît pas encore, comment construire une connaissance qui en rende compte ?

La répétition peut porter sur la forme de la manifestation ou sur le dynamique des forces en présence.  Pour reconnaître le déjà connu, il faudra donc réduire la diversité des phénomènes pour les rapporter à une forme unique, ou encore réduire les dynamiques causales perçues. On retrouve ces deux procès dans l’histoire des idées :  la science galiléo-cartésienne n’est pas autre chose en effet, à travers la mathesis universalis (Rabouin, 2009), que la réduction des phénomènes rencontrés à une forme mathématiquement manipulable. De même les forces en présence sont rapportées à des principes fondamentaux dont la métaphysique antique et médiévale s’est efforcée de recenser et systématiser (Gilson, 1986 [1944]) : l’enjeu est de distinguer les causes prochaines ou lointaines, les causes matérielles ou formelles, etc. On retrouve ce qui constitue les fondements de la raison savante : la mathesis conduit à la preuve formelle, à la démonstration, où seule compte la forme unique que l’on retient, forme numérique ou abstraite, de même que la systématisation des causes à laquelle se livre la métaphysique distingue des principes permettant de construire des argumentations. De tels arguments se rencontrent dès lors qu’on invoque des principes sous lesquels un raisonnement est produit : un principe de moindre action en physique, un principe du vivant en biologie, un principe de raison suffisante en philosophie, un principe légal dans le droit, un principe éthique en moral, etc.

En revanche, l’irruption impose d’identifier du nouveau, autrement dit de créer une nouvelle identité pour ce nouveau dont il faut rendre compte. Identifier une forme nouvelle de manifestation, c’est constater un écart qu’il ne convient pas de réduire, en le considérant comme une erreur, mais comme une nouvelle entité à intégrer dans notre univers, comme une entité de plein droit. Repéré comme une variation faisant écart au déjà là, à une norme, le nouveau est une différence qui surgit et qui revendique sa reconnaissance comme telle.

Cette formulation phénoménologique ne doit pas dérouter car elle renvoie à des attitudes fort banales : toute compréhension linguistique consiste à comprendre l’usage d’un terme dans un contexte donné en comprenant en quoi cet usage diffère du sens normé par le dictionnaire ou l’usage que nous connaissions jusque-là. De même, l’enquêteur recherche des indices, des traces qui se détachent comme des intrus de leur environnement, car elles renvoient à une histoire qui leur est propre et n’est pas celle de leur environnement direct. C’est donc le paradigme indiciaire de l’enquête (Thouard, 2007), de l’herméneutique, où la différence est constitutive du sens et non son approximation fautive (Rastier, 1991). Enfin, la dynamique nouvelle que l’on distingue ou ressent permet de constater qu’il se passe quelque chose, qu’on n’assiste pas à ce qui s’est déjà joué ici ou ailleurs : il y a événement car il y aura un après de ce qui s’est passé dans la situation. Il faudrait en faire le récit.

Si aborder une situation consiste à y reconnaître un fait déjà survenu ou prendre la mesure de l’irruption d’un nouveau qui s’inaugure, chacune de ces postures se confronte à une limite qui l’engage à emprunter à l’autre : aucun fait qui ne possède sa part de nouveauté, aucune nouveauté qui ne possède un parfum de déjà-vu. C’est que chaque situation est la rencontre de deux problèmes ou puissances d’échappement à nos capacités à rendre raison du réel et à comprendre ce qui survient ou ce qui nous arrive :

  • L’inépuisable contingence des faits : quelle que soit la nécessité dans laquelle nous tâchons d’enserrer le réel, notre rapport à l’expérience est avant tout une traque de la contingence, le fait de s’apercevoir que ce qui arrive n’est jamais totalement ce à quoi on s’attend, ne serait-ce parce que l’on veut le vérifier ; en effet, la posture scientifique traditionnelle ne repose-t-elle pas sur le principe de vérifier les déductions faites à partir d’hypothèses ? Cela signifie que, même si le réel répond à nos attentes et semble s’y conformer, notre interrogation expérimentale repose dans son principe sur le fait qu’on suppose a priori qu’il pourrait en être autrement, que le réel pourrait offrir une autre vérité, une contingence nouvelle qu’il faudrait arraisonner de manière inédite.
  • L’autre dépassement ou échappement est l’infinie qualification d’un monde nouveau : autrement dit, la description de ce qui arrive est potentiellement infinie, car les termes que nous utilisons pour le décrire emprunte nécessairement à nos expériences passées si bien que la nouveauté est toujours inadéquatement décrite. Pour cela, les mots nous manquent, et existeraient-ils qu’ils seraient déjà fautifs, car le sens disponible ne saurait rendre compte d’une nouveauté qui ne peut se réduire à un déjà connu lui-même déjà nommé.

Si bien que le fait répété excède toujours par sa contingence en écarts qu’il faut réduire ou relever, et le nouveau constaté ne peut que susciter un manque dans nos descriptions ou théories qui veulent en rendre compte. Si le monde est ce que nos théories ou compréhensions communes en disent, le réel n’est pas contenu dans le monde, mais il affleure ou dépasse entre les théories contredites par l’expérience et la nouveauté mal décrite. D’où la volonté inépuisable de chasser le réel aux frontières du monde, à travers la recherche théorique ou la recherche créative, l’art étant souvent proche de la science dans ce rapport à l’excès du réel, l’excès de réel.

La situation et les raisons d’agir

Si la preuve, l’argument, l’enquête ou le récit permettent de comprendre ce qui nous arrive, à quoi on assiste ou participe dans une situation, il est nécessaire de se donner une raison d’agir, une base pour répondre à la situation car, si on la comprend par notre analyse, elle nous comprend comme l’un de ses actants et nous ne pouvons pas ne pas y répondre.

Plusieurs motifs président à nos actions. Max Weber en a proposé une recension systématique et articulée selon les formes de rationalité qu’il a distinguées dans les sociétés humaines et les savoirs qu’elles développaient. Si l’on suit ses commentateurs (Fleury, 2017 ; Kalberg, 2002) ainsi bien sûr que son œuvre épistémologique (1965), Weber distingue plusieurs formes de raison :

  • La raison « formelle » : il s’agit notamment pour Weber de la raison à l’œuvre dans la bureaucratie, où la décision se prend de manière formelle, indépendamment du fond de ce qui est traité ;
  • La raison « théorique » : c’est le domaine de la science et de la connaissance théorique ;
  • La raison « substantielle » : c’est le domaine de l’éthique ou morale, où les valeurs axiologiques déterminent ce qu’il faut faire ;
  • La raison « pratique » : qui renvoie à la raison instrumentale ou technique, ce qu’on entreprend pour atteindre un but et dont l’efficacité comme moyen est éprouvée.

Ces quatre raisons renvoient à un déjà-là qui indique comment répondre à la situation et déterminer l’action à entreprendre. Ces motifs sont somme toute assez simples et banals :

  • On fait ce qui a déjà marché, la raison pratique ou instrumentale ;
  • On fait comme on a toujours fait, la raison formelle ou bureaucratique ;
  • On fait comme on pense qu’il faudrait faire, la raison substantielle ou éthique ;
  • On fait selon ce qu’on a compris jusque-là, la raison théorique.

Toutes ces raisons ne font guère de place à une réalité qui serait en excès : cette dernière serait plutôt la source de leur échec, chacune dans sa propre dimension : l’expérimentation qui échoue, une possibilité nouvelle où le formalisme éthique est sans réponse, une technique qui ne produit pas le résultat escompté ou qui ne peut atteindre les objectifs fixés. Seule la raison bureaucratique, étant formelle et coupée du réel, fonctionne de manière aveugle et ne peut échouer : selon son point de vue, ce n’est pas la procédure qui échoue, mais le réel qui n'est pas conforme et qui est dans l’erreur. Il convient alors de se mettre dans les conditions requises pour que la procédure fournisse son efficace attendue.

Le lien est donc fort lâche entre les raisons du comprendre (ce qui arrive, comme fait répété ou irruption survenue) et les raisons d’agir (déterminer l’action à entreprendre). Le lien s’effectue finalement à travers non pas les raisons permettant de déterminer l’action, mais de la justifier a posteriori au vu de ses résultats : c’est en tâchant de comprendre ce que nous avons provoqué que nous pouvons traduire en preuve, argument, enquête ou récit la réponse du réel et justifier ainsi les raisons de nos actions.

Encore faut-il qu’il y ait encore la place pour entendre une réponse qui n’est pas celle attendue par nos raisons d’agir. Qu’est-ce que l’attente en question ? C’est attendre un comportement du réel conforme à ce qu’on en comprend ou espère. Cette attente repose souvent sur un modèle, et éventuellement les artefacts computationnels qui le déclinent. Comment réaliser qu’un modèle est fautif et doit renvoyer à une justification qui le remet en cause ? Les modèles déduits des théories, du fait de leur localité revendiquée et assumée, permettent ces ajustements : il y a de la place pour l’erreur, pour un réel qui n’est pas celui qu’on attend.

Qu’en est-il pour les modèles issus de données qui transcrivent l’état mesuré ou quantifié de la réalité ? Par nature, ces modèles ne renvoient pas une théorie qui formule des attentes, mais à un cadre immanent aux données. Il ne se réfute ni s’ajuste de la même manière, manière qui reste encore largement à inventer. Les modèles de données donnent souvent lieu pour leur justification ou explication à des récits qui articulent leur origine ou leur historicité aux attentes des acteurs de la situation. Ce storytelling (Salmon, 2008) est plus ou moins motivé et rationnalisé, introduisant la difficulté qu’il est aisé de donner à sens à ce qui est raconté mais délicat de s’assurer que ce sens donné est correct, cohérent et motivé par les données de la situation (Bachimont, 2016). Le numérique instaure ainsi le besoin d’une nouvelle intelligibilité des modèles permettant à la fois d’exploiter le potentiel des données mais aussi de les enrôler dans des procédés de justification qui ne soient pas tautologiques vis-à-vis des méthodes employées ou des données mobilisées.

Ces questions sont cruciales et peuvent remettre en cause la légitimité des modèles de données : en quoi est-il rationnel, justifié, pertinent d’adosser une décision sur une abstraction induite d’une masse de données ? De quoi le modèle obtenu est-il le modèle ? La masse de données est, par sa masse même, une représentation du réel qui ne dit pas quelles sont les lois gouvernant ses représentations, à l’instar des représentations en perspective qui se naturalisent au point de ne plus avoir à justifier en quoi elles sont des représentations ni de quoi elles le sont (Damisch, 1993). On fait varier les interprétations, non les données : à quoi donc alors confronter les conclusions inférées et abstraites ?

D’un problème ontologique et épistémologique, nous arrivons à un problème éthique, celui de pouvoir assumer nos décisions, nos raisons d’agir, en face du répété et du nouveau. Or, dans une masse de données figée dans sa prétendue exhaustivité, la nouveauté ne peut être que celle du regard qui explore, non du réel qui répond ou réagit puisqu’il n’est plus interrogé, la situation étudiée n’étant plus ouverte dans sa contingence à un réel potentiellement en excès. Deux malheurs ou déréliction s’annoncent aux êtres considérés via le prisme du numérique : être réduit à une donnée, ne pas en être une.

Conclusion

Les modèles sont un outil privilégié dans l’investigation du réel. Représentation d’un objet concret ou d’une situation effective, un modèle permet d’en tenir lieu et d’être interrogé à sa place pour répondre aux questions qu’on pourrait lui poser, que ce soit pour anticiper, simuler ou comprendre ce qui est ainsi représenté. Un modèle procède le plus souvent de théories qui chacune constitue une certaine conceptualisation du réel, selon un point de vue qui lui est propre et qui repose sur des lois. Le modèle consiste alors en une articulation de ces concepts et lois, via des simplifications et approximations qui permet d’intégrer ces éléments a priori indépendants voire hétérogènes. C’est la raison pour laquelle un modèle possède un périmètre de validité à l’intérieur duquel il peut répondre de manière fiable à la place du réel qu’il représente. En revanche, au-delà de ce périmètre, le modèle est proprement inutilisable.

Puisque le modèle tient lieu du réel qu’il remplace pour être interroger à sa place, il doit être effectif, il doit donc fonctionner. Le modèle comprend une dimension machinale, opérationnelle, effective qui se traduit la plupart du temps par un artefact computationnel (mais pas obligatoirement comme le rappellent les diagrammes en sciences). Le calcul est alors ce qui permet de réaliser l’effectivité du modèle et de fonctionner selon les attentes qui l’ont motivé.

Mais de tels artefacts computationnels ne sont pas toujours la traduction calculatoire de lois et théories intégrés dans un modèle, mais peuvent également être issus de données qui sont collectées à partir de moyens empiriques. Le modèle construit à partir d’elles n’est plus la concrétisation d’une théorie, ni un substitut du réel au périmètre limité et à la validité relative, mais un artefact qui prétend posséder autant de réalité que les données dont il est issu sans d’autres limitations que celles de leur collecte. Il reste donc à motiver l’usage raisonné de tels modèles, à l’instar des modèles computationnels issus des théories. Comment justifier leur usage ? Comment justifier, gérer et assumer leurs erreurs ? Quelles logiques de compréhension permettent d’aborder les conséquences issues de leur utilisation ?

Les logiques de compréhension renvoient aux différentes manières d’aborder une situation, dans sa part de répétition du déjà connu versus l’irruption du radicalement nouveau. A ce titre, comprendre peut prendre la forme de la preuve, de l’argument, de l’enquête ou du récit selon la capacité que l’on possède d’une part d’enserrer ce qui arrive dans les lois de la répétition nécessaire ou attendue (preuve ou argument) ou de rendre compte de la nouveauté signifiante dans son écart à la norme attendue (enquête ou récit).

Ce sont ces formes qu’il conviendrait de dégager et d’adapter pour l’usage des artefacts computationnels que sont les modèles de données, pour les rationnaliser et les intégrer dans notre rapport au réel, où l’on motive ses décisions en jugement raisonné par un discours réflexif (Bachimont, 2022). Alors que les modèles théoriques reposent sur des théories et lois qui les précèdent, les modèles de données permettent d’envisager des discours réflexifs qui leur succèdent. On a ainsi la possibilité d’inventer et d’innover à partir de ce que peuvent nous révéler les modèles de données. C’est donc un nouvel horizon épistémique à consolider, à l’instar de ce que fut en partie le siècle dernier en équipant les théories des modèles permettant de les mettre en œuvre sur des réalités concrètes.

Bibliographie

Anderson, C. (2008). The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired.

Damisch, H. (1993). L’origine de la perspective. Paris:  Champs Flammarion.

Erismann, C. (2011). L'homme commun : la genèse du réalisme ontologique durant le haut Moyen-Âge. Paris:  Vrin (Sic et non).

Ferri, F. (2021). science opérative et ingénierie sémiotique : des machines graphiques à la morphogenèse organique. (Thèse de Doctorat Thèse de Doctorat). Université de technologie de Compiègne, Compiègne.

Fleury, L. (2017). Max Weber : la responsabilité devant l’histoire. Paris:  Armand Colin

Gilson, E. [1944] (1986). La philosophie au Moyen-âge : des origines patristiques à la fin du XIVe siècle. Paris:  Payot.

Heidegger, M. [1927] (1986). être et Temps  (Sein un Zeit,  F. Vézin Trans.). Paris:  Gallimard (Bibliothèque de de Philosophie Série : œuvres de Martin  Heidegger).

Hey, T., Tansley, S., & Tolle, K. (2009). The Fourth Paradigm : Data-Intensive Scientific Discovery. Redmond Microsoft Research.

Kalberg, S. (2002). La sociologie historique et comparative de Max Weber. Paris:  La Découverte / MAUSS (Recherches).

Kant, E. (1997). Critique de la raison pure  (T. d. A. Renaut Trans.). Paris:  Aubier (Bibliothèque philosophique).

Kuhn, T. (1983). La structure des révolutions scientifiques:  Flammarion.

Manovich, L. (2008). Cultural analytics: analysis and visualisation of large cultural data sets.

Marenbon, J. (1988). Early Medieval Philosophy (480 - 1150) : an introduction. London:  Routledge.

Marenbon, J. (1991). Later Medieval Philosophy (1150-1350) ; an Introduction. London:  Routledge.

Moreau, J. (1985). Aristote et son Ecole. Paris:  Presses Universitaires de France.

Parménide. (1988). Fragments. In J.-L. Dumont (Ed.), Les Présocratiques (pp. 255-272): Gallimard.

Parménide. (1998). Sur la nature ou sur l'étant : la langue de l'Être ?  (B. Cassin Trans.). Paris:  Folio/essais.

Pascal, B. (2015). Pensées. Paris:  Garnier-Flammarion.

Pasnau, R. (1997). Theories of Cognition in the Later Middle Ages. Cambridge:  Cambridge University Press.

Platon. (1993). Le Sophiste  (N. L. Cordero Trans.). Paris:  Garnier-Flammarion.

Platon. (1999). Ménon  (M. Canto-Sperber Trans.). Paris:  Garnier-Flammarion.

Rabouin, D. (2009). Mathesis universalis : l’idée de « mathématique universelle » d’Aristote à Descartes. Paris:  Presses universitaires de France (Epiméthée).

Rastier, F. (1991). Sémantique et Recherches Cognitives. Paris:  Presses Universitaires de France.

Ricoeur, P. (1990). Soi-même comme un autre. Paris:  Seuil (Points essais).

Romano, C. (1998). L'événement et le monde. Paris:  Presses universitaires de France (Epiméthée).

Salmon, C. (2008). Storytelling : la machine à  fabriquer des histoires et à formater les esprits. Paris:  La Découverte.

Schlick, M. [1925] (2005). Théorie générale de la connaissance  (Allgemeine ErkenntnisLehre). Paris:  Gallimard.

Simondon, G. (1989). Du mode d'existence des objets techniques. Paris:  Aubier (Res : l'invention philosophique).

Thouard, D. (Ed.) (2007). L'interprétation des indices : Enquête sur le paradigme indiciaire de Carlo Ginzburg. Villeneuve d'Ascq: Presses universitaire du Septentrion (Opuscule Phi).

Weber, M. (1965). Essais sur la théorie de la science  (J. Freund Trans.). Paris:  Plon.

 

 


Imprimer   E-mail