6 Septembre 2025
Le problème de la sous-détermination de la théorie par l’expérience constitue l’un des points nodaux de la philosophie des sciences contemporaine, en particulier dans le cadre de la philosophie analytique. Il désigne la situation dans laquelle un ensemble de données empiriques est compatible avec plusieurs théories concurrentes, de sorte qu’aucune expérience ne permet de trancher définitivement entre elles. Ce problème, qui trouve ses racines dans les travaux de Pierre Duhem au début du XXe siècle, a été reformulé et radicalisé par Willard Van Orman Quine dans la seconde moitié du siècle, notamment dans son célèbre article « Two Dogmas of Empiricism » (1951). Duhem, physicien et philosophe, avait déjà souligné que les expériences scientifiques ne testent jamais une hypothèse isolée, mais toujours un ensemble de propositions théoriques et auxiliaires. Ainsi, lorsqu’une prédiction échoue, il est impossible de savoir quelle partie du système théorique est en faute. Quine étend cette thèse à l’ensemble du langage et de la connaissance, affirmant que nos croyances forment un réseau holistique, où l’expérience ne vient jamais confirmer ou infirmer une proposition isolée, mais affecte l’ensemble du système. La sous-détermination devient alors une thèse épistémologique générale : pour tout ensemble de données empiriques, il existe toujours plusieurs systèmes théoriques compatibles, et aucune méthode empirique ne permet de choisir rationnellement entre eux.
Ce constat a des implications profondes pour la philosophie analytique, notamment dans les débats entre réalisme et anti-réalisme. Le réalisme scientifique soutient que les théories scientifiques décrivent la réalité objective, même si cette réalité est inaccessible directement. L’anti-réalisme, en revanche, considère que les théories ne sont que des instruments pour organiser et prédire les phénomènes observables. L’argument de la sous-détermination est souvent mobilisé par les anti-réalistes pour montrer que le succès empirique d’une théorie ne garantit pas sa vérité : une autre théorie, empiriquement équivalente mais ontologiquement différente, pourrait tout aussi bien rendre compte des mêmes observations. Ce point est illustré par les exemples historiques de la mécanique céleste : le système de Ptolémée et celui de Copernic pouvaient, à un moment donné, rendre compte des mêmes observations astronomiques, bien qu’ils reposent sur des conceptions du monde radicalement différentes. De même, en physique contemporaine, plusieurs interprétations de la mécanique quantique (comme l’interprétation de Copenhague, la théorie des mondes multiples ou la théorie de Bohm) sont empiriquement équivalentes, mais philosophiquement divergentes. La sous-détermination soulève donc la question de savoir si la science progresse vers la vérité ou seulement vers une meilleure efficacité prédictive.
Dans la philosophie analytique, ce problème a conduit à une remise en question du fondement empirique de la connaissance scientifique. Le positivisme logique, qui dominait au début du XXe siècle, postulait que les énoncés scientifiques devaient être vérifiables empiriquement. Mais la sous-détermination montre que la vérification empirique est insuffisante pour établir la vérité d’une théorie. Cela a conduit à l’abandon du critère de vérifiabilité au profit du critère de falsifiabilité proposé par Karl Popper. Selon Popper, une théorie est scientifique si elle peut être réfutée par l’expérience. Mais même ce critère se heurte au holisme de la confirmation : une expérience qui contredit une prédiction ne réfute pas nécessairement la théorie, car l’erreur peut résider dans les hypothèses auxiliaires. Ainsi, la philosophie analytique a dû reconnaître que la relation entre théorie et expérience est médiée par un ensemble complexe de présupposés, de conventions et d’interprétations. Cela a ouvert la voie à une approche plus pragmatique et pluraliste de la science, où la rationalité scientifique ne repose plus sur une correspondance directe avec les faits, mais sur des critères internes comme la cohérence, la simplicité, la fécondité heuristique ou la robustesse expérimentale.
Ce problème de la sous-détermination entre en résonance avec la distinction que vous évoquez entre les cas et les textes. Les cas, entendus comme les faits, les événements ou les accidents, sont ce qui arrive dans le monde, ce qui est donné dans l’expérience. Les textes, en revanche, sont les traces écrites, les formulations théoriques, les constructions langagières qui subsistent et organisent ces cas. Cette distinction rappelle la tension entre le donné empirique et la structure théorique, entre l’observation et l’interprétation. Les cas sont toujours plus riches que les textes, car ils débordent les cadres conceptuels dans lesquels on tente de les inscrire. Il y a toujours un excès du réel sur le discours, une opacité du monde que le langage ne parvient pas à épuiser. Cela rejoint la critique de la diglossie chez Wittgenstein, c’est-à-dire la séparation entre le langage parlé (vivant, évolutif, contextuel) et le langage écrit (figé, normatif, abstrait). Wittgenstein, dans ses derniers travaux, notamment dans les Recherches philosophiques, insiste sur le fait que le sens d’un mot dépend de son usage dans une forme de vie, et non d’une définition fixe. Il évacue ainsi la possibilité d’une langue idéale, universelle et transparente, au profit d’une approche pragmatique et contextuelle du langage. Cette position renforce l’idée que les textes ne peuvent jamais capturer pleinement les cas, que la théorie ne peut jamais épuiser l’expérience.
La sous-détermination de la théorie par l’expérience révèle donc une limite structurelle de la connaissance scientifique : le monde ne se donne jamais directement, il est toujours médié par des constructions théoriques, des modèles (paradigmes), des langages (échantillons). Cette médiation est nécessaire, mais elle est aussi source d’ambiguïté, de pluralité, de contestation. Elle oblige à penser la science non comme une accumulation de vérités, mais comme une pratique discursive, sociale et historique, soumise à des révisions constantes. Elle invite aussi à reconnaître la richesse irréductible de l’expérience, des cas, des faits, qui résistent à toute formalisation. Enfin, elle ouvre la voie à une philosophie du langage et de la connaissance qui accepte l’incertitude, la pluralité des perspectives, et la nécessité de l’interprétation. Dans ce cadre, la philosophie analytique, loin d’être une entreprise de clarification définitive, devient un exercice de lucidité sur les limites de nos outils conceptuels, et sur la complexité du rapport entre le monde et nos discours.
La sous-détermination de la théorie par l'expérience constitue l'un des problèmes épistémologiques les plus cruciaux de la philosophie des sciences contemporaine. Cette thèse soutient que les données empiriques disponibles à un moment donné sont insuffisantes pour déterminer de manière univoque quelle théorie scientifique nous devons adopter parmi plusieurs alternatives logiquement incompatibles mais empiriquement équivalentes. En d'autres termes, pour tout ensemble de données observationnelles, il existe en principe une infinité de théories distinctes qui peuvent rendre compte de ces mêmes observations de façon également satisfaisante. Cette indétermination importante remet en question l'idée selon laquelle l'expérience pourrait servir de tribunal ultime pour trancher entre théories concurrentes et soulève des interrogations profondes sur la « nature* » de la « connaissance* » scientifique, son objectivité présumée et les critères de choix théorique.
Le problème de la sous-détermination trouve son amorce dans la tradition empiriste, mais il a acquis une formulation particulièrement aiguë au XXe siècle avec les travaux de Pierre Duhem et Willard Van Orman Quine. Duhem avait déjà identifié l'impossibilité de tester isolément une hypothèse scientifique, montrant que toute vérification expérimentale implique un ensemble complexe d'hypothèses auxiliaires, de théories instrumentales et de présuppositions méthodologiques. Quine, reprenant et radicalisant cette intuition, a formulé la thèse de l'indétermination de la traduction et de l'inscription holistique de nos théories dans notre conception du monde, suggérant que nos systèmes conceptuels dans leur totalité font face au tribunal de l'expérience sensible. Cette perspective holistique implique qu'aucune théorie particulière ne peut être réfutée de manière définitive, car il est toujours possible de préserver une théorie en ajustant d'autres parties du système théorique global.
L'émergence du problème de la sous-détermination s'enracine dans une critique progressive de l'empirisme naïf qui postulait une correspondance directe et transparente entre les phénomènes observés et les théories qui en rendent compte. Déjà au XVIIe siècle, des penseurs comme René Descartes avaient souligné la possibilité de construire des explications mécanistes alternatives pour rendre compte des mêmes phénomènes « naturels* ». Cependant, c'est véritablement avec l'essor de la philosophie des sciences au XXe siècle que cette problématique a acquis une formulation rigoureuse et systématique. Pierre Duhem, dans "La Théorie physique, son objet et sa structure" (1906), développe ce qui sera plus tard appelé la thèse Duhem-Quine en montrant qu'une expérience en physique ne peut jamais condamner une hypothèse isolée, mais seulement un ensemble théorique complet. Cette impossibilité de l'experimentum crucis newtonien découle du fait que toute prédiction expérimentale dérive non pas d'une seule hypothèse, mais d'un ensemble complexe comprenant l'hypothèse testée, des hypothèses auxiliaires sur les instruments de mesure, des théories sur les conditions expérimentales, et des présuppositions mathématiques et logiques.
Willard Van Orman Quine radicalise cette intuition dans "Two Dogmas of Empiricism" (1951) en remettant en question la distinction traditionnelle entre énoncés analytiques et synthétiques, ainsi que le réductionnisme qui prétend que chaque énoncé significatif possède une portée empirique déterminée. Selon Quine, nos énoncés sur le monde extérieur ne font face au tribunal de l'expérience sensible que globalement et collectivement, formant ce qu'il appelle une "toile de croyances" où les révisions peuvent affecter n'importe quelle partie du système théorique. Cette conception holiste implique qu'il existe toujours plusieurs façons de réviser nos croyances face à une expérience récalcitrante, et qu'aucune théorie particulière n'est à l'abri d'une révision, pas même les principes logiques les plus fondamentaux. La sous-détermination devient ainsi une conséquence inévitable de cette vision holistique de la connaissance, où l'ajustement aux données empiriques ne suffit jamais à déterminer univoquement le choix théorique.
Il convient de distinguer plusieurs types de sous-détermination qui, bien qu'apparentées, soulèvent des problèmes philosophiques distincts.
Un premier type, la sous-détermination faible ou transitoire concerne les situations où, à un moment donné de l'histoire des sciences, plusieurs théories sont compatibles avec les données disponibles, mais où l'accumulation de nouvelles observations pourrait théoriquement permettre de trancher entre elles. Cette type de sous-détermination est généralement considéré comme une étape normale et temporaire dans le développement scientifique, reflétant simplement l'état incomplet de nos connaissances empiriques à un instant donné. Elle ne remet pas fondamentalement en question la capacité de l'expérience à guider ultimement le choix théorique, mais souligne plutôt les limites pratiques de nos procédures d'enquête à un moment particulier.
Un deuxième ftype, la sous-détermination forte ou permanente représente un défi philosophique beaucoup plus radical. Elle affirme qu'il existe, en principe et de façon permanente, des théories logiquement incompatibles mais empiriquement équivalentes, c'est-à-dire qui font exactement les mêmes prédictions observationnelles pour tous les tests possibles, y compris ceux qui pourraient être conçus dans le futur. Cette équivalence empirique globale implique qu'aucune accumulation d'observations ne pourra jamais permettre de discriminer entre ces théories alternatives. Les exemples classiques incluent les transformations mathématiques qui laissent invariantes toutes les prédictions observationnelles d'une théorie, comme certaines symétries de jauge en physique des particules, ou les reformulations logiquement équivalentes d'une même théorie dans des vocabulaires ontologiques différents.
Un troisième ftype, la sous-détermination constructive ou créative, concerne la capacité de construire délibérément des alternatives théoriques empiriquement équivalentes à une théorie donnée. Cette construction peut s'appuyer sur diverses stratégies philosophiques et mathématiques : réinterprétation ontologique des termes théoriques, introduction d'entités inobservables compensatrices, reformulation dans un formalisme alternatif, ou application de transformations préservant l'adéquation empirique. L'existence de ces méthodes de construction suggère que la sous-détermination forte n'est pas seulement un phénomène contingent que l'on pourrait rencontrer occasionnellement, mais une possibilité systématique inscrite dans la structure même de la théorisation scientifique.
L'école de philosophie analytique a apporté des contributions décisives à l'analyse et à la compréhension du problème de la sous-détermination, particulièrement à travers l'œuvre de philosophes comme Willard Van Orman Quine, Nelson Goodman, Hilary Putnam, et plus récemment Larry Laudan et Kyle Stanford. L'approche analytique se caractérise par une méthode rigoureuse d'analyse logique et conceptuelle, cherchant à clarifier les présuppositions implicites et à formaliser les arguments de manière précise. Dans le contexte de la sous-détermination, cette approche a permis de distinguer différents types de problèmes, d'identifier les conditions précises sous lesquelles ils émergent, et d'évaluer leurs implications pour diverses conceptions de la rationalité scientifique et de l'objectivité de la connaissance.
Quine, figure centrale de cette école, a développé une conception naturaliste et holistique de l'épistémologie qui fait de la sous-détermination une caractéristique inévitable de notre rapport au monde. Son argument de l'indétermination de la traduction illustre cette thèse en montrant qu'il existe toujours plusieurs manuels de traduction incompatibles entre eux mais également compatibles avec l'ensemble des dispositions comportementales observables d'une communauté linguistique. Cette indétermination de la traduction reflète une indétermination plus fondamentale de la référence et de la signification, suggérant que nos théories scientifiques ne décrivent pas le monde de manière univoque mais constituent plutôt des systèmes conceptuels alternatifs pour organiser notre expérience. L'inscription holistique de nos croyances dans un réseau interconnecté implique que la révision face à l'expérience récalcitrante peut affecter n'importe quelle partie du système, rendant impossible la détermination unique d'une théorie par les données empiriques.
Nelson Goodman, dans Fact, Fiction, and Forecast (1955), contribue à cette réflexion en développant le paradoxe de l'induction et le problème de la projectibilité des prédicats. Son fameux exemple du prédicat "vert" illustre comment des ensembles infinis de généralizations empiriquement équivalentes peuvent être formulées à partir des mêmes observations, soulevant la question de savoir pourquoi nous considérons certaines généralisations comme plus naturelles ou projectable que d'autres. Cette analyse révèle que le problème de la sous-détermination ne concerne pas seulement le choix entre théories explicitement formulées, mais implique également des présuppositions plus profondes sur la nature des propriétés naturelles et des régularités légitimes. La solution de Goodman, qui fait appel à l'histoire d'usage et d'enracinement des prédicats, suggère que les critères de choix théorique ne peuvent être purement empiriques mais doivent incorporer des considérations pragmatiques et historiques sur nos pratiques conceptuelles.
Hilary Putnam aborde le problème sous l'angle du réalisme scientifique et de la référence des termes théoriques. Dans Reason, Truth and History (1981), il développe l'argument de l'invariance modèle-théorique pour montrer qu'une théorie donnée possède toujours des modèles non-standard qui satisfont toutes ses contraintes formelles tout en différant radicalement quant à l'interprétation de ses termes théoriques. Cette multiplicité des modèles implique que la référence de nos concepts scientifiques est indéterminée même si nous spécifions complètement leur comportement logique et empirique. Putnam en conclut que le réalisme métaphysique, qui postule une correspondance unique entre nos théories et la structure objective du monde, est incohérent. Cette critique l'amène à développer une conception internaliste ou anti-réaliste selon laquelle la vérité et la référence ne peuvent être définies qu'à l'intérieur de schèmes conceptuels particuliers, sans possibilité de transcendance vers un "point de vue de Dieu" qui permettrait d'évaluer objectivement la correspondance entre nos théories et la réalité.
Le problème de la sous-détermination soulève des questions fondamentales concernant la nature de la rationalité scientifique et les critères légitimes de choix théorique. Si l'expérience ne peut déterminer univoquement nos théories, sur quels autres critères pouvons-nous nous appuyer pour guider nos décisions épistémiques ? Cette interrogation a stimulé le développement de diverses approches philosophiques cherchant à identifier des vertus théoriques supplémentaires qui pourraient compléter l'adéquation empirique dans l'évaluation des théories concurrentes. Parmi ces vertus, on trouve traditionnellement la simplicité, la cohérence interne, la fécondité heuristique, la généralité explicative, l'élégance mathématique, et la consonance avec les théories déjà établies. Cependant, l'appel à ces critères soulève immédiatement de nouvelles difficultés : comment définir précisément ces notions souvent vagues et intuitives ? Comment les hiérarchiser lorsqu'ils entrent en conflit ? Dans quelle mesure leur application ne reflète-t-elle pas simplement les préférences subjectives ou les conventions culturelles de la communauté scientifique plutôt que des contraintes objectives de la rationalité ?
L'analyse de ces vertus théoriques révèle leur caractère souvent contextuel et historiquement variable. La simplicité, par exemple, peut être comprise comme simplicité syntaxique (nombre minimal de axiomes), simplicité sémantique (parcimonie ontologique), ou simplicité pragmatique (facilité de manipulation). Ces différentes conceptions peuvent entrer en conflit et leur évaluation dépend largement des formalismes adoptés et des questions considérées comme pertinentes. De même, la cohérence avec les théories établies peut jouer un rôle conservateur excessif, empêchant l'innovation conceptuelle radicale qui caractérise les grandes révolutions scientifiques. L'histoire des sciences montre que les théories les plus fructueuses ont souvent été initialement perçues comme inélégantes, contre-intuitives, ou incompatibles avec les cadres théoriques dominants. Cette observation suggère que l'appel aux vertus théoriques, bien que nécessaire, ne peut résoudre définitivement le problème de la sous-détermination sans introduire de nouveaux éléments de subjectivité et de relativité historique.
La question se pose également de savoir si la sous-détermination constitue réellement un problème pratique pour l'activité scientifique ou demeure une inquiétude purement philosophique sans impact sur la recherche effective. Les défenseurs du "quietisme" épistémologique soutiennent que les scientifiques disposent de critères pragmatiques suffisants pour guider leurs choix théoriques sans avoir besoin de résoudre les dilemmes philosophiques abstraits soulevés par la sous-détermination. Selon cette perspective, la science progresse efficacement en s'appuyant sur des considérations de fécondité heuristique, de potentiel explicatif, et d'intégration avec les programmes de recherche établis, indépendamment de la possibilité théorique d'alternatives empiriquement équivalentes. Cette réponse pragmatiste met l'accent sur la fonction instrumentale de la théorisation scientifique plutôt que sur sa prétention à décrire la structure ultime de la réalité.
Cependant, cette réponse quietiste n'épuise pas les implications philosophiques du problème. La sous-détermination remet en question l'interprétation réaliste de la science qui voit dans nos meilleures théories une description approximativement vraie de la structure objective du monde. Si des théories incompatibles peuvent être également bien confirmées par l'expérience, comment maintenir que l'une d'entre elles capture mieux la nature de la réalité ? Cette difficulté a stimulé le développement de conceptions anti-réalistes ou instrumentalistes qui interprètent les théories scientifiques comme des outils conceptuels pour organiser et prédire les phénomènes observables plutôt que comme des descriptions littérales d'une réalité indépendante. L'anti-réalisme constructif de Bas van Fraassen, par exemple, propose de limiter l'engagement ontologique de la science à l'adéquation empirique, considérant que l'acceptation d'une théorie ne implique pas la croyance en la vérité de ses affirmations sur les entités inobservables.
Les développements récents en philosophie des sciences ont apporté de nouvelles perspectives sur le problème de la sous-détermination, particulièrement à travers les travaux de Larry Laudan, Kyle Stanford, et les débats autour du réalisme scientifique structural. Larry Laudan, dans "Demystifying Underdetermination" (1990), a remis en question la pertinence philosophique du problème en distinguant entre sous-détermination holistique et sous-détermination contrastive. Il argue que la sous-détermination holistique, bien que logiquement possible, ne constitue pas un problème pratique pour l'évaluation théorique car elle ne fournit pas d'alternatives théoriques spécifiques avec lesquelles comparer nos théories actuelles. La sous-détermination contrastive, qui concerne le choix entre théories rivales explicitement formulées, serait plus pertinente mais également plus rare que ne le suggèrent les discussions philosophiques traditionnelles. Laudan soutient que l'histoire des sciences révèle peu de cas authentiques où des théories empiriquement équivalentes ont coexisté durablement, les apparent cas de sous-détermination étant généralement résolus par l'accumulation de nouvelles données empiriques ou par l'application de critères théoriques supplémentaires.
Kyle Stanford, dans "Exceeding Our Grasp (2006), développe une argumentation différente centrée sur le problème de l'induction pessimiste et ce qu'il appelle le "problème des alternatives non conçues". Il argue que l'histoire des sciences révèle une tendance récurrente : nos meilleures théories, même lorsqu'elles semblent empiriquement bien confirmées, sont régulièrement supplantées par des alternatives conceptuellement radicales que les scientifiques de l'époque n'avaient même pas envisagées. Cette récurrence historique suggère que notre confiance actuelle en nos meilleures théories pourrait être injustifiée, non pas parce que nous disposons déjà d'alternatives empiriquement équivalentes, mais parce que nous sommes systématiquement incapables de concevoir les alternatives que les développements futurs révéleront comme supérieures. Cette argumentation déplace le focus de la sous-détermination synchronique vers une forme de sous-détermination diachronique qui met l'accent sur les limites cognitives et imaginatives de l'enquête scientifique.
Le réalisme scientifique structural, développé par des philosophes comme John Worrall, Steven French, et James Ladyman, propose une réponse originale au problème en distinguant entre le contenu ontologique des théories et leur structure mathématique. Selon cette approche, ce qui se conserve à travers les révolutions scientifiques et peut prétendre à la vérité approximative n'est pas l'interprétation ontologique spécifique des théories (les entités postulées et leurs propriétés intrinsèques), mais leur structure relationnelle telle qu'elle est exprimée dans leur formalisme mathématique. Cette conception permettrait de préserver le réalisme scientifique tout en reconnaissant que différentes interprétations ontologiques d'une même structure mathématique peuvent être empiriquement équivalentes. La sous-détermination concernerait alors l'interprétation métaphysique des théories plutôt que leur contenu structurel, ce dernier étant déterminé de façon plus robuste par l'expérience.
L'analogie avec la richesse des cas par rapport aux textes ouvre également une réflexion sur les théories de la signification et leur relation avec le problème de la sous-détermination. Si nous acceptons l'idée que les situations concrètes possèdent une richesse phénoménale qui excède nos capacités de théorisation explicite, cela suggère une conception de la signification qui ne peut être complètement capturée par des définitions formelles ou des critères d'application explicites. Cette perspective évoque les développements récents en sémantique cognitive et en philosophie de l'esprit qui mettent l'accent sur les aspects incarnés, contextuels, et pragmatiques de la compréhension linguistique. Les théories de la cognition incarnée suggèrent que notre compréhension conceptuelle est ancrée dans notre expérience sensori-motrice et notre interaction avec l'environnement, impliquant que la signification ne peut être réduite à des représentations symboliques abstraites.
Cette conception incarnée de la « signification* » pourrait éclairer le profil exact de la sous-détermination théorique. Si nos concepts scientifiques sont ancrés dans des pratiques expérimentales, des habiletés techniques, et des types d'expertise tacite qui ne peuvent être complètement explicitées (cela renvoie au problème de l'objectivité), alors la possibilité de théories alternatives empiriquement équivalentes pourrait refléter différentes façons d'articuler conceptuellement cette connaissance pratique implicite. Les controverses scientifiques ne concerneraient pas seulement l'interprétation de données neutres, mais impliqueraient des divergences plus profondes dans les modes d'engagement pratique avec les phénomènes étudiés. Cette perspective suggère que la résolution de la sous-détermination pourrait nécessiter non seulement l'accumulation de nouvelles données empiriques, mais également le développement de nouvelles pratiques expérimentales et de nouveaux modes d'interaction avec les phénomènes.
Si on prend en compte la remarque selon laquelle "les cas sont plus riches que les textes ne le sont", cela ouvre une perspective intéressante sur la relation entre la sous-détermination théorique et le dispositif des textes comme registres. Cette observation suggère une asymétrie fondamentale entre la complexité phénoménale du réel - "les cas", c'est-à-dire les situations concrètes dans leur singularité et leur richesse contextuelle - et les ressources expressives de nos systèmes symboliques - "les textes", c'est-à-dire les formalisations linguistiques et mathématiques par lesquelles nous cherchons à saisir, enregistrer et transmettre notre compréhension. Cette asymétrie pourrait constituer une source profonde de la sous-détermination : si la réalité de ce qui advient excède toujours nos capacités de descrption sans parler de théorisation explicite, alors nos théories ne peuvent qu'offrir des approximations particulières et révisables, laissant nécessairement ouvert l'espace pour des conceptualisations alternatives.
Cette perspective évoque la distinction wittgensteinienne entre ce qui peut être dit et ce qui ne peut qu'être montré, ainsi que sa critique de l'idée selon laquelle le langage pourrait fonctionner comme une représentation transparente de la réalité. Dans les Investigations philosophiques, Wittgenstein développe une conception du langage comme ensemble de jeux de langage inscrits dans des formes de vie particulières, remettant en question l'idée d'un métalangage universel qui pourrait surplomber la diversité des pratiques linguistiques. Cette analyse suggère que nos théorisation scientifiques sont elles-mêmes inscrites dans des jeux de langage spécifiques avec leurs règles, leurs critères de correction, et leurs présuppositions implicites. La possibilité de reformuler une même théorie dans des vocabulaires ontologiques différents reflèterait alors cette pluralité fondamentale des jeux de langage plutôt qu'une défaillance contingente de nos méthodes de théorisation.
Une dimension sociolinguistique peut s'ajouter à cette réflexion (car prise dans une visée de connaissance, c'est encore une réflexion et non une pensée au dehors). La diglossie désigne la coexistence, dans une même communauté, de deux variétés linguistiques fonctionnellement distinctes : l'une, considérée comme "haute", est utilisée dans les contextes formels et prestigieux, l'autre, "basse", dans les interactions quotidiennes informelles. Si Wittgenstein "évacue" cette problématique, c'est peut-être parce que sa conception des jeux de langage refuse la hiérarchisation normative entre différents usages linguistiques, considérant que chaque jeu possède sa propre logique interne et ses critères de correction appropriés. Dans le contexte de la philosophie des sciences, cette perspective pourrait suggérer qu'il n'existe pas de métalangage scientifique privilégié qui pourrait trancher définitivement entre théories alternatives, mais seulement des jeux de langage théoriques différents avec leurs propres règles de formation, de transformation et d'évaluation.
L'évolution linguistique mentionnée dans votre formulation soulève la question de la temporalité et de l'historicité de nos concepts théoriques. Si nos langages scientifiques sont en évolution constante, alors la sous-détermination pourrait refléter non pas une limite statique de la théorisation, mais plutôt la nature dynamique et ouverte de l'entreprise conceptuelle. Les théories alternatives ne seraient pas seulement des possibilités logiques abstraites, mais des potentialités d'évolution conceptuelle qui pourraient être actualisées par les développements futurs de la recherche. Cette conception évolutionnaire de la théorisation scientifique suggère que la sous-détermination, loin de constituer un obstacle à la connaissance, pourrait être la condition même de sa possibilité de développement et d'innovation.
La question de l'évolution linguistique soulève également des problèmes intéressants concernant la commensurabilité entre théories et la possibilité de traduction entre paradigmes scientifiques. Si nos concepts théoriques sont en évolution constante, comment pouvons-nous évaluer la continuité ou la rupture entre théories successives ? Le problème de la sous-détermination se complique ici d'une dimension historique : non seulement nous devons choisir entre théories alternatives à un moment donné, mais nous devons également évaluer la relation entre nos théories actuelles et celles du passé ou du futur. Cette temporalité de la théorisation scientifique suggère que la sous-détermination n'est pas seulement un problème logique concernant les relations entre théories et données, mais également un problème herméneutique concernant l'interprétation de l'histoire conceptuelle et la projection de développements futurs.
Le problème de la sous-détermination de la théorie par l'expérience révèle la complexité des processus de choix théorique et remet en question les conceptions simplifiées de la méthode scientifique qui privilégient exclusivement l'adéquation empirique. Loin de constituer un défaut ou une limite regrettable de l'entreprise scientifique, cette indétermination pourrait refléter la richesse même de la réalité phénoménale et la créativité conceptuelle de l'intelligence humaine. L'existence d'alternatives théoriques empiriquement équivalentes témoigne de notre capacité à développer des perspectives multiples sur les mêmes phénomènes, ouvrant l'espace pour l'innovation conceptuelle et la révision critique de nos cadres théoriques établis.
L'analogie avec la richesse des cas par rapport aux textes suggère que cette indétermination n'est pas accidentelle mais reflète une asymétrie fondamentale entre la complexité du réel et les ressources de nos systèmes de représentation. Cette perspective invite à développer une conception plus nuancée de la rationalité scientifique qui reconnaît l'importance des critères pragmatiques, esthétiques, et heuristiques dans l'évaluation théorique, tout en maintenant l'exigence de rigueur empirique et logique. La sous-détermination devient alors non pas un obstacle à surmonter, mais une caractéristique constitutive de l'enquête scientifique qui témoigne de sa « nature* » ouverte et créative.
Les développements futurs de cette problématique devront sans doute intégrer les apports de l'épistémologie sociale, de la philosophie de la technologie, et des sciences cognitives pour développer une compréhension plus complète des processus collectifs de construction et d'évaluation des connaissances scientifiques. La reconnaissance que la théorisation scientifique est un processus social, techniquement médié, et cognitivement situé ouvre de nouvelles perspectives pour comprendre comment les communautés scientifiques négocient effectivement les choix théoriques face à la sous-détermination, et comment ces processus de négociation façonnent l'évolution de nos conceptions du « monde naturel ».
La sous-détermination de la théorie par l'expérience est, en philosophie des sciences, l'idée selon laquelle les données empiriques disponibles (les « expériences », au sens large incluant observations, mesures et occurrences factuelles) ne déterminent pas de façon unique une théorie scientifique : pour un ensemble donné d'observations 𝐸 on peut trouver au moins deux théories 𝑇 et 𝑇′ qui sont toutes deux compatibles avec 𝐸 (autrement dit qui rendent compte, ou qui sont empiriquement équivalentes à propos de 𝐸 de sorte que les seules données expérimentales ne suffisent pas à trancher rationnellement entre 𝑇 et 𝑇′. Définitions rapides : par « théorie » j'entends ici un ensemble organisé d'énoncés généraux explicitant des lois, des mécanismes ou des structures explicatives ; par « empirique » j'entends tout ce qui relève d'observations ou d'enregistrements factuels ; et par « empirically equivalent » (équivalence empirique) on entend que deux théories impliquent, ou at least : sont compatibles avec, les mêmes résultats observables possibles (au moins dans le domaine considéré). Cette idée est loin d'être anecdotique : elle met en lumière la structure logique des tests empiriques, la place des hypothèses auxiliaires et la façon dont le langage théorique (les concepts, les modèles, les représentations) représente un monde beaucoup plus riche et nuancé que ce que peuvent capturer des séries d'observations finies. Le problème a une histoire intellectuelle exposée classiquement par Pierre Duhem (qui a insisté, dans la discussion de la physique expérimentale, sur l'impossibilité de tester une seule loi isolément parce que l'expérience met en jeu des hypothèses auxiliaires : instruments, conditions initiales, hypothèses connexes) et par Willard Van Orman Quine qui a généralisé ce holisme expérimental en une thèse plus large (le « Duhem-Quine thesis ») : nos théories forment un réseau cohérent de croyances testé seulement globalement, si bien qu'il est toujours possible de sauvegarder une théorie en ajustant d'autres parties du réseau. Autrement dit, une « falsification » apparente peut être imputée soit à la théorie centrale, soit aux hypothèses auxiliaires, soit aux conditions expérimentales, ce qui relativise la lecture simple et naïve du test empirique. On peut caractériser plusieurs formes de sous-détermination : la sous-détermination logique (ou théorique), qui est la possibilité logique qu'existent des théories en principe distinctes mais parfaitement empiriquement équivalentes (c'est une menace forte pour le réalisme scientifique si elle est réelle et durable) ; la sous-détermination historique (ou transitoire), qui tient au fait que, à un moment donné de l'histoire, plusieurs théories peuvent rendre compte des mêmes données mais que des expériences futures ou de nouvelles techniques de mesure les départageront ; la sous-détermination pragmatique, où le choix se fait selon des critères non strictement empiriques (simplicité, pouvoir unificateur, fruitfulness, fécondité heuristique, intelligibilité conceptuelle), et la sous-détermination d'interprétation (classique dans la physique quantique) où des interprétations radicalement différentes partagent toutes les mêmes prédictions expérimentales. Un énoncé formel fréquent : on dira que 𝑇 est sous-déterminée par 𝐸 s'il existe 𝑇′ tel que, pour toute phrase observationnelle 𝑂 (pour tout énoncé concernant le résultat d'une observation possible relevant du domaine), 𝑇 implique 𝑂 si et seulement si 𝑇′ implique 𝑂. Ce formalisme met en lumière la force du défi : si l'équivalence est vraie pour toutes observations possibles, alors aucune expérience future ne différenciera les théories, d'où la distinction cruciale entre sous-détermination « éventuelle » (résoluble) et « inamovible » (permanente). Les exemples historiques aident à sentir le terrain : certains oppositions historiques (par ex. versions géocentrique vs. héliocentrique, avant certains développements empiriques) présentaient un degré de sous-détermination ; plus récemment, la multiplicité d'interprétations de la mécanique quantique (interprétation de Copenhague, mécanique de Bohm, interprétation des mondes multiples, etc.) illustre une sous-détermination persistante, ces interprétations donnent, pour l'essentiel, les mêmes prédictions expérimentales non relativistes, tout en divergeant profondément sur l'ontologie (ce qui existe selon la théorie). De même, historiquement, la théorie de l'éther lorentzien et la relativité restreinte d'Einstein étaient, jusqu'à un certain point, rivales mais empiriquement concordantes sur une large gamme de phénomènes ; les choix entre elles eurent à la fois des raisons empiriques et des raisons théoriques (simplicité, unification) non réductibles aux seules données. La conséquence philosophique la plus notoire est le défi que la sous-détermination lance au réalisme scientifique (la thèse selon laquelle les meilleures théories sont vraies ou au moins approximativement vraies quant à les entités non observables). Si plusieurs théories empiriquement équivalentes présentent des ontologies incompatibles, qu'est-ce qui justifie la croyance que l'une d'elles dit la « vérité » sur les entités non observables ? Les anti-réalistes (instrumentalistes, constructivistes) exploitent ce point pour soutenir qu'il faut se contenter d'acceptation empirique ou d'« adéquation empirique » plutôt que d'engager une ontologie forte. Bas van Fraassen, par exemple, défend cette position dite du constructive empiricism : une science est acceptable si elle rend compte des phénomènes observables (si elle est empiriquement adéquate), sans qu'il soit nécessaire de croire à la réalité littérale des entités théoriques. En face, les réalistes comme Hilary Putnam ont avancé des contre-arguments (par ex. la « no-miracles argument ») : le succès explicatif et prédictif des théories serait mieux expliqué si ces théories étaient proches de la vérité, mais la sous-détermination rend cet argument moins immédiat puisqu'il reste concevable d'expliquer le succès par d'autres voies ou par un empirically equivalent rival. Une voie médiane est le réalisme structurel (différenciant réalisme structurel « ontique » et « épistémique ») : peut-être ne pouvons-nous pas connaître la « nature* ultime » des entités théoriques, mais nous pouvons connaître la structure des relations qui relèvent des théories (l'idée est que ce qui reste stable entre théories empiriquement équivalentes est souvent une structure mathématique ou relationnelle que l'on peut légitimement tenir pour « vraie » ou au moins partiellement sauvegardable). Sur le plan méthodologique, la sous-détermination a aussi stimulé des réponses variées : Karl Popper proposa la falsifiabilité comme critère de démarcation et jugea que la science avance par conjectures et réfutations, mais la thèse de Duhem montre que la falsification n'est pas simple (une anomalie peut être résolue en modifiant des hypothèses auxiliaires plutôt qu'en rejetant la théorie principale). Thomas Kuhn et Imre Lakatos, en travaillant la dimension historique et sociologique de la pratique scientifique, ont montré que le choix entre théories dépend souvent de facteurs non purement empiriques (paradigmes, programmes de recherche, heuristiques) et qu'il y a des jugements de progressivité ou défaillance d'un programme qui commandent en pratique des préférences rationnelles mais non strictement empiriques. Le raisonnement bayésien fournit un cadre formel : l'agent mise à jour ses croyances via des probabilités a priori et la vraisemblance des données ; la sous-détermination apparaît alors comme dépendant des priors, des préférences ou informations antérieures, et, en principe, des agents partageant les mêmes priors devraient converger avec des données suffisamment discriminantes. Mais la critique tient : les choix de priors peuvent sembler arbitraires ou dépendre de vertus théoriques qu'on croyait non épistémiques (simplicité, naturalité), et il reste possible de construire des priors qui privilégient des théories rivales. Sur la question plus générale de la rationalité du choix théorique, l'inférence à la meilleure explication (IBA ou IBE en anglais) a été proposée comme un principe selon lequel l'on doit choisir la théorie qui offre la meilleure explication des faits (cohérence, simplicité, puissance explicative, capacité prédictive, intégration avec d'autres domaines). Les défenseurs de l'IBE prétendent qu'elle constitue un critère rationnel non purement empirique ; les critiques rétorquent qu'« explication » est un concept normatif et parfois subjectif, et que l'IBE seule n'élimine pas la sous-détermination si des théories rivales sont comparables selon ces vertus. Sur le plan sémantique et épistémologique, Quine a lié la sous-détermination au thème plus large de la théorie-chargement de l'observation (theory-ladeness) et, dans son essai « Two Dogmas of Empiricism », il a remis en cause la distinction analytique entre propositions analytiques et empiriques, plaidant pour un holisme conceptuel : le sens et la confirmation sont distribués dans un réseau, et la traduction (au sens philosophique) entre langages théoriques différents peut être indéterminée. Cette idée a des répercussions en philosophie du langage et de la connaissance : elle rapproche la question de la sous-détermination des problèmes de traductibilité et d'indétermination de la traduction, et éclaire pourquoi des textes, des énoncés, des théories formelles, ne capturent jamais en totalité la richesse des données factuelles qu'ils cherchent à décrire. À propos de votre remarque, « les sons [ou : les cas] sont plus riches que les textes » ; « les cas sont ce qui arrive, les faits (évènements et accidents compris), les textes sont la subsistance de ce qui s'écrit mais qui n'est pas ce qui se dit », il y a en effet un lien profond avec la sous-détermination : ce que j'appelle ici « les cas » (les événements, les occurrences, les phénomènes vécus et enregistrés) portent une densité informationnelle, contextuelle et performative (indices, connotations, temporalité, prosodie, invariances locales) que la transcription textuelle réduit nécessairement. Par construction une théorie est un texte, une structure symbolique stabilisée ; la traduction d'un flux d'événements multiples et contextuels en un ensemble fini d'énoncés entraîne une perte d'information, ce qui ouvre la porte à plusieurs textes (théories) compatibles avec le même flux d'événements. La comparaison linguistique est utile : la diglossie (la coexistence de registres ou variétés linguistiques distincts dans une même communauté) montre que des descriptions distinctes d'un même fait peuvent être parfaitement adéquates dans des registres différents, et Wittgenstein, surtout dans son deuxième tournant (Philosophical Investigations), met l'accent sur la pluralité des « language-games » et des formes de vie : le sens est l'usage, et il n'existe pas de traduction univoque d'une pratique langagière en une autre qui rende compte de toutes les nuances. Ainsi Wittgenstein contribue à « évacuer » (ou plutôt à dissoudre) l'idée d'un unique langage philosophique idéal qui capterait toute la vérité ; si le langage est multiple et ancré dans des pratiques, la prétention d'un texte (ou d'une théorie) à être l'expression exhaustive du réel apparaît illusoire. C'est une manière de voir la sous-détermination non pas seulement comme un problème logique abstrait, mais comme un résultat inévitable de la disjonction entre le flux riche des événements (les « sons », les actes, les contextes) et la forme fixée et abstraite du texte théorique. Cela dit, Wittgenstein montre aussi que la stabilisation textuelle n'est pas dépourvue de rôle : fixer des règles, formaliser, écrire un texte scientifique permet des contrôles, des répétitions, des manipulations conceptuelles qui ouvrent la voie à des tests précis et à l'épuration conceptuelle, la conversion du flux en texte est ce qui rend la science possible, même si elle ne lève pas la sous-détermination. Pour conclure, la sous-détermination de la théorie par l'expérience est un instrument conceptuel puissant qui a alimenté, au sein de la philosophie analytique, des discussions centrales : elle a mis à l'épreuve le réalisme ontologique, poussé à élaborer des comptes rendus plus nuancés de la confirmation inductive (bayésianisme, IBE), précisé le rôle des vertus théoriques non empiriques dans le choix rationnel, souligné l'importance du holisme expérimental (Duhem-Quine) et du caractère dialectique entre langage, pratique et monde (Wittgenstein). Elle ne conduit pas nécessairement au scepticisme paralysant : la pratique scientifique dispose d'instruments supplémentaires (développement technologique, diagnostics instrumentaux, heuristiques de recherche, critères de fruitfulness) qui, historiquement, réduisent souvent la sous-détermination. Mais elle impose une modestie épistémologique : reconnaître que nos textes et modèles sont toujours des représentations partielles d'un monde plus riche aide à garder critique la prétention à la « vérité » théorique absolue et à éclairer le caractère normatif et parfois non purement empirique des choix théoriques. En dernier ressort, la sous-détermination nous rappelle que la correspondance entre le dire (le texte) et le faire (le cas, le son, l'événement) est complexe, socialement et conceptuellement médiée, et que la philosophie analytique, en s'en emparant, a approfondi notre compréhension de la science comme pratique humaine rationnelle mais cadrée par des limites épistémiques et linguistiques.