Compte rendu du livre :

Histoire et méthodologie des sciences.
Programmes de recherche et reconstruction rationnelle,

d'Imre Lakatos,

Traduit de l'anglais par Catherine Malamoud et Jean-Fabien Spitz,
sous la direction de Luce Giard,
PUF (Bibliothèque d'histoire des sciences), 1994 [1986].

       Les scientifiques ne décrivent pas la réalité telle qu'elle est. Si c'était le cas, il n'y aurait plus lieu de réviser leurs théories et de les faire évoluer ; elles seraient achevées. Or, un simple regard sur l'histoire des théories dites scientifiques met plutôt en évidence leurs régulières remises en question. Certes, elles introduisent de l'intelligibilité dans le monde qui nous entoure, mais les spéculations auxquelles on dénie ce titre de science le font aussi. C'est pourquoi on est en droit de s'interroger sur ce qui distinguerait la connaissance scientifique des autres modes de connaissance.
       Une réponse célèbre consiste à affirmer qu'une théorie est scientifique uniquement s'il est possible de la réfuter. Dans ce cas, on devrait pouvoir déduire d'une théorie scientifique un certain nombre de résultats susceptibles d'être comparés aux données expérimentales ; si l'expérience ne confirmait pas ses résultats, il serait nécessaire de transformer la théorie, voire de l'abandonner ; si elle les confirmait, il faudrait chercher d'autres résultats susceptibles d'être soumis à leur tour au tribunal de l'expérience. Le scientifique chercherait donc moins à se garder des erreurs, qu'à développer des procédures pour les éliminer. C'est par conjectures et réfutations que se réaliserait ainsi l'activité scientifique.
       Pourtant, si on regarde leur histoire, on s'aperçoit que les disciplines dites scientifiques sont loin d'avoir toujours pris en compte les démentis de l'expérience -- et même plus, elles ont souvent progressé grâce à cette négligence ; du moins jusqu'à un certain point. C'est qu'en effet, si le scientifique fonctionnait réellement par conjonctures et réfutations, il ne pourrait pas développer de nouvelles théories en raison du grand nombre d'objections qu'elles rencontrent à leur début. Le critère de réfutabilité est donc si sévère que son application rigoureuse obligerait à renoncer à considérer comme scientifiques les disciplines les plus respectables. Il est pourtant difficile d'en trouver un autre. C'est pourquoi certains épistémologues ont estimé que, intrinsèquement, il n'y avait pas moyen de distinguer ce qu'on appelle la science des autres modes de connaissance. Pour cette raison, ils ont considéré qu'elle ne détenait aucune autorité particulière pour parler de la réalité. C'est contre ce scepticisme que s'élève Imre Lakatos (1922-1974), qui nous propose dans ce livre une nouvelle analyse de la méthode scientifique qui serait, selon lui, à même de rendre compte du développement des sciences et de sauver, de façon concomitante, la notion de rationalité. Regardons cela de plus près.
       Nous avons dit que l'histoire des activités dites scientifiques remettait en cause l'idée qu'elles procéderaient de façon unilatérale par conjonctures et réfutations ; mais ce n'est pas là son seul enseignement. Elle nous montre aussi que certains arguments présentés à des moments donnés comme des réfutations d'une théorie ont parfois eux-mêmes été réfutés par la suite. Ces arguments n'étaient donc pas de véritables réfutations. Averti par ces exemples, on est en droit de se demander ce qu'il en est de toutes les réfutations qui n'ont pas encore, à leur tour, été remises en cause. Le seront-elles un jour ? D'aucuns pensent que non. Au vu de certains faits, il serait en effet possible, selon eux, de rejeter de façon catégorique certaines théories. Mais cette conception qui admet que les théories scientifiques sont potentiellement réfutables -- appelée par Imre Lakatos le falsificationnisme dogmatique -- repose sur le présupposé erroné qu'il existe une frontière nette entre les propositions théoriques et les propositions factuelles (propositions d'observation qui sont censées décrire la réalité).
       Pour comprendre que c'est bien une erreur, il est commode de prendre un exemple : Galilée soutenait qu'il pouvait observer des montagnes sur la Lune et des taches sur le Soleil, et que ces observations réfutaient la théorie depuis longtemps en honneur selon laquelle les corps célestes étaient des boules de cristal sans défaut. Or, la fiabilité de la lunette qui permettait à Galilée d'effectuer ses observations était largement discutée par ses contemporains. Ce n'étaient donc pas les observations -- pures, non théoriques -- de Galilée qui s'opposaient à la théorie aristotélicienne, mais bien les observations faites par Galilée à la lumière de sa théorie optique qui s'opposaient aux observations des aristotéliciens faites à la lumière de leur théorie des cieux. Cet exemple suffit à illustrer l'idée qu'un « fait » n'est pas une donnée brute, immédiate, mais que c'est une donnée accessible uniquement à travers une théorie (qu'elle soit explicite ou non). D'où il découle qu'en réfutant la théorie médiatrice, il semble possible de réfuter un « fait ».
       Qui plus est, même si l'on acceptait la démarcation entre énoncés d'observation -- supposés vrais -- et théories, un « fait » ne pourrait pas réfuter une théorie. Prenons encore un exemple : Si la trajectoire observée d'une planète p ne correspond pas à sa trajectoire calculée, plutôt que d'imaginer que la théorie de la gravitation est fausse, on peut toujours imaginer qu'il existe une autre planète p', jusque-là inconnue, qui perturbe la trajectoire de notre planète p. Si de nouvelles observations ne mettent pas en évidence l'existence de la nouvelle planète p', ce n'est pas pour autant que la théorie de la gravitation soit fausse ; on peut toujours imaginer qu'un nuage de poussière cosmique cache la planète p'. Si on ne découvre pas le nuage en question, il sera toujours possible d'avancer une nouvelle hypothèse et ainsi de suite. Une réfutation ne serait donc possible que si l'on pouvait être sûr qu'il n'y avait pas de paramètres cachés responsables de la perturbation observée. Ce qui n'est bien sûr pas possible. Ainsi, non seulement on ne peut pas prouver l'adéquation d'une théorie avec la réalité -- rien ne dit en effet qu'une autre ne la supplantera pas dans l'avenir --, mais on ne peut jamais être sûr d'une réfutation -- rien ne dit que la réfutation ne sera pas elle-même remise en cause un jour.
       Cela veut-il dire que l'on ne peut jamais réfuter une théorie une fois pour toutes ? Ça en a tout l'air. Que devient alors le critère de démarcation entre science et non-science basé sur la réfutabilité des théories ? Il peut sembler possible de le conserver mais à condition toutefois de reconnaître que derrière une réfutation il y a la convention -- souvent implicite -- qui consiste à considérer comme non problématiques certains présupposés de base (par exemple, que la lunette de Galilée est un instrument fiable, ou qu'il n'y a pas de corps étrangers non-visibles qui perturbent la trajectoire de la planète). Une fois admis ces présupposés, il paraît effectivement envisageable de rejeter une théorie, avec le risque toutefois qu'elle soit vraie puisque la convention peut se fonder sur une erreur. Cette approche épistémologique pour sélectionner les théories scientifiques est appelée par Imre Lakatos le falsificationnisme méthodologique -- et non plus dogmatique.
       Selon cette conception, une « réfutation » n'est plus que le résultat d'une expérience qui incite les scientifiques à rejeter une théorie, puisque cette dernière ne peut jamais être réfutée au sens fort du terme. Ce n'est qu'en décidant -- par convention implicite -- que certaines propositions sont de « purs produits d'observation » (comme les montagnes lunaires de Galilée, par exemple), que l'on peut considérer que seules sont scientifiques les propositions « théoriques » qui proscrivent certains états de choses « observables » et qui peuvent donc être rejetées si ces états de choses sont observés. Ainsi, l'honnêteté scientifique consisterait toujours à spécifier par avance une expérimentation, telle que si son résultat contredisait la théorie, celle-ci devrait être abandonnée ; la différence avec le falsificationnisme dogmatique consisterait seulement à reconnaître une part de consensus.
       Le problème est que cette nouvelle approche de la méthode scientifique ne spécifie pas au nom de quels principes sont choisies les propositions non problématiques, ni ce qui permet de distinguer une anomalie d'une réfutation. Quand une « théorie » est en désaccord avec certaines « observations », comme dans le cas de la théorie de la gravitation de Newton avec le périhélie de Mercure, doit-on considérer, une fois acceptée la fiabilité des observations, que ce n'est qu'une simple anomalie que la théorie newtonienne arrivera un jour à expliquer ou doit-on y voir sa réfutation ? L'histoire a certes tranché, mais quatre-vingt-cinq années se sont écoulées entre l'acceptation du périhélie comme simple anomalie et son acceptation comme réfutation de la théorie de Newton. Ce qui illustre bien la difficulté qu'il y a à distinguer une anomalie d'une réfutation.
       Outre ces insuffisances, l'erreur du falsificationnisme méthodologique, comme d'ailleurs du falsificationnisme dogmatique, est de ne voir dans l'activité scientifique qu'une sorte de duel, entre une unique théorie et l'expérimentation, qui n'aurait pour seul intérêt que de réfuter la théorie en question. Or, l'histoire des sciences relate plutôt des combats triangulaires entre des théories rivales et l'expérimentation. Et elle témoigne du fait que les expérimentations les plus intéressantes furent celles qui ont abouti, non à une réfutation, mais à des résultats prédits par une des théories en compétition et non prédits par les autres. Pour améliorer la caractérisation de la méthode scientifique, une version sophistiquée du falsificationnisme méthodologique a donc été formulée.
       Selon cette version, pour qu'une théorie T soit rejetée, il faut que l'on propose une autre théorie T' qui possède les caractères suivants : T' doit rendre compte des mêmes phénomènes que T ; T' doit prédire des faits que ne prédisaient pas T ; enfin, l'expérimentation doit corroborer une partie des nouveaux faits prédits par T'. Dire qu'une théorie isolée est scientifique n'a donc plus de sens, puisque seule une série de théories peut l'être, ou plus exactement, c'est le passage d'une théorie à une autre qui peut être dit scientifique à partir du moment où la nouvelle théorie surpasse (selon les caractères définis ci-dessus) la théorie précédente -- ou rivale -- par son contenu empirique corroboré. Le progrès scientifique se mesurerait alors par la proportion de faits inédits -- c'est-à-dire à chaque fois inattendus à la lumière de la théorie qui est remplacée -- que la série de théories conduirait à découvrir.
       Mais si l'activité dite scientifique ne consiste pas uniquement à réfuter des théories ou à les corroborer, on est en droit de se demander ce qui la caractérise ? Pour répondre à cette question, Imre Lakatos introduit la notion de programme de recherche : un programme de recherche est en quelque sorte un principe heuristique basé sur un « noyau dur » déclaré irréfutable et qui définit des règles méthodologiques sur les voies de recherche à éviter (heuristique négative) ou à poursuivre (heuristique positive). Le noyau dur réside, par exemple, pour le programme cartésien, dans l'idée que l'univers est un immense système d'horlogerie avec la poussée comme unique cause de mouvement, alors que le noyau dur du programme newtonien s'appuie sur l'idée de l'action à distance. Le rôle de l'heuristique négative consiste alors à essayer d'éliminer les anomalies que peut rencontrer une théorie en modifiant certaines hypothèses auxiliaires tout en se gardant bien de changer le noyau dur. Et le rôle de l'heuristique positive consiste moins à s'occuper des anomalies qu'à développer autour du noyau dur des modèles de plus en plus sophistiqués afin de rendre compte de mieux en mieux de la réalité ; plus théorique, elle ne s'occupe pas des contre-exemples, du moins jusqu'à un certain point.
       Un exemple d'une heuristique négative est la découverte de la planète Neptune. Remarquant des perturbations de l'orbite d'Uranus, l'astronome Leverrier ne remit pas en cause le « noyau dur » du programme de recherche newtonien mais modifia une hypothèse auxiliaire dans la description des orbites planétaires : il imagina tout simplement qu'il existait une autre planète -- Neptune -- responsable de la perturbation observée. L'heuristique positive, quant à elle, peut être illustrée par les premiers développements de la théorie de la gravitation de Newton. Ce dernier parvint d'abord à la loi du carré inverse pour l'attraction en identifiant une planète à un point et en considérant qu'elle tournait suivant une ellipse autour du Soleil, lui aussi identifié à un point. Puis, uniquement pour des raisons théoriques, il commença par envisager le fait que le Soleil et la planète tournaient l'un et l'autre autour d'un centre de gravité commun. Ensuite, il considéra les planètes comme des sphères de taille finie et non plus comme des points. Affinant encore sa théorie, il s'occupa de la rotation des planètes sur elles-mêmes, et du fait qu'elles subissaient les forces gravitationnelles des autres planètes et pas seulement du Soleil. Et ce n'est qu'alors qu'il se préoccupa de la concordance entre la théorie et l'observation. Après l'avoir trouvée satisfaisante, il aborda le cas des planètes non sphériques, etc. Ainsi l'heuristique positive, à la différence de l'heuristique négative, va de l'avant en négligeant les anomalies mais en attendant qu'avec le temps elle puisse être corroborée par des observations.
       Reste à savoir comment choisir entre plusieurs hypothèses auxiliaires et entre plusieurs programmes de recherche concurrents. Leverrier aurait pu proposer de modifier la théorie optique régissant le fonctionnement des télescopes utilisés dans cette recherche ; ou encore, il aurait pu formuler une hypothèse concernant la réfraction dans l'atmosphère terrestre. L'important est, pour Imre Lakatos, que la nouvelle hypothèse puisse être soumise à des tests indépendamment de l'ensemble de la théorie et qu'elle ne soit pas ad hoc -- par exemple, il n'aurait pas été correct de proposer que les perturbations de mouvement d'Uranus s'expliquaient parce que tel était son mouvement naturel. Parmi les différentes hypothèses qui respectent ces conditions, l'intérêt de l'hypothèse de l'existence d'une autre planète fut de conduire à une découverte empirique ; c'est elle qui permet de transformer une anomalie en corroboration. Ainsi toute nouvelle étape d'un programme de recherche doit augmenter son contenu empirique corroboré. Et tant que ce contenu s'accroît -- ou, comme le dit Imre Lakatos, tant que le programme de recherche progresse --, il n'y a pas de raison de considérer que les anomalies concernent le noyau dur, ce qui reviendrait à remettre en cause le programme de recherche. En revanche, quand un programme de recherche cesse de prédire des faits inédits -- Imre Lakatos dit qu'il dégénère --, il se peut qu'il faille l'abandonner pour un programme de recherche concurrent, à condition toutefois que ce dernier explique la réussite antérieure du premier et le supplante en déployant un pouvoir heuristique supérieur.
       On pourrait être tenté de dire qu'être scientifique consisterait à poursuivre le programme de recherche qui a le plus grand pouvoir heuristique et à en adopter un autre s'il s'avérait que ce dernier se mettait à dépasser heuristiquement le précédent. En revanche, poursuivre un programme de recherche dégénéré -- c'est-à-dire qui ne prédit pas de faits nouveaux --, quand il en existe un autre qui est progressif, ne serait pas scientifique. Tout n'est pourtant pas si simple, car il arrive souvent qu'on ne discerne le pouvoir heuristique d'un nouveau programme qu'après un long laps de temps. Par exemple, la théorie cinétique de la chaleur -- théorie qui rend compte de la chaleur par l'agitation moléculaire -- a été pendant longtemps moins performante sur un plan heuristique que la thermodynamique -- théorie phénoménologique de la chaleur --, avant qu'elle ne la rattrape finalement en 1905 avec l'explication du mouvement brownien. Après quoi, on ne vit plus en elle uniquement une manière de réinterpréter certains phénomènes liés à la chaleur, mais un procédé pour découvrir certains faits faisant intervenir les atomes. Il serait donc inopportun, comme nous le rappelle Imre Lakatos, de laisser tomber un programme de recherche parce qu'il est empiriquement moins corroboré. Il faut lui laisser le temps de se développer et attendre que la postérité évalue l'intérêt heuristique d'un changement de programme de recherche.
       Cette méthodologie des sciences semble ainsi être à même de rendre compte de leur histoire. Comme il n'y a plus de réfutation avant que n'apparaisse une théorie meilleure, on explique mieux pourquoi une opposition entre les données expérimentales et la théorie pouvait n'être vue pendant longtemps que comme une anomalie avant d'être interprétée, bien plus tard, comme une réfutation. On comprend mieux l'autonomie de la recherche théorique, c'est-à-dire la persistance de scientifiques à développer une théorie bien qu'elle présente d'innombrables anomalies ; l'espoir qu'elle supplante un jour ses rivales est en effet ce qui les anime. Et l'on rend mieux compte aussi du fait que le scientifique ne cherche pas tant à réfuter les théories qu'à corroborer les nouvelles prédictions.
       Voilà rapidement esquissée la méthodologie des programmes de recherche que propose Imre Lakatos dans ce livre riche en exemples. Construite à partir d'une analyse et d'une critique méticuleuses des thèses de Karl Popper, cette méthodologie est aussi une réponse aux historiens des sciences, tel Thomas Kuhn, qui ne verraient que des raisons psycho-sociologiques à la source des « révolutions scientifiques ». En essayant au contraire de rendre compte du développement de la science par des raisons heuristiques et empiriques, Imre Lakatos entend sauver une certaine rationalité de l'activité scientifique. Une partie du livre est d'ailleurs consacrée à montrer que ce serait pour de telles raisons que le programme de Copernic aurait supplanté celui de Ptolémée. On semble donc en mesure de répondre à la question initiale : une activité cognitive serait scientifique si elle participait d'un programme de recherche qui supplanterait les autres programmes de recherche ou qui espérerait le faire un jour, c'est-à-dire qui ferait des efforts pour cela.
       On ne peut toutefois que rester dubitatif sur la pertinence de ce critère d'acceptation et de rejet des programmes de recherche -- et donc des activités cognitives -- puisqu'il présente un aspect temporel. Combien de temps doit-il s'écouler avant que l'on puisse décider qu'un programme de recherche a dégénéré et qu'il est incapable de conduire à la découverte de phénomènes nouveaux ? N'oublions pas qu'il s'écoula plusieurs siècles avant que l'on ne confirme la prédiction de Copernic selon laquelle les étoiles devaient présenter une parallaxe. Et rien ne dit qu'un programme de recherche délaissé de nos jours ne sera pas fécond dans l'avenir. Or, proposer un véritable critère de démarcation entre science et pseudo-science consiste à proposer une démarche à suivre dans le choix de théories. Mais si l'on ne peut garantir pour l'avenir la supériorité heuristique de telle ou telle théorie par rapport à telle autre, force est de reconnaître que l'on ne peut pas distinguer la science des autres activités cognitives. Par conséquent, aussi pertinentes que soient les analyses de Imre Lakatos, il est difficile de considérer qu'il soit arrivé à caractériser de façon complètement satisfaisante ce qui ferait la spécificité de l'activité scientifique. La tentation de n'y voir qu'un mot sans référent persiste. Il en est de même pour la rationalité : qu'est-ce qu'être rationnel, si l'on ne peut décider à l'avance de la pertinence d'une décision ? La réflexion sur le concept de science, ô combien problématique, doit donc se poursuivre...

Thomas Lepeltier, Revue de livres, novembre 1999.

Pour acheter ce livre : Amazon.fr