La science a-t-elle un avenir ?


Gruppo Scienza Semplice


À l’aube de la science moderne, dans la période qui s’étend de la fin du xvi
e siècle au milieu du xviie, le monde intellectuel européen était à peu près complètement persuadé qu’il disposait des principe fondamentaux de la connaissance et que les brillants esprits de l’époque avaient pour tâche essentielle la systématisation de tout le savoir en schèmes universels intitulés Theatrum Mundi ou Theatrum Naturæ. Il y eut nombre de tels systèmes généraux, les plus connus étant probablement ceux que l’on doit à Robert Fludd et Athanase Kircher.

Au même moment, le grand savant Johannes Kepler s’attaquait à la description de l’orbite de Mars. Il avait la possibilité d’expliquer les trajectoires planétaires en conservant la vieille conception d’orbites circulaires grâce à l’utilisation d’une combinaison complexe de cycles et d’épicycles. Ce type de calcul permettait aux astronomes d’obtenir d’excellentes descriptions des trajectoires planétaires. Dans l’esprit des représentations du Theatrum Mundi, le procédé consistait à utiliser un paradigme (les mouvements circulaires) pouvant s’appliquer à n’importe quel phénomène pour en obtenir une parfaite description par simple itération. Nous savons maintenant pourquoi les épicycles marchaient si bien : elles ne sont en fait qu’une version du spectre de Fourier des trajectoires, et leur adéquation résulte du théorème qui affirme que tout phénomène périodique, aussi complexe soit-il, peut être considéré comme une combinaison de variations harmoniques, donc de mouvements circulaires uniformes.

Mais pour la raison même qui permet à cette méthode de fournir dans tous les cas une solution en accord avec les données, elle ne peut assurer un modèle effectif et se ramène à une pure tautologie. Kepler accomplit le pas décisif hors de la stérile perfection du calcul des épicycles, ce qui donna une impulsion décisive à la naissance de la science moderne : il supposa que les orbites n’étaient pas des combinaisons de cercles, mais des ellipses. Ceci simplifia les calculs, ne détériora pas (mais n’améliora pas non plus) la qualité des prévisions astronomiques ; ce fut simplement un mouvement esthétique vers une explication de plus grande beauté, qui créa la possibilité de sortir l’astronomie de la répétition improductive de descriptions correctes.


Une pathologie récurrente, le surajustage

La pathologie des épicycles porte un nom : le surajustage, voulant dire que si l’on a un excès de paramètres ajustables pour expliquer un phénomène donné, on arrivera forcément à une adéquation parfaite pour la simple raison que l’on n’aura rien découvert de nouveau, mais simplement reformulé le problème.

Aujourd’hui, les bases de données de gènes, de protéines, d’interactions, de voies réactionnelles, provenant des diverses « -omiques » (génomique, protéomique, etc.) des sciences biomédicales, sont la version contemporaine des représentations prétendument universelles d’il y a quatre siècles. Les méthodes bioinformatiques permettent de simuler pratiquement tout résultat expérimental en recourant à un stock d’informations disponibles si riche et si flexible d’une façon pratiquement impossible à réfuter. Autrement dit, nous avons assez d’information pour expliquer n’importe quoi — ou rien du tout. Cette situation paradoxale et extrêmement dangereuse pour le progrès de la science est fort bien décrite dans un article de Rzhetsky & al. ; ils dénomment « microparadigmes » ces idées qui, indépendamment de leur véracité, deviennent de plus en plus consensuelles dans la communauté scientifique, car la validité des résultats dont elles sont issues n’est plus questionnée, et que leurs conséquences sont utilisées comme des vérités indubitables sur lesquelles construire d’autres modèles.

Un exemple patent des conséquences de cette situation est la chute rapide du nombre de nouveaux médicaments au cours des trois dernières décennies ; Overington est ses collègues estiment que 76 % des médicaments développés de 1989 à 2003 visent des cibles déjà connues avant la biologie moléculaire moderne, et que seuls 6 % visent des cibles nouvelles. La recherche dans les bases de données (existantes) plutôt que la recherche de données de base (nouvelles) est maintenant explicitement revendiquée comme stratégie moderne. La prétendue révolution biotechnologique de la pharmacologie apparaît de plus en plus clairement comme un échec.
Les mêmes tendances régressives se retrouvent en physique théorique. Elles se manifestent dans l’adhésion acritique aux « Théories du tout » (…ou rien). Ces théories englobent des ingrédients fondamentaux — relativité, quantique, cosmologie — qui, cependant, contiennent un potentiel explosif de problèmes irrésolus. Le problème, avec ces théories de presque-n’importe-quoi est que le « presque » qu’elles ne décrivent pas est plus intéressant que le « n’importe quoi » qu’elles décrivent. Il semble bien que l’utilité essentielle de ces théories soit de justifier la construction des nouvelles cathédrales que sont les grands accélérateurs de particules. Elles peuvent être considérées comme des mythologies post-modernes destinées à accroître le prestige de la science dans nos sociétés du spectacle en y apportant une touche d’ésotérisme. Du coup, la physique théorique devient de plus en plus autoréférentielle, se transformant en un Theatrum Mundi autonome, sans plus pouvoir expliquer quelque phénomène naturel que ce soit.


Un nouvel habitus scientifique

Les conséquences de cet état de choses, selon nous, dépassent largement le champ interne de la science. Bien plus important est le fait que le développement d’une telle science, se targuant de tout pouvoir expliquer, entraîne pour la société deux conséquences possibles et liées. La première est le risque que l’innovation technoscientifique perde tout rapport avec la demande sociale réelle : si je puis trouver une explication scientifique pour n’importe quelle idée, alors, je peux manipuler la société en utilisant des énoncés simili-scientifiques. La seconde est le danger d’une érosion toujours accrue des codes déontologiques sur lesquels étaient traditionnellement fondées les professions scientifiques.

Les deux facteurs pourraient marquer une évolution fatale de la qualité de la science par l’introduction d’une nouvelle typologie dans les procédures de validation/communication. Dans les pays développés, les valeurs de l’innovation connaissent déjà une dérive substantielle, de l’utilité publique vers des buts privés et commerciaux. Ainsi, sont de plus en plus fréquents les cas de scientifiques enclins à abandonner les normes de désintéressement et d’objectivité de leur activité ; certains auteurs ont mis en évidence le lien entre cet aspect sociologique et le problème du surajustage.

La tendance technocratique des programmes publics de recherche et développement conduit les chercheurs à porter leur attention vers les intérêts privés, et à négliger les bénéfices sociaux de l’innovation scientifique et technologique. En d’autres termes, s’affirme dans la culture scientifique professionnelle un nouvel habitus, qui, il y a seulement deux ou trois décennies, n’était pas autorisé par les normes mertoniennes de la science. Il faut réaliser que les cas de fraude, comme celui du biologiste coréen Woo Suk Hwang ne sont pas des troubles sporadiques d’un système qui serait fondamentalement sain, mais bien des symptômes d’une maladie systématique en cours d’aggravation.
Personne ne peut contester que le mythe positiviste d’une science neutre imperméable aux pressions externes a été remplacé par l’évidence de sa dimension sociale inévitable — comme pour toute activité humaine. Cependant, la direction actuelle des transformations de la recherche inhibe l’expression de cette tension idéale qui devrait gouverner les pratiques scientifiques — surtout publiques — et sans laquelle la science n’aurait pu se développer. Des pages mémorables ont été écrites sur ce sujet par des spécialistes de l’histoire naturelle, tel Stephen J. Gould.
On le voit, le schème épistémologique et méthodologique de notre raisonnement est lié à un argument éthique et politique. À titre d’exemple, voilà six ans, l’une des sources d’information biomédicale les plus importantes, la revue The Lancet, publia un éditorial faisant état de sérieuses préoccupations quant à l’intégrité de la production scientifique et son impact sur les décisions en matière de santé publique. Il était devenu évident que l’intervention de l’industrie dans la recherche et la communication scientifiques s’était faite trop pressante. En conséquence, était adoptée une règle pragmatique de publication imposant aux auteurs d’accompagner leurs articles d’une déclaration selon laquelle ils n’avaient aucun intérêt matériel privé dans leur travail. La plupart des grands organes de communication scientifique, comme Nature, ont adopté la même règle. Plus généralement, les difficultés bien connues du processus de publication scientifique montrent de façon tangible que le système scientifique a encodé un bogue non accidentel dans ses mécanismes formels.


Pour une recherche transparente

Étant donné l’effet massif des produits de la recherche scientifique sur des politiques d’intérêt social incontestable, l’ouverture d’un débat clair et franc ne concernant pas seulement les délinquances scientifiques, mais la question épistémologique fondamentale de la formation des connaissances scientifiques, est à notre avis impérative. Nous affirmons l’urgence d’une alliance différente entre la recherche et les citoyens, au moyen d’un nouveau contrat qui devrait réconcilier les politiques scientifiques et les exigences sociales. Tout projet réaliste de promotion de l’innovation dans la société actuelle doit être fondé sur la transparence de toutes les étapes du processus scientifique, depuis les activités de laboratoire jusqu’aux prises de décision en passant par les mécanismes de communication. Faute que soit observé ce principe, les intérêts publics seront exclus
de facto de l’agenda scientifique et technique, et le projet sera à long terme condamné à l’échec. Il nous faut accroître non la quantité mais la qualité de la production du savoir scientifique, ce qui demande de nouvelles approches heuristiques dans les pratiques de recherche, aussi bien que de nouvelles formes d’éducation sociale et une participation collective aux contributions de la science à la culture et au bien-être.
Précisons-le : nous n’avons pas une attitude négative ou alarmiste à l’égard de notre sujet de réflexion. En d’autres termes, nous ne craignons pas que la science ou la technologie disparaissent demain, et nous voulons au contraire voir s’y développer des attitudes positives et rationnelles. Beaucoup de chercheurs comprennent qu’ils vivent dans un monde rapidement changeant, et que leur travail concerne moins les particules subatomiques, les molécules, les cellules, les arbres, les paysages ou les galaxies, que leur relation avec ces objets d’étude. La question est de savoir comment se comporter dans ce système où ils fonctionnent comme chercheurs et vivent comme êtres humains.

Nous aimons la science.
C’est pourquoi nous proposons quelques pistes utiles pour développer de nouvelles politiques de la science et de l’innovation. Nous pensons que la véritable innovation souffre d’une trop forte domination par un corpus trop vaste et trop flexible. Nous devons oser redémarrer avec de nouveaux paradigmes, de nouvelles données, de nouvelles méthodes, et n’utiliser le savoir préalable que comme un matériau statistique, à soumettre à l’expérimentation, et non comme un standard établi et intangible.
Nous devons savoir être brutaux et refuser d’écouter les super-experts. Nous devons privilégier des approches indépendantes des modèles et faciles à tester par rapport à celles, plus élaborées, qui reposent sur trop d’hypothèses injustifiées (comme les modèles complexes, où un nombre considérable de paramètres libres est ajusté à de maigres ensembles de données).
Nous devons tenter de lancer des aventures scientifiques dégagées du besoin pressant d’une applicabilité immédiate, faute de quoi notre connaissance restera confinée au déjà-su, déjà-accepté, et n’aura plus d’avenir.



Gruppo Scienza Semplice


Giovanni Asti, Dipartimento di Fisica, università di Parma, Italia
Jenner Barretto Bastos-Filho, Physics Department, Alagoas University, Brasil
Marcello Cini, Dipartimento di Fisica, università di Roma La Sapienza, Italia
Antonella De Ninno, enea Frascati Lab, Rome, Italia
Emilio Del Giudice, infn, Sezione di Milano, Italia.
Antonino Drago, Dipartimento di Fisica, università di Napoli Federico II, Italia
Vittorio Elia, Dipartimento di Chimica, università di Napoli Federico II, Italia
Lorenzo Farina, Dipartmento A. Ruberti, università di Roma La Sapienza, Italia
Elena Gagliasso, Dipto di Filosofia di Scienza, università di Roma La Sapienza, Italia
Roberto Germano, promete, infm, Napoli, Italia
Alessandro Giuliani, Istituto Superiore di Sanità, Roma, Italia
Arun Krishna, Keio University, Tsuruoka City Yamagata, Japon
Ignazio Licata, Istituto per Scientifica Methodologia (isem), Palermo, Italia
Carlo Modonesi, Museo d’Historia Naturale, università di Parma, Italia
Paolo Aldo Rossi, Dipartimento di Filosofia, università di Genova, Italia
Kumar Selvarajoo, Keio University, Tsuruoka City, Yamagata, Japon
Vittorio Silvestrini, Dipartimento di Fisica, università di Napoli Federico II, Italia
Gianni Tamino, Dipartimento di Biologia, università di Padova, Italia
Masaru Tomita, Keio University, Tsuruoka City Yamagata, Japon
Masa Tsuchiya, Keio University, Tsuruoka City Yamagata, Japan
Chandra Verma, Bioinformatics Institute, Singapore
Giuseppe Vitiello, Dipartmento di Matematica, università di Salerno, Italia
Charles L. Webber, Stritch School of Medicine, Loyola University of Chicago, usa
Joseph P. Zbilut, Mol. Biophysics and Physiology Dept, Rush University, Chicago, usa



Légendes

Robert Fludd,
Utriusque Cosmi maioris salicet et minoris metaphysica..., 1617
Le système universel des connaissances, un web avant la lettre ?


Teresa Iaria, From String to Loop, 2005-2006
Une œuvre visuelle inspirée à l’artiste par la théorie des supercordes et la théorie des boucles de la physique fondamentale — deux théories d’ailleurs incompatibles. L’image n’est qu’une projection instantanée et plane d’un hologramme 3D mobile.