L’Occident. Science et Technoscience
Sept variations
(alla breve)
 
Ismael-Sélim Khaznadar
 
à  la mémoire de
René Thom
Chihabûddine Yahia Sohrawardi
Issac ben Salomon Luria
 
« Notre œuvre est d’imprimer en nous cette terre provisoire et caduque
 si profondément, si douloureusement et si passionnément
 que son essence, ressuscite invisible en nous. »
 
Rainer Maria Rilke
 
Aria
 
Liminaire à toute étude sur la science, ce fagot de questions permet d’examiner en allure d’inventaire ses allées et ses chemins de traverse. Il tente de filer le rhizome qui court sous l’impressionnante ramification des champs, l’avancée d’un opiniâtre essartage de savoirs nouveaux, loin d’être toujours tenue sous la réflexion. C’est-à-dire, quêter ce qui demeure encore sous la question de l’être, là où la question philosophique est reconduite, dans une volonté de conférer sens et histoire au divers du monde que la science a désenchanté et désemparé. Monde qui se livre de plus en plus comme ductile, sans substance ni intelligibilité,  ayant renoncé à tout repère.
 
La science est-elle encore une mesure et une expression du progrès ? Le progrès est-il envisageable sans la science ? Qu’est-ce  donc qui s’accroît quand s’accroît la science ? Pourquoi ne peut-elle plus être questionnée et pensée, et d’abord comme quête spirituelle ? La notion de généalogie scientifique est-elle irrecevable, absurde, impossible à reconstituer ? Est-ce la mauvaise part de l’Occident, sa « part maudite », est-elle mauvaise part en cela qu’elle fonde (en intention et en extension) la science comme ultime récit de l’Occident.1 
L’Histoire ne serait-elle que le  chemin  nécessaire  pour y  survenir, en cela que l’histoire diverse du monde pré-occidental contiendrait en puissance la genèse et le déploiement de l’Occident, qui serait  alors un archétype de civilisation déposé de toute éternité et en attente de réalisation. Le retour à une « philosophie  naturelle »  est-il imposé par l’échec de la physique depuis Newton à rendre le monde intelligible, est-il possible ou seulement souhaitable ?
La philosophie naturelle serait alors ce qui donne pour la pensée, occasion, figure et outils, et trace pour elle chemin, quand la nature, c’est-à-dire le monde qui nous est donné et qui porte en soi le principe de sa propre production, devient problème et objet de responsabilité.
 
La responsabilité est d’abord reconnaissance de non-réciprocité quand elle s’évalue comme devant s’exercer là où des êtres sont rendus vulnérables dans leurs existences ou leurs essences.  Elle est souci dans le maintien d’une alliance prononcée unilatéralement avec ce qui est révocable, ici la nature, mais en considérant qu’un fort volume d’offenses pourrait la rompre. La tâche d’une philosophie naturelle serait de définir les termes et l’étendue de cette responsabilité, engager l’œuvre de réconciliation entre la représentation de la nature que nous impose la science, et le devoir de nouer les mille liens de la signification qui continue de nous parvenir, et redonner à la pensée cela même qui lui permet de se soutenir comme pensée, cela même qui lui assure subsistance dans la signifiance.
 
Au xive siècle, la construction perspective de l’espace annonce et impose un espace pour la représentation universelle.2 Elle signifie qu’il n’y a d’espace que reconstruit, qu’il est reçu et non perçu, car percevoir, c’est revenir d’une quête avec outils permettant de donner prédicats et de des construire des attributs. La perspective est la sortie d’un observateur, sphère culturelle qui se déploie dans le monde, et les trajets de ce déploiement sont l’espace des projections du sujet. La perspective organise en cosmos le divers des phénomènes par la rationalisation du regard, mais en reconnaissant dans ce regard une illusion constitutive et engendrée. Admise et canonisée cette projection va déterminer les invariants de toute représentation iconique et graphique, et préparer un catalogue et un imagier de mouvements, de postures, d’attitudes. C’est une grammaire des points de vue, dans les actes de construire, d’habiter, d’orner, d’édifier, de conduire les guerres. Les Musterbuch  (livres de modèles) et codex d’ateliers vont longtemps jouer ce rôle (un des plus célèbre est le Codex escurialensis de Ghirlandaio). Ils colligent un grand nombre de feuillets d’esquisses, variées et fuguées, tous destinés à l’éveil de l’esprit. La modification perspective rend possible la variation sur thème. Dirions-nous que les livres de modèles sont des livres de variations, considérées dans leurs sens musical.
 
L’espace construit par la perspective réalise la coexistence de plusieurs espaces, ouvre des passages de l’un à l’autre, en enfilade, les lie et délimite une scène, qui bientôt entame un dialogue avec une autre scène. La projection perspective est l’opération qui rend plausible et intelligible ces passages. L’espace perspectif n’est pas inerte, pur réceptacle du regard, mais lieu de métamorphoses, celles du  travail  patient et  lent des genèses et  des transformations.3
L’architecte florentin Filippo Brunelleschi (1377-1446)4 formalise les règles de la représentation perspective. Il en donne une première démonstration vers 1415 dans l’exécution de deux tavoletta (panneaux de petites taille) représentant deux vues, paysages urbains de Florence : le baptistère de san Giovanni et la piazza della Signoria. Généralement, les praticiens de la Renaissance interprètent le tableau comme une fenêtre à travers laquelle le regard se déploie dans l’espace, comme une section plane « transparente» du cône visuel, qui n’est rien d’autre que le cône formé par les rayons visuels émis par l’œil  identifié à un point qui sera le sommet du cône
 
Dès le début du xvie siècle sont publiées de nombreuses études. Si quelques-unes s’efforcent de présenter une théorie cohérente (celle de Piero della Francesca, écrite en 1470, et celle d’Albert Dürer, en 1525), la plupart ne sont que simples recueils de préceptes et de règles, orientés vers la pratique des artistes.
Le Trattato della pittura de Leone B. Alberti, imprimé en 1511 à Nuremberg, soulève une question au xviie siècle qui sera l’origine du développement de la géométrie projective. La perspective construit un espace infini et homogène. Elle construit son isotropie (caractère de l’espace d’avoir les mêmes propriétés dans toutes ses directions), et fonde, dans un double mouvement, la notion d’invariance :
— l’invariance projective ; celle des propriétés projectives des figures qui se conservent lors d’une projection centrale ou perspective.
— l’invariance de translation ; conséquence dérivée et nécessaire de la première, elle établit la conservation de la description d’un « enclos d’observation » vers un autre. Elle unifie les différentes expériences opératoires du voir dans l’espace. Elle est à l’origine de la notion de repère. La narration qui  se déploie dans un espace de représentation est  une loi.
 
L’isotropie est un postulat fort de rationalité. Elle rend possible l’intellection et la formulation des premiers principes de relativité galiléenne et des systèmes d’inertie. On peut conjecturer qu’elle est à l’origine de toute idée d’invariance. Et donc de l’objectivité. L’objectivité par invariance permet d’agir dans le monde sans le comprendre.
Une idée fondamentale de la physique est que les diverses visions du monde obtenues par divers observateurs peuvent être reliées les unes aux autres par l’action des grands groupes d’automorphisme de l’espace-temps (groupe galiléen, lorentzien). La réalisation de ces groupes, c’est-à-dire l’explicitation de leurs symétries sous-jacentes constitue l’architectonique de la physique elle-même. Objectivité (la description locale du monde) et intersubjectivité (le transport invariant de cette description d’un repère à un autre) sont ainsi confondues. Le statut de ce transport est entièrement contenu dans les représentations des groupes qui règlent son invariance. Cette représentation est analytique, parce qu’elle peut  se réduire à celle d’un groupe compact qui est analytique (théorème Peter-Weyl). C’est le caractère d’analyticité des lois qui permet la prédiction sur laquelle se fonde le miracle de la physique. « Miracle isolé », selon le jugement de René Thom.
 
La construction perspective est d’essence nominaliste. Le postulat fondateur du nominalisme est que seuls existent des étants singuliers.5 La présence au monde se transforme, elle s’enclôt dans un sujet, citadelle dont le seul lien avec le réel reste la suppositio personalis. La supposition des nominalistes et la projection brunelleschienne sont dans un rapport constitutif d’homologie. On pourrait penser que tout l’effort des perspectivistes est legs théologique des grandes disputations entre occamistes et réalistes thomistes. Il en est d’une certaine manière la conclusion praxique. L’optique de l’école d’Oxford (Robert Grosseteste, Roger Bacon, John Peecham) et le subtil phylum de l’ordre franciscain vont profondément changer le concept d’acquisition du monde. Il ne procède plus de la langue et des ses dispositions, mais est conçu comme manifestation iconique, la connaissance que nous en avons est seulement celle que nous recevons de lui, dans une  rencontre pauvre et humble. Un arc va relier Jean Buridan à Galilée, qui a abondamment lu Giovanni Battista Benedetti (théorie de l’impetus) et presque tous les écrits des perspectivistes florentins.6
 
La métaphysique de la perspective est que le sujet sans altérer ses guises, puisse sortir dans le monde alors même que la rencontre avec ce qui en constitue la réalité lui sera toujours refusée. Cette sortie est une docte ignorance, elle se reproduira pour l’essentiel dans tout l’effort qui sera la connaissance du monde. La représentation devient action. La rencontre des arts picturaux et de la géométrie en Italie à la moitié du xve siècle (Ghiberti, Alberti) va préparer la naissance de la physique galiléenne. La plus ambitieuse des mises en perspective. Les principes d’économie des perspectivistes oxoniens (lex parcimoniae) sont, à n’en pas douter, à l’origine des principes de moindre action (principes variationnels) qui vont fonder toute la texture des énoncés des lois de la Mécanique.
Pendant tout un siècle encore, l’enseignement et les recherches sur les méthodes de perspective resteront dans l’enceinte des ateliers de peintres et d’architectes. Du point de vue mathématique, l’idée fondamentale de la perspective est celle de projection; celleci est également au centre des préoccupations des cartographes, qui déploient alors une intense activité afin de rendre compte du considérable élargissement des connaissances géographiques dues aux découvertes extraordinaires des explorateurs européens de la fin du xve siècle. L’intégration des méthodes projectives dans le corps des mathématiques enrichira et renouvellera la géométrie, mais ne prendra son essor que tardivement (vers 1600), après que de multiples éditions des Sections coniques d’Apollonius ne seront à nouveau disponibles. Les méthodes projectives vont être à l’origine du renouveau et de l’unification de la théorie des coniques.
la géométrie perspective (et les notions de métrique, de projection centrale de ligne de fuite, de point à l’infini) ne servira pas directement comme substrat à la nouvelle physique, mais aura permis une première domestication opératoire de l’espace. C’est l’introduction de l’algèbre dans le raisonnement géométrique, œuvre de Descartes (fonctions et équations d’une courbe), qui en sera l’amorce.
 
Contrapunctus
 
Par-delà les conformations et les représentations de soi propres à chaque science particulière, et qui annoncent, œuvre en réalisation, « un savoir objectif et universel », il est fondateur d’interroger l’intention de scientificité, projet conducteur et unificateur qui innerve tout le développement de la science.
Développement, qui inclut une interprétation du réel a priori, et qui en cela, n’est pas de l’ordre de la science, mais nécessaire à l’extension du cercle de la consonance-intelligibilité bordée par la dissonance-monde, en une visée d’élaboration et de confection d’un savoir transmissible et unifié dans une somme close sur une méthode. Toutefois somme ouverte constamment sur un divers de données factuelles, langagières et procédurales, et dans la robustesse d’un corps d’énoncés de vérité qui restent invariants, mais paradoxe, elle demeure consentante à la reprise, voire à la révocation.
 
Il est convenu de situer en Europe occidentale, et au début du  xviie siècle, la naissance d’une « science de la nature », au moment où la Physique des formes d’Aristote est supplantée par les idées de la Mécanique des forces de Galilée. Mécanique qui a dissous de son principe la question phénoménale, c’est-à-dire, dans le songe de Leibniz, les manières dont les structures qualitatives peuvent émerger de « l’intériorité substantielle de la matière » ; la materia prima  devenant signata.
Le Révérend Père des Bosses recevait le 2 février 1706 une lettre de Leibniz, qui écrivait :
« Si l’on pose la plénitudes des choses (comme font les cartésiens) et l’uniformité de la matière, et si l’on ajoute seulement le mouvement, on obtient toujours une succession de choses équivalentes (...) ainsi, nul ne peut distinguer l’état d’un mouvement de l’état de l’autre, pas même un ange ; et donc, on ne pourrait trouver aucune variété dans les phénomènes ; partant, outre la figure, la grandeur et le mouvement, il faut admettre des formes au moyen desquelles la différence des apparences surgisse dans la matière, formes qu’on ne peut intelligiblement chercher, me semble-t-il, qu’à partir des entéléchies. »7
Pour la première fois, dans la constitution d’un savoir, c’est le statut mathématique d’un faisceau d’objets expérimentés qui va déterminer son ontologie.8 Ces objets doivent être décrits par des grandeurs intensives infinitésimales (grandeurs différentielles, comme les vitesses et les accélérations). Cette approche d’emblée ignore le redoutable problème de l’unicité d’un être physique.9
« Galilée qui découvrit – ou, pour rendre justice à ses prédécesseurs, qui acheva de découvrir — la physique, et donc la nature au sens de la physique est un génie, à la fois découvrant et recouvrant. Il découvre la nature mathématique, l’idée méthodique, il fraie la voie à l’infinité des découvreurs et des découvertes en physique. Il découvre, par opposition à la causalité universelle du monde sensible (en tant que forme invariante de celuici), ce qui depuis lors est appelé sans plus « la loi de causalité », la « forme a priori » du monde « vrai » (idéalisé et mathématisé), la « loi de la légalité exacte », d’après  laquelle tout événement de la « nature » (celle qui est idéalisée) doit obéir à des lois exactes. Tout cela est une découverte et une recouverte, que nous avons prises jusqu’à aujourd’hui pour la pure vérité toute simple. »10
 
Recouverte qui est recouvrement et ensevelissement d’un réel qui ne parle plus ; ce qui nous rejoint du monde, objets et phénomènes, ne sont que traces, dans notre esprit, de ce qui par essence devra toujours rester inintelligible et voilé. Tout le « système du monde » sera porté par des théories qui vont exténuer le monde, comme lieu de la vie agie, vécue et signifiée.
« Le véritable sensd’origine de ces théories restait caché aux physiciens, y compris aux grands et même aux plus grands, et devait leur rester caché. Il ne s’agit pas d’un sens que nous aurions introduit en elles comme un secret métaphysique, ni d’un reflet en elles de la spéculation, mais du sens qui est, avec l’évidence la plus contraignante, leur sens propre, leur seul sens réel, par opposition au sens méthodologique, lequel trouve sa compréhensibilité propre dans l’usage opératoire des formules et dans leur application pratique, la technique. »11
Les objets physiques sont détachés et émancipés des conditions de leur manifestation, acquierent une existence indépendante et peuvent être construits et étudiés comme tels. Ils ne sont plus que des éléments composés et liés dans un espace de représentation.  
 
Dans Il Saggiatiore, Galilée, n’écrivait-il pas :
« Dès que je conçois une matière ou substance corporelle, je sens immédiatement la nécessité de concevoir aussi qu’elle est limitée et a telle ou telle figure, est grande ou petite en relation à d’autres, est en tel ou tel lieu et tel ou tel temps, se meut ou reste immobile, touche ou ne touche pas un autre corps, est une ou en petit nombre ou en grand nombre. Je ne puis la séparer de ces conditions par aucun effort d’imagination. Mais qu’elle doive être blanche ou rouge, amère ou douce, sonore ou muette, d’odeur agréable ou désagréable, je ne me sens nullement l’esprit forcé de l’appréhender comme accompagnée de ces conditions. Et même, si les sens ne me guidaient, jamais le discours ou l’imagination par ellemême n’y arriveraient. Pour cette raison, je pense que ces saveurs, odeurs, couleurs, etc., du côté du sujet où elles semblent résider, ne sont rien d’autre que des noms, et ont seulement leur siège dans le corps sensitif; si l’on supprime l’être vivant, on supprime et annihile toutes ces qualités »12
L’intelligibilité galiléenne est conçue comme renonciation à l’ensemble des qualités sensibles du monde, et toute la physique se caractérise désormais par l’idée que les mathématiques sont adéquates au réel,  en « posant que la totalité infinie de l’étant en général est en soi une unitotalité rationnelle dominable sans reste par une pensée systématique. »13 C’est un pari sur la stabilité des êtres et de leurs relations. Toute loi, dans son énoncé, postule un champ d’invariance, et les transformations qui laissent invariantes des quantités physiques (les lois de conservation) ou plus généralement les principes qui les structurent, sont désignées par le concept de symétrie :
— à l’invariance par translation d’espace, correspondent trois lois de conservation pour les composantes de l’impulsion (l’origine de l’espace est inscrutable) ;
— à l’invariance par rotations, correspondent trois lois pour la conservation des composantes du moment cinétique (absence de direction privilégiée) ;
— à l’invariance par translation dans le temps, correspond la loi de conservation de l’énergie (l’origine  du temps est inscrutable).
Cette exigence d’invariance s’est manifestée historiquement par deux attitudes presque contemporaines : la formalisation par F. Bacon de l’induction, et le principe de relativité de Galilée, au point que plus tard, l’idée même de « loi de la nature » ne pouvait se concevoir que dérivée d’un principe de symétrie. Les diverses visions du monde de divers observateurs peuvent être reliées les unes aux autres par l’action d’un groupe et fonder le principe de relativité, et tout l’édifice des lois de la physique n’est que la réalisation de cette symétrie. Le principe fondamental de la mécanique classique est que les équations de Newton du mouvement rapportées à des repères d’inertie doivent être covariantes14 par rapport au groupe de transformations de Galilée.
 
Canon alla ottava
 
D’une manière plus générale, la covariance d’une équation de la mécanique sous un groupe de transformation implique la conservation d’une grandeur physique. La liaison entre la notion de covariance (symétrie) et celle de loi de conservation est donnée par le théorème de Noether15 qui précise le lien entre une juridiction mathématique (action d’un groupe qui laisse invariante une expression formelle, par écriture covariante) et un plan physique (conservation d’une grandeur physique, courant)
Le paradoxe d’une physique entièrement fondée sur des principes de symétries/relativité  est que ce qui est positivement accessible à la théorie et qui établit son ontologie, ce qui lui permet d’écranter le réel, ne lui donné que négativement, c’est-à-dire par ce qui lui est inaccessible du fait des symétries : « ce que la théorie peut connaître, est déterminé par ce que la théorie ne peut pas connaître, et de dire la forme de ce qu’elle ne peut pas dire », et de convertir la structure de ce qui ne peut pas être dit en action physique sur le monde. C’est là, l’origine enfouie de tous les déploiements de la Technique et plus tard ceux de la technologie.
Ce mode de connaissance est définit par Daniel Bennequin comme le « principe galoisien » de la science,16 en référence au mathématicien Évariste Galois, qui modifia radicalement l’approche de la résolution des équations algébriques. S’abstenir de résoudre chacune des racines d’une équation algébrique et « élucider le monde de leurs relations » eut une portée mathématique inouïe, et permit la naissance de la théorie des groupes.
 
« Il semble qu’il soit plus fort de ne pas choisir entre les solutions et de comprendre ce que recèle ce choix qu’on aurait à faire (si on nous y obligeait). Il est : s’en tenir à ce que à ce qu’on peut dire de ce qu’on peut pas dire. »17 La science est fondée en essence, mais en essence négativement, sur un principe de limite ontologique de la connaissance, mais devenu constitutif  de la science elle-même. Éminemment.
Une dynamique des forces ne peut se prévaloir d’aucun statut ontologique premier devant une dynamique des formes. Depuis, la science donne une lecture du monde dans un style opératoire, et la tentation est toujours grande d’identifier scientificité et efficacité pragmatique. Efficacité liant la validité d’une théorie à un test expérimental qui ne serait somme toute, qu’une manifestation réglée d’une phénoménologie imposée par succès pragmatique,18 elle ne confère aucun statut ontologique à la théorie, elle la baptise et  la rend éligible au consensus.
Il n’existe pas de lien direct entre une théorie T et ses résultats expérimentaux. Une hiérarchie de théories va devoir s’intercaler entre T et un certain contexte expérimental, défini par une théorie du dispositif expérimental. Le formalisme de T contiendra des fonctions continues.
Soumise à un test, T devra y renoncer : les expériences devant fournir des données discrètes. Le lien avec T s’effectuera par un choix de données, ensemble vu comme compatible avec T. Une théorie de l’expérience devra être élaborée in fine et prendre place dans la hiérarchie. La dynamique de la théorie sera alors d’unifier un grand nombre d’expériences, dans un mouvement de nécessité.
 
Dans un article devenu célèbre, issu d’une problématique de l’interprétation, et partant d’une hypothèse de réalisme séparable, les physiciens Einstein, Podolsky et Rosen en questionnant la mécanique quantique sur sa complétude ont permis l’explicitation d’une notion spécifiquement quantique, la non-séparabilité.19 Notion qui existait déjà dans le formalisme de la mécanique quantique, et ouvre à une question fondamentale : la non-localité de la physique quantique.
Un montage théorique dans le prolongement des idées de Einstein-Podolsky-Rosen (epr), proposé par le physicien Bell en 1964, considère que toute théorie à variables cachées20 pouvant rendre compte des corrélations epr, et qui reproduit le schéma prédictif de la mécanique quantique, introduit obligatoirement des interactions non-locales, et que toute théorie à variables cachées qui satisfait au principe de localité mène à des résultats expérimentaux différents de ceux que prédit la mécanique quantique (celle de l’interprétation orthodoxe de Copenhague).
 
La non-séparabilité n’est pas sécable des autres principes de la théorie, aussi une expérience qui teste la non-séparabilité relève-t-elle de la thèse de Duhem-Quine. Le montage expérimental imaginé par Alain Aspect21 pour tester les inégalités de Bell en est exemple paradigmatique :
 « ...chercher à séparer chacune des hypothèses de la physique théorique des autres suppositions sur lesquelles repose cette science, afin de la soumettre isolément au contrôle de l’observation, c’est poursuivre une chimère, car la réalisation et l’interprétation de n’importe quelle expérience de physique impliquent l’adhésion à tout un ensemble de propositions théoriques. Le seul contrôle expérimental de la théorie physique qui ne soit pas illogique consiste à comparer le système entier de la théorie physique à tout l’ensemble des lois expérimentales, et à juger si celuici est représenté par celuilà d’une manière satisfaisante », Selon Pierre Duhem.22
 Cette thèse sera reprise par V. O. Quine :23
 « Nos énoncés à propos du monde extérieur comparaissent devant le tribunal de l’expérience sensible non pas individuellement, mais comme un corps corporatif » et il précise : « Tout énoncé peut être considéré comme vrai quoi qu’il arrive, pourvu que l’on procède à des ajustements suffisamment drastiques ailleurs dans le système. »
 
L’expérimentation, syndrome baconien, veut saturer toutes les occurrences causales d’un phénomène et entretient l’illusion que l’ontologie d’une théorie serait dérivable et décidable par induction. L’expérimentation n’ouvre pas une ligne d’évolution unique à la théorie, ni ne prescrit, partant d’un champ phénoménologique donné, une théorie unique qui soit en accord avec elle.24
Les prédictions d’une théorie, qui portent sur des résultats de mesure et permettent la confrontation avec des expériences et leur interprétation, sont une exigence d’intelligibilité. Les mêmes prédictions peuvent être interprétées et avoir expressions dans des cadres conceptuels différents.Les résultats expérimentaux, de faible teneur en intérêt intellectuel, plus utiles à la réfutation qu’à la vérification, posent le complexe problème de leur destination référentielle, de la nature de l’interprétation qu’ils mettent en œuvre, et d’un certain chromatisme axiologique : ensemble de valeurs cachées, dirions-nous cryptées, dans ce qui se présente comme purement descriptif, dénoté et d’objectivité saturée.
 
Canon alla decima
 
La difficulté de construction  et d’organisation de ce cadre général de réception du monde physique tient à ce qu’il met en jeu deux instances qui doivent être liées : l’expression expérimentale d’une théorie ne peut aboutir que par l’élaboration d’un modèle. C’est la schématisation en une structure abstraite, posée en équivalent idéalisé d’une partie du réel. La schématisation, c’est-à-dire l’abstraction, doit être poussée, pour permettre la nécessaire mathématisation de la représentation.
L’usage (le choix) d’un certain outillage mathématique va donner toute son orientation théorique à la modélisation. Le style de la modélisation engagé dépend de ce qu’on nomme un paradigme.25 C’est ce qui permet de colliger une anthologie d’énigmes (le réel) et de tracer une ligne, rangée de drapeaux, entre ce que nous croyons connaître (champ de solutions) et ce que nous ne connaissons pas. La transformation (mutation, devrions-nous écrire) d’un paradigme en un autre s’effectue par la substitution d’une configuration (partout dense en ses résultats et ses énoncés de sens) en une autre, également considérée comme un tout.
Cette histoire discontinue rend plausible l’idée d’une pluralité de cheminements issus d’un même paradigme. La science qui nous est parvenue est une possibilité parmi d’autres, et elle est la dernière strate dans une sédimentation de l’espace des choix des paradigmes, un « jardin aux sentiers qui bifurquent ». Donc, à tout moment, des orientations inconnues peuvent engager la science vers une destination inconnue. On peut même conjecturer que plusieurs paradigmes sont simultanément à l’œuvre, en compétition, et que l’émergence d’un paradigme, soit la solution d’une dynamique héraclitéenne sous-jacente, solution toujours imprédictible. Cette perspective peut conduire à affaiblir ou peut-être à renoncer à deux dogmes de la science, universalité et unicité.
 
L’ajointement d’un niveau descriptif, celui de la caractérisation du phénomène (déferlement d’une donation et d’une présentation, le phénomène ne peut être état de choses singulier, individué et isolé par une pure dénotation symbolique), et du niveau prescriptif, celui de la légalité objective (champs d’invariances et lois) définit une ontologie régionale. Husserl explique dans les Ideen I 26que
 « la région n’est pas autre chose que l’unité générique à la fois totale et suprême, qui appartient à un concret, donc le lien qui confère une unité de type éidétique aux genres suprêmes répondant aux différences ultimes à l’intérieur du concret. » «Toute essence régionale détermine des vérités éidétiques de caractère synthétique, c’estàdire des vérités qui ont leur fondement en elle, en tant qu’elle est telle essence générique, et ne sont pas simplement des formes particulières de vérités empruntées à l’ontologie formelle. »
Les vérités synthétiques fondées dans une essence régionale « forment le contenu de l’ontologie régionale » et « délimitent — et pour nous définissent — l’ensemble des catégories régionales. »
 
On peut considérer le réel comme un ensemble stratifié, globalement inaccessible. La  mathématique entendue comme herméneutique permet d’en dévoiler les fibres et les strates, c’est-à-dire introduire des classes d’équivalences de phénomènes portées par une taxinomie qui organise des accidents observés selon leurs fréquences, leurs densités et leurs répartitions. Le problème fondamental que pose l’intelligibilité du réel c’est l’identification des principes d’individuation qui assurent l’émergence et la structuration en états de choses (Sachverhalte, au sens de Wittgenstein) d’une ontologie régionale. Dans une ontologie stratifiée (par l’action d’une stylisation galoisienne), chaque palier invente une grande classe de principes d’individuation.
 
Canon alla quinta
 
Chaque strate (configuration accessible à l’expérience) peut être interprétée comme classe d’homologie27 d’une catégorie d’événements possibles ; il est alors indispensable d’en construire la catégorie, la cohomologie et le type d’indétermination galoisienne qu’elle autorise. La physique galiléenne est édifiante de ce point de vue : en réduisant  le mouvement d’un corps à celui de son seul centre de gravité, le mobile est réduit à un point, cela est une transformation homologique, la masse devient alors une « classe d’homologie ».
 
La réduction des corps à des points supprime tout repère privilégié et construit  une classe de repères équivalents, où les lois du mouvement sont les mêmes, car n’ayant plus d’identité propre. L’homologie et la cohomologie des objets mathématiques sont « capables de réunir figures et nombres surtout par le jeu des coefficients (...) mais le plus remarquable vient avec l’universalité ; il existe une pléiade de cohomologies aboutissant au même résultat. Plus précisément : de multiples voies de définitions mènent à des théories isomorphes. Ce qui autorise les définitions axiomatiques. Toutes les cohomologies connues ne sont pas isomorphes, mais toutes sont reliées ».28 La cohomologie définit, interprète, stabilise les dynamiques de formes et leur confère une importante propriété, la généricité.
 
Si une loi (ou une propriété) est vraie avec une certaine approximation dans la topologie d’un domaine bien déterminé (ontologie régionale), elle est dite générique. Elle ne l’est pas sur l’ensemble des points singuliers de la topologie, qui est de mesure nulle. Une ontologie régionale peut se définir par l’exercice, dans un champ, d’un type de généricité et d’un principe d’individuation.
Celui qui est déterminant dans l’ontologie régionale de la dynamique galiléenne est le prolongement analytique caractérisant toute la physique. L’analyticité est aux sources de ce que l’on a pu diagnostiquer comme étant « le miracle de la physique ». La conformation galoisienne de la physique est-elle nécessaire, est-elle coextensive à notre organisation perceptive, ou est-elle l’expression intellectuelle des seuls a priori de la civilisation occidentale, qui réussit ainsi par elle, un accès singulier au réel, rendant le miracle de la physique sans portée et sans édification car privé d’universel. Une connaissance scientifique est-elle envisageable sous d’autres principes ?29 
 
Contrapunctus in stilo francese
 
La technologie est au cœur l’entreprise galoisienne, Elle est une cohomologie des forces physiques, non pas un pouvoir diffus sur les choses, ni une force étendue de puissance actuelle. C’est une capacité galoisienne, elle dérive du même mécanisme de générativité des énoncés scientifiques, il a pouvoir de la libérer, de la dévider et la faire coïncider finement avec une occasion, mais aussi la contenir dans la définition de ses procédures d’effectuations : l’être de la technologie est entier algorithmique. Quelques précisions terminologiques nous semblent s’imposer :
— La technique : dans une aire circonscrite, c’est une action pensée de transformation locale de l’environnement, dans une convergence de  travaux outillés et appareillés (les techniques), et entièrement tramée dans une constellation d’actes de signification. La somme des moyens nécessaires à son exercice demeure dans un trajet humain. Une technique est cessible et transmissible en totalité. Elle ouvre sur un style et libère une individuation. Elle est de nature téléologique, limitée par l’horizon d’un besoin, elle reste finement articulée aux inquiétudes et aux projets d’une culture : elle est en situation toujours de signaler « ce qui pourrait être autrement », et l’homme l’exerce encore comme sujet.  La technique est répertoire, recueil, recension, et tracé d’un index de dialogues, échanges d’expériences, de langues, de postures et d’acteurs entre des techniques particulières. La technique est une mise en scène du travail, ses ressorts sont montrés et révélés dans la permanence de l’effort ingénieux, transmuté en épreuve, et d’abord contre soi. Il y a de la quête en toute technique.
— La technologie : c’est un champ de la technique fondé sur un emploi généralisé de la connaissance scientifique, mais surtout par son usage de la rationalité qui se manifeste comme principe d’optimisation de toutes ressources (intellectuelles, naturelles, jusqu’aux institutions qui deviennent des appareils et fonctionnent) et de mise en systèmes. Elle est le modèle d’une activité qui ne laisse aucune trace derrière elle et qui épuise sa signification dans son propre exercice, « bornée par manque de clôture ». Le travail est dissous, dérobé (dans les deux sens du terme). Le lieu de sa résorption est la boîte noire. Métaphore baptismale pour désigner le lieu d’effectuation des opérations du savoir et de l’action, locus conclusus, elle est soustraite au déchiffrement, et suspend intelligibilité et regard, et ne connaît que des entrées et sorties. Dure et géométrique amulette, la boîte noire est devenue schéma de réalisation de tout appareil ; vêtue d’une surface avenante, elle est couverte de boutons, poussoirs, manettes et curseurs, étendue qui recueille et condense le pouvoir de la mise en branle. Mais la boîte noire elle-même recule et se met hors de portée tactile, par l’outil télécommande. L’action de commander aux choses à distance, geste de thaumaturge s’il en est, impose l’idée que n’avons plus à toucher les objets (nous ne devons plus). Puisqu’un organe de commande, objet ancillaire et cerf, s’intercale entre nous et l’objet majeur, destinataire de l’intention de fonction. Généralisée, la fonction-télécommande atténue notre présence corporelle, et semble presque nous incorporer dans les machines, en abolissant la distance (nécessaire à leur objectalité) qui nous en sépare.
 
L’optimisation ergonomique va être habile à réduire la surface de contact manuel des machines, sur laquelle se porte la main, en saisie, et entame le rapide processus de leur dématérialisation : ils tendent à être pure fonction réalisée et manifestée. La perception d’un objet dédiée (un appareil) doit de prime évidence désigner sa fonction, et réduire toutes les stases perceptives qui peuvent signaler une individualité. Un minimum de matière pour libérer un maximum de fonction. La fonction-télécommande finira par exprimer sans délai et sans médiation nos intentions, en ce sens que la part de l’effort physique pour l’activer deviendra véritablement négligeable. Lorsque la main se rétracte et régresse, régresse aussi la symbolisation.
 
Ouverte, l’étymologie du substantif technologie serait : l’assomption descendante, faustienne, d’un logos, mais logos apophanticos, vers une physis, aspirée dans l’épaisseur et l’endurance d’une technè. Déjà perdu pour ce qui lui est source, affranchi de son origine, en exode de vision et de vie examinée, le logos brise le cercle de la finitude humaine et devient volonté de volonté.
Ce mouvement de générativité de la technologie est toujours en branle, à l’œuvre, organiquement lié à la constitution de la science elle-même comme devant s’éprouver en un agir, il est d’identique méthode et participe de la même essence. Il est déposé originellement dans la capacité prédictive de la physique. La prédiction qui commande de ne jamais rester irrésolu et tenter la mise en disponibilité de tout ce qui du monde est accessible à la volonté et au calcul. La physique ne s’est pas compromise avec l’agir dans le monde et la technologie n’en est pas une perversion, résultat d’un accident historique. Une analyse fine de la technologie ne la révèle pas entité sécable et de développement autonome, elle est liée à la science au point d’en être indiscernable et que l’on parle désormais de technoscience (selon le mot du philosophe Gilbert Hottois) :
 « Le couplage s’est resserré au point qu’il est devenu parfaitement artificiel aujourd’hui de distinguer recherche (fondamentale) et développement (appliqué). C’est donc à bon droit que l’on désigne par « technoscience » cette sphère unifiée où circulent et s’échangent idées et objets, expériences et produits, chercheurs et ingénieurs. »30
 
Quels effets de sens la réception et l’improbable descente de la science (ce cap extrême de l’Occident ) vont–elles produire dans les sociétés qui ne la produisent pas, là où elle n’est pas un engendrement culturel, où sont cultivés seulement ses artéfacts. Cette descente de la science doit être comprise comme interaction avec tout ce qui constitue la culture d’une société, c’est-à-dire ce qui donne à la vie d’une collectivité historique sa forme particulière, ses manières de normer, d’agir, d’exprimer ses systèmes de représentation. Puis, en sa dimension éthique, celle qui façonne et oriente des conduites concrètes, mais aussi  esthétique, celle de la composante expressive, dynamique des formes en charge de toute signification. Ce sont des dispositifs conceptuels et symboliques, à travers lesquels les différents groupes de cette collectivité tentent de s’interpréter et interpréter le monde qui les porte, et qui s’extériorisent en des figures signifiantes, proposées à un déchiffrement indéfini.
 
Comment la Technoscience  se réfracte  dans une société donnée, à un moment déterminé de son histoire et par quels points d’insertion ? Quelle est l’amplitude de cette réfraction et quels aspects  retient-elle ? Quelle recomposition de l’identité d’une communauté historique elle autorise, et quels récits de cette identité elle interdit ou inhibe ? Comment la technoscience  a-t-elle modifié l’enracinement  dans une société, par la suppression d’un vaste champ de références à des savoirs locaux ? Quels sont les projets historiques qu’elle ouvre, les nouvelles valeurs qu’elle introduit, est-il possible d’en commencer l’inventaire ? On prétend que la technoscience a désenchanté  l’Occident  en réduisant la sphère du sacré, agit-elle de même dans d’autres sociétés ? quelle est la capacité intégratrice d’une société qui ne la produit pas ? Quels types de responsabilités nouvelles doit-on définir à son contact ? Le déploiement de la technoscience  est-il une mesure de l’espérance, est-il une nouvelle espérance ? La technoscience permet-elle encore à l’individu de se situer visàvis du monde, de la société, et aussi du patrimoine national, de tout ce qui permet comprendre sa situation pour pouvoir éventuellement agir en vue de la modifier.
 
L’économie, discipline académique, mais aussi autorité d’experts, qui guide et organise l’action, est le lieu où se synthétise toute la symbolique nouvelle des technosciences, là où se décide l’annulation du sens par la  production des objets. La théorie des jeux en est devenue la scène constituante de la pensée économique,31 conduite par les principes d’optimisation qui viennent en héritage de la mécanique analytique. La théorie des jeux introduit la mathématique au cœur de l’agir humain, et vérifie ainsi la définition de technoscience. La théorie des jeux est l’idéal d’une construction purement syntaxique des modèles économiques, et l’optimisation devient générique. La théorie des jeux est éthiquement neutre. Elle ne qualifie aucune action. Il est opportun de rappeler que le calcul des variations, originellement, n’était pas une pure exigence conceptuelle de la mécanique. Ses fondateurs, Euler, Lagrange, Legendre, y sont parvenu par le souci de trouver les meilleures solutions à des problèmes techniques.
 
L’ultime état du calcul et de l’optimisation, qui exige le maximum de gain dans une action sur le réel, est de devenir un état du réel lui-même. La connaissance auto-réalisatrice est immédiatement décision. Les économistes parlent de prophéties auto-réalisatrices abolissant la séparation (qui seule peut assurer des conditions d’objectivité) entre un énoncé sur le monde (qui laisse le monde sauf) et le monde lui-même. Les énoncés auto-réalisateurs deviennent performatifs,  au sens d’Austin.32 C’est une connaissance à entropie réelle. Elle ne laisse pas le monde sauf. C’est une conséquence de la perte d’objectivité (on peut l’analyser comme processus psychotique de déréalisation) et de l’échec de l’activité des modèles.
Quasi théorème : tout ce qui, par fait de système, s’optimise dans une action sur le monde,  relève d’un comportement technoscientifique.
Les technosciences empêchent et entravent toute tentative d’analyse de leur fonctionnement, des désirs et des fascinations qu’elles suscitent. Leurs usages sont sémantiquement opaques, ils n’incorporent aucun récit de genèse et, par mirage, ils détournent regards et discours sur d’autres scènes, d’autres sites, d’autres signes. Les hommes ne les reconnaissent plus comme produits de leur agir, ils en sont séparés, peu de représentations nous les rapportent, en retours signifiants. Un mot du lexique révolutionnaire se justifie cependant,  pour dire cette mise en hypostase : l’aliénation.
 
La conjecture de von Foerster en précise la structure et  la nature33 :  à mesure que les éléments d’un systèmes sont « trivialement connectés » (régis par des influences rigides et univoques reçues et données dans leur environnement immédiat), d’autant est réduite leur influence sur le comportement global du système. Plus le comportement global des éléments, constitués en réseau, est trivial et peu complexe, plus il est prévisible pour un observateur extérieur, et
 « plus il apparaît contre-intuitif et non maîtrisable pour ces observateurs intérieurs que sont les éléments du  réseau. Plus donc l’automate collectif paraît doué d’autonomie par rapport aux automates individuels. »34
Une action rationnelle, entièrement orientée vers la recherche d’optima,qui gouverne tout l’agir humain, conduit à la trivialisation des rapports humains au sens de Heinz von Foerster, conduit à l’aliénation. Cette aliénation est stable.
 
La culture est l’ensemble des savoirs, des formes de vie et des formes symboliques fondant l’appartenance intérieure et vécue des individus à une société, considérée comme un système de communication entre ses membres. C’est l’entrée dans une communauté de langue, de tradition, de savoirfaire, de savoirvivre, de peurs et de saveurs, de normes et de valeurs. C’est la continuation d’un lent travail de tissage généalogique. Au sens large, la culture recouvre toute forme de vie sociale, organise à tous les échelons et dans tous les domaines les manifestations de la vie collective, et constitue le mode de réponse distinctif d’une collectivité aux problèmes que lui pose sa durée dans un environnement.  La technoscience peut-elle être partie prenante dans ce travail d’élucidation, dans cette confrontation des travaux et des jours ? Si une civilisation est un accord et un trajet continuellement remis sur le métier, renouvelé, entre des fins et des moyens, peut-on affirmer que la technoscience a institué l’Occident comme un  vaste et inépuisable champ de moyens ?
 
Contrapunctus alla duodecima
 
Exemple qualifié de technoscience, le paradigme informatique (toutes les techniques automatisées de calcul, de traitement de l’information, d’organisation, de gestion rendues possible par l’utilisation exclusive de l’ordinateur, conçu comme objet générique), résume et illustre excellemment les pouvoirs, la folie et le recouvrement de la technologie.
Les deux strates cognitives constitutives sont enfouies35 (comme on le dirait d’une cité antique) et ne sont plus restituées, elles sont forcloses. Elles constituent,  pour la première fois, dans l’histoire des techniques un inconscient cognitif.
Elles ne sont plus restituées, parce que la génération de nouveaux outils informatiques ne récapitule plus les savoirs antérieurs. Aucune scène pédagogique ou théorique ne (plus) supporter unitairement le phénomène informatique. Dans ce cas la phylogenèse ne récapitule plus l’ontogenèse cognitive. Une simulation (complète) du fonctionnement d’un ordinateur par un autre reste possible.
C’est une simulation physique et technicienne, machinique et immanente, en ce sens que le savoir qui engendre cette simulation n’est pas représenté. Le savoir informatique n’est plus sommable. L’outil informatique va durablement compromettre un développement intellectuel significatif : il est devenu un nouveau mode de penser, du penser. C’est une technique/monde/pensée. Par étapes furent déléguées à la machine des compétences proprement humaines : calculer, comparer, sérier, classer, écrire, décider (par l’usage des systèmes experts), organiser, thématiser et restituer des connaissances et des savoirs  (par l’usage des banques de données).
 
Pour la première fois la technique (par l’informatisation) concerne tous les aspects de la vie de l’homme et va entraver toute transcendance. Demain, peut-être, toutes les grandes fonctions d’arbitrage éthique (justice) et politique (parlements, forums politiques) seront automatisés et informatisés. On assiste déjà à l’automatisation de quelques grandes fonctions économiques : cotations boursières, chemins des flux financiers, connexion des marchés financiers par interdépendance généralisée.
Connaître ne sera plus que simuler et expliciter les états futurs d’un automate. Le savoir n’est qu’une expérimentation en déploiement, et toute simulation, en ce sens est traduction. La simulation ne concerne pas les phénomènes eux-mêmes, mais porte sur une deuxième génération d’idéalisation qui est le modèle. Le modèle en est une simplification, qui se définit aussi par ce qui est omis : marge de phénomènes qui seront laissés inexpliqués. L’activité théorique va se confondre avec la confection des modèles les plus finement simulables. Mais quel volume de bois mort de phénomènes inexpliqués, une théorie peut-elle supporter ?
L’ordinateur, intermédiaire instrumental dans un premier temps, est desormais interlocuteur, et maintenant unique destinataire d’une interrogation devenue technique, et privée de tout sens cosmique, et perte de l’évidence naturelle, originaire, « du monde de la vie. » Le virtuel machinique est sans imaginaire, sans écriture, car privé du corps et du désir et de la capacité de définir, de nommer et de penser, puisque penser, c’est parler originellement.
Pouvoir de la rationalité d’un ars calculandi omnipotent, le virtuel machinique est décuplé, car il se propage dans un espace de traduisibilité complète et infinie. Il n’est plus de particularité ou de  point de vue, qui ne puisse se résoudre en un modèle, dont  la description est elle même traduction d’un autre modèle. La traduisibilité est la réduction à idiome fondamental, le numéral, expression des états logiques d’un ensemble de machines. C’est la « connectivité universelle » du réseau internet, qui n’est autre qu’un espace de flux généralisés.
 
Les flux généralisés réduisent et dissolvent toute identité qui est source d’énonciation. Il ne subsiste plus que des clinamènes de protocoles. Tous les discours significatifs dans une société doivent être convertis aux normes de protocoles, à leurs formats de lisibilité et leurs vitesses de diffusion. Cette conversion généralisée est semblable à un usinage. Une matière normée préfigure le schéma d’une autre norme à venir. Il n’existe aucun trajet entre une norme et une autre qui la remplace.  La succession des normes n’est pas une ligne d’histoire, elle ne peut être portée par aucun projet de transcendance. L’espace des normes est nativement privé de tout attribut d’extériorité. La norme ne réfère pas.
Plus le maillage (espace où la norme est vraie) est étendu et homogène (les mathématiciens diraient un espace isotrope) et plus est élevée la traduisibilité des énoncés de norme entre eux. Le maillage postule la convertibilité de tous les énoncés en normes. Une norme est toujours énoncée sur un mode strictement dénoté. Le sens est expurgé, et donc toute interprétation est impossible. C’est le phénomène de capture dénotative. C’est la dénotation qui assure la complète traduisibilité des normes entre elles et assure donc l’isotropie du maillage.
 
 Un pouvoir générateur et pourvoyeur de normes ne peut fonctionner que par le recours à un principe d’optimum. Mais chaque optimum admet un résidu. Le résidu d’un optimum est une part irréductible, à jamais mauvaise part. Le résidu est le lieu où la norme est empêchée de se déployer, marge inassignable, inscrutable, laissée en dévolution, car ne pouvant être façonnée par aucun autre discours. C’est le sel qui brûle et tue la terre. La rationalité  mise en œuvre  dans la recherche d’optima  ne peut être assumée par personne, elle n’est jamais présente comme démarche et reste muette sur ses origines et son fonctionnement. Les économistes parleraient avec raison d’externalisation.
Le tissu social est la matière première de la norme, il sert à la propagation de tous les champs de normes et repose sur une double métaphore : textile, celle de la reproduction indéfinie et à l’identique d’une maille, et, histologique, celle de la part épaisse et sans qualification physiologique de l’organisme, pure matière de remplissage et de  soutien.
 
Quodlibet.
 
Aucune autre civilisation ne peut proposer des voies nouvelles à l’Occident, ni n’est en mesure d’apporter des solutions à ses problèmes. Rome, empire-civilisation, après avoir lourdement combattu le christianisme, l’a accueilli et institué. Le christianisme est devenu romain et, secondairement apostolique. Cette conversion par la conquête (l’esprit et la culture hellénique, la spiritualité sémite par l’adoption du christianisme) n’est plus possible.
La générativité galoisienne, mouvement de marche, en cela chute constamment différée, a fait de l’Occident une civilisation du vide ; elle ne s’organise pas autour d’un noyau de densité qui de lent en lent, donne qualité et durée au monde alentour, dans une manière de pesanteur, de gravité anthropologique qui peut amarrer l’homme au monde. Une civilisation peut être approchée comme étant la somme permanente de réalisations humaines extraites de l’écoulement du temps, et déposées en épaisseurs de phénomènes. Le vide galoisien, est la simulation de cette possibilité. C’est la  négation de la vie pleine du  phénomène : cela qui se donne à voir, en vérité et en histoire. Négation, non comme conclusion dans un arrêt final et durable, mais négation agie, œuvre et puissance, mouvement de la reprise annoncée, appelée déjà dans la disparition. C’est le destin de la puissance infinie, non comme manifestation surgie pour la durée longue, en essence et en attributs, mais résurgence inépuisable d’un infini potentiel. Non pas permanence des formes par leur persistance, mais par loi de leur inépuisable engendrement ; virtualité qui s’incarne en multiplicité, ad libitum. La négation galoisienne émonde le réel de différentes manières, mais le restitue identiquement, dans l’orientation d’une convergence ; c’est la conjonction d’un infini et d’un universel.
 
L’Occident est  tout entier porté par sa technologie et ses déploiements dans le monde. Ce déploiement  — la  sphère de la technoscience, aujourd’hui — est fondé de manière singulière sur un schéma singulier: la générativité galoisienne des procédures de connaissance. L’Occident ne s’éprouve que dans un pur agir, qui n’est pas permanence dans sa substance et sa durée, mais succession générée d’événements, créés dans la nécessité puis dissous, sommés par un dispositif essentiel, qui peut reproduire non pas un être, mais seulement ses façons. L’Occident est pure force, indéfiniment reconduite, close sur ses schémas, ne pouvant plus se reprendre dans une idée de projet qui ouvre sur des plans inconnus de l’histoire. L’Occident comme civilisation est fils et petit fils de sa science. En cela, fait singulier, il a lié son être au monde et ses pas dans l’Histoire, à sa manière de connaître. L’Occident fait peur, non parce que mauvais, mais parce qu’inintelligible.
Il n’y a pas d’équivalents occidentaux dans une civilisation d’accueil. L’Occident est intraduisible. Le vide occidental n’est pas imitable. Cette essentielle impossibilité, produit des effets anthropologiques, économiques et politique que l’on commence seulement à identifier.
 
La physique/science. Est-elle engendrement d’elle-même à mesure de son élaboration, déviderait-elle les manières d’un logos en latence et ontologiquement inerte ? Est-elle plutôt manifestation d’un universel transculturel, façonné par un puissant logos qui travaille, tisse et unifie derrière le chaos des apparences ? Y parviendra-t-elle  un jour, par l’effet d’une foudroyante parousie ? N’est -elle pas tentative tragique de relier des expériences de savoir définitivement étrangères l’une à l’autre, matières subtiles, qualifiées, mais uniquement pour elles-mêmes, et égrenées sans raison ?
Peut-être est-il temps d’admettre que la rencontre avec la science est accidentelle, sans nécessité, ne portant par elle-même ni salut, ni issue et, alors qu’elle nous somme par la technologie, nous devons la recevoir toujours parés de nos singularités, dans le questionnement interprétatif et l’historiser. C’est-à-dire la rendre au temps, défibriller ses accidents, ouvrir ses singularités, remonter à leurs langages anciens, à leurs analytiques anciennes, se porter à leurs points d’arrêts pour les continuer, non point en  recommencements  mais en reprises remémorantes et en restauration. Ce refus est l’envers responsable d’une quête d’autonomie, dans les légitimations à vivre, à penser, à construire des ordres, à habiter, à éduquer, à transmettre. Peut-être, le moment  est-il venu d’entamer le véritable travail de la dissidence ontologique.
 
Bibliographie
 
— P. Alféri, Guillaume d’Occam, le singulier, Minuit, 1989, Paris.
— A. C.  Argan, Brunelleschi, Macula, 1981, Paris.
— J. L. Austin, How to do Things with  Words, Oxford University  Press, 1962.
— L. Baudry. Lexique philosophique de Guillaume d’Ockham. Études des notions fondamentales, Letheilleux, 1958, Paris.
— D. Bennequin, « Questions de physique galoisienne » in Passion des formes. Éditions de l’Ecole normale supérieure de Fontenay, 1994, Paris. « Le non-être homologique », postface à Michèle Porte, Pulsions et politique, L’Harmattan, 1997, Paris.
— J. Biard, Logique et théorie des signes au  XIVe siècle, Vrin, 1989, Paris. Guillaume d’Ockham et la théologie, « Initiation au Moyen Âge », Cerf, 1999, Paris.
— P. Comar, La perspective en jeu : les dessous de l’image, Gallimard, 1992, Paris.
— H. Damisch, L’origine de la perspective, Flammarion, 1993, Paris.
— J.-P. Dupuy, Ordres et Désordres. Enquête sur un nouveau paradigme, Seuil, 1982, Paris.
— P. Duhem, 2tudes sur Léonard de Vinci. IIIe série : les précurseurs parisiens de Galilée, réédition, Éditions des Archives contemporaines, 1984, Paris. « Le temps et le mouvement selon les scolastiques », Revue de Philosophie 14, 1914. La Théorie physique, son objet, sa structure. Chevalier et Rivière, réédition, Vrin,1981, Paris.
— S. Eilenberg, N. Steenrod, Foundations of Algebraic Topology, Princeton University Press, 1952.
— I. Ekeland. Théorie des jeux et  ses applications à  l’économie mathématique, PUF, 1974, Paris.
— B. d’Espagnat, À la recherche du réel, .Gauthier-Villars, 1979, Paris. Le réel voilé, Fayard, 1994, Paris.
— H. von Foerster, Observing Systems, California Intersystems publications, 1981, Seaside.
— Galilée, L’essayeur, traduction C. Chauviré, Les Belles Lettres, Paris.
— E. Grant, Physical  Science in the Middle Ages,  Cambridge University Press, 1977.
— M. Koppel, H. Atlan, J.-P. Dupuy. « Complexité et aliénation. Formalisation de la conjecture de von Foerster », in Les théories de la complexité, 1981, Seuil, Paris
— C. Michon. Nominalisme. Théorie de la signification d’Occam, Vrin, 1994, Paris.
— P. Hamou, La vision perspective ( 1435-1740), Payot, 1995, Paris.
— E. Husserl, La crise des sciences européennes et la phénoménologie transcendantale, traduction G. Granel, Gallimard, 1976, Paris. Idées directrices pour une phénoménologie, traduction, P. Ricoeur, Gallimard, 1950, Paris.
— M. Jammer, The conceptual development of quantum mechanics, Mc-Graw- Hill, 1966, New-York.
— M. Jammer, The philosophy of quantum mechanics, Wiley, 1974, New York.
— T. Kuhn, The Structure of Scientific Revolutions. University of Chicago Press, 1970, Chicago.
— J.-M. Lévy-Leblond, La pierre de touche, Gallimard, 1996, Paris.
— J. von Neumann, Mathematische Grundlagen der Quantenmechanik, Springer-Verlag, 1932, Berlin.
— J. von Neumann, O. Morgenstern, Theory of  Games and Economic Behavior, Princeton University Press, 1944.
— Guillaume d’Okham, Guillelmi de Okcham, Opera philosophica. 1974. Opera thelologica, 1967, Franciscan Institute, Saint-Bonaventure, New-York.
— E. Panofsky, La perspective comme forme symbolique, traduction G. Ballangé, Minuit, 1975, Paris.
— J. Petitot, « Pas même un ange… » in Temps et Devenir, Patino, 1988, Genève.
— W. v O. Quine, Methods of Logic., Holt, Rinehart and Winston, 1972.
Word and object, MIT Press,1964.
— C. Schmidt. Théorie des jeux. Essai d’interprétation, PUF, 2001, Paris.                                                        
— R. Thom, « La méthode expérimentale : un mythe des épistémologues (et des savants ?) », in Apologie du Logos, 1990, Hachette, 1985, Paris.
— P. Vignaux, « La problématique du nominalisme médiéval peut-elle encore éclairer les problèmes philosophiques actuels ? », Revue philosophique de Louvain 75, 1977, pp. 293-331.« Le nominalisme », Dictionnaire de théologie catholique, 1938, pp. 717-784.