Nanomonde : un regard de physicien

Jean-Louis Pautrat


Le succès des nanotechnologies a projeté cette discipline aux premiers rangs de l’actualité. Les scientifiques bénéficiaires de cette célébrité ont découvert que leur science, souvent méconnaissable, devenait objet de science-fiction, cadre de scénarios catastrophes, prétexte à polémiques. Sans chercher à faire le tour du sujet, le présent texte voudrait, dans une première partie, situer le domaine des nanotechnologies et dire pourquoi cette discipline arrive aujourd’hui sur le devant de la scène. Dans une seconde partie, on présentera quelques-unes des inventions à porter au crédit de cette discipline. Enfin, dans une troisième partie, on concidérera avec l’œil du scientifique certains thèmes de science fiction souvent mis en avant, comme celui du nano sous-marin.

Nanotechnologies : l’ultime miniaturisation

Les physiciens sont depuis longtemps familiers avec le monde de l’atome, voire le monde sub-atomique, où les dimensions sont bien plus petites que le nanomètre (un nm= milliardième de mètre). Les ingénieurs de la microélectronique, eux, sont accoutumés à un effort de miniaturisation qui leur a permis de fabriquer des objets complexes dont les détails sont de plus en plus petits. Un composant de la microélectronique, un microprocesseur, c’est une plaquette de silicium de deux cm
2, une puce, sur laquelle sont gravés des circuits à transistors capables de réaliser des opérations logiques. Les premiers circuits intégrés, fabriqués au début des années 1970, ne comprenaient que quelques milliers de transistors avec une finesse de gravure de plusieurs micromètres. Ceux d’aujourd’hui en contiennent presque un milliard dont la plus petite dimension n’excède pas soixante-dix nanomètres. Cette évolution a été continue et régulière depuis plus de trente-cinq ans. Sur un diagramme semi-logarithmique, elle est quasiment linéaire, avec un doublement du nombre de transistors par puce tous les dix-huit mois. C’est la loi de Moore. Il était depuis longtemps prévisible que les dimensions ultimes des composants allaient passer au-dessous de cent nanomètres au début des années 2000, sauf si... des limitations physiques ou économiques venaient s’interposer. Cela n’a pas été le cas jusqu’à présent. L’histoire des techniques retiendra sans aucun doute cet épisode remarquable qu’a constitué la loi de Moore : l’ensemble des acteurs mondiaux ont coordonné leurs efforts pendant plus de trente-cinq ans pour produire une évolution continue des performances des composants électroniques.
Par nanotechnologies, on désigne les techniques permettant de fabriquer des objets dont deux ou trois dimensions sont plus petites que cent nanomètres. Parallèlement, les nanosciences désignent les sciences qui permettent de comprendre les propriétés de ces objets. Les nanosciences font appel aussi bien à la physique, qu’à la chimie, la mécanique ou la biologie. Le monde des nanos devrait être un monde de convergence des disciplines. Ce devrait être aussi une occasion de rapprochement entre les disciplines théoriques et les disciplines technologiques.

La technique a, en effet, joué un grand rôle dans l’émergence des nanotechnologies. Il a fallu non seulement apprendre à fabriquer des petits objets grâce aux techniques de réduction photographique, de lithographie et de gravure. Il a fallu aussi apprendre à les observer. Le microscope électronique existe depuis longtemps, qu’il soit à transmission (
1930) ou à balayage (1960). Le microscope à transmission peut atteindre une résolution de zéro virgule un nanomètre, qui lui permet aisément de séparer, dans un cristal, deux colonnes atomiques voisines. Cependant, cet instrument utilise des électrons qui traversent la matière. Les échantillons à observer doivent être préparés sous forme de lames très minces dont le faisceau d’électrons va sonder toute l’épaisseur. La performance de l’instrument est bridée par les contraintes de mise en forme de l’échantillon.
Une révolution est venue de l’invention du microscope à effet tunnel, en
1981, par Binnig et Rohrer. Le principe en est complètement nouveau. Au lieu de former une image à partir d’une onde lumineuse ou électronique utilisée comme sonde, on va chercher à utiliser une pointe fine pour sonder la surface (comme un non-voyant utilise le bout de ses doigts pour lire un texte en Braille). En même temps que l’on approche la pointe de la surface, on mesure en chaque point un paramètre qui permet de caractériser l’interaction pointe-surface. Le microscope à balayage à effet tunnel utilise la mesure du courant électrique qui passe de la pointe à la surface malgré l’existence d’un espace isolant (de vide ou d’air sec). À la distance d’un demi nanomètre, il passe un courant de un nanoampère, qui croît très vite si cette distance diminue. C’est le courant-tunnel. Lorsque la pointe est déplacée au-dessus de la surface, la mesure du courant-tunnel permet de maintenir la pointe à une altitude constante au-dessus de la surface. On peut ainsi dresser une topographie de la surface et en reconstruire une image analogue aux cartes ign utilisant courbes de niveau ou code de couleurs. Avec une pointe suffisamment fine, on atteint la résolution atomique, les ondulations de la surface dues à des atomes individuels sont parfaitement observables (voir figure 1). Le succès de cette technique doit beaucoup à l’emploi de transducteurs piézoélectriques permettant de contrôler les déplacements de la pointe avec une grande précision. Elle n’aurait pu voir le jour sans les développements de l’informatique qui permettent d’accumuler toutes les données et de reconstruire rapidement les images.

En approchant une pointe d’une surface, on peut détecter différents types d’interaction. Chacune d’elles a donné naissance a une nouvelle famille de microscopie à sonde locale. Le passage d’un courant électrique a conduit au microscope à effet tunnel (stm), l’interaction magnétique au microscope à force magnétique (mfm), l’amortissement de la vibration d’une pointe au microscope à force atomique (afm), la diffusion de la lumière apportée par une pointe-fibre optique au microscope à champ proche optique (snom) etc. La reconstitution d’images à partir des mesures fournies par ces appareils fait généralement appel à un codage pour traduire en couleurs l’intensité du paramètre mesuré. Il n’y a pas une seule image d’une surface vue à l’échelle atomique mais autant d’images que de paramètres mesurables.
On a comparé la pointe qui s’approche d’une surface au doigt d’un opérateur qui, dans l’obscurité, ou en l’absence de vision, palpe une surface. Cette image peut être encore poursuivie. Si la pointe est assez fine (imaginons-la se terminant par un seul atome), elle détecte les ondulations de la surface dues à chacun des atomes qui la constituent. Un seul atome supplémentaire déposé sur une surface est bien visible. La pointe en dresse l’image. Elle peut venir à proximité immédiate. Manipulée délicatement elle peut même parvenir à déplacer cet atome supplémentaire, l’approcher d’un autre et ainsi réaliser une construction artificielle.
La pointe du microscope à sonde locale peut être considérée comme le prolongement du doigt d’un artisan, un prolongement capable de sentir les atomes, de manipuler les atomes, d’assembler les atomes… En poursuivant la comparaison on pourrait presque imaginer l’opérateur capable de construire n’importe quel objet atome par atome. Une extrapolation dont ne se sont pas privés un certain nombre d’auteurs, dans le sillage d’E. Drexler,

qui prédisent que les nanotechnologies vont permettre de fabriquer des objets atome par atome comme on assemble des briques de Lego ! Drexler a même imaginé des assembleurs, nano-robots capables de construire n’importe quel objet en apportant les bonnes molécules aux bons endroits. « Les outils moléculaires vont lier des molécules ensemble pour fabriquer de minuscules engrenages, moteurs, leviers, axes et paliers et les assembler pour fabriquer des machines complexes ». Ces nano-robots seront eux-mêmes capables d’en assembler d’autres, semblables à eux-mêmes. Cette perspective a donné naissance a la vision catastrophique d’un monde dominé par des robots capables de s’autoreproduire. Fallait-il prendre ces hypothèses au sérieux ?

Richard Smalley, qui reçut le prix Nobel en
1996 pour la découverte des fullérènes, nouveaux édifices moléculaires constitués chacun de soixante atomes de carbone, discute les hypothèses de Drexler dans un article paru en 2001.
Il rappelle que disposer d’un outil en prolongement des doigts pour effectuer un certain nombre d’opérations sur des atomes, ne dispense pas des lois habituelles de la physique, de la chimie et de la thermodynamique. Parmi ses différentes critiques, relevons-en une. L’hypothèse de l’assembleur est décalquée de la cellule vivante, qui comporte à la fois un programme de construction (code génétique), une machinerie énergétique et la capacité d’autoreproduction. Toutes ces fonctionnalités, toutefois, exigent que la cellule soit correctement alimentée. Habituellement, elle puise son énergie dans le fluide qui la baigne. Il paraît bien artificiel de vouloir transposer le concept à la matière inerte sans se préoccuper de l’alimentation énergétique. Pour réaliser un édifice quelconque il faudra bien trouver une source d’énergie. Faute de quoi, l’« assembleur » ne parviendra jamais à l’autonomie complète. Il restera sous la dépendance de son alimentation en matériaux et en énergie.

Quelques applications : du micro au nano

Bien que le terme ait déjà été survendu, nous ne sommes pas vraiment entrés dans l’ère des nanotechnologies. On est encore dans celle des microtechnologies qui, elles, commencent réellement à passer dans la vie courante : la microélectronique est bien sûr la plus présente des microtechnologies avec par exemple le téléphone mobile qui incorpore de plus en plus de fonctionnalités (photo, gps, internet etc.) toutes gouvernées par une ou plusieurs puces. Dans la voiture, le déclencheur d’airbag est un microsystème de moins d’un millimètre cube. La pression des pneus sera prochainement surveillée, en continu, par un micro-capteur inséré dans les pneus. Dans le domaine de la biologie et la santé, les biopuces à adn utilisent les techniques de la microélectronique pour disposer de nombreuses sondes sur une plaquette et permettre des analyses d’adn rapides et efficaces. Par exemple une puce permet déjà d’identifier la nature de l’espèce animale présente dans un échantillon alimentaire. Une autre biopuce a été mise au point pour personnaliser le traitement anticancéreux à administrer à un malade, à partir de l’analyse d’un prélèvement fait sur une tumeur.
Le monde des nanos commence tout de même à devenir réalité. Il nous propose, par exemple, les nanotubes de carbone. Ce sont des fils de carbone pur dont le diamètre est de quelques nanomètres tandis que leur longueur peut atteindre des micromètres. Leurs propriétés sont inédites : grande résistance mécanique, faible poids, forte conductivité électrique. On s’attend à les voir utilisés aussi bien dans les fibres polymères (dont ils augmenteraient la résistance mécanique), que dans les écrans plats (comme émetteurs d’électrons) (figure
2) ou comme nano-composant électronique (transistor, par exemple). Les nanocristaux semi-conducteurs constituent un autre exemple de ces nouveaux matériaux issus de la recherche sur la miniaturisation extrême. Ce sont des petits grains de semi-conducteurs, CdSe ou GaAs, par exemple, qui ne font que deux ou trois nanomètres de diamètre. Soumis à un éclairement ultraviolet ils ré-émettent une lumière visible, dont la couleur dépend de la taille du grain. Plus celui-ci est petit et plus sa couleur est décalée vers le violet. C’est un moyen simple pour fabriquer des marqueurs fluorescents dont la couleur peut être choisie à volonté. Si la surface du grain est correctement fonctionnalisée, le marqueur pourra se lier à diverses cibles et, grâce à sa fluorescence, permettre de suivre à la trace une molécule biologique, un brin d’adn, ou même repérer une cellule cancéreuse. (figure 3). Ces quelques exemples ne donnent qu’une faible idée des multiples perspectives qui seront ouvertes par les nanotechnologies et qui justifient le formidable développement des recherches dans ce secteur.

Le sous-marin à l’épreuve de la miniaturisation

La miniaturisation des circuits électroniques a pu se développer pendant des décennies, en gardant quasiment inchangées les lois de fonctionnement de ses circuits. On était en face d’un système clos, le circuit électronique, dans lequel les dimensions critiques, par exemple le libre parcours moyen des électrons, était beaucoup plus petit que les dimensions en jeu. La miniaturisation pouvait donc se poursuivre sans craindre de franchir des limites conceptuelles qui en perturberaient le fonctionnement. Il est clair que maintenant, ce n’est plus le cas. Les dimensions nanométriques imposent de revoir les lois de fonctionnement des composants. Longueur de cohérence électronique, quantification des niveaux d’énergie, quantification de la charge, etc., sont désormais à prendre en compte. Que cette miniaturisation brutale, au rouleau compresseur, ait pu marcher des décennies durant peut donner à penser que cette approche est généralisable. Il suffit d’imaginer la réduction des dimensions et de s’en donner les moyens techniques pour aboutir à un résultat parfaitement prévisible. La science-fiction s’est emparée de cette facilité de pensée et a fait l’impasse sur nombre d’impossibilités techniques ou conceptuelles. Après tout, pourquoi pas ? La science-fiction n’a pas à rendre compte de la validité de ses concepts. Le problème, c’est que la fiction imaginée, reprise complaisamment par les médias, a rempli tout l’espace et pris des allures de prédiction.
Certes, la science-fiction précède parfois la science. Mais ce n’est pas parce que Tintin a « marché sur la lune » bien avant Neil Armstrong, le
21 juillet 1969, que c’est la science-fiction qui a prouvé la faisabilité de l’entreprise. Le thème du nanosous-marin est apparu fréquemment, notamment dans le « Voyage  fantastique » de Richard Fleischer (1966). Il réapparaît aussi dans le livre de Drexler pour qui des nanomachines seront capables de pénétrer dans le corps humain jusqu’au cœur des cellules pour en réparer les dysfonctionnements, voire en combattre le vieillissement. Il est intéressant d’observer comment ce thème récurrent peut survivre à la comparaison avec la réalité du monde physique ou biologique. Les arguments qui suivent doivent beaucoup à l’ouvrage de Richard a.-l. Jones, Soft machines, nanotechnology and life.

Le thème du nanosous-marin nous invite à nous poser différentes questions. a) Quelle est la meilleure stratégie pour un objet, ou un animal, qui cherche à se déplacer ? Y a-t-il une stratégie pour chaque taille ou bien peut-on extrapoler, d’une taille à l’autre ? b) Quelles interactions va-t-il subir de la part du milieu biologique ? c) D’où cet objet peut-il tirer son énergie de déplacement ? Nous allons examiner ces trois points successivement.

Trouver la stratégie de déplacement adaptée à sa dimension.

Le déplacement dans un milieu réel, implique une dépense d’énergie. Nager dans l’eau exige de repousser derrière soi l’eau qui était devant. L’eau a une masse. La déplacer à une certaine vitesse exige une force. C’est le terme d’inertie qui varie comme le carré de la vitesse
v et le carré de la dimension de l’objet a : Finertie=a2v2. est la densité du fluide. L’eau frotte également sur les couches d’eau voisines. Elle a une viscosité. On imagine aisément que plus le milieu sera visqueux et plus la natation deviendra exigeante en énergie. En fait, ce terme de viscosité est proportionnel à la taille de l’objet et à sa vitesse : Fviscos=av. Le facteur de proportionnalité est la viscosité du fluide. Donc le rapport des deux forces, viscosité/inertie varie comme l’inverse de la vitesse et l’inverse de la taille de l’objet. Ce rapport nous montre que plus l’objet est petit et plus le terme de viscosité devient dominant. Une bactérie de la taille d’un micron est un million de fois plus petite qu’un homme. En se déplaçant dans l’eau, elle rencontre une force de freinage due à la viscosité un million de fois plus grande que celle rencontrée par un homme nageant.
Le choix de la technique de natation dépend de l’impact relatif de l’inertie et de la viscosité. Pour un nageur-homme dans l’eau, la viscosité est faible. Il accroît sa vitesse en donnant avec ses bras une forte accélération à l’eau propulsée derrière lui, ce qui, en retour, le propulse vers l’avant. Par contre, dans le cas de la brasse, pour ramener ses bras en avant, il prend soin de les ramener en offrant le moins de prise possible à l’eau, ce qui le ralentit peu. Cette stratégie devient de moins en moins valable lorsque la viscosité s’accroît. Les mouvements de bras d’avant en arrière et d’arrière en avant se compensent et le nageur reste sur place.
Comment la bactérie parvient-elle à se déplacer ? Dans un milieu dominé par la viscosité, un mouvement de torsion du type tire-bouchon apparaît comme beaucoup mieux adapté. C’est la solution que la nature a retenue : elle a équipé les microorganismes de longs appendices, les flagelles, animés de mouvements de torsion-rotation ressemblant à celui d’un tire-bouchon. Première conclusion, le nanosous-marin aura beaucoup de mal à acquérir une vitesse relative par rapport au fluide biologique dans lequel on voudra l’immerger.
Sortons un instant de l’eau. En supposant que le vol pourrait être une meilleure solution, on se trouve confronté à un problème analogue. L’objet volant doit aussi affronter la viscosité du milieu. Il lui faut également se maintenir en l’air. Les ailes augmentent la portance mais en même temps créent du frottement. Le rapport entre portance et frottement est de vingt-cinq pour un avion. Il tombe à un virgule huit pour une drosophile. Pour parvenir à voler, un petit insecte doit battre des ailes beaucoup plus vite qu’un insecte plus gros. De deux cents battements par seconde pour une drosophile, on arrive à mille pour un moustique. Finalement, le plus petit insecte volant connu serait une petite guêpe de deux sur dix millimètres, soit deux cent mille nanomètres. C’est encore gigantesque, à l’échelle qui nous intéresse ici.

Quelles interactions avec le milieu environnant ?

La cause est entendue, notre objet miniaturisé ne peut pas voler. Il pourra difficilement se propulser dans le milieu biologique. Laissons-le donc dériver dans le fluide comme le font les globules dans le sang, les algues microscopiques dans l’eau de mer, le pollen dans l’air. Il suffira de laisser le flux sanguin l’amener à proximité de l’organe-cible et de lui donner alors quelques impulsions pour corriger sa route. En fait, cette description du flux se comportant comme « un long fleuve tranquille » n’est plus valable à l’échelle de cent nanomètres ou moins. N’oublions pas que, en plus du mouvement moyen de circulation, toutes les particules composant le fluide, molécules, globules, bactéries, toutes sont animées d’un mouvement d’agitation erratique, mouvement brownien. Toutes possèdent une énergie cinétique dont la valeur
E=1/2 kT est constante (k est la constante de Boltzmann et T la température absolue). Lors des chocs d’une particule avec ses voisines, elles se transmettent des impulsions qui assurent l’équilibre les énergies cinétiques. Mais l’énergie cinétique est donnée par la formule E=1/2 mv2 m est la masse de la particule et v sa vitesse. Cette formule nous dit que plus une particule sera petite et donc légère, plus sera grande sa vitesse. Une molécule d’eau se déplace avec une vitesse de deux cent soixante mètres par seconde et une petite bactérie de cent nanomètres à cinquante millimètres par seconde. Bien entendu, les chocs se succèdent les uns aux autres, si bien que chaque particule ne parcourt qu’une faible distance dans chaque direction. Le mouvement brownien constitue néanmoins un excellent mécanisme pour mélanger les particules. Il est à l’origine des phénomènes de diffusion, très efficaces pour homogénéiser des fluides sur des courtes distances. Grâce à ce mécanisme, les petits organismes se passent de système circulatoire. Oxygène et nutriments sont apportés par la diffusion en tout point du microorganisme. Une grosse particule reçoit simultanément une multitude de chocs dont les effets se compensent. Ils produisent notamment la pression sur la paroi qui enferme un gaz ou un liquide, mais ne conduisent à aucun déplacement. On peut donc en conclure que le « voyage  fantastique » d’un nano sous-marin ressemblera davantage à celui d’un bouchon de liège ballotté par une mer agitée qu’au majestueux déplacement d’un grand paquebot.

Trouver une source d’énergie

Dès que l’on veut lutter contre le mouvement de dérive du liquide porteur, contre le mouvement brownien aléatoire, il faut disposer d’une certaine énergie. Où la trouver et comment l’emporter avec soi ? On peut évoquer diverses formes d’énergie régulièrement mises à contribution dans les micro- et nano-systèmes, vivants ou artificiels.
Énergie électrique. Pour l’apporter en continu au véhicule, il faudrait prévoir des fils de connexion. C’est difficilement praticable. On peut alors songer à embarquer le générateur sous forme d’une batterie ou d’une pile. Le handicap est alors celui de la taille du véhicule. Plus il est petit et plus sera faible l’énergie transportée.
Énergie du rayonnement (solaire, radio-fréquence, laser). Si le rayonnement est diffus, il faudra disposer d’une antenne relativement volumineuse pour en capter une grande quantité. Sinon, la capture d’énergie peut être stockée sur une longue période et utilisée au cours de petites périodes de mouvement. On se trouve en présence d’une problématique semblable à celle des engins embarqués pour des missions spatiales, par exemple, sur Mars. L’énergie solaire est seule disponible. Il faut se donner le temps de recharger les batteries des véhicules. L’utilisation d’un rayonnement concentré, laser par exemple, serait utilisable s’il peut se propager dans le milieu où doit se déplacer le véhicule et garder celui-ci en vue. Le laser jouerait donc encore le rôle d’un lien, d’un cordon ombilical immatériel, entre le véhicule et sa « base arrière ».
Énergie magnétique. Si le véhicule comporte une partie magnétique, il peut être soumis à une force en appliquant un champ magnétique extérieur. La direction du champ et son gradient peuvent servir commodément à transporter n’importe quel objet. Cette technique est déjà exploitée dans une application où l’on utilise des particules magnétiques comme vecteurs de médicament dans un organisme. L’application d’un champ magnétique permet de concentrer les particules, et le médicament dont elles sont porteuses, sur l’organe visé. La source d’énergie se trouve en fait à l’extérieur, dans le générateur de champ magnétique.
Énergie chimique. La combinaison d’un carburant et d’un comburant libère de l’énergie, comme dans tout moteur à explosion. En général, sur terre, on embarque seulement le carburant. L’oxygène de l’air fournit à volonté l’autre élément de la réaction. Dans une fusée, il n’y a pas d’oxygène disponible, on doit embarquer les deux protagonistes de la réaction. En ce qui concerne notre nano-vaisseau, on peut envisager une solution analogue. La limitation viendra alors de la quantité de réactifs qu’il est imaginable d’embarquer. Le sous-marin ne pourra alors progresser que jusqu’à épuisement de son stock de combustible, comme les fusées. En fait, l’énergie chimique est l’énergie reine du vivant. C’est la combinaison du sucre avec l’oxygène apporté par la respiration qui nous permet de vivre et de fournir un travail (mécanique, notamment). Il est intéressant d’observer que, consommant du sucre, résultat d’une photosynthèse opérée au sein de la betterave à sucre, nous utilisons l’énergie solaire de façon différée. Le vivant, pour l’essentiel, vit donc à l’énergie solaire.
Avant de conclure, il faut encore faire un tour du côté des moteurs biologiques. Notre organisme renferme un très grand nombre de moteurs moléculaires, qu’il s’agisse de permettre le mouvement des cellules, de transporter des protéines à l’intérieur de celles-ci ou tout simplement de mettre nos muscles en mouvement. Quel est leur carburant ? C’est l’adénosine triphosphate, ou atp. Cette molécule est constituée du nucléotide adénosine (un des constituants de l’adn) lié à trois groupements phosphates. En présence d’eau, le moins lié des groupements phosphate est libéré : l’atp se transforme en adp (adénosine diphosphate), plus un phosphate libre et de l’énergie. Le retour à l’état initial nécessite un apport d’énergie. Celle-ci est fournie par la combustion du glucose avec de l’oxygène. Le phosphate peut se lier de nouveau à l’adp et la molécule d’eau est éliminée. Le cycle peut recommencer. L’énergie libérée par la réaction d’hydrolyse peut être utilisée. Dans le cas du moteur kinésine, la transformation de l’atp en adp déforme la kinésine et la fait progresser d’un cran le long du filament d’actine. C’est le processus élémentaire de la contraction musculaire. atp et adp sont des intermédiaires de la réaction chimique, mais le carburant et le comburant sont glucose et oxygène. Alors, il est clair que nos moteurs biologiques n’emportent avec eux-mêmes aucun carburant. Ils se servent dans le milieu biologique qui les baigne. La distribution d’énergie se fait à domicile.

Conclusion

Cette réflexion sur quelques-uns des problèmes auxquels serait confrontée la conception d’un nanosous-marin nous a montré qu’il n’était pas si facile d’extrapoler des techniques mises au point dans le macromonde pour les appliquer dans le nanomonde. Le submersible, jeté dans le flux du courant sanguin, aurait les plus grandes peines à prendre et maintenir un cap. Il lui serait très difficile de se procurer l’énergie nécessaire à ses manœuvres. La solution serait peut-être d’utiliser le même carburant que les cellules vivantes et de faire travailler à sa manœuvre des moteurs moléculaires, ceux-là mêmes qui sont à l’œuvre dans nos cellules. Une idée dont H. Craighead et C. Montamegno ont démontré partiellement la faisabilité en associant une protéine moteur, la
F1-ATPase, à des éléments artificiels.

Cette remarque déplace le projecteur sur le monde du vivant. En effet, en suivant g.-m. Whitesides,

on peut affirmer que la question n’est pas de savoir si des nanomachines peuvent exister. Elles existent réellement. Les organismes vivants en sont la preuve. La question est alors la suivante : est-il possible de trouver de meilleures solutions que celles qu’a patiemment mises au point l’évolution ? Il n’y a pas de raison de croire que l’évolution a tout essayé. En particulier, le champ des conditions expérimentales a été limité par celles que pouvaient supporter les organismes vivants. Il existe peut-être d’autres solutions. Les rechercher constitue un formidable défi.