2005 - Nanosciences Et Nanotechnologies

92
 MISSION SCIENTIFIQUE TECHNIQUE ET PEDAGOGIQUE Nanosciences et Nanotechnologies Une réflexion prospective Mai 2005 MSTP-mai 2005 1

Transcript of 2005 - Nanosciences Et Nanotechnologies

Page 1: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 1/92

 

 

MISSION SCIENTIFIQUE TECHNIQUE ET PEDAGOGIQUE 

Nanosciences et Nanotechnologies

Une réflexion prospective

Mai 2005

MSTP-mai 2005 1

Page 2: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 2/92

 

SOMMAIRE

INTRODUCTION…………………………………………………………………………p 3

I - NANOPHYSIQUE…………………………………………………………………...p 7

II - NANOCHIMIE & NANOMATÉRIAUX……………………………………………p 16

III - NANOBIOTECHNOLOGIES……………………………………………………….p 20

IV - NANOSCIENCES & NANOTECHNOLOGIES :…………………………………...p 29Dimension sociétale et problèmes de santé publique

V - APPENDICES

A- TECHNOLOGIES à l’ÉCHELLE ATOMIQUE………………………………p 34

B- MODÉLISATION des MATÉRIAUX et NANOSTRUCTURES :…………...p 38Enjeux et perspectives

C- MÉTHODES de CARACTÉRISATION en NANOSCIENCES……………...p 46

D- PASSAGE MICRO-NANO…………………………………………………...p 50

E- FIABILITÉ et NANOTECHNOLOGIES……………………………………..p 52

F- CAO de SYSTÈMES et CIRCUITS INTÉGRÉS :……………………………p 58Du transistor à la complexité des systèmes

G- NANO-MICROFLUIDIQUE………………………………………………….p 66

H1- APPORT des NANOTECHNOLOGIES aux SOURCES D’ÉNERGIEMINIATURES…………………………………………………………………p 69

H2- NANOTHERMIQUE………………………………………………………….p 70

I- CAPTEURS et NANOTECHNOLOGIES……………………………………...p 73

J- NANOTECHNOLOGIES et NOUVEAUX MÉDICAMENTS……………….p 74

K- DISPOSITIFS MIS en PLACE pour COORDONNER et SOUTENIR lesACTIONS FRANÇAISES dans le DOMAINE des NANOSCIENCES………p 79

VI – CONCLUSION………………………………………………………………………p 83

SYNTHÈSE des RECOMMANDATIONS……………………………………………….p 86

ANNEXES :Liste des auteurs…………………………………………………………………………...p 89Références…………………………………………………………………………………p 90

MSTP-mai 2005 2

Page 3: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 3/92

 

INTRODUCTION

Dès l’antiquité, des philosophes ou des poètes, tels Démocrite au Ve siècle ou Lucrèce au Ier  siècle avant notre ère, ont eu l’intuition géniale d’imaginer l’existence de particules ultimes,insécables, constituant la matière aussi bien inerte que vivante. Pourtant il a fallu attendredeux millénaires pour que, comme une lointaine descendance, des chimistes, au début duXIXe siècle, établissent scientifiquement les fondements de la théorie atomistique. Ainsi ledéveloppement de la physique et de la chimie modernes repose largement sur ce modèle dereprésentation de la matière.Suivant cette logique d’approche historique, le terme de nanoscience s’inscrit depuis unevingtaine d’années dans la continuité d’une démarche d’investigation qui tend à ouvrir lechamp des connaissances vers une "nouvelle frontière". Qu’il s’agisse des sciences

 physiques, chimiques, mais aussi biologiques, l’objectif est désormais la compréhension des phénomènes au niveau du grain élémentaire, de l’atome ou de la molécule, sur desdistances de l’ordre du nanomètre (10¯9m : milliardième de mètre).En parallèle s’est développée progressivement une capacité à observer et à façonner deséchantillons de matière toujours plus petits et mieux contrôlés dans leurs propriétés, ce quiapparaît comme partie prenante d’un nouveau savoir-faire nanotechnologique.

Plutôt que de parler d’une nouvelle science, on est, de fait, en présence d’une nouvelle grillede lecture des avancées scientifiques et technologiques qui concernent désormais la référencede la nano-échelle. A ce titre on propose de reprendre la définition d’Heinrich Rohrer s’appliquant aux objets étudiés :

« La nanoscience s’intéresse aux nano-objets individualisés dont il convient de mesurer, decomprendre mais aussi de modifier sélectivement les propriétés ; ces nano-objets on souhaite

 par ailleurs pouvoir les manipuler, les positionner et les usiner. Il s’agit donc dudéveloppement de nouveaux concepts permettant de traiter ces nano-objets et toutspécialement une grande collection d’entre eux ».A ce stade se définit le passage à partir duquel les dimensions de l’objet deviennent

 primordiales pour expliquer ses propriétés, chacune d’elles ayant une longueur caractéristique vis-à-vis des phénomènes observés.Un autre précurseur, Richard P. Feynman, déclarait, devant la société américaine de

 physique : "il y a beaucoup de place en bas " ; et pour fixer les idées, il montrait que les

30 000 pages de l’ Encyclopædia Britannica, couvrant 1 500 m², pourraient occuper la surfaced’une grosse tête d’épingle (2,5mm²), à condition de savoir réduire de 25 000 fois chaquedirection; un trait de 0,25 mm d’épaisseur se trouverait alors ramené à 10 nm (équivalent à lalargeur d’un film de carbone constitué de 30 atomes disposés côte à côte).

Cette activité de recherche s’inscrit-elle dans une mode de circonstance ou nous entraîne-t-elle dans une dynamique qui va profondément transformer notre monde scientifique ettechnologique ? La réponse à cette question dans le domaine des semi-conducteurs estcontenue dans le constat de la loi de Moore (co-fondateur d’Intel) ; cette loi empirique etvolontariste prévoit une intégration toujours plus poussée du nombre de transistorsincorporés dans une "puce" électronique, avec un doublement tous les 18 mois depuis près

de 40 ans. La programmation de la feuille de route (international technology roadmap for semi-conductors) prolonge et accentue cette tendance vers l’écriture nanométrique pour lesquinze prochaines années avec pour objectifs de produire des objets opérationnels encore

 plus petits, plus rapides , moins coûteux et consommant moins d’énergie.

MSTP-mai 2005 3

Page 4: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 4/92

 

Plus généralement, malgré les investissements considérables qu’elles exigent, on doitconstater que les nanosciences et les nanotechnologies sont au premier plan de l’actualitéscientifique internationale et que tous les pays techniquement avancés ont affiché ces thèmesen priorité de leur effort de recherche dans un cadre national ou multinational.Ainsi on retient l’effort prioritaire des États-Unis sur les nanobiotechnologies, les objectifs

du Japon en matière de nanosystèmes, la mobilisation des anglais après le constat d’unengagement trop faible et trop tardif  dans ce domaine (Too little- too late : Rapport à laChambre des Communes, avril 2004), et la définition d’une stratégie européenne en faveur des nanotechnologies par la Commission des Communautés Européennes (mai 2004).Enfinl’expression d’une politique scientifique et technique de la part des autorités françaises(Ministre Délégué à la Recherche - Décembre 2004) confirme l’intérêt essentiel pour notre

 pays de contribuer dans ce domaine à l’avancée du front des connaissances et de partager lamaîtrise de techniques en pleine évolution.

La recherche en nanosciences est,  par nature, une activité génératrice de connaissancesinterdisciplinaires animée par l’ambition de  comprendre les lois qui gouvernent le 

comportement des objets  définis à l’échelle nanométrique, que l’on s’intéresse à leurs propriétés physiques, chimiques ou biologiques ; ceci à travers la découverte et l’étude  denouveaux phénomènes et l’élaboration de nouveaux concepts pour les décrire.Ainsi les disciplines conventionnelles, en convergence d’approche, ont pu donner naissance àdes nanodisciplines qui tirent leur développement de ce creuset commun.

S’agissant désormais de manipuler les atomes à l’unité et de comptabiliser les électrons et les photons un à un, les technologies utilisées à ce stade sont tributaires des progrès réalisés par les différentes approches du nanomonde :A l’approche descendante,  par le haut (top-down), conditionnée par la capacité d’uneminiaturisation toujours plus poussée, peut-on substituer une approche montante,  par le

bas (bottom-up), capable d’assembler des nano-éléments (briques élémentaires) fabriqués àla chaîne ?On se trouve alors limité par les performances des moyens d’investigation et des outilsd’opération. Ainsi donc la science et la technologie apparaissent avoir parties totalement liéeset dépendantes dans cette problématique.

Le rapport qui suit a été éclairé par cette perspective ; il vient en complément decontributions majeures, récentes ou en cours, qu’il cite en références principales. :

- le rapport de l’Académie des Sciences et de l’Académie des Technologies ( rst n°18 - Nanosciences – Nanotechnologies ; avril 2004) : un état des lieux, une vue

 prospective et des recommandations adressées aux pouvoirs publics.- l’ouvrage à vocation pédagogique, sous la responsabilité collective de MarcelLahmani, Claire Dupas et Philippe Houdy : Nanophysique et Nanotechnologies(collection Echelles – Edition Belin ; Mai 2004).

- CNRS- Focus Nanosciences (en cours) dont la présentation s’inscrit délibérémentdans une perspective opérationnelle pour l’organisme et la communauté scientifique.

La première partie relève les  fondamentaux scientifiques des nanosciences dans la logiquemultidisciplinaire de leurs applications présentes et à venir.

La nanophysique succède à la révolution de la microélectronique qui avait déjà rapproché la physique et la mécanique et bientôt la biologie. On décrit les phénomènes de base liés aux

MSTP-mai 2005 4

Page 5: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 5/92

 

dimensions nanométriques : l’électronique moléculaire et l’émergence du nanomagnétisme etde l’électronique de spin.Quels sont alors les moyens de fabrication et d’études à cette échelle et les applicationsenvisageables par le passage du composant élémentaire au système combiné ?

La nanochimie va pouvoir toujours mieux contrôler l’organisation de la matière en termesde propriétés physiques, chimiques ou biologiques, mais aussi sur un plan morphologique pour une vision prédictive des synthèses; ainsi en est-il des nano-objets et de leur assemblageen nanomatériaux (multifonctionnels ou adaptatifs). Des exemples de réalisations récentesou à brève échéance sont évoqués.

Les nanobiotechnologies représentent un champ d’expériences et de développementconsidérable depuis les composants jusqu’aux systèmes multiformes et complexes :

- nanoparticules destinées au marquage et/ou à la délivrance de médicaments- nanotubes et nanofils à usage de détection intégrés sur des biopuces.- surfaces nanostructurées par une fonctionnalisation chimique à ciblage spécifique.

Le rapprochement des microtechnologies et de la biologie permet la réalisation de systèmesintégrés in vivo (laboratoire sur puce) avec la mise en oeuvre d’un protocole completd’analyse au sein d’un dispositif miniaturisé aux performances potentiellement considérables.

Ces avancées de la science vers l’infiniment petit, dont on pressent qu’elles peuvent ànouveau apporter des bouleversements dans la vie de chacun, ont une dimension sociétale qu’il convient absolument d’accompagner d’une démarche pédagogique et progressive, en

 particulier dans ses dimensions de santé publique. L’exemple des Etats-Unis, en pointe dansce domaine, pourrait inspirer notre propre action à ce sujet.

La seconde partie du rapport est constituée d’un ensemble complémentaired’ "Appendices" dédiés aux technologies en cours de développement, aux voies de progrèsqu’elles dessinent et aux moyens à mettre en œuvre pour s’y engager :

- Les technologies à l’échelle atomique représentent un nouveau champ scientifiquequi laisse espérer la conception de molécule-calculateur ou de molécule-machine.

- La modélisation des matériaux et nanostructures représente un fort enjeu et ouvredes perspectives qu’il convient de rappeler. Si les moyens de calcul nécessairessont disponibles, l’infrastructure logicielle reste insuffisante. Des initiatives ont été

 prises à l’échelon européen et des atouts existent au plan national, il revient

aujourd’hui à rapprocher et à organiser les compétences par trop dispersées.-

- Les méthodes de caractérisation utilisées  en nanosciences sont décrites etanalysées. Elles s’inscrivent dans une évolution constante d’amélioration de leurs

 performances.

- Le passage de la micro à la nano-échelle présente un intérêt particulier,marquant dans ce cas l’importance prise, au sein de la matière, par les propriétés desurface par rapport aux propriétés de volume. Les micro-nanosystèmes, à plusieurséchelles, constituent un pont incontournable entre les nanotechnologies et lesapplications macroscopiques.

MSTP-mai 2005 5

Page 6: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 6/92

 

- La fiabilité des nanotechnologies est essentielle pour leur assurer la large diffusionque requièrent les très gros investissements liés à leur mise en œuvre (maîtrise des

 paramètres de fabrication et d’évolution des matériaux et systèmes).

- A l’instar des méthodes de CAO appliquées à une microélectronique de plus en plus

intégrée, il convient de développer, à l’échelle nanométrique, des outils deconception allant de la modélisation physique des briques élémentaires àl’élaboration de systèmes de complexité croissante, associant des éléments matérielset logiciels.

- Au-delà de l’électronique, les nanotechnologies s’ouvrent dès maintenant à la nano-microfluidique, la nanothermique, les nanosources d’énergie, aux nanocapteurs et à la nanométrologie. L’ensemble des disciplines est touché par ce changementd’échelle dont la connaissance et la maîtrise conditionnent les développementsfuturs.

- Enfin un domaine probablement immense s’ouvre pour les nanobiotechnologies etles nouveaux médicaments ; la première génération correspondait au ciblage auprèsde certaines cellules, la deuxième génération se fondait sur le concept de résidencevasculaire prolongée, la troisième génération étant dédiée à l’usage de ligands àreconnaissance moléculaire.

- En complément on décrit le dispositif  mis en place pour coordonner et soutenir lesactions françaises dans le domaine des nanosciences et nanotechnologies àl’éclairage des déclarations du Ministre délégué à la Recherche (16 Décembre 2004)

La conclusion revient sur l’importance des enjeux tant sur le plan scientifique et technologiquequ’économique, annonçant une nouvelle révolution dans l’environnement de l’Homme et de laSociété.Des recommandations expriment les conditions à réunir dans notre pays pour y participer aumeilleur niveau

Gérard Cognet 

Kangi (caractère japonais) signifiant atome

écrit avec des atomes de fer sur du cuivre ©IBM

MSTP-mai 2005 6

Page 7: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 7/92

 

 

NANOPHYSIQUE

Patrice Hesto

L’histoire : la révolution de la microélectronique

Le vingtième siècle a vécu l’avènement de la microélectronique. Jusqu’aux années 1950,les moyens de calcul, de traitement et de stockage des données faisaient appel à des systèmesde grandes tailles, utilisant des puissances électriques très importantes qui devaient être

 pilotés par des personnels très qualifiés. Pour le calcul, le développement ultime a été en1945 l’ENIAC qui comportait 19.000 tubes 1 , 1.500 relais et 100.000 capacités etinductances ; il occupait entièrement une salle climatisée et requérait une puissance installéede 200 kW. La machine avait de faibles performances. Pour comparer celles-ci, on peut seramener à la puissance de calcul à prix donné. A l’époque de l’ENIAC, en investissant 100$on ne pouvait effectuer qu’une opération toutes les 10 secondes. Avec les microprocesseursactuels, pour un investissement du même ordre de grandeur on peut effectuer une dizaine demilliards d’opérations par seconde. Pour l’enregistrement, les disques magnétiques avaientatteint leur maximum avec le système RAMAC d’IBM qui, en 1956, permettait d’enregistrer 5 millions de bits de données sur 50 disques de 25". Ici encore, une pièce climatisée étaitnécessaire. Cette capacité est à comparer à celle des disques durs actuels qui, pour undiamètre de 1" permettent d’enregistrer 1.000 milliards de bits. Le passage à la

microélectronique constitue une véritable révolution. Nous en dressons ci-après un rapidehistorique. 

On peut considérer que tout a commencé dans les années 1930 avec les bases théoriquesde la mécanique quantique développées par Louis de Broglie et Erwin Schrödinger. Au coursde la décennie suivante, les concepts de la mécanique quantique ont été utilisés avec succès

 par Eugène Wigner et son élève Frederik Seitz pour expliquer la conduction dans les semi-conducteurs, matériaux encore mystérieux à l’époque car ils pouvaient conduire l’électricitéou pas suivant les cas. En parallèle, des travaux importants ont été développés concernant lacroissance de semi-conducteurs de qualité, très purs et monocristallins. C’est ainsi que RusselOhl a fabriqué en 1939 du silicium pur à 99,8%2 et que le hasard a permis qu’une craquelure

dans le matériau induise une contrainte avec apparition d’une zone très riche en électrons etune zone très riche en trous. La première diode à jonction PN était née. Une suite logique àces travaux a été l’invention du transistor en 1947 par John Bardeen, Walter Brattain etWilliam Shockley (prix Nobel en 1956). De gros efforts technologiques ont alors étéentrepris et les technologies planaires ont permis à Jack Kilby de développer les premierscircuits intégrés en 1960 (prix Nobel en 2000). La microélectronique était née. Son évolutiona été fulgurante avec, pour les technologies du silicium, un doublement du nombre detransistors par circuit tous les 2 ans entre 1970 et 2004. Cela a été rendu possible par unediminution de la taille des transistors dont les longueurs de grille, les détails les plus fins,

1 Un tube électronique, c'est la "lampe" des postes de radio de l'époque.2 Les puretés requises actuellement sont de l'ordre de 99,9999999999 %, soit moins de 1ppt d'impuretés (partie par trillion

ou mille milliards).

MSTP-mai 2005 7

Page 8: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 8/92

 

atteignent actuellement 90nm3 . Les bases du fonctionnement des dispositifs avaient été posées avant les années 1950 ; durant le vingtième siècle le développement relève plus particulièrement du domaine des technologies de fabrication (évolution des procédés mis enoeuvre dans les salles blanches, lithographie, dépôts, gravures, ..) et de l’architecture descircuits ( outils de CAO). 

Si le silicium représente plus de 90% du marché des semi-conducteurs, ses propriétés physiques ne permettent pas de l’utiliser pour des applications dans les domaines del’optoélectronique et des circuits hyperfréquences. Par contre les semi-conducteurs composés"III-V" sont tout à fait adaptés pour couvrir ces besoins. Ce sont des matériaux telsl’arséniure de gallium ou le phosphure d’indium qui sont composés à parts égales d’atomesdes 3ème et 5ème colonnes du tableau de Mendeleïev. Ils ont des propriétés de transport dixfois supérieures à celles du silicium (très important pour traiter des signaux hyperfréquences)et permettent d’émettre et de détecter facilement des photons dont les caractéristiques sont,

 par exemple, compatibles avec l’utilisation des fibres optiques pour les réseaux detransmission. Ils permettent également de réaliser des lasers à semi-conducteurs, éléments de

 base des lecteurs DVD. Pour réaliser de tels dispositifs, il faut confiner les électrons dans des puits de potentiel, ce qui peut être réalisé avec des hétérostructures épitaxiées, contraintes ourelaxées. Ces recherches ont nécessité des équipes multidisciplinaires avec des technologues,des physiciens et des chimistes. Les premières idées sur les hétérojonctions sont apparues dèsles années 1960 ; des méthodes d’épitaxies performantes et une bonne compréhension des

 phénomènes physiques mis en jeu ont permis de les réaliser dans les années 1970 (travauxde Zhores Alférov et Herbert Kroemer, prix Nobel en 2000). Actuellement, les équipes quidéveloppent les composants du silicium de taille inférieure à 90nm doivent non seulementfaire progresser les technologies mais également prendre en compte les phénomènesquantiques liés à la taille des dispositifs ; les communautés scientifiques des III-V et dusilicium ont des problématiques communes. 

Pour ce qui est des disques durs, l’évolution a été encore plus rapide avec actuellement undoublement de la capacité d’enregistrement par unité de surface tous les 15 mois. Celarésulte bien évidemment de l’amélioration des matériaux magnétiques supports. Toutefois ladécouverte du phénomène de magnétorésistance géante (GMR) en 19884 et une applicationrapide au niveau des têtes de lecture ont permis l’accélération que l’on connaît depuis unedizaine d’années. 

On peut ainsi décrire l’évolution de la micro-opto-électronique en trois phases : une première période, avant les années 1950 où les physiciens du solide, grâce à leurs travaux,ont développé la physique des semi-conducteurs et la fabrication de matériaux

monocristallins très purs, une seconde phase jusqu’aux années 1990 où les technologues etles concepteurs de circuits ont su faire progresser les circuits pour atteindre des composantssubmicroniques et enfin la période actuelle où des équipes multidisciplinaires constituées de

 physiciens, chimistes, électroniciens et concepteurs de circuits travaillent aussi bien dans leslaboratoires académiques que dans les laboratoires de R&D industriels. 

Un autre domaine a eu une évolution très parallèle à celle de la microélectronique : lamicromécanique. Depuis deux décennies, les sauts technologiques qui ont été réalisés et misen œuvre dans les domaines de la mécanique et de la métallurgie, dans la thermique et dans

3 Un transistor à effet de champ est un condensateur. Le courant est véhiculé par les charges induites sur l'une des armatures

du condensateur par une tension appliquée entre celle-ci et l'autre armature appelée grille.4 La magnétorésistance géante a été découverte en 1988 par Albert Fert à Orsay et Peter Grünberg de Jülich. Elle permet

d'améliorer d'un facteur 10 à 100 la détection des champs magnétiques associés aux bits sur les disques durs. On produit

actuellement plus de 600 millions de têtes de lecture à GMR par an dans le monde.

MSTP-mai 2005 8

Page 9: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 9/92

 

l’énergétique depuis plus d’un siècle, ont permis de converger vers des approches similaires.Les deux "métiers", mécanique et électronique se sont ignorés jusqu’à la découverte de la

 piézo-électricité par Pierre Curie en 1886, propriété qui associe étroitement dans le mêmematériau monocristallin (ou son équivalent) l’électricité et la mécanique des solides. Cettedécouverte a sans aucun doute été l’une des plus importantes avec celle des semi-conducteurs

car elle est la base incontournable de toutes les grandes avancées technologiques en capteurs,actionneurs, systèmes de communication, systèmes de détection et de guidage et dans ledomaine des microordinateurs. 

La miniaturisation des composants et des systèmes a intéressé les mécaniciens, en particulier les chercheurs et les ingénieurs, comme exemple d’association des matériaux piézoélectriques et des matériaux semi-conducteurs. Ils ont alors été d’un apport fondamentaldans d’autres microstructures telles que les micromoteurs, les micro- actionneurs, lesmicropompes, les microsystèmes appelés MEMS (micro-electro-mechanical system). 

L’intérêt qu’on leur a porté, a été stimulé par les conditions nouvelles d’études des propriétés des matériaux solides du fait de la prépondérance des effets de surface par rapport

aux effets de volume mais aussi du fait des microstructures nouvelles obtenues par lestechnologies de dépôts de couches minces. Il faut alors de nouveaux modèles et de nouveauxinstruments d’investigation locale pour optimiser un matériau ayant des propriétésfonctionnelles, adaptées aux besoins. 

De plus l’apport des techniques de fabrication proches ou identiques à celles de lamicroélectronique a ouvert la voie à des approches de fabrication collective de pièces et demécanismes de très petites dimensions tous identiques. La réduction de taille desmicrostructures mécaniques a aussi induit des recherches originales en mécanique des fluidescar par suite de la réduction de la taille des canaux, cuvettes et éjecteurs, les nombres deReynolds deviennent très petits et les effets de parois prépondérants. Les notions de mélange,

de flux laminaire, de turbulence sont alors à reconsidérer. Cette nouvelle microfluidiqueouvre un vaste champ d’études et d’applications pour la chimie, la biotechnologie etl’aérodynamique. La micro-fabrication collective laisse espérer des systèmes identiques, àcommande répartie et distribuée pour provoquer par un effet de nombre des actionsfluidiques impossibles à réaliser par des approches macroscopiques. 

Aujourd’hui, une consolidation des études est engagée pour étendre les champsd’application vers la réaction chimique, les synthèses de produits, les laboratoires sur puce, lecontrôle d’écoulement en aérodynamique…Dorénavant, si les chercheurs s’intéressenttoujours aux propriétés électroniques, optiques et magnétiques des nanostructures, ils sontégalement concernés par leurs propriétés mécaniques, thermiques et énergétiques.

Le XXe siècle : la révolution des nanosciences

Si on peut qualifier le vingtième siècle de siècle de la microélectronique, le vingt etunième sera certainement celui des nanosciences. Pour préciser le périmètre couvert, on peutdire simplement que les nanosciences sont concernées par tout ce qui est de taillenanométrique. Au delà de cette définition quelque peu restrictive, on considére dans le cadrede ce rapport, toutes les structures dans lesquelles on a une notion de confinement, tel leconfinement quantique, conduisant à un comportement qui ne peut s’expliquer par des loisd’échelle extrapolées depuis le niveau macroscopique. Dans ce domaine, les phénomènes desurface prennent le pas sur les propriétés de volume. Le développement ne peut se faire que

grâce à une approche globale, par des équipes multidisciplinaires regroupant des physiciens(étude des phénomènes quantiques, du nanomagnétisme,...), des chimistes (création de

MSTP-mai 2005 9

Page 10: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 10/92

 

structures artificielles,...), des technologues (architectures, fabrication et caractérisation desstructures de base, fabrication des circuits,...) et des concepteurs (architectures des systèmes). 

Les lois de base de la thermodynamique et de la thermique qui concernent l’énergétique,sont également remises en cause par l’extrême miniaturisation. Il est important d’étudier lesruptures de propriétés induites qui auront alors des conséquences positives ou négatives sur les applications aux sources d’énergie, au stockage, au refroidissement, à la mesure et aucontrôle de la chaleur et de l’énergie. 

Pour illustrer les différents aspects de la nanophysique, nous évoquons ci-après quelques phénomènes de base ou nouvelles orientations qui apparaissent aujourd’hui, ainsi que lesmoyens de fabrication, en faisant le point sur les outils d’études expérimentales et desimulation des phénomènes de base et des structures élémentaires. Les applications dans ledomaine des nanostructures semi-conductrices et les technologies de l’information et de lacommunication seront abordées en évoquant les aspects fiabilité et criticité et en menant uneréflexion sur l’utilisation des structures élémentaires pour réaliser les systèmes du futur. Lefoisonnement exceptionnel des travaux autour des nanosciences est très sensible dans les

différents articles cités en référence ou joints à ce dossier. Les références traitant de la physique des nanostructures parlent également de technologies de réalisation ; lestechnologies ne peuvent progresser que grâce à la compréhension des phénomènes physiquesmis en jeu et la chimie est incontournable dans les domaines des matériaux et des procédésde fabrication et d’élaboration. Les concepteurs se sentent de plus en plus concernés, demême les acteurs des domaines applicatifs ont compris que les approches devaient êtremultidisciplinaires. Ces intrications des différents domaines des sciences dures 5  ennanophysique sont bien mises en évidence dans le FOCUS-CNRS qui traite desnanosciences.

 Nous terminerons en dressant un panorama rapide du contexte français. 

 Les phénomènes de base liés aux dimensions nanométriques

La mécanique quantique a prédit le caractère ondulatoire des électrons et des interférencesentre faisceaux d’électrons ont été réalisées dans le vide. Une telle expérience est trèsdélicate dans les matériaux et actuellement seules deux équipes, dont une française, l’ontréussie. En effet les interactions inélastiques que subissent les électrons dans les solidesdétruisent la cohérence de phase et limitent ainsi la "longueur de cohérence de phase".Lorsque les dimensions deviennent plus faibles que cette longueur, le comportement desélectrons est quantique et les lois classiques, la loi d’Ohm par exemple, ou encore la notionde masse effective, ne sont plus valables. Une des signatures remarquables de la cohérence

de phase est la possibilité d’avoir un courant permanent en l’absence de tout générateur dansun système annulaire mésoscopique composé de matériaux dont la résistance n’est pas

nulle /1/. 

Une alternative aux composants actuels est l’utilisation de molécules fonctionnaliséescomme composants élémentaires. C’est le domaine de l’électronique moléculaire avec en

 particulier les fullerènes et les nanotubes de carbone, un domaine à la frontière entre la physique et la chimie en pleine évolution, qui pourrait déboucher sur les systèmes performants assurant des fonctions de calcul, de traitement, de stockage d’informations etd’actionnement fabriqués à moindre coût /2,3/. 

5 Les aspects sociétaux font l'objet d'un chapitre spécial.

MSTP-mai 2005 10

Page 11: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 11/92

 

La découverte de la magnétorésistance géante (GMR) a ouvert la voie à l’émergence dunanomagnétisme et de l’électronique de spin. Ces approches utilisent le fait que l’électron aun spin et que les niveaux d’énergies possibles pour les électrons à spin majoritaire peuventêtre différents de ceux pour les électrons à spin minoritaire. Il s’ensuit des possibilitésnouvelles, notamment dans le domaine des structures dites à vanne de spin qui, compte tenu

de leur polarisation magnétique, ne laissent passer que les électrons qui ont le bon spin. On aainsi des performances de détection de champ magnétiques multipliées par 10 ou 100 par rapport à la magnétorésistance géante /4/. 

Les machines actuelles utilisent en général des variables classiques qui ont des niveaux bien définis avec un comportement déterministe. En fait le principe d’incertitude inhérent à lamécanique quantique n’empêche pas un calculateur de fonctionner mais le schéma classiquedes machines de type Von Neumann est à reconsidérer 6. L’amorce des réflexions théoriquesdate des années 1980 et les premières réalisations ont été obtenues en 2000/5/. 

 La fabrication

Pour fabriquer des nanostructures, on a classiquement deux grandes approches. D’un côtéon diminue la taille des objets existants en améliorant les procédés technologiques ; c’est ladémarche descendante (top-down) bien connue dans les domaines de la microélectronique etdes microsystèmes. On peut également utiliser la démarche inverse en partant de moléculesque l’on fonctionnalise dans des systèmes de plus en plus complexes ; c’est l’approchemontante (bottom-up) /6/. Pour la démarche montante, on peut partir d’agrégats constitués dequelques atomes contrôlés à échelle nanométrique /7/. Enfin une troisième voie, certainement

 plus lointaine, consiste à rester à échelle nanométrique et à concevoir des systèmes completsen rendant fonctionnelle une molécule unique /8/. 

 Les moyens d’étude

Pour accompagner le développement des nanostructures, deux ensembles d’outils sontnécessaires : (i) des modèles permettant de comprendre les phénomènes physiques mis en jeuaussi bien lors de l’élaboration des structures que lors de l’analyse de leur fonctionnement /9/,(ii) des moyens de caractérisation adaptés aux dimensions nanométriques /10,11/. 

 Les domaines applicatifs

Toutes les structures de base étudiées sont utilisées pour les domaines applicatifs. Le

 premier d’entre eux concerne les technologies de l’information et de la communication avecen particulier les moyens en traitement et stockage des informations /12/. C’est dans cedomaine que les retombées sont les plus prévisibles avec les composants actuels qui ont destailles submicroniques (<<1µm), certains pouvant utiliser quelques électrons, voire un seul.Des travaux importants concernent les nanostructures semi-conductrices, souvent sous formede boîtes quantiques qui permettent de confiner les électrons, avec des applicationsimportantes notamment dans le domaine de l’opto-électronique /13/. 

6 John Von Neumann est à l'origine (1946) d'un modèle de machine universelle qui possède les éléments suivants : une

mémoire contenant programme et données, une unité arithmétique et logique (UAL ou ALU), une unité d'entrée/sortie

(E/S ou I/O) et une unité de commande (UC)

MSTP-mai 2005 11

Page 12: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 12/92

 

 Du composant au système

Un problème important, qui concerne aussi bien les technologies que les architectures se pose : c’est la communication entre des dispositifs de tailles nanométriques (les composantsélémentaires) et des connexions ou des commandes de taille macroscopique pour réaliser un

système complexe /14/.  Notre société supporte de plus en plus mal les dysfonctionnements et demande des

systèmes robustes avec des niveaux de fiabilité élevés. Il est certain que ces aspects doiventêtre pris en compte dès la conception des structures de base et que le vieillissement dessystèmes doit être étudié soigneusement /15/. 

Quand on regarde l’évolution de la microélectronique au cours du vingtième siècle, lesdifférents aspects de conception et de réalisation, ont progressé en parallèle. Les premierstransistors à effet de champ ont conduit aux premiers circuits intégrés qui en comportaientquelques dizaines, voire un millier. Les systèmes ont progressivement évolué vers les circuitsintégrés actuels qui peuvent comporter jusqu’à un milliard de transistors de taille inférieure à0,1µm. La démarche générale était de définir les fonctions visées, de concevoir les circuits

 pour les réaliser et de les fabriquer avec des technologies de plus en plus sophistiquées. Lesoutils informatiques des concepteurs de circuits ont suivi cette évolution. Cela est illustré sur la figure par une droite qui suit la fameuse loi de Moore. Cette loi permet des extrapolations

 pour les années futures et on prévoit des systèmes avec 1000 milliards de transistors vers lesannées 2030-2040 ayant chacun une dimension inférieure à 10 nm. Les nanotechnologies

 permettent actuellement de fabriquer ces structures élémentaires de taille nanométriques(dispositifs à un électron, moléculaire) et on devrait rapidement savoir réaliser au laboratoiredes systèmes avec quelques milliers de composants tous fonctionnels. Il faudra toutefois, àéchéance d’une vingtaine d’années, réaliser, à partir de ces structures élémentaires, des

systèmes comportant ces milles milliards de composants avec un rendement suffisant pour que les circuits soient opérationnels. Il faudra certainement reconsidérer l’architecturegénérale et on risque d’inverser la démarche "micro-électronique" en réalisant des circuitstrès complexes, offrant la possibilité de multiples fonctions différentes, avec une notiond’apprentissage. On saura faire mais sans forcément comprendre l’aboutissement du résultat.Ce défi est certainement aussi difficile à relever que celui concernant les structures elles-mêmes, comme le montrent certains aspects développés en appendice /16/. 

MSTP-mai 2005 12

Page 13: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 13/92

 

La courbe en rouge correspond à la loi de Moore avec les années en abscisse et la taille des motifs élémentaires en

ordonnée. Les rectangles en bleu correspondent à des systèmes dont la taille est sur l’échelle horizontale supérieure. La loi

de Moore et l’approche "nanométrique" convergent vers les années 2040 dans le rectangle vert.

 La nanomécanique, la nanothermique et la nano-énergétique

Ces domaines, qui représentent des défis complémentaires de la nano-électronique,supposent bien évidemment un choix et une maîtrise des matériaux de tailles nanométriques

 pour leur mise en œuvre et leurs propriétés. Ceci est vrai et même essentiel pour lesmatériaux à propriétés spécifiques de la nanomécanique et des nanomécanismes. Ainsi, ennanomécanique des milieux continus solides ou semi-rigides (polymères et gels), lesmatériaux en fibres (carbure, acier, or) ou composites nanométriques ont des propriétésmécaniques très anisotropes complètement nouvelles. Les polymères et les gelsélectrodynamiques ou thermodéformables sont des candidats potentiels extrêmementattractifs pour des nanosystèmes défavorables (nanomoteurs, nano-actionneurs,nanogénérateurs). La nanofluidique est aussi un domaine d’avenir pour de nombreuses

applications aux nanosystèmes dédiés aux sciences chimiques, biologiques et aux futurssystèmes d’intérêt primordial pour les sciences de la vie /17/. 

La nano (ou micro) stucturation en canaux, puits ou fonctions est essentielle mais les parois doivent être fonctionnalisées localement pour que les fluides rencontrent au cours deleur trajet des zones à propriétés spécialement définies. La fonctionnalisation peut être faite

 par dépôts/croissance (nanotubes par exemple) ou par physicochimie auto-organisante. 

Aux dires des experts du MIT, c’est l’une des clés de la complexité des nanosystèmescombinant fluides et solides, à l’horizon de plusieurs décennies. 

Dans ce cadre, des éléments relatifs aux sources d’énergie miniatures sont rassemblés

dans les appendices H1, H2 /18/ 

 Le dispositif français

Un certain nombre de moyens structurants ont été mis en place en France pour accompagner la révolution des nanosciences et des nanotechnologies. Un

 programme "nanosciences", a été initié par le Ministère délégué à la Recherche, le CNRS, leCEA et la DGA, pour coordonner les actions incitatives, en appui des réseaux de centralesde technologie et des centres de compétences " nano" . Il est repris sous la forme du

 programme "nanosciences- nanotechnologies" confié à l’Agence Nationale de la Recherche .En complément, de nombreuses formations sont proposées dans le cadre de la réforme du

système LMD (licence-maîtrise-doctorat) /19/. 

 Remarques

Ce texte se veut complémentaire de la publication FOCUS-CNRS consacrée aux Nanosciences. De plus, les réflexions s’appuient sur les aspects scientifiques développés dansle rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie desTechnologies 7, largement cité dans les références. 

7 Rapport sur la science et la technologie de l'Académie des Sciences et de l'Académie des Technologies, rst

n°18, Avril 2004, Editions Tec & Doc

MSTP-mai 2005 13

Page 14: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 14/92

 

 

 Références/1/ Bouchiat Hélène, Mailly Dominique

Transport quantique cohérent 

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p199

/2/ Launay Jean-Pierre

 Electronique moléculaire

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p113

/3/ Bourgoin Jean Philippe

 Electronique moléculaire

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p185

/4/ Chappert Claude

 Nanomagnétisme et électronique de spin

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p213

/5/ Estève Daniel

Vers des machines quantiques

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie desTechnologies, rst n°18, Avril 2004, Editions Tec & Doc, p175

/6/ Mailly Dominique

 Elaboration des nanostructures

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p261

/7/ Bréchignac Catherine

 Agrégats : précurseurs des nano-objets

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p235

/8/ Joachim Christian

Technologies à l’échelle atomique 

Appendice A 

/9/ Jollet François, Leray Jean-Luc et Zérah Gilles

 Modélisation des matériaux et des nanostructures : enjeux et perspectives

Appendice B

/10/ Roditchev Dimitri

 Microscopies modernes : moyens expérimentaux pour la nanoscience

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p245

MSTP-mai 2005 14

Page 15: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 15/92

 

/11/ Menand Alain, Lecomte Claude, Hauden Daniel

 Méthodes de caractérisations

Appendice C

/12/ Weisbuch Claude

 Les nanotechnologies de l’information et de la communication

Rapport sur la science et la technologie de l’Académie des Sciences et de l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p325

/13/ Voos Michel

 Les nanostructures de semiconducteurs

Rapport sur la science et la technologie de l’Académie des Sciences et l’Académie des

Technologies, rst n°18, Avril 2004, Editions Tec & Doc, p273

/14/ Hauden Daniel

Passage micro-nano

Appendice D

/15/ Danto Yves Haute fiabilité en nanotechnologies

Appendice E

/16/ Robert Michel

CAO de systèmes et circuits intégrés : du transistor à la complexité des systèmes

Appendice F

/17/ Hauden Daniel

 Microfluidique

Appendice G

/18/ Gauthier-Manuel.B Apport des nanotechnologies aux sources d’énergie miniatures

Appendice H1

Volz.Sébastien

 Nanothermique

Appendice H2

/19/ Hesto Patrice

 Dispositifs mis en place pour coordonner et soutenir les actions françaises dans le domaine des

nanosciences.

Appendice K 

&&&

MSTP-mai 2005 15

Page 16: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 16/92

 

 

NANOCHIMIE & NANOMATERIAUX

 Michel Ribes 

A l’heure où les nanosciences connaissent un développement considérable, il paraît utile demettre en perspective l’apport indispensable de la chimie plus particulièrement dans le

domaine des nanomatériaux où l’approche dite « bottom-up » semble la plus prometteuse.

Grâce à la maîtrise des concepts qui gouvernent la réactivité chimique, la structuremoléculaire et l’organisation des solides, les chimistes ont pu mettre au point des méthodesde synthèse efficaces et sélectives qui leur ont permis d’isoler des architectures complexes.Aujourd’hui ils ont non seulement réussi à contrôler les tailles de nanoparticules mono ou

 poly métalliques mais aussi à maîtriser de manière prévisionnelle un certain nombre desystèmes cristallisés mésoporeux. Ils ont pu également s’affranchir du contrôlethermodynamique dans la synthèse des solides (la chimie douce ou chimie « sol-gel » permetl’obtention de solides par des voies de polycondensation hydrolytique relevant uniquementd’un contrôle cinétique). Enfin le développement remarquable observé dans la chimie

supramoléculaire ouvre l’accès à des assemblages insoupçonnés (tectonochimie, moteursmoléculaires, …).

Les avancées de la chimie supramoléculaire d’une part, la meilleure compréhensionde la chimie « sol-gel » des hybrides organiques-inorganiques et des systèmes mésoporeuxd’autre part, ont permis de mieux appréhender les règles de l’auto-association. Par ailleurs,des amphiphiles possédant des unités pouvant être biologiques s’auto-organisent sous formede micelles. De même des associations de polymères poly cationiques et poly anioniques

 permettent d’obtenir des coquilles nanométriques rigides. Tout ceci ouvre un champimmense pour accéder à l’organisation d’entités douées de propriétés physiques comme : lesnanoparticules métalliques ou semi-conductrices, le magnétisme moléculaire, les polymèresconducteurs, les systèmes électro et photo-luminescents, les entités pour l’optique nonlinéaire, les poudres d’oxydes photo-oxydables ou photo-réductrices, les films de matériauxhybrides organiques-inorganiques doués de propriétés mécaniques étonnantes.

Actuellement les données de base sont réunies pour permettre aux chimistes enassociation forte, en premier, avec les physiciens mais aussi avec les biologistes et lestechnologues de se lancer dans l’aventure de la maîtrise de l’organisation de la matière.

1. Définitions

Une définition assez large des nanomatériaux pourrait se décliner comme suit« Synthèse et étude de nano-objets (échelon élémentaire, briques de base) doués de

 propriétés (physiques, chimiques ou biologiques) nouvelles ou exacerbées par effet de taille,

MSTP-mai 2005 16

Page 17: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 17/92

 

méthodes d’assemblage et d’organisation permettant d’aboutir à des nanomatériaux et/ouà des matériaux adaptatifs (smart materials) ».

L’étape fondamentale est la création de nano-objets. A ce stade, même si ces "briques de

 base" ont des propriétés remarquables, elles resteraient inexploitables si parallèlementn’étaient découvertes et développées des méthodes spécifiques d’assemblage (auto-assemblage) et de mise en forme (films, fibres, composites, solides à porosité contrôlée…)

 permettant de passer du nano-objet, curiosité de laboratoire, au matériau doué de propriétés précises et utilisables. Dans le cas des matériaux adaptatifs il faudra de plus savoir organiser et coupler de façon interactive des propriétés différentes.

Ainsi définis les nanomatériaux se situent dans un vaste champ de recherche pluridisciplinaire impliquant des spécialistes d’horizons divers : physiciens, chimistes,mécaniciens…

2. Les nano-objets

Ils représentent les briques élémentaires des matériaux du futur. Ils peuvent êtreconstitués d’un assemblage d’atomes (« cluster » , nanoparticule métallique ou stadeélémentaire d’une combinaison minérale…). Il pourra souvent s’agir d’une moléculespécifiquement synthétisée dans le but d’obtenir une propriété particulière : optique,magnétique, électrique, chimique (catalyse, séparation) mécanique, etc… Dans tous les cas la

 propriété doit être précise, mesurable et contrôlable : la synthèse du nano-objet doit êtrefocalisée sur la propriété dont on souhaite le doter. Le degré de précision atteint par lasynthèse chimique ouvre la possibilité de réaliser la préparation de n’importe quel objet

chimique conçu autour d’une propriété.La synthèse et l’étude des nano-objets n’est qu’un préalable. Le but à atteindre est la

synthèse de matériaux et, à terme, l’accès aux « matériaux adaptatifs ». Le nano-objet isolén’est pas un matériau : en l’absence d’assemblage et de mise en forme, il restera une curiositéde laboratoire.

3. Les nanomatériaux

Ils vont résulter de l’assemblage des nano-objets, leur préparation passe donc par lamise en œuvre des méthodes chimiques permettant l’assemblage et conduisant à un matériau

sous forme de film, fibre, matrice ou solide poreux. Pour arriver à ce résultat, il seranécessaire de choisir l’assemblage le mieux adapté à l’obtention du matériau visé (matriced’oxyde, matrice polymère, matrice hybride ou autre). Ceci va passer en particulier par lamaîtrise des systèmes présentant des liaisons stables covalentes, ioniques, hydrogène, maiségalement par celle de systèmes sièges d’interactions moins connues (forces de type Van der Waals, forces d’interaction à longues distances comme les forces d’hydratation, defluctuation et de déplétion). Un grand nombre de solutions existent pour accéder à cette étaped’assemblage. Il est probable que les chimistes devront en découvrir de nouvelles. Cet aspectconstitue un domaine de recherche essentiel pour l’avenir des nanosciences.

4. Les matériaux multifonctions - Les matériaux adaptatifs

Au-delà du concept un matériau/une fonction, il devient possible au sein d’un mêmeédifice de faire interagir plusieurs fonctions : une propriété peut en moduler une autre ou la

MSTP-mai 2005 17

Page 18: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 18/92

 

coexistence de deux ou plusieurs propriétés peut en créer de nouvelles. Les nanomatériauxainsi obtenus le sont généralement par couplage de plusieurs nano-objets ayant chacun une

 propriété différente d’ordre physique, chimique, mécanique ou autre. Le couplage interactif de ces nano-objets impliquera un contrôle parfait de leur organisation et de leurs fonctionsd’interaction mais aussi une bonne connaissance des effets des perturbations extérieures

 pouvant moduler les propriétés physiques (température, pression, champ magnétique …). Ilest clair que beaucoup de choses restent à découvrir dans ce domaine.

Ce sera certainement le domaine de prédilection de la « nanochimie douce et biomimétique » qui offre une stratégie basée sur un codage de plus en plus précis etintelligent ouvrant les portes à une « chimie vectorielle ». Cette dernière permet desassemblages variés (nanoparticules, clusters, nano-composites hybrides) donc desarchitectures de plus en plus complexes. Des structures hiérarchisées se développant sur 

 plusieurs échelles de taille (nano-micro-mésométrique) ont été obtenues. Elles ouvrent lavoie à la conception de matériaux originaux, autoréparables ou autoréplicables.

5. Quelques exemples

Des exemples peuvent être cités. Loin de constituer une liste exhaustive, ils sontchoisis pour illustrer quelques voies de synthèse et quelques domaines d’application.

Synthèse

La « chimie douce » avec ses réactions à température ambiante et en solution,compatibles avec la présence de composantes minérales, organiques ou biologiques et sesfacilités de mise en forme, s’avère incontournable pour développer une approche

« biomimétique » des matériaux. Bien que la recherche dans ce domaine soit encoreexploratoire, plusieurs voies de synthèse sont actuellement testées :- par « transcription », en utilisant des gabarits (organiques, bio ou inorganiques)

moléculaires, supramoléculaires ou macromoléculaires afin de servir de moules structurants,- par « assemblage en synergie » ; dans ce cas les précurseurs et les agents texturants

(les gabarits) sont co-assemblés in situ dans des architectures organisées,- par « morphosynthèse » en utilisant des transformations chimiques dans des

domaines en géométries confinées (micro-émulsions, micelles, vésicules….) pour produiredes matériaux avec des formes complexes.

Une meilleure compréhension des mécanismes de formation devrait permettre deconcevoir des nanomatériaux originaux et sur mesure dans des domaines aussi variés que

l’optique linéaire et non linéaire, le magnétisme, la catalyse et photocatalyse ou encore lescosmétiques.

 Applications

Le stockage et le traitement de l’information vont être profondément bouleversés par les possibilités offertes par les nanomatériaux : stockage magnétique ou optique ettraitement optique par exemple. La maîtrise des propriétés à l’échelle atomique (nano-objets)et leur organisation contrôlée permettront des progrès très nets dans la miniaturisation etdonc dans l’augmentation des capacités de stockage.

Des télécommunications ultrarapides basées sur les phénomènes optiques serontassez rapidement maîtrisées. Ce domaine est l’un des plus prometteurs pour le couplage entreles chimistes et les physiciens car la chimie de coordination a atteint une maturité suffisante :

MSTP-mai 2005 18

Page 19: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 19/92

 

i) pour préparer des nano-objets doués des propriétés optiques souhaitables, ii) pour lesorganiser et iii) pour leur permettre de communiquer de manière contrôlée à l’aided’espaceurs modulables. Le photomagnétisme qui consiste à adresser, puis moduler les

 propriétés magnétiques d’édifices par voie optique en est une bonne illustration.

Le stockage de l’énergie : défiant les lois bien établies sur le fonctionnement des batteries au lithium qui ont envahi aujourd’hui le marché des portables (processus classiquesd’insertion/désinsertion d’ions lithium, formation d’alliages avec le lithium), l’intérêt de lamise en œuvre de nanoparticules vis-à-vis du stockage de l’énergie vient d’être montré. Aucontraire des réactions d’insertion classique qui gouvernent les accumulateurs actuels à ionslithium et qui sont limités à 1 électron voire 0.5 électron par atome de métal (cas du LiCoO2),ces nouvelles réactions mettant en jeu des nanoparticules métalliques peuvent impliquer 2électrons voire plus par atome métallique. Il en résulte une amélioration des performances(au moins d’ un facteur 3) ouvrant de nouvelles opportunités. Le stockage de l’énergie seraégalement accessible par le développement de nouveaux systèmes. La maîtrise des ensembles

 poreux par l’organisation des fonctions à l’intérieur des pores et des parois du matériau ouvre

d’intéressantes perspectives pour le stockage séparé d’anions et de cations à fort potentielélectrochimique.

L’avènement de capteurs sélectifs susceptibles de détecter sans ambiguïté etquantitativement des traces de matière est l’un des prolongements directs de l’introduction dela chimie dans les nanosciences. Les technologies modernes auront de plus en plus besoin desystèmes de détection ultra sélective et quantitativement précise, qu’il s’agisse de la détectionde matières organiques, de métaux lourds, de biomolécules, etc… On se retrouve face à un

 besoin très large qui recouvre tous les secteurs de la vie sociale : industrie, environnement,santé, transport, etc… Notons que l’un des enjeux majeurs dans ce domaine est la maîtrisedes problèmes de pollution.

La catalyse préfigure elle aussi, un vaste champ d’applications pour les nanosciences.Les catalyseurs du futur tendront vers la sélectivité absolue de l’acte catalytique. Ceciimposera la maîtrise parfaite d’un centre catalytique qui sera souvent poly métallique et dontl’environnement solide permettra de contrôler la sélectivité de fonction et de formes. On saitque l’enjeu économique de la catalyse est considérable.

Les matériaux permettant des séparations ultra sélectives représentent un autreobjectif majeur. A côté des systèmes de détection, il sera nécessaire de posséder des outils

 permettant des séparations sélectives d’ions, de produits chimiques ou biologiques. La

séparation des actinides fait également partie des potentialités à développer.

 Références

Rapport de l’Académie des Sciences et de l’Académie des Technologies « Nanosciences et Nanotechnologies » (Avril 2004).Partie I – NanochimieEnsemble des contributions et plus particulièrement

• Introduction ; polymérisation minérale : R. Corriu• Vers une nanochimie douce et biomimétique : J. Livage et C. Sanchez•  Nanotechnologie, auto-assemblage et chimie supramoléculaire : M.W. Hosseini

 Nano-objets et nanostructures préparés par approche bottom-up : enjeux et perspectives. Projet de

réseau national : rapport au comité Nanosciences : M. Drillon J.M. Tarascon et al., Nature (407 (6803), 496-499 (2000)).

&&&

MSTP-mai 2005 19

Page 20: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 20/92

 

NANOBIOTECHNOLOGIES

Pierre Puget 

1. Définition et position du problème

Les Nanobiotechnologies constituent le domaine de convergence des nanotechnologies et dela biologie. Dans ce sens, elles regroupent :

• l’ensemble des nanotechnologies qui trouvent des applications dans divers domainesde la biologie (en particulier de nouveaux instruments pour comprendre lefonctionnement du vivant, de nouveaux moyens pour la médecine et la santé, que ce

soit au niveau du diagnostic, de la thérapie, de la délivrance de médicaments),• les biotechnologies, mettant en œuvre des biomolécules, biomatériaux ou procédés

 pour des applications finales en dehors de la biologie. On peut citer par exemplel’élaboration de nouveaux matériaux biomimétiques, l’utilisation de procédés d’auto-assemblage empruntés à la biologie, l’utilisation de molécules biologiques pour l’électronique moléculaire.

Le domaine des nanobiotechnologies est relativement multiforme et complexe. Unesegmentation possible (inspirée des travaux menés actuellement au sein du réseaud’excellence européen Nano2life dans le cadre du "workpackage" prospective) estreprésentée ci-contre

.

Nanobiotechnologies

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

 

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

Nanotechnologies pour la biologie• nanoparticules• nanofils nanotubes• surfaces nanostructurées• nanostructures complexes

Biologie pour les nanotechnologies• matériaux bioinspirés• systèmes biomimétiques

systèmes intégrés

in vitro 

• puces à ADN, protéines, etc• puces à cellules• laboratoires sur puce

in vivo 

• délivrance de médicaments• implants

• diagnostic et suivi in vivo • pilules intelligentes

autres• électronique moléculaire• conversion d'énergie

technologies et outils communs

techniques analytiques(microscopies électronique, à sondes locales, biophotonique)

aspects théoriquessimulation et modélisationtraitement de l'information

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

 

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

Nanotechnologies pour la biologie• nanoparticules• nanofils nanotubes• surfaces nanostructurées• nanostructures complexes

Biologie pour les nanotechnologies• matériaux bioinspirés• systèmes biomimétiques

systèmes intégrés

in vitro 

• puces à ADN, protéines, etc• puces à cellules• laboratoires sur puce

in vivo 

• délivrance de médicaments• implants

• diagnostic et suivi in vivo • pilules intelligentes

autres• électronique moléculaire• conversion d'énergie

technologies et outils communs

techniques analytiques(microscopies électronique, à sondes locales, biophotonique)

aspects théoriquessimulation et modélisationtraitement de l'information

 

Nanobiotechnologies

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

 

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

Nanotechnologies pour la biologie• nanoparticules• nanofils nanotubes• surfaces nanostructurées• nanostructures complexes

Biologie pour les nanotechnologies• matériaux bioinspirés• systèmes biomimétiques

systèmes intégrés

in vitro 

• puces à ADN, protéines, etc• puces à cellules• laboratoires sur puce

in vivo 

• délivrance de médicaments• implants

• diagnostic et suivi in vivo • pilules intelligentes

autres• électronique moléculaire• conversion d'énergie

technologies et outils communs

techniques analytiques(microscopies électronique, à sondes locales, biophotonique)

aspects théoriquessimulation et modélisationtraitement de l'information

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

 

composants et technologies:structures fonctionnelles à l'échelle

nanométrique

Nanotechnologies pour la biologie• nanoparticules• nanofils nanotubes• surfaces nanostructurées• nanostructures complexes

Biologie pour les nanotechnologies• matériaux bioinspirés• systèmes biomimétiques

systèmes intégrés

in vitro 

• puces à ADN, protéines, etc• puces à cellules• laboratoires sur puce

in vivo 

• délivrance de médicaments• implants

• diagnostic et suivi in vivo • pilules intelligentes

autres• électronique moléculaire• conversion d'énergie

technologies et outils communs

techniques analytiques(microscopies électronique, à sondes locales, biophotonique)

aspects théoriquessimulation et modélisationtraitement de l'information

 

Figure 1

MSTP-mai 2005 20

Page 21: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 21/92

 

 Nous nous concentrerons dans la suite du texte successivement sur les aspects:• composants et technologies (paragraphes II à V) ;• systèmes intégrés (paragraphe VI).

Les technologies communes ne seront pas développées ici.

2. NanoparticulesLes nanoparticules sont des composants très utilisés et très intéressants qui rassemblent des

 propriétés à la fois de support solide (possibilité d’être fonctionnalisé chimiquement, desédimenter et d’être séparé d’une phase liquide) et de matière divisée (grande diffusion etgrande réactivité). Ces nanoparticules peuvent ainsi assurer de nombreuses fonctions :

• encapsulation de médicaments, principes actifs, etc… pour la délivrance demédicaments,

• marqueurs de molécules (en général optiques)• transducteurs et génération d’un effet physique (photonique, thermique, ultrason

magnétique, etc)• capture de molécules

Ces nanoparticules sont très diverses dans leur nature et leurs procédés d’élaboration :• les matériaux utilisés peuvent être organiques ou inorganiques,• elles peuvent être sous forme de liposomes, de nanocapsules solides (creuses),

nanosphères (pleines).

2-a. « Quantums-dots »

Les "quantum-dots" sont des cristaux semi-conducteurs de taille nanométrique, secomportant comme des fluorophores, ayant un certain nombre d’avantages sur leurshomologues organiques traditionnels: 

• leur longueur d’onde d’émission est fonction de leur taille. On est ainsi capabled’émettre dans une raie d’émission très fine à condition d’avoir une population de

 particules très monodisperse (par la synthèse ou le criblage). Cela permet de marquer simultanément tout en pouvant les détecter de façon indépendante un plus grandnombre de molécules en solution ;

• elles présentent un très bon rendement quantique,• elles présentent un "blanchiment" (dégradation sous l’effet d’une illumination)

 beaucoup plus faible.En fonctionnalisant ces marqueurs de façon particulière, on peut les rendre "intelligents", par exemple en modifiant leur émission (activation, extinction, changement de longueur d’onde)en fonction d’un événement biologique ou chimique.

Les "quantum-dots" sont utilisés principalement aujourd’hui comme marqueurs optiquesdans des applications in vitro et in vivo.

Ils sont synthétisés dans une phase organique et sont naturellement hydrophobes. Leur stabilisation dans un tampon aqueux ainsi que leur fonctionnalisation biologique ont été des

 problèmes non résolus jusqu’à une date récente (au cours de l’année 2002) mais qui sont

maintenant maîtrisés. On assiste à une explosion des travaux les mettant en œuvre. Il restecependant à établir clairement leur toxicité éventuelle pour pouvoir les utiliser dans ledomaine de la santé.

MSTP-mai 2005 21

Page 22: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 22/92

 

2-b. Nanoparticules pour la délivrance de médicaments et la thérapie

Les nanoparticules peuvent servir de vecteurs de distribution de médicaments dans unorganisme. Leur utilisation, en modifiant la distribution des molécules permet à la foisd’augmenter l’efficacité du médicament et de diminuer leur toxicité, ce qui est

 particulièrement important dans le traitement du cancer par exemple. La surface de cesnanoparticules est en général fonctionnalisée pour d’une part éviter leur piégeage non désirédans certains tissus, d’autre part pour se concentrer vers d’autres , voire être internalisées par les cellules ciblées.

Il est même possible dans certains cas de contrôler par une stimulation externe (optique, par ultra-sons, etc) les caractéristiques physico-chimiques des nanoparticules pour optimiser encore la libération des médicaments.

L’utilisation de nanoparticules pour les thérapies géniques où on introduit du matérielgénétique dans une cellule est un cas particulier également important.

D’autres propriétés des nanoparticules peuvent être utilisées pour la thérapie. On peutexploiter des propriétés physiques qui permettent d’agir sur leur environnement immédiat.Par exemple, on peut dans un premier temps fixer les nanoparticules sur certaines cellules oucertains tissus et les irradier pour qu’elles s’échauffent et détruisent par un effet thermiquetrès localisé les cellules dans leur voisinage immédiat. L’illumination de particules d’or,l’excitation par un champ magnétique alternatif de nanoparticules super-paramagnétiques, ou

 bien encore l’excitation par des ultrasons de nanoparticules ont été ainsi utilisées.

3. Nanotubes et nanofils

Les nanotubes et nanofils de carbone et d’autres matériaux constituent des objets potentiellement extrêmement intéressants pour les nanobiotechnologies.

Ils ont des caractéristiques en particulier électriques qui peuvent être perturbées par desréactions chimiques à leur surface entre des molécules cibles à détecter et des sondesattachées à la surface du nanotube ou nanofil. La détection et la mesure de ces effets permetd’en faire des détecteurs à la fois sensibles, ne nécessitant pas de marquage, et entièrementintégrables (du dispositif sensible à l’électronique de traitement) sur une puce. Ceci en faitdes concurrents extrêmement sérieux vis à vis des méthodes utilisées courammentaujourd’hui.

Les premières preuves de principes ont été publiées en 2001. Aujourd’hui les principauxenjeux portent sur l’amélioration des performances en termes de sensibilité, l’intégration dedétecteurs complets et "multiplexés" (plusieurs détections en parallèle à l’instar des puces àADN ou à protéines), ainsi que la mise au point de procédés de fabrication compétitifs d’un

 point de vue industriel.

4. Surfaces nanostructurées

La nanostructuration des surfaces, c’est-à-dire le contrôle à une échelle nanométrique deleurs propriétés chimiques ou physiques trouve de nombreuses applications pour lesnanobiotechnologies. On peut citer en particulier :

• la fonctionnalisation chimique de sondes qui, capables de réagir spécifiquementavec des molécules d’intérêt, permettent de réaliser des opérations dereconnaissance moléculaire. C’est le cas typique des puces à ADN, et à protéinesdiverses (peptides, protéines, glycoprotéines, haptènes, anticorps).

MSTP-mai 2005 22

Page 23: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 23/92

 

• la fonctionnalisation chimique d’autres molécules comme des enzymes (par exemple la trypsine qui permet de digérer les protéines avant leur détection etanalyse par spectrométrie de masse) ou d’autres molécules particulières pour réaliser des colonnes miniaturisées de chromatographie ou d’électrophorèse.

• la fonctionnalisation chimique pour assurer une biocompatibilité des différentsdispositifs réalisés,

• la fonctionnalisation chimique pour libérer des médicaments avec une cinétique bien contrôlée,

• la réalisation de surface permettant d’avoir des propriétés de mouillabilitéextrêmement bien contrôlées, ce qui est important pour la microfluidique (voir 

 paragraphe 6-c ci-dessous). La structuration spatiale à l’échelle nanométrique dessurfaces permet d’amplifier les caractéristiques de mouillabilité des surfaces (casde l’effet lotus ou d’hyper-hydrophobicité).

La plupart de ces surfaces ont des propriétés statiques, mais le contrôle dynamique des

 propriétés, tant chimiques que physiques par des moyens optiques, thermiques, ouélectriques, est extrêmement intéressant d’un point de vue fonctionnel. Des études sontmenées dans ce sens.

De nombreux travaux portent également sur les méthodes de fabrication qui doivent concilier  performances et coût raisonnable.

5. Biologie pour les nanotechnologies

La biologie met à disposition des technologues un certain nombre de molécules et de procédés potentiellement extrêmement intéressants. Certains présentent des propriétés dereconnaissance moléculaire ou d’auto- assemblage que n’offre pas la chimie traditionnelle.

On met là en œuvre véritablement une approche "bottom-up" où des briques élémentaires telsque des molécules biologiques (acides nucléiques ou protéines principalement) ou même desmicroorganismes (virus par exemple), sont combinés pour construire des systèmes ou desmatériaux plus complexes.

Parmi les travaux les plus marquants, signalons l’utilisation de molécules biologiques commesupports mécaniques ou motifs pour la synthèse de structures nanométriques (par exemple denanofils métalliques), ou bien encore l’intérêt manifesté pour des matériaux biologiques telsles fils d’araignée, la nacre, la feuille de lotus déjà mentionnée. Ces matériaux ont des

 propriétés que n’ont pas les matériaux artificiels. Par une approche de "reverse engineering",

on cherche ainsi à développer de nouveaux matériaux aux propriétés similaires.6. Systèmes intégrés in vitro

Les laboratoires sur puce, issus du rapprochement des microtechnologies et de la biologiereprésentent des nouveaux outils d’analyse caractérisés en ce qu’ils intègrent au sein d’undispositif miniaturisé unique les différentes étapes d’un protocole complet d’analyse. Ils

 présentent sur leurs équivalents plus traditionnels les avantages suivants:• une facilité et une efficacité d’utilisation par un personnel non spécialisé, voire un

fonctionnement entièrement automatique,• des possibilités d’effectuer en parallèle un très grand nombre d’analyses,• une portabilité liée à leur taille réduite,• des performances accrues grâce à la miniaturisation (augmentation de la sensibilité et

diminution de la durée des tests par exemple).

MSTP-mai 2005 23

Page 24: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 24/92

 

Ils trouvent leurs applications principales dans les domaines du diagnostic in vitro, ducontrôle agro-alimentaire (détection de contaminants et d’organismes génétiquementmodifiés, contrôle qualité), du contrôle de l’environnement (contrôle de la qualité de l’air etde l’eau). Les industries pharmaceutiques sont également des utilisatrices de ces systèmes

 pour effectuer de façon efficace et bon marché les nombreuses et différentes analysesnécessaires pour le développement de nouveaux médicaments.

Les fonctions typiques implantées dans un laboratoire sur puce sont relativement diverses.On peut citer parmi les principales :

• des réactions spécifiques ("reconnaissance moléculaire") sur support solide ou ensolution, pour détecter la présence d’une ou plusieurs molécules dans unéchantillon. Principalement, pour la biologie, ces réactions mettent en œuvre desacides nucléiques, des protéines, des anticorps. Pour les réactions sur support solide,on est ici dans le domaine des puces à ADN ou puces à protéines;

• la détection de ces réactions spécifiques mettant en œuvre plusieurs principes

 physiques;• des opérations de préparation d’échantillon incluant des séparations sur micro-

colonnes, des concentrations, l’amplification par PCR (Polymerase ChainReaction).

Toutes ces opérations sont implantées par la mise en œuvre de plusieurs technologies de basedont nous allons présenter les enjeux dans les paragraphes suivants.

6-a. Matériaux et procédés de fabrication

Le choix des matériaux utilisés et les procédés d’élaboration résultent de l’optimisation d’uncritère prenant en compte les fonctions et les performances attendues du dispositif, son coût

et le volume de production. Doivent être en particulier considérés :• les propriétés chimiques (pour la bio-compatibilité et la fonctionnalisation chimique

des surfaces), les propriétés thermiques, éventuellement optiques et électriques(essentiellement pour la détection) des matériaux,

• les procédés de mise en forme/usinage, d’assemblage, de fonctionnalisationchimique des surfaces, de conditionnement (packaging) utilisables,

• le coût des matériaux bruts mais aussi des procédés de fabrication.

Les matériaux les plus couramment utilisés sont les polymères, le verre et le silicium.

Les premiers ont pour avantage leur moindre coût et leur facilité de mise en œuvre, en

 particulier au niveau de leur mise en forme ; celle-ci peut se faire par emboutissage, par moulage ou même par usinage direct (essentiellement pour du prototypage), pour desdimensions caractéristiques qui peuvent aller du centimètre jusqu’au micron, voire au-delàdans certains cas.

Le silicium présente plusieurs avantages, la capacité que l’on a d’y implanter des fonctionsélectriques ou électroniques (par exemple pour la détection), sa très bonne conductionthermique et la possibilité d’usiner des structures de taille de l’ordre du micron avec des

 procédés très bien maîtrisés. Il a pour inconvénient principal un coût de fabricationrelativement élevé pour des objets de surface même modeste (au delà de quelques mm²) si les

objets fabriqués ne sont pas de très grande diffusion.Au niveau des matériaux, la tendance qui semble se dégager serait donc :

MSTP-mai 2005 24

Page 25: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 25/92

 

• une combinaison polymères/verre/silicium pour des dispositifs complexes, intégrant plusieurs fonctions d’un protocole d’analyse, par exemple de la préparationd’échantillon à la détection. Ces dispositifs seraient destinés à des applications à fortevaleur ajoutée,

• l’utilisation exclusive de polymères pour des dispositifs plus simples, passifs (comme par exemple des puces à ADN ou protéines, ou des tests sans détection), en vued’applications à plus faible valeur ajoutée, beaucoup plus sensibles au coût defabrication.

6-b. Chimie de surface

La chimie de surface est un aspect très important pour les laboratoires sur puces. Laminiaturisation des échantillons, par la diminution de leur rapport volume sur surface, a pour conséquence une importance accrue des phénomènes de surface, parmi lesquels on peut citer:

• les réactions chimiques de surface, spécifiques (puces à ADN ou puces à protéines)ou non (cas des adsorptions non spécifiques qui peuvent créer des faux positifs dans

une détection ou occasionner la perte totale ou partielle d’analyses sur des parois decapillaires ou de chambres de réaction),

• les phénomènes physico-chimiques de surface comme la mouillabilité, trèsimportants pour la micro-fluidique (voir ci-dessous).

Ce sont les molécules et groupement chimiques présents à la surface des matériaux quiconditionnent ces phénomènes. Dans le cas particulier des laboratoires sur puce, les enjeux

 principaux de la chimie de surface sont:• la fonctionnalisation chimique pour la reconnaissance moléculaire en surface. Il

s’agit de greffer des molécules (typiquement acides nucléiques, anticorps, protéines) tout en les gardant chimiquement actives et en contrôlant leur interaction avec la surface (interaction éventuellement néfaste);

• la compatibilité des chimies de greffage avec l’ensemble des procédés defabrication du microsystème;

• la fonctionnalisation de structures éventuellement complexes. S’il est(relativement) aisé de fonctionnaliser un support plan comme une puce à ADN oùl’on peut projeter les réactifs par une pipette miniaturisée ("spotting" en anglais),il l’est beaucoup moins dans le cas d’un capillaire, d’une chambre de réaction dequelques nanolitres, ou d’une microcolonne;

• le contrôle dynamique de l’activité chimique des molécules greffées en surface.

Cette fonction n’est pas aujourd’hui répandue mais serait d’une grande utilité pour plusieurs opérations telles que le relargage de molécules, le contrôledynamique localisé de propriétés chimiques (contrôle local du pH par exemple)ou physico-chimiques (mouillabilité par exemple).

6-c. Nano-microfluidique

Toutes les étapes d’un protocole d’analyse biologique se font en milieu liquide et lamanipulation, le stockage, la distribution de petites quantités de liquides, que ce soit deséchantillons, ou des réactifs est une composante essentielle des laboratoires sur puce. Ladiminution de la taille des volumes manipulés a pour conséquences principales :

• la disparition des phénomènes de turbulence qui sont très importants pour tous les

 phénomènes d’échanges au sein d’un liquide (mélanges, réactions chimiques,échanges thermiques). Ces échanges se font alors exclusivement par diffusion, ce

MSTP-mai 2005 25

Page 26: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 26/92

 

qui est pénalisant du point de vue de la cinétique des réactions chimiques, et par conséquent sur la rapidité des analyses implantées sur la puce;

• comme nous l’avons déjà vu plus haut, l’importance relative des phénomènes desurface par rapport aux phénomènes de volume, en particulier pour l’aspectmicrofluidique, l’importance des tensions superficielles et forces de capillarité.Celles-ci peuvent être néfastes comme dans le cas de la présence de bulles qui

 bloquent un écoulement dans un capillaire, ou bénéfiques quand on peut lescontrôler pour provoquer le mouvement de gouttes par électromouillage. 

Au cours des dernières années, de très nombreux travaux ont porté sur la mise au point deméthodes pour contrôler le mouvement de fluides. On distingue classiquement le contrôled’écoulements en flux du contrôle de mouvement de gouttes.

Concernant les écoulements en flux, un certain nombre de travaux ont porté sur laminiaturisation de pompes et de valves macroscopiques. Ce n’est sûrement pas une voied’avenir car dans cette stratégie, on subit plus qu’on ne tire parti des conséquences de la

diminution des volumes manipulés exposées ci-dessus. Parmi les modes de mise enmouvement de fluides les plus répandus, et/ou les plus intéressants selon nous, on peut citer l’électro-osmose et la magnétohydrodynamique.

Pour les échantillons discrets, de nombreux travaux ont porté depuis quelques années sur lamodification des forces capillaires s’exerçant à la surface d’un échantillon en goutte placéesur une surface hydrophobe. Cette perturbation la plus courante est d’origine électrostatique,mais peut être également mécanique, par exemple par des ondes acoustiques de surface.

On peut citer une autre forme d’actuation mécanique des gouttes par force centrifuge. Lelaboratoire sur puce s’intègre sur un support polymère de format proche de celui d’un

Compact Disc. La mise en rotation de celui-ci induit le déplacement de l’échantillon qui estcontrôlé là aussi par la création de zones de mouillabilité variable au sein du dispositif.

6-d. Détection

Le problème de la détection dans un laboratoire sur puce est celui de la génération d’unsignal mesurable (essentiellement optique ou électrique) qui traduit si une réaction chimiquespécifique a lieu ou non. Plusieurs modes de transduction peuvent être mis en œuvre :• optique où la réaction peut induire la génération de photons (chimiluminescence), la

coloration du milieu réactionnel , l’accumulation ou l’activation de marqueursfluorescents, la modification des caractéristiques d’une interface optique,

• mécanique où une réaction d’hybridation en surface d’un matériau perturbe lescaractéristiques de celui-ci. Ce peut être le facteur d’amortissement ou la fréquence

 propre d’un oscillateur à quartz ("micro-balances à quartz", ou QMB en anglais), uneonde acoustique de surface (ou SAW en anglais) ou la déflexion d’un micro-cantilever,

• électrique où la réaction chimique peut modifier un potentiel électrochimique sur uneélectrode, une impédance entre des électrodes ou crée un effet de champ sur la grilled’un transistor,  magnétique où la molécule cible est marquée par une particulemagnétique de taille sub-micrométrique qui peut être détectée par un capteur magnétique intégré dans le microsystème.

• magnétique où la molécule cible est marquée par une particule magnétique de taillesub-micrométrique qui peut être détectée par un capteur magnétique intégré dans lemicrosystème.

MSTP-mai 2005 26

Page 27: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 27/92

 

Le choix d’un système de détection se fait là encore en combinant plusieurs critères de performances, de coût, de portabilité dont l’importance relative dépendra des applications.D’un point de vue "système", deux critères sont à considérer (figure 2) :• la complexité imposée par la détection sur le protocole de préparation de

l’échantillon.• Le cas le plus défavorable est celui où le principe de détection impose une étape de

marquage chimique de la molécule que l’on cherche à détecter. Cette étapesupplémentaire se traduit par une complexité accrue du protocole embarqué et par làmême du dispositif à réaliser.

• le degré d’intégrabilité du détecteur, avec pour extrêmes, d’une part un système delecture qui peut être complètement embarqué sur le microsystème, d’autre part unsystème de lecture « lourd », nécessairement sous forme d’un appareil "de table".

On voit ainsi sur la figure 2 que les méthodes de fluorescence qui sont les plus répanduessont aussi les plus pénalisantes, tant du point de vue de la préparation de l’échantillon que de

la portabilité de la fonction. Inversement, les méthodes mécaniques semblent plusintéressantes sur les deux points de vue. Cependant, quand on considère les performances deces méthodes, en particulier en terme de sensibilité (figure 3) on voit que la fluorescence estnettement plus performante que les méthodes concurrentes précédemment citées. C’est pour cette raison qu’aujourd’hui, la compétition entre méthodes est très ouverte. D’autresméthodes mettant en œuvre des nanostructures fonctionnalisées comme des nanofils ou desmembranes biomimétiques, fonctionnalisées par des protéines membranaires, qui permettentla détection sans marquage de molécule unique, semblent être des méthodes d’avenir.

    p    o    r     t    a     b     i     l     i     t      é

détectionintégrée

détectionextérieure

marquageformat

sandwichsans

marquage

complexité protocole prepa échantillon

fluorescenceSPR

électrochimie

mag.FET 

  µ  c  a  n  t  i   l  e  v  e  r  s

SAW, QMB

spect. masse

    p    o    r     t    a     b     i     l     i     t      é

détectionintégrée

détectionextérieure

marquageformat

sandwichsans

marquage

complexit

 

é protocole prepa échantillon

fluorescenceSPR

électrochimie

mag.FET 

  µ  c  a  n  t  i   l  e  v  e  r  s

SAW, QMB

spect. masse

 

Figure 2

MSTP-mai 2005 27

Page 28: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 28/92

 

Un cas particulier de détection est la spectrométrie de masse qui présente des performancesinégalées en terme de sensibilité et de capacité de discrimination ; elle est utilisée tant pour ladétection d’acides nucléiques que de protéines. Certains travaux ont pour but laminiaturisation de spectromètres de masse, mais les produits commerciaux actuels relève

 plutôt de l’instrumentation relativement lourde.

10-8

10-7

10-9

10-10

10-11

10-12

10-13

10-14

10-15

nM pM fM

fluo.

µ cantilevers

SPR direct, SPR avec marquage

électrochimie

sensibilité 

10-8

10-7

10-9

10-10

10-11

10-12

10-13

10-14

10-15

nM pM fM

fluo.

µ cantilevers

SPR direct, SPR avec marquage

électrochimie

sensibilité 

Figure 3

7. Conclusion

Les nanobiotechnologies représentent un domaine éminemment multidisciplinaire qui n’est

couvert par aucune formation académique traditionnelle. L’association de chercheurs de

cultures et de compétences très variées, comme des biologistes, des chimistes, des

spécialistes d’instrumentation et de traitement du signal et des technologues est nécessaire pour faire progresser le domaine. A ces compétences de spécialistes s’en ajoute une nouvelle

qui est en train d’émerger: celle d’architecte de micro/nano systèmes pour la biologie. C’est

la personne qui est capable à la fois de comprendre les besoins des utilisateurs finaux, de les

traduire en termes de spécifications pour le microsystème et de définir les grandes options

technologiques pour sa conception. La conception détaillée des différents modules

(microfluidique, détection, chimie…) sera éventuellement conduite par d’autres spécialistes.

Une autre caractéristique de ce domaine est l’importance de la propriété industrielle et des

 brevets. La plupart des technologies de base sont couvertes (et bien couvertes) par des

 portefeuilles brevets. La difficulté d’accès à certaines licences, en particulier par un coût trop

élevé peut facilement compromettre la mise sur le marché d’un produit.

De façon moins spécifique aux nanobiotechnologies, les acteurs de la recherche, pour être

compétitifs ont besoin d’avoir accès à des financements d’un niveau suffisant. Ces

financements doivent être répartis de façon équilibrée et harmonieuse aux différentes étapes

du développement de produits innovants, de la recherche fondamentale à la mise sur le

marché.

&&& 

MSTP-mai 2005 28

Page 29: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 29/92

 

 

NANOSCIENCES &NANOTECHNOLOGIES : Dimension sociétale et problèmes de santé publique

Patrick Bernier 

1. Le monde nano (1)

Si la Nanoscience -quelque peu mondaine, conceptuelle et théorique, très souvent utilisée àdes fins de science-fiction, comme dans le récent livre de Michael Crichton,  La Proie, Ed.Robert Laffont, 2003- et les Nanosciences -beaucoup plus scientifiques, fondamentales etsujettes actuellement aux recherches expérimentales et théoriques les plus approfondies- sont

déjà bien implantées dans la communauté scientifique, les Nanotechnologies -issues des Nanosciences et en prise directe avec les applications technologiques- n’en sont qu’à leurs prémices et sont annoncées par certains média comme la nouvelle révolution industrielle.Une telle notoriété ne va pas sans quelques inconvénients, en l’occurrence la méfiance

 parfois agressive (2) de certains groupes de pensée qui font un peu rapidement un parallèleentre ces nouvelles technologies et d’autres domaines fortement controversés de la Science etde la Technologie : les manipulations génétiques par exemple, ou les fibres d’amiante. Bref,tout un éventail d’assimilations enclines, volontairement ou non, à faire peur. Une telleambiguïté se nourrit évidemment du manque profond d’information et donc de connaissancedu grand public, sur le thème des nanotechnologies.

2. Le monde nano et le grand publicUne enquête récente menée au Royaume-Uni (3) montre que seulement 29 % de la

 population britannique a entendu le mot « nanotechnology », et que parmi ces 29 %, seuls 19% en donnent une définition à peu près acceptable. Il est donc clair qu’une des priorités detoute action d’envergure sur les Nanosciences et les Nanotechnologies doit être d’informer legrand public et en particulier les jeunes appelés à grandir dans ce futur nanomonde.

Le grand public doit savoir que le monde matériel dans lequel nous vivons depuis desmillénaires comporte la dimension « nano » par essence même. Particules, atomes etmolécules existent depuis le début de l’Univers et en sont les constituants élémentaires. Dansle domaine « nano » la nature est le premier maître d’œuvre pour avoir élaboré des moléculescomme l’ADN ou les carotènes. Le « nanomonde » n’est donc pas quelque chose defondamentalement nouveau et l’on doit se souvenir qu’au temps de la préhistoire, comme àcelui du moyen-âge, l’homme utilisait déjà sans le savoir des systèmes complexesnanostructurés (4) (peintures, colorants, additifs, etc.). Par contre les nanotechnologies, quisont liées à une manipulation contrôlée d’objets nanométriques, ne sont apparues querécemment, lorsque les techniques permettant d’observer et de déplacer à cette échelle, ontété utilisées couramment dans les laboratoires de recherche (5). Le développement desnanotechnologies est devenu explosif lorsque les potentialités d’applications ont été

analysées et exploitées, montrant que les propriétés des matériaux et systèmes susceptiblesd’en découler pourraient être fondamentalement différentes de celles des matériaux etsystèmes de dimension macroscopique, non nanostructurés

MSTP-mai 2005 29

Page 30: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 30/92

 

 3. Fonctionnalités et nanomonde (1)

On peut envisager le nanomonde comme un monde d’aspect assez semblable à celui quenous connaissons actuellement, mais où les fonctionnalités de l’environnement quiaccompagnent et structurent notre vie seraient définies et contrôlables à loisir. Par exemple,on obtiendrait des matériaux dont les propriétés électriques, mécaniques, thermiques seraientchoisies à priori et montreraient une anisotropie ou une hétérogénéité adaptables à dessituations précises. Il serait alors possible d’obtenir des câbles légers et hautement résistants,conduisant chaleur ou électricité ou des éléments de construction conduisant la chaleur dansune seule direction ou des matériaux composites ayant des gradients de propriétés

 permettant des applications complexes. On pourrait envisager des systèmes véhiculant desfonctions chimiques permettant d’attaquer sélectivement dans l’organisme humain descellules cancéreuses. On pourrait aussi créer des fonctions logiques à l’échelle nanométrique

 pour élaborer des composants électroniques autorisant des densités de stockage colossales,

ouvrant la voie à la nanoélectronique.Un concept probablement essentiel pour le devenir des nanotechnologies est celui de lamultifonctionnalité qui permet de regrouper au sein d’un même système, de manièrecontrôlée, plusieurs fonctions qui ajoutent ainsi leurs caractéristiques (6). On peut alorsconcevoir un objet qui va stocker de l’énergie (par exemple de manière électrochimique) eten même temps montrer une résistance mécanique particulière ou avoir un comportementoptique donné et contrôlable et conduire l’électricité etc. La maîtrise des propriétés ainsi quele contrôle et l’assemblage de ces systèmes à l’échelle nanométrique, seuls accessibles via lesnanotechnologies, permettront de telles prouesses.4. Nanomonde et mégarisques ?

La notion de risque accompagne toujours la naissance de nouvelles technologies. Souvent lerisque apparaît clairement et les conséquences sont mesurables (exemple du nucléaire). Cettenotion est par contre moins perceptible lorsque la technologie consiste à diminuer jusqu’àl’échelle nanométrique la taille des objets avec lesquels on travaille. Pourtant deux risques

 potentiels apparaissent immédiatement : l’un est lié à l’extrême petitesse des objets quideviennent alors invisibles à l’œil nu, l’autre est lié aux modifications éventuelles des

 propriétés physiques et chimiques des objets lorsque l’on passe de la dimension macro à ladimension nano. Dans les deux cas c’est le passage à l’échelle nano qui crée le ou les risques.On sait par exemple qu’alors que la plupart des métaux sous forme massive n’interagissent

 pas a priori avec l’organisme humain, ces mêmes métaux en poudre de taille nanométriques’avèrent être des poisons redoutables pour l’homme. Le rapport surface/volume trèsimportant des grains de matière explique cette différence.L’utilisation intensive de systèmes à l’échelle submicrométrique pose donc le problème deleur dissémination dans notre environnement, les vecteurs les plus à surveiller étant l’air etl’eau. Dans ces deux milieux, essentiels à la vie, tout objet de taille nanométrique peut êtretransporté ; il peut rester isolé des autres nano-objets, sur de très longues distances et doncdevenir un éventuel danger pour la vie (7). Par chance, dans beaucoup de cas, les nano-objetsont tendance à se rassembler en clusters qui deviennent alors beaucoup moins réactifs etmobiles, se séparent et peuvent être alors isolés.

MSTP-mai 2005 30

Page 31: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 31/92

 

5. Toxicologie

Un des problèmes les plus cruciaux dans le développement des nanotechnologies est lamesure de la ou des toxicité(s) des systèmes utilisés. On sait depuis très longtemps que lamatière divisée très finement pour donner des poudres sub-micrométriques peut être

redoutablement toxique pour l’être humain (8). C’est ainsi le cas pour beaucoup de poudresmétalliques, de poudres ou filaments organiques, de filaments minéraux (comme l’amiante).On présente périodiquement à la communauté internationale depuis de nombreuses années lecas des émissions de moteur diesel comme étant un danger important pour la santé. On est endroit de penser que l’absorption de particules de carbone (pur ou impur) n’est a priori pasrecommandable pour la santé humaine. Néanmoins et bizarrement, il n’existe aucune étudesérieuse chiffrée publiée à ce jour sur la toxicité de ces particules.

Parmi les systèmes qui peuvent servir de référence au niveau du carbone, deux moléculessont particulièrement intéressantes : le fullerène C60 et le nanotube car bien définies sur le

 plan structural et étant faites a priori uniquement de carbone. Les études sur le fullerène n’ont

 pas encore de conclusions car le nombre de dérivés possibles de ces molécules estgigantesque et les applications potentielles (en médecine en particulier (9)) n’ont pas encoreidentifié l’une d’entre elles comme vraiment intéressante. Le cas des nanotubes est plussérieux car ces systèmes sont déjà appelés à jouer un rôle important dans la nanotechnologiedu futur (voir les applications nombreuses qui leur sont attribuées (10)) et il y a de par lemonde plusieurs dizaines de sociétés qui les produisent (11). Les tests actuels de toxicologie,menés par divers laboratoires sur des matériaux de diverses provenances (et donc decaractéristiques diverses ce qui ne facilite pas les analyses comparatives) donnent desrésultats contradictoires, allant de l’absence de toxicité à une toxicité mortelle (12). D’aprèsd’autres études, il semble que si l’on considère les fullerènes et nanotubes de grande pureté,ils ne stimulent pas au niveau de la cellule vivante (chez le rat) de réaction indiquant une

toxicité importante (13). Notons qu’il n’y a pas eu jusqu’à maintenant d’action structuréefinancée aussi bien au niveau national (en France comme dans les autres pays d’Europe)qu’au niveau européen. Bien que le 6ème PCRDT ait affiché les nanotechnologies comme une

 priorité, aucun projet concernant uniquement leur impact sociétal n’a été financé. Par contrecette préoccupation apparaît comme une activité en marge dans certains programmes retenuscomme le GDR-E « Nanotubes » du CNRS ou le contrat « CANAPE » du 6 ème PCRDT. Ildevrait en être autrement au niveau du 7ème PCRDT.

6. L’exemple des États-Unis

Les États-Unis ont depuis Octobre 2000 organisé leur recherche sur les nanotechnologies encréant une structure appelée « National Nanotechnology Initiative » (NNI) qui fonctionnecomme une agence de moyens dont les fonds proviennent des grands organismes etinstitutions de R&D fédérales américaines (14) et qui finance des projets de recherche er développement. Avec près de 1 milliard de dollars pour l’année 2005, cette structure a lesmoyens d’avoir une stratégie et d’appliquer une politique concertée de recherche. Elle a en

 particulier décidé d’affecter en 2005, 5% de son budget aux études concernant l’impactenvironnemental et social du développement des nanotechnologies. Chacune des institutionsconcernées aura une activité dans ce domaine mais c’est évidemment l’EPA (EnvironmentalProtection Agency) qui aura la contribution la plus importante (15). Cette agence a doncdéfini un programme de recherche « Nanotechnology : an EPA perspective » qui prévoit definancer des projets de recherche de laboratoires américains sur des thèmes concernant lesapplications environnementales et les implications sociétales des nanotechnologies.

MSTP-mai 2005 31

Page 32: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 32/92

 

Il faut aussi noter le développement considérable des industries des nanotechnologies. Plusd’une centaine de sociétés (16) affichent une activité dans ce domaine, allant desnanobiotechnologies jusqu’à la nanoélectronique, en passant par les capteurs, les compositeset les fibres. Il faut souligner le grand dynamisme de start-up récemment créées sur cesapplications, tant aux États-Unis que dans le reste du monde. C’est ainsi que la Société

 Nanomix (17) en Californie développe des capteurs de gaz submicrométriques de très haute performance. A Houston, Texas, la Société Carbon Nanotechnologies Inc. (18) propose desnanotubes de carbone pour diverses applications dont des fibres. En France, la Société

 Nanoledge (19) à Montpellier propose aussi des nanotubes de carbone en vue d’applicationsde types fibres ou composites. D’autres start-up existent aussi en Europe (Nanocyl enBelgique, Thomas-Swan en Angleterre, par exemple)(20). Toutes ces sociétés sontsensibilisées au problème des risques environnementaux des nano-objets et sont prêtes àadapter leur système de production aux conditions qui pourraient être imposées.

 Références

(1) « A la découverte du Nanomonde », Octobre 2003, Paris, publication du Ministère de laRecherche et du CEA« Nanosciences, Nanotechnologies », RST n°18, Avril 2004, Paris,Académie des Sciences et Académie des Technologies« Les Nanosciences :

 Nanotechnologies et Nanophysique », Marcel Lahmani, Claire Dupas, Philippe Houdy, Ed.Belin, Collection Echelles, 2004.

(2) « From genomes to atoms, the Big Down. Atomtech : technologies converging at thenanoscale », ETC group, Canada, Janvier 2003, http://www.etcgroup.org 

(3) « Views of the general public about nanotechnology », Janvier 2004,

http://www.nanotec.org.uk  (4) Peintures égyptiennes, vitraux des cathédrales ainsi que de nombreux éléments de décor du passé doivent certaines de leurs caractéristiques (couleur, texture) à l’utilisation decolorants nanostructurés ou de nanoparticules métalliques.

(5) Il s’agit des techniques de microscopie à effet tunnel (STM) et à force atomique (AFM),découvertes par Binnig et Rohrer en 1981 (voir l’article de Rev. Mod. Phys. 59, 615–625(1987)). Une revue actualisée de ces techniques est décrite dans le livre « Scanning ProbesMicroscopes » par K.S. Birdi, CRC press Pub., 2003.

(6) Voir le site : http://www.nanotech-now.com/nanotube-survey-april2003.htm 

(7) « Nanomatériaux et impact environnemental. Quelques pistes re recherche sur lecomportement des nanotubes de carbone dans les eaux de surface », Lecoanet H., DauchezP., Wiesner M., rapport d’étude, Nov. 2001, Ambassade de France à Washington.http://www.france-science.org/home/hp.asp 

(8) “Engines and nanoparticles: a review”, D.B. Kittelson, J. Aerosol Sci., 29 (1998) 575-588.“ The physical nature of very, very small particles and its impact on their behaviour”, O.Preining, J. Aerosol Sci., 29 (1998) 481-495.

(9) « Robots in the bloodstream : the promise of nanomedicine », R. Freitas, Novartis JournalPathways, Dec. 2001, http://www.novartis.com/pathways

MSTP-mai 2005 32

Page 33: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 33/92

 

 (10) Voir le site général sur les nanotubes : http://www.pa.msu.edu/cmp/csc/nanotube.html (11) Rapport de l’Ambassade de France à Washington, http://www.france-science.org/home/hp.asp 

(12) - Moussa F. et al., Fullerene Science & Technology 3 (1995) 333-4

- Moussa F. et al., Fullerene Science & Technology 5 (1997) 503-10

- “Intratracheal instillation of CNTs-containing soot”, Huczko A. et al., Fullerene Scienceand Technology 9 (2001) 251

- “Contact testing (patch test) on human skin and rabbit eye testing with soot containingCNTs”, Huczko A. et al., Fullerene Science and Technology, 9 (2001) 247

- “Intratracheal instillation of SWCNTs in rats”, Warheit D.B. et al., Toxicol. Sci. 77 (2004)117 - “CNTs intratracheally instilled in mice”, Lam C.W. et al., Toxicol. Sci. 77 (2004)126

(13) “ Effects of C-Fullerenes and single-wall carbon nanotubes on murine and humanmacrophages cells”, Fiorito S., Serafino A., Andreola F., Bernier P., à paraître

(14) “The US National Nanotechnology Initiative after 3 years (2001-2003) “, M. Roco, J. of  Nanoparticle Research, 6 (2004) p. 1-1021 Institutions fédérales contribuent actuellement au financement de la NNI

(15) EPA : http://www.es.epa.gov/ncer/publications/nano/nanotechnology4-24-04.pdf  

(16) « Des nanosciences au nanobusiness : un modèle à l’américaine », Farvacque C.,

Grenier B. Rapport d’étude, Sept. 2002, Ambassade de France à Washington.http://www.france-science.org/home/hp.asp 

(17) Nanomix, USA, http://www.nano.com/ 

(18) CNI, USA, http://www.cnanotech.com/ 

(19) Nanoledge, France, http://www.nanoledge.com 

(20) - Nanocyl, Belgique, http://www.nancyl.com - Thomas-Swan Co, UK, http://www.thomas-swan.co.uk  

&&&

MSTP-mai 2005 33

Page 34: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 34/92

 

 Appendice A

TECHNOLOGIES À L’ÉCHELLE ATOMIQUE

Christian Joachim

Il est des dispositifs expérimentaux comme des machines qu’aucune loi de la physiquen’impose d’avoir une taille macroscopique. Dans une approche « top-down » de laminiaturisation, il est maintenant connu qu’un cristal dûment transformé en sa surface par lestechnologies de la micro/nanoélectronique réalise des prouesses en calcul, en mémorisation,en mécanique et même en détection. Pour rendre de la matière non vivante utile à lafabrication d’un calculateur, d’une mémoire ou d’un transducteur, l’approche « bottom-up »

 propose une mise en forme d’un matériaux massif ou d’une mono-couche moléculaire à partir des molécules. Quant à la matière vivante, elle réalise également des prouessesfonctionnelles par assemblage de macromolécule avec ses moteurs protéiques ou sesneurones. Mais ce sont des ensembles composés d’un nombre gigantesque d’atomes.

Depuis la découverte en 1989 de la microscopie à l’effet tunnel qui permet de manipuler la matière atome par atome, une nouvelle branche des sciences et techniques se développequi pose comme principe - au contraire de l’approche « bottom-up » - de rester en bas, c’est adire de réaliser des dispositifs expérimentaux et des machines fonctionnelles avec le moinsd’atomes possibles [1]. Cette intégration de toute une machine dans une seule moléculenécessite des moyens technologiques puissants afin de pouvoir échanger des ordres, desdonnées, fournir de l’énergie ou des signaux de synchronisation avec cette molécule et elleseule.

Il faut également que la molécule en question ait suffisamment de ressources pour se prêter à cette fonctionnalisation [2]. La molécule doit donc s’agrandir pour accueillir lafonction et devient une sorte de molécule-monument. On parle alors de monumentalisation 

 pour atteindre une fonction complexe par opposition à la miniaturisation qui concernemaintenant plutôt les moyens de communication à mettre en œuvre pour atteindre cette

molécule-machine. Enfin, il n’est peut être pas nécessaire dans tous les cas d’assurer cesinterfaces homme-molécule. Certaines machines moléculaires pourraient devenir autonomesau grand bénéfice de notre santé et de notre environnement [3]. 

Les moyens technologiques à mettre en œuvre pour développer ces machinesunimoléculaires dépendent du milieu où la molécule-machine va entrer en fonction : le vide,un liquide, un gel, l’intérieur d’une cellule vivante, la surface membranaire d’une cellulevivante ou la surface d’un solide. Tous ces milieux exigent des savoir-faire technologiquesdifférents mais se retrouvent dans l’objectif de réaliser un dispositif ou une machineunimoléculaire fonctionnelle.

Ce nouveau champ scientifique et technologique est appelé « technologie à l’échelleatomique » ou « picotechnologie ». Il fait l’objet d’une attention particulière de la part de laCommission Européenne en préparation du 7ème programme cadre sous l’appellation« atomistic » ou « atomic scale technology » [4]. Les réflexions ont surtout porté:

MSTP-mai 2005 34

Page 35: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 35/92

 

(a) sur les atomes et molécules froides quand le milieu est le vide et (b) sur la science dessurfaces quand le milieu de travail de la molécule est la surface d’un solide. Il est encoredifficile d’imaginer une picotechnologie dans un liquide ou à l’intérieur d’une cellulevivante. Mais ce champ particulier demande certainement une plus grande attention de par ses implications médicales. 

Pour (a), l’objectif est de rendre fonctionnel quelques atomes ou une seule molécule froidedans un piège optique ou électrostatique tridimensionnel pour réaliser par exemple uncalculateur quantique. Bien sur, l’objectif à long terme est la miniaturisation totale du piègeen mariant la micro/nanofabrication et la maîtrise des sources atomique et moléculaire [5]afin par exemple de contrôler en 3D le mouvement d’un atome ou d’une molécule [6].

Pour (b), l’objectif technologique est d’apprendre à interconnecter le plus proprement possible une seule molécule-calculateur déposée à la surface d’un cristal. Ici, la demandetechnologique est la réalisation de fils diélectriques ou métalliques à l’échelle atomique.Chaque atome du fil doit être à sa place sur la surface du cristal. Cette surface doit égalementêtre maîtrisée à l’échelle atomique. Pour une connexion électronique, la précision de

 positionnement entre un groupement chimique dédié au contact et l’extrémité du fil doit êtremeilleure que 0.05 nm [7]. 

Les salles blanches de la micro/nanoélectronique ne répondent pas au cahier des chargesde cette précision atomique aussi bien pour le cas (a) que pour le cas (b). Il ne s’agit plus defabriquer un ensemble de composants intégrés à la surface d’un solide. Il s’agit maintenantde fabriquer des instruments de mesure les plus petits possibles à mettre au plus près descomportements semi-classique, semi-quantique ou quantique de la molécule-machine dansson fonctionnement. Par exemple, une jonction tunnel n’est plus considérée comme faisant

 partie du composant. Elle devient un instrument de mesure convertissant les phénomènesquantiques que sont les transferts d’électrons intramoléculaires en un courant mesurable par 

un ampèremètre [8].Il faut donc créer ce que nous avons appelé dès la fin des années 90 des micro-salles

 blanches où toutes les techniques d’assemblage, de fabrication, de nanolithographie et de prise de contact sont compatibles avec l’ultravide [9], donc toutes intégrées dans une mêmeenceinte ultravide. La nanolithographie et la lithographie atomique n’utiliseront donc plus derésine [10]. Dans le cas des molécules-machines de surface, la microscopie à effet tunnel (ouà force atomique) est intégrée en permanence dans cette enceinte.

 Les différents éléments de la micro salle blanche et leur implantation dans la tête le l’AFM/STM 

MSTP-mai 2005 35

Page 36: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 36/92

 

Le développement de ce nouveau type de centrale de technologie doit s’accompagner également d’un travail fort dans la mise au point de nouvelles méthodes de conditionnement(le toujours délicat « packaging ») et d’une exploration de nouvelles techniques de

 production. 

Pour le nanoconditionnement, il convient d’abord de rechercher les meilleurs groupementsfonctionnels pour stabiliser la molécule-machine sur une surface et protéger sa fonctionembarquée des interactions avec la surface. Il convient ensuite de renforcer les études du

 phénomène de nanomouillage afin de comprendre comment une solution faite de moléculesde faible poids peut constituer à terme et après dépôt, une coque protectrice de la molécule-machine et de ses interconnections. Notons que ces études de conditionnement s’adressent

 principalement aux molécules-machines de surface et non aux molécules-machines à utiliser dans les pièges à vide. Le développement de pièges atomiques (les fameux « atom chip »)ultra miniaturisés posera également à terme de nouveaux problèmes de conditionnement. 

Pour la production, en plus des techniques standards de fabrication de puces électroniquesde surface qu’il faudra pousser en micro-usine compatible ultra-vide, certains envisagent de

remettre au goût du jour les propositions du début des années 80 d’utiliser l’usine biochimique interne à chaque bactérie pour synthétiser après une re-programmationgénétique, les molécules-machines [11]. En regard du coût sur l’environnement de la

 production des circuits intégrés actuels [12], une percée scientifique et technologique dans cedomaine permettrait de faire entrer la production des molécule-machines dans le cerclevertueux du développement durable. 

Il est devenu clair qu’au niveau du laboratoire, nous parviendrons bientôt à concevoir unemolécule-calculateur ou une molécule-machine mécanique avec un nombre réduit d’atomes.Mais pour que ces exploits de laboratoire deviennent une technologie, il faudra une pressionextérieure forte. Pour la micro-électronique et les télécommunications, ce fut la guerre froide

[13]. Il se pourrait que pour les molécules-machines, ce soit la pression sociétale dudéveloppement durable qui impose à terme un changement de technologie. Il se trouved’ailleurs que les dimensions moléculaires d’une molécule-machine sont exactementadaptées à cette bio-production.

 Références : [1]: C. Joachim, Nanotechnology, 13, R1 (2002).

[2]: C. Joachim, J.K. Gimzewski et A. Aviram, Nature, 408, 541 (2000).[3]: Y. Benenson et coll., Nature, sous presse, doi :10.1038/nature02551 (2004).

[4]: voir http://www.phantomsnet.com/files/wgroups/WG-M2e-report1.pdf 

[5]: A. Cassettari et coll., Phys. Rev. Lett., 85, 5483 (2000).

[6]: P.W.H. Pinkse et coll., Nature,404, 365 (2000).

[7]: F. Moresco et coll., Phys. Rev. Lett., 91, 036601 (2003).

G.V. Nazin et coll., Science, 302, 77 (2003).

[8]: A. Lahmidi et C. Joachim, Chem. Phys. Lett., 381, 335 (2003).

[9]: T . Ondarcuhu et coll. Rev. Sci. Instr., 71, 2087 (2000).

MSTP-mai 2005 36

Page 37: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 37/92

 

[10]: J. Brugger et coll. App. Phys. Lett., 75, 1314 (1999).

M. Fujimori et coll. Nanotechnology, 15, S333 (2004).

[11]: K. Ulmer, Genex, WCME 1981

C. Mao et coll., Science, 303, 213 (2004)

[12]: R. Kuehr & E. Williams, «the computer and the environment » (Kluwer, 2003)

[13]: M. Riordan & L. Hoddeson, “Crystal fire” (W.W. Norton & Co, New York, 1997).

&&&

MSTP-mai 2005 37

Page 38: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 38/92

 

 

 Appendice B

MODÉLISATION des MATÉRIAUX et NANOSTRUCTURES :ENJEUX et PERSPECTIVES

François Jollet, Jean-Luc Leray, Gilles Zérah

Le thème des nanomatériaux, sans doute parce qu’il touche à la fois aux sciences de baseet à la technologie suscite un très large intérêt. Cependant, au-delà des visions unifiées qu’illaisse entrevoir, de nombreuses questions restent en suspens. Comment une telle démarche

s’inscrit-elle dans l’entreprise générale de modélisation des matériaux ? Que peut-on espérer concrètement ? 

1. Un constat 

Le thème des nanomatériaux a ceci de spécifique que les diagnostics, les méthodes decalcul et les tailles d’assemblages se rencontrent. C’est une des avancées majeures des années90. On le constate en particulier dans les domaines suivants : 

• Le comportement des nanomatériaux. L’étude du comportement mécanique desnanomatériaux devient possible grâce d’une part à l’obtention d’échantillonsnanocristallisés bien définis et d’autre part à l’émergence d’outils de modélisation

 permettant de faire le lien entre les échelles atomiques (méthodes quantiques oudynamique moléculaire), les défauts étendus (dislocations, joints de grain, impuretés :dynamique moléculaire, dynamique des dislocations…), et les modèles courants decomportement. 

• La conception des composants électroniques. La taille des transistors rejointmaintenant le domaine de la modélisation atomique, voire quantique. Le défi des

 prochaines années consiste à mettre en place les outils et méthodes permettantd’aboutir à l’utilisation d’informations à l’échelle atomique dans la conception descircuits électroniques. L’initiative ATOMCAD du 5ème PCRD va dans ce sens, ainsique la feuille de route des semi-conducteurs (modelling and simulation) 

• Les effets de surface. Dans les nanomatériaux, la surface des échantillons peut jouer un grand rôle, le nombre d’atomes de surface n’étant pas forcément très faibledevant le nombre d’atomes de volume. Sur le plan de la modélisation, on rejoint làaussi les possibilités des méthodes quantiques et atomiques. 

• Physique des états extrêmes (haute pression, haute température, grandevitesse de déformation). Les dispositifs de type cellules à enclume de diamant

 permettent maintenant l’étude des nanomatériaux sous haute pression. Les modèlesquantiques (calculs de structure électronique ab initio) sont bien adaptés au calculd’équations d’état ou de grandeurs thermodynamiques sous pression (constantesélastiques par exemple). D’une façon plus générale, les méthodes de simulation

deviennent capables de décrire les propriétés des nanomatériaux et de représenter lesexpériences qui seront conduites. 

MSTP-mai 2005 38

Page 39: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 39/92

 

• La conception et la prédiction des propriétés de matériaux nouveaux. Larecherche de nouveaux matériaux ou de matériaux aux propriétés améliorées faitappel de plus en plus à la modélisation. C’est le cas par exemple, des matériaux àforte constante diélectrique pour la micro-électronique. L’intérêt des nanomatériauxdans ce contexte vient du fait que le passage à la vérification expérimentale s’effectue

quasiment à la même échelle que la modélisation. 

2. Fournir les moyens de la modélisationLa modélisation impose d’une part de pouvoir accéder à de puissants moyens de calcul et

d’autre part de disposer de logiciels performants et adaptés à ces moyens. Nous ne discutons pas ici des moyens humains nécessaires, évidemment essentiels. 

La France a beaucoup progressé ces dernières années en moyens de calcul. De grandsorganismes de recherche (CEA, CNRS, Universités) ont maintenant accès à des machinestrès performantes : on pense en particulier au centre de calcul du CEA, à Bruyères le Châtel,ou à l’IDRIS. Ces organismes ont une politique de développement de leurs moyens de calculscientifique pour les années à venir et cet effort doit être encouragé. 

Pour ce qui concerne les logiciels, la situation est plus critique : alors que dans certains pays, des centres d’excellence sont apparus autour des logiciels (Stuttgart en Allemagne,Trieste en Italie, Cambridge en Grande-Bretagne, Vienne en Autriche), la communautéscientifique est restée très fragmentée en France. Pendant longtemps, il n’y a pas eu deformation des étudiants en DEA sur ce thème et il n’y a pas de logiciels qui font autorité. Leschercheurs ont la plupart du temps adopté une politique d’utilisateurs des codes existants,

 plutôt que d’investir dans le développement d’outils performants.

Dans le domaine des calculs de structure électronique, le premier regroupement d’une

communauté française au sein d’un réseau informel, qui devait s’appeler plus tard leSEMAT, a principalement servi à organiser des conférences annuelles et permis ainsi auxdifférentes équipes dispersées au travers du pays de se connaître. Cependant, les équipesfrançaises restaient principalement des utilisateurs. 

En 1995, le projet ABINIT fut conçu (en premier lieu par X. Gonze et D. Allan) afin defournir une plate-forme de développement largement distribuée (licence GNU) dans le cadred’une coopération internationale à laquelle se sont jointes rapidement des équipes de la DAM

 puis du CNRS. Avec une équipe de l’Ecole Polytechnique, qui a depuis rejoint le projetABINIT, se trouve concentrée la majeure partie de l’effort français en matière dedéveloppement dans le domaine des calculs de structure électronique. On a pu mettre ainsi à

la disposition des utilisateurs un code de structure électronique intégrant le développementdes méthodes les plus en pointe. Au sein de ce projet, les besoins de développements delogiciels ont été pris en compte peu à peu et des contacts ont été établis avec des numériciens,des informaticiens et des mathématiciens.... 

En janvier 2001, s’est tenue la dernière réunion du réseau SEMAT, qui avait en grande partie rempli son rôle, un nouveau réseau, sous la forme d’un GDR du CNRS fut alors créé,(le GDR DFT) avec dans l’esprit d’étendre l’initiative du SEMAT à la majeure partie de lacommunauté française impliquée dans les calculs de structure électronique, tant du coté deschimistes que des physiciens, avec un accent particulier sur le développement logiciel. 

Bien que très aiguë en France en raison de l’absence d’équipes de développement

importantes dans les années 1995, la question du mode de distribution des logiciels (opensource, avec source mais sous contrôle, binaire) traverse toute l’Europe, sinon le monde.

MSTP-mai 2005 39

Page 40: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 40/92

 

Deux ateliers du CECAM (en 2001 et 2002) ont été organisés spécifiquement autour deslogiciels distribués en open source ; un réseau informel a été formé (fsatom), principalementdestiné à promouvoir des normes et la création de composants logiciels. 

3. Les initiatives à l’échelle européenne

Le développement considérable de la puissance des ordinateurs depuis le milieu desannées 80 a conduit à un développement parallèle des logiciels scientifiques et des méthodesnumériques, à partir de concepts théoriques parfois anciens. Ainsi, dans le domaine descalculs de structure électronique, alors que la théorie de la DFT et celle de la méthode GWont été élaborées dès le début des années 60, c’est seulement au milieu des années 80 que deséquipes ont commencé à développer des codes de calcul, de façon artisanale et isolée.

Au milieu des années 90, des initiatives ont été prises, d’abord à un niveau européen, avecla mise en place du réseau Psi-k, dont la première réunion s’est tenue en août 96. En France,la volonté de se doter d’une infrastructure nationale logicielle dans le domaine de lamodélisation des matériaux remonte aux alentours de 1995. Certaines équipes souhaitaients’émanciper de leur dépendance vis-à-vis de logiciels distribués avec parcimonie, ce qui lesrendait pratiquement incapables d’apporter une contribution à cette science endéveloppement. 

Chaque centre européen dispose à nos yeux de points forts, dont il nous semble judicieuxde s’inspirer ; citons l’organisation de type grand instrument de Trieste (projetDEMOCRITOS), les qualités et les performances du code de Vienne VASP, et l’intégrationlogicielle du code Danois DACAPO. ABINIT fournit un modèle de développementcollaboratif et de coordination entre des équipes géographiquement très dispersées, etSIESTA donne le modèle d’un pont possible entre les approches physiques et chimiques(annexe 1).

Ainsi, alors que l’Europe se structure dans le domaine de la modélisation des matériaux, ilnous semble important que les forces mises en mouvement à l’échelle nationale puissenttrouver un lieu permettant leur croissance.

4. Les atouts à l’échelle nationale

Un ensemble d’éléments permettent de penser que la communauté française possèdeaujourd’hui de nombreux atouts. Le principal d’entre eux réside dans l’existence d’équipesde taille substantielle impliquées dans la modélisation numérique des matériaux. Laconstitution de ces équipes résulte en particulier d’un soutien constant de la part des

organismes de recherche et de la forte volonté des chercheurs, contrairement à la situationqui prévalait il y a 10 ans, dans laquelle les acteurs étaient beaucoup plus isolés. 

Ainsi depuis 1995, de nombreux liens se sont établis entre des organismes de recherchesfondamentales d’une part et finalisées et industrielles d’autre part ; par ailleurs descollaborations pluridisciplinaires se sont développées entre les physiciens, chimistes etnumériciens. Tout particulièrement, le fait que des numériciens et des informaticiens del’INRIA soient impliqués dans ce domaine, doit favoriser l’implication croissante de lacommunauté française d’analyse numérique (au sens large) et peut devenir un atout décisif.De la même façon, les contacts maintenant établis entre chimistes et physiciens qui ontlongtemps été modestes dans ce domaine, laissent présager de fructueux développements.

Les projets déjà engagés comme le projet MICMAC de l’INRIA (approches multi-échelles),le réseau ATOMCAD (semi-conducteurs) , les projets du CEA (comportement desmatériaux , vieillissement, dégâts d’irradiation) en sont quelques exemples. 

MSTP-mai 2005 40

Page 41: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 41/92

 

Enfin, la thématique nanomatériaux, de par son contenu technologique fort, ne laisse pasindifférents les laboratoires de recherche industriels, même si leur implication est encoremodeste, rien n’interdit d’espérer faire, dans ce domaine, mutatis mutandis, aussi bien que« Fluent » ou « Abaqus ». 

En tout état de cause les nombreuses compétences nécessaires tant en physique de base,qu’en mathématiques appliquées ou dans les domaines concernés de la technologie sont en

 place, et prêtes à s’investir dans des actions relativement coordonnées. 

On pense en particulier au CEA, au CERMICS et au Département de Chimie du CNRS. 

5. Une organisation à mettre en place

Rétrospectivement, on peut estimer que ce n’est pas tant le manque de talents ou devolonté qui a rendu difficile l’émergence d’une compétence nationale en calcul de structureélectronique, mais plutôt la grande dispersion des équipes et l’absence d’un lieu permettantl’échange des méthodes et la fermentation des idées.

Inversement, l’effet d’une grande installation sur l’évolution d’une discipline et de sonenvironnement scientifique est bien connu et peut être le facteur décisif dans l’émergence denouvelles approches. 

Ainsi, les grands équipements du type de l’ESRF peuvent-ils servir de modèles pour construire un projet d’organisation. Au centre d’une telle installation, l’infrastructureconstituée de matériel et de logiciels adaptés, entretenus et développés par des équipes desupport spécialisées alimente des “ lignes d’expérience ” dédiées à l’exploration d’unethématique précise. Ces lignes sont constituées de petites équipes menant un programme derecherche propre, et ayant une fonction d’accueil (formation, conférences, aide à l’utilisationdes logiciels). Cette activité de recherche propre conduit nécessairement à des

développements originaux sur les logiciels, qui utilisent et alimentent les éléments logicielsentretenus et développés par l’équipe support. 

Les principales fonctions proposées s’inspirent fortement de ce qui est réalisé dans unGrand Instrument comme l’ESRF et aussi par le programme « Democritos ». Un grandinstrument dispose d’ équipes spécialisées chargées de fournir les meilleurs produits(détecteurs, logiciels de diagnostic..) aux « équipes de lignes » dédiées à la conception et à laréalisation des montages expérimentaux (montage de l’expérience et logiciels de diagnosticassociés). Ces équipes, outre leur activité propre, ont une fonction d’accueil des utilisateursde ce dispositif expérimental particulier auprès du grand instrument.

On pourrait transposer ceci au domaine de la simulation des matériaux de la façonsuivante (cf. annexe 2) : 

• Les « produits » sont les logiciels « de base » de modélisation des matériaux. Uneéquipe « logiciels » est donc chargée d’une bibliothèque aussi cohérente que possible,de logiciels de simulation des matériaux et d’outils de diagnostic. Elle est en

 particulier responsable de l’optimisation (informatique et algorithmique) deslogiciels, de leur adaptation aux nouvelles architectures de machines. Enfin, elle a

 pour charge de rendre possible les communications entre les logiciels, soit via desfichiers, soit par partage de zones mémoire. 

• Les « expériences » sont réalisées par des équipes travaillant autour d’une

thématique. Le montage d’une expérience consiste à assembler des logiciels,éventuellement modifiés (en particulier pour élargir leur champ de possibilités) dansl’idée d’étudier systématiquement une propriété physique particulière. Idéalement,

MSTP-mai 2005 41

Page 42: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 42/92

 

ces logiciels sont assemblés au sein d’une plate-forme permettant une exploitationfacile. 

• Une fois que les dispositifs expérimentaux sont mis au point, ils sont ouverts àd’autres utilisateurs suivant des modalités à préciser. 

• De façon générale, il faut prévoir la diffusion auprès des utilisateurs des logicielset des dispositifs expérimentaux mis au point et le soutien pratique dans l’utilisation performante de ces logiciels 

On se propose de construire progressivement par effet cumulatif une bibliothèque delogiciels au meilleur niveau mondial. Il nous semble raisonnable, à partir de notre expériencedu fonctionnement de la communauté scientifique, que tout le monde jouera le jeu dans lamesure où il aura intérêt à se conformer à des standards lui permettant de s’intégrer etd’utiliser la plate-forme logicielle ainsi définie. 

Ainsi, plutôt qu’un laboratoire sans murs, nous proposons la création de “ murs sanslaboratoires”, c’est à dire un lieu disposant d’ une structure relativement légère –capable en

 particulier d’assurer la continuité du fonctionnement- et un nombre significatif de personnesvenant d’autres laboratoires, mises à disposition, ainsi que des stagiaires doctoraux ou postdoctoraux. 

Conclusion

Le domaine des nanomatériaux ne constitue qu’un des domaines pour lequel un effortconcerté en matière de modélisation et d’infrastructure logicielle est possible, mais il nous

 paraît particulièrement bien adapté, compte tenu des enjeux technologiques impliqués.

 Remerciements

Les auteurs remercient tout particulièrement Jean-Louis Barrat de ENS-Lyon et del’Université Claude Bernard (Lyon I), pour les fructueuses discussions.

&&&

MSTP-mai 2005 42

Page 43: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 43/92

 

Signification des acronymes

ABINIT

ABINIT is a package whose main program allows one to find the total energy, charge density and

electronic structure of systems made of electrons and nuclei (molecules and periodic solids) withinDensity Functional Theory (DFT), using pseudopotentials and a planewave basis. 

http://www.abinit.org/ 

ATOMCAD

 Network Title : Linking Micro and NanoTechnology CAD Tools to conventional packages. ShortTitle : ATOMCAD. EU 5th Framework Project 2000-2004. 

The objective of the project is to set up a network of competences in Europe to introduce the useof atomic scale modelling and simulation techniques in the microelectronic industry and the

nanosystem technology, at an equivalent level as in the USA. This objective will be attained byassembling the efforts of European teams and by linking available new generation of tools andintegrating them within the existing conventional packages (for example OXCAD, MesoscopicMonte Carlo simulation code of dry and wet oxidation of silicon based on data coming from Ab Initiolevel).

http://www.laas.fr/ATOMCAD/ 

GDR DFT

Fonctionnelle de la densité: de la molécule aux matériaux et systèmes complexes. 

Le but de ce GDR, commun aux départements SPM et SC du CNRS, est de mettre en réseau etdévelopper une synergie forte entre les chercheurs engagés dans l’étude de la structure électroniquedes systèmes allant de quelques atomes à plusieurs milliers d’atomes. C’est une démarche réunissant physiciens et chimistes : l’approche dite de la " fonctionnelle de la densité ", proposée initialement etlargement utilisée par les physiciens, s’est également imposée comme outil de modélisation enchimie, et sera la colonne vertébrale de ce groupement. Des avancées méthodologiques etalgorithmiques sont attendues. Un effort particulier sera fait pour appliquer ces méthodes à des problèmes d’intérêt fondamental et technologique. Enfin, les possibilités qu’offre Internet pour ladissémination de l’information et de l’interactivité entre membres du GDR seront largement mises àcontribution pour assurer cette mise en réseau. 

http://semat-dft.univ-rennes1.fr/gdr-dft.htm 

MICMAC Méthode et Ingénierie du Calcul Multi-échelle de l’Atome au Continu 

SEMAT Structure Électronique dans les Matériaux

SIESTA

SIESTA (Spanish Initiative for Electronic Simulations with Thousands of Atoms) is both amethod and its computer program implementation, to perform electronic structure calculations and ab

initio molecular dynamics simulations of molecules and solids. It uses the standard Kohn-Shamselfconsistent density functional method in the local density (LDA-LSD) or generalized gradient(GGA) approximations. It may be compiled for serial or parallel execution (under MPI).

http://www.uam.es/departamentos/ciencias/fismateriac/siesta/manual-1.3/siesta.html

MSTP-mai 2005 43

Page 44: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 44/92

 

Annexe 1 

Les grands centres européens de développement logiciel La plupart des centres sont organisés autour de "grands"logiciel relevant, dans la pratique,

d’un fonctionnement analogue à celui des grands instruments. On en décrit ici un certain

nombre.

Cambridge (Siesta)

Le logiciel SIESTA (Spanish Initiative for Simulations with Thousands of Atoms) est tout a faitremarquable dans la mesure où c’est le seul logiciel issu des recherches sur les méthodes d’ordre N.Ceci tient à plusieurs choix très judicieux, en particulier un effort remarquable sur l’utilisation de bases localisées, une implémentation performante des méthodes standard et une politique de qualitéconstante. La politique de distribution du code n’est cependant pas très claire.

Louvain (Abinit)

Le logiciel Abinit a pour caractéristique un développement collaboratif international, qui lui permet d’intégrer des éléments au meilleur niveau mondial, un environnement logiciel remarquable (tests de non régression, tutorial, portabilité,…) et une politique de distribution ouverte sous licenceGNU GPL. Le centre de Louvain coordonne le développement du code et sa mise à disposition sur son site web.

Trieste (PWSCF)

Le projet DEMOCRITOS est relativement proche de ce que nous souhaitons faire. Fortementlocalisé autour de la SISSA, il fédère un certain nombre de projets de recherche bien définis chacun

 pris en charge par une équipe particulière. L’ensemble est soutenu par une équipe spécialisée dans lelogiciel. C’est une structure à la fois souple et semble-t-il efficace qui jouera le rôle d’Infrastructure Nationale Italienne dans le domaine de la simulation.

Se proposant de fournir un support sous forme de formation pour chercheurs et formation professionnelle, ainsi que l’organisation de rencontres, il est organisé en projets de recherche(Modélisation à grande échelle, nanosciences, systèmes biologiques, physique-chimie à hautetempérature et/ou haute pression, surfaces et interfaces, matériaux piézo- et ferroélectriques, etc..) etune équipe chargée des techniques de l’information pour le calcul et la simulation moléculaire.

Vienne (VASP)

Le centre de Vienne est particulièrement organisé autour de deux logiciels de calcul de structureélectronique:

• VASP, un logiciel de structure électronique à base d’ondes planes, très utilisé etrelativement fermé

• WIEN2K, un logiciel de structure électronique basé sur la méthode FLAPW.Le logiciel VASP est une entreprise de longue haleine, sa première version date de 1989.La version "mure", à laquelle le logiciel doit son succès date de 1999 et sert de référenceen matière de performance.

Le logiciel a été développé par deux permanents entourés aujourd’hui de 6 post-doctorants

et 6 doctorants.

MSTP-mai 2005 44

Page 45: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 45/92

 

Camp (DACAPO)Le Center for Atomic-scale Materials Physics créé par la Fondation Nationale de laRecherche Danoise abrite à la fois des activités de simulation et des activitésexpérimentales sur les sites de Lingby et Aarhus. Les travaux de modélisation sontorganisés autour du logiciel DACAPO, qui inclut à la fois des calculs de structureélectronique et de dynamique moléculaire classique. Un point fort de ce logiciel est lecouplage et le pilotage via un langage de script : Python. Ce logiciel est distribué en opensource.

Annexe 2

Equipe(s)<<logiciel>>

&&&

 

Dynamiquemoléculaire

par ex.systèmesbiologiques

i ues

Dépouillement

diagnostics

MonteCarlo

 Programme thématique : forte interaction avec équipe soutien ; développe de nouvellesfonctionnalités, réalise des expériences numériques pour l’étude systématique d’une

 propriété physique

Expérience Expérience

Formations Diffusion

web 

Utilisateur : utilise les expériences, bénéficie desdéveloppements, suggère évolutions, initie programmesthématiques

&&&

MSTP-mai 2005 45

Page 46: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 46/92

 

 

 Appendice C 

MÉTHODES de CARACTÉRISATION enNANOSCIENCES

 Alain Menand 

Le développement des nanosciences est générateur d’applications technologiques , en retour 

elles dépendent de l’avancée de ces technologies elles-mêmes. Parmi de nombreux exemples,citons la manipulation de molécules ou d’atomes individuels et leur visualisation par microscopie en champ proche ou encore l’usinage de nanodispositifs et leur visualisation par faisceaux d’ions focalisés. Ces deux exemples illustrent bien la nécessaire capacitéd’observation, au sens le plus large du terme, jusqu’à l’échelle atomique que suppose ledéveloppement des nanosciences. Ainsi les différents types de microscopies (optiques, enchamp proche, électroniques, ioniques, à effet de champ), l’amélioration constante de leur 

 pouvoir de résolution spatiale et de leurs capacités analytiques et spectroscopiques et la miseau point de méthodes de visualisation 3D, permettent désormais de couvrir tout le champd’investigation des nano-objets, depuis les multicouches nanométriques jusqu’à l’atomeindividuel. Une caractéristique commune à toutes ces techniques, plus ou moins récentes, est

la formidable avancée de leurs performances dans la dernière décennie. A titre d’exemple lamicroscopie électronique ou encore la sonde atomique, ont assez modestement progressé en

 performances jusqu’aux années 90, alors que leurs développements récents sontqualitativement spectaculaires.

De nombreux ouvrages ou articles de revue présentent de façon exhaustive ces différentstypes d’investigation, nous nous contenterons ici de décrire succinctement leurs principalescaractéristiques et leurs domaines d’utilisation en nanosciences.

1. Les microscopies électroniques

 La microsonde électronique

Dans la microsonde électronique ou sonde de Castaing, du nom de son inventeur, un faisceaud’électrons balaye la surface d’un échantillon massif, les électrons rétrodiffusés, ou la mesuredu courant d’échantillon, permettent d’obtenir une cartographie chimique qualitative àl’échelle du micron. Les rayons X de désexcitation des atomes de l’échantillon forment desraies (en longueur d’onde ou en énergie) caractéristiques des éléments chimiques présentsdans l’échantillon. L’analyse des spectres obtenus permet une détermination quantitative desconcentrations des différents éléments chimiques avec une précision relative de l’ordre du

 pour-cent et une limite de détection de 100 ppm. La résolution est à l’échelle dumicromètrecube (µ m3).

MSTP-mai 2005 46

Page 47: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 47/92

 

La microscopie électronique à balayage (MEB)

C’est la technique d’observation « tout terrain ». Un faisceau d’électrons explore point par  point l’échantillon, les électrons et autres rayonnements émis sont recueillis par desdétecteurs spécifiques. Sa principale caractéristique est de pouvoir observer tous les objets,sans préparation délicate et avec une profondeur de champ excellente quel que soit legrandissement choisi. Longtemps limité à une résolution juste submicrométrique, le MEBatteint actuellement des résolutions nanométriques (inférieures à 10 nm) grâce à l’utilisationde canons à effet de champ comme sources de faisceau d’électrons. La détection desélectrons rétrodiffusés donne un contraste analytique qualitatif selon le numéro atomique deséléments avec toutefois une moindre résolution. Comme dans la microsonde électronique, ladétection des rayons X émis (détecteur EDX) permet une analyse quantitative mais larésolution n’est alors qu’à peine inférieure au µm3.

 La microscopie électronique en transmission (MET)

Les microscopies utilisant une lentille objectif sont limitées en résolution par la longueur 

d’onde utilisée ; selon le critère de Rayleigh, on ne peut pas voir un objet avec une résolutioninférieure à la demi-longueur d’onde utilisée. Ainsi en microscopie optique conventionnellela résolution est limitée au micron ; l’utilisation des ondes évanescentes en microscopie enchamp proche permet toutefois de dépasser largement cette limite. Lorsque l’on éclaire unobjet par des électrons accélérés sous 200 kV, la longueur d’onde de l’onde associée auxélectrons est de 2 picomètres, soit 100 fois moins que la distance entre les atomes.Malheureusement les aberrations des lentilles électroniques limitent la résolution à quelquesdixièmes de nanomètre. La mise au point récente de lentilles à très faible coefficientd’aberration de sphéricité, permet aujourd’hui d’obtenir des résolutions égales ou inférieuresà 0,1 nm, pour des objets périodiques, par exemple les plans atomiques d’un cristal, etinférieure à 0,2 nm en résolution ponctuelle.

L’échantillon, pour être observable en MET, doit être transparent aux électrons ; il est pour cela préparé sous la forme d’une lame mince de quelques dizaines de nanomètresd’épaisseur. Diverses méthodes d’amincissement électrolytique, ionique ou d’abrasionmécanique sont classiquement employées. L’utilisation récente d’appareils produisant etcontrôlant un faisceau d’ions focalisé, les FIB (Focussed Ion Beam), permet d’usiner unelame mince à l’endroit choisi à 5 nm près.Une fois résolue la préparation d’une lame mince de bonne qualité et contenant les objetsdignes d’intérêt, le MET est l’instrument à tout faire. L’obtention de l’image, et dudiagramme de diffraction correspondant, permet de caractériser les différentes phasescristallines en présence, de connaître finement l’accord ou le désaccord paramétrique deszones épitaxiées, d’identifier les zones amorphes. L’utilisation de faisceaux convergents

 permet de révéler les contraintes ; en mode balayage et avec des détecteurs de rayons X(EDX) une cartographie chimique peut être obtenue avec une résolution latérale inférieure aunanomètre. Les MET munis d’un moyen de détection des électrons transmis permettant uneanalyse en pertes d’énergie (EELS) et dont le faisceau d’électrons est lui-même filtré enénergie (monochromatisé) fournissent également une cartographie chimique y compris pour les éléments légers ; de plus une analyse fine auprès des seuils d’absorption d’un élémentchimique (EXELFS) donne accès à la caractérisation chimique de l’environnement de cetélément et de ses états de liaison chimique. En fait un instrument optimisé pour l’imagerie,en très haute résolution, ne permet pas d’obtenir les meilleures performances analytiques. LeSTEM (Scanning Transmission Electron Microscope) ou STEM “dédié” (Dedicated STEM)

est l’outil analytique ultime pour la microscopie électronique en transmission.

MSTP-mai 2005 47

Page 48: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 48/92

 

Le STEM 

Le STEM est un microscope électronique en transmission conçu pour obtenir les meilleures performances en imagerie analytique. Le faisceau incident d’électrons constitue une sondedont la taille est de 0,1 nm et dont l’énergie est résolue à 0,1 eV. Les électrons transmis etdiffusés sont recueillis sur un ensemble de détecteurs annulaires qui permettent à la foisl’obtention d’images “classiques” de microscopie et l’analyse en énergie des électronsdiffusés. Les pertes d’énergie de ces électrons sont caractéristiques des éléments chimiquesqui les ont diffusés, de leur environnement chimique et de leur état de liaison. Ce sont ainsides cartographies 2D de la répartition des éléments chimiques qui sont obtenues. La

 possibilité d’orienter la lame mince échantillon doit permettre à partir des cartographies 2D, prises selon différentes orientations de l’échantillon, d’obtenir une cartographie 3D avec unerésolution subnanométrique et une sensibilité permettant de détecter la présence d’un seulatome étranger. Un nouveau STEM de ce niveau de performances doit très prochainementéquiper le Laboratoire de Physique des Solides à Orsay.

2. Les microscopies ioniques

 Le SIMS ( Secondary Ion Mass Spectroscopy )Le SIMS encore appelé Sonde Ionique ou sonde de Slodzian, son inventeur avec RaymondCastaing, est une méthode destructive de microscopie dont les performances en font un outilindispensable en micro-électronique Un faisceau d’ions pulvérise l’échantillon sur une

 profondeur d’un nanomètre la fraction ionisée des atomes extraits forme au-dessus de lasurface une image matérielle, fugace, de la répartition des atomes dans l’échantillon. Cetteimage est transférée à travers une optique ionique qui permet de sélectionner les espèceschimiques par spectrométrie de masse. En fait l’érosion de l’échantillon se poursuit et

l’image est obtenue en continue, soit globalement de façon stigmatique, soit point par point par balayage du faisceau d’ions sur l’échantillon.

La résolution en profondeur est de l’ordre du nanomètre, c’est là l’avantage essentiel de cettetechnique par rapport à la microsonde électronique ; la résolution latérale dépend de la tailledu faisceau d’ions. De 100 nm il y a quelques années cette taille est de quelques dizaines denanomètres actuellement dans la nouvelle génération de nano-SIMS. La principale limitationdu SIMS est le faible rendement d’ionisation, (inférieur au pour-cent). Ceci devrait limiter à100nm3 la taille du plus petit volume analysé, permettant encore de recueillir une informationanalytique. En revanche, à condition que le volume analysé soit suffisamment important, undes avantages du SIMS est la très grande détectabilité des éléments à des concentrations qui

 peuvent être très inférieures au ppm.

 Le FIB ( Focused Ion Beam )

Une nouvelle génération d’appareils à faisceaux d’ions est apparue récemment, le FIB dontle faisceau d’ions, intense et très focalisé, permet à la fois la visualisation et le nano-usinagede l’échantillon. L’image est obtenue à partir des électrons secondaires émis lors du

 bombardement ionique où dans un MEB à effet de champ lorsque le FIB est un accessoire dece microscope. L’endroit à usiner est positionné à 5 nm près, le faisceau d’ions est focalisésur quelques nanomètres et permet des gravures contrôlées ou des découpes d’échantillons

 par exemple des lames minces pour la microscopie électronique positionnées dans lesendroits ciblés. Il permet également de couper des pistes après dépôt et de réparer desmasques.

MSTP-mai 2005 48

Page 49: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 49/92

 

 

 La microscopie ionique à effet de champ et la sonde atomique tomographique 

Inventée vers la fin des années 50 la microscopie ionique à champ ou FIM (Field Ion

Microscopy) a été la première microscopie permettant de visualiser les atomes. L’échantillonest préparé sous la forme d’une pointe très fine de quelques centaines de nanomètres derayon. Portée à quelques kilovolts cette pointe crée un champ électrique à sa surface dequelques dizaines de volts par nanomètre. Ce champ permet d’ioniser les atomes d’un gaz(hélium ou néon) qui vont donner sur un écran une image de la surface de l’échantillon. C’estune microscopie à projection dont le grandissement (≈107) est le rapport de la distance

 pointe-écran sur le rayon de courbure de la pointe. La résolution atomique est atteinte endehors des plans denses. Cette microscopie permet également de repérer des zones decomposition chimique différente dans un alliage avec une résolution égale ou inférieure aunanomètre. Le champ appliqué peut être suffisamment élevé pour provoquer l’ionisation desatomes de la pointe. Les ions sont identifiés par spectrométrie de masse à temps de vol.

L’ensemble microscope ionique plus spectromètre de masse à temps de vol constitue lasonde atomique ou AP (Atom Probe). Les dernières générations de sonde atomique utilisentdes détecteurs 2D permettant de localiser l’impact des ions, la précision de cette localisationcorrespond à une résolution d’une fraction de nanomètre sur l’échantillon. Des cartographies2D des espèces chimiques sont ainsi obtenues de façon continue lors de l’évaporation de la

 pointe ; la superposition de ces cartographies permet d’obtenir une image 3D à l’échelleatomique de la partie analysée. L’utilisation d’impulsions électriques limitait encorerécemment l’usage de la sonde atomique aux matériaux conducteurs. L’évaporation

 provoquée par des impulsions de laser femtoseconde permet maintenant d’étendre ledomaine d’utilisation aux semi-conducteurs. 

3. Les microscopies en champ procheLes microscopies en champ proche se sont développées de façon considérable depuisl’invention de la première d’entre elles, le Microscope à effet Tunnel STM (ScanningTunneling Microscope), en 1982 par Binnig et Röhrer. Une pointe métallique est amenée àquelques dixièmes de nanomètres de la surface à étudier à l’aide de céramiques piézo-électriques. Une différence de potentiel de quelques volts est appliquée entre la pointe et lasurface, un courant tunnel est alors généré et dépend de façon exponentielle de la distance

 pointe-surface. Grâce à deux céramiques piézo-électriques un déplacement de la pointe parallèlement à la surface est possible, « à courant constant » il permet de dessiner larugosité de la surface à une échelle subatomique. La structure atomique de la surface est

 parfaitement résolue. La mesure du courant à distance constante permet une spectroscopieélectronique locale STS (Scanning Tunneling Spectroscopy) avec une variante récente laspectroscopie résolue en spin (SP-STS).Depuis l’invention du STM de nombreuses autres techniques de champ proche ont étédéveloppées comme la microscopie à force atomique (AFM), la microscopie à forcemagnétique (MFM) la microscopie optique en champ proche (SNOM). Les microscopies enchamp proche permettent non seulement une visualisation de la surface à l’échelle atomiquemais aussi une manipulation d’atomes ou de molécules sur les surfaces, c’est donc unensemble de techniques particulièrement important en nanosciences. Certaines d’entre-ellessont avantageusement couplées à un nanodispositif de mesures mécaniques des matériauxnanodéposés ou nanostructurés : le nano-indenteur. Il mesure par une empreinte de sa pointe

les propriétés locales de la dureté.

Remarque : Pour en savoir plus voir le chapitre 6, écrit par Dimitri Roditchev, du rapport de l’Académie des Sciences

&&& 

MSTP-mai 2005 49

Page 50: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 50/92

 

 Appendice D

PASSAGE MICRO-NANO 

 Daniel Hauden

Les microsystèmes sont des objets « intelligents » qui sont issus des besoins deminiaturisation de systèmes volumineux, coûteux à fabriquer et à utiliser, pour les appliquer à de nouveaux usages  nécessitant une meilleure conformité fonctionnelle et une meilleure

 portabilité (systèmes dits « nomades »). Ils sont basés sur une approche de la

miniaturisation dite du « haut vers le bas » (top down). L’évolution principale des fonctionsau-delà de l’électronique est l’introduction de la micromécanique utilisant des partiesmobiles (ressort, poutres, rotors, etc.), de l’optique et de l’intelligence de logiciels enfouisdans les microsystèmes en utilisant les technologies de la microélectronique. Ces nouveauxoutils assurent de plus en plus un lien entre une nanotechnologie capable d’élaborer desobjets structurés à l’échelle du nanomètre et le monde macroscopique, celui où l’on vit. Lesnanotechnologies conduisent à créer des fonctions infiniment locales qui sont accessibles àl’usager par l’intermédiaire d’une chaîne continue nano-micro-méso-macrosystèmes assurantun ensemble cohérent et complémentaire de fonctions utiles. 

 Les microsystèmes réalisent le lien entre les nanotechnologies et le monde macroscopique L’exemple type est celui des laboratoires sur puce qui établit, dans le cas d’une « bio-

 puce », un lien entre des micro-puits de quelques dizaines de microns de coté, des brinsd’ADN de quelques nanomètres de diamètre et une instrumentation électronique detraitement des signaux de taille macroscopique. 

Toutes les études systèmes des nanosciences publiées à ce jour s’inscrivent dans la mêmedémarche de relier les constructions atomiques ou moléculaires (nanométriques) avecl’application finale par un ou des microsystèmes généralement distribués en barrette ou enmatrice pour effectuer soit des actions, soit des détections en parallèle.

Un exemple significatif est le concept "Millipede" (« mille pattes »), mis au point par la

société( IBM ), qui est constitué d’une matrice de micropointes pour la lecture/écriturethermomécanique de bits de mémoire avec une densité de 1,55 Gigabit par millimètre carré.Toutes les pointes sont réalisées par micro-usinage sur des micro-poutres vibrantes et ellessont multiplexées en X et en Y par un circuit intégré CMOS. La mémoire de stockage en

 polymère est actionnée en X et Y avec une précision nanométrique. Ce concept, qui laisseespérer à terme des densités de stockage mémoire 200 fois plus grandes qu’aujourd’hui, estune avancée essentielle pour les systèmes sur puce ou SOC (System On a Chip).

Ces derniers constituent le fondement des technologies futures pour l’ensemble desapplications en télécommunications en particulier mobiles et en diagnostic biologique etmédical porté par le malade ou la personne âgée sous surveillance médicale. 

MSTP-mai 2005 50

Page 51: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 51/92

 

 

Ainsi, en plus d’être des objets complexes innovants ayant des applications propres, lesmicro-nano constituent un pont incontournable entre les nanotechnologies et les applicationsmacroscopiques nouvelles intéressant l’homme et la société. 

 Des recommandations fortes doivent être faites sur la conception de composants micro-nano innovants assurant des fonctions « intermédiaires » intelligentes reliant nano et micro,

sur l’architecture de ces systèmes à plusieurs échelles et sur les effets de couplage fort entre

des phénomènes physiques et chimiques interagissant dans leur extrême proximité.

&&& 

MSTP-mai 2005 51

Page 52: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 52/92

 

Appendice E

FIABILITÉ et NANOTECHNOLOGIES

Yves Danto

1. Introduction

Alors que la fiabilité des composants, circuits intégrés ou assemblages, est clairement undes facteurs majeurs conditionnant la poursuite du développement de la microélectronique, la

 pénétration des marchés par les micro et nanotechnologies est non moins clairement liée à ladémonstration d’une fiabilité opérationnelle satisfaisante. L’ensemble des technologiesévolue très rapidement vers les dimensions nanométriques et une complexité accrue, ce quirend leur susceptibilité aux contraintes plus délicate que jamais à gérer en terme derobustesse et de fiabilité.

 Notre société est définitivement « électronique ». Elle ne peut plus tolérer les défaillancesdans la vie opérationnelle des systèmes. Il suffit, pour s’en convaincre, de considérer le poidsde l « électronique » sur la sécurité des transports, qu’ils soient aériens, terrestres, collectifsou privés.

Dans le même temps, les niveaux de fiabilité exigés maintenant dans la plupart des

applications sont extrêmement élevés (figure1). A titre d’exemple, l’industrie automobilefocalise sur des taux de défaillance de moins de 10 FIT (1 FIT correspond à une défaillancesur 109.heures). Dans beaucoup d’autres applications, c’est pratiquement le zéro défaut quiest demandé sur une durée de vie déterminée.

10 

100 

1000 

10000 

1972  1976  1980 1984 1988 1992 1996 2000 2004

Taux de défaillancesen opération (FIT)

années  

Figure 1. Diminution du taux de défaillances en opération; estimation pour les circuits intégrés durant les trente

dernières années (source : les conférences ESREF de 1982 à 2004). L’élément clef qu’il faut prendre en compte dès le début du développement des

nanotechnologies est que ces dernières devront être utilisées en conjonction avec lestechnologies plus matures de la microélectronique et dans un marché dont l’exigence de

fiabilité restera bien entendu « calée » sur les standards actuels. Il y a donc très peu de margeentre mise au point technologique et la démonstration de la haute fiabilité des

MSTP-mai 2005 52

Page 53: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 53/92

 

nanocomposants, sous peine de rester à terme dans le domaine des « curiositéstechnologiques » 

L’étude de la fiabilité des micro et nanocomposants, élément clé pour valider la progression des performances, doit donc être prise en compte, à la fois en amont, lors duchoix et du développement des procédés nouveaux et en aval, dans la phase industrielle de« qualification » des composants. 

Cette situation nécessite un renouvellement complet des méthodes de construction et dedémonstration de la fiabilité. Les bases de la haute fiabilité se situent au niveau de laconception, des choix technologiques, de la maîtrise des procédés et de la modélisation

 physique des mécanismes de défaillances ; un des objectifs étant de garantir des distributionsde défaillances aussi resserrées que possible en fin de vie, comme celle illustrée sur lafigure2 : pas ou très peu de défaillances précoces et un taux pratiquement nul en vieopérationnelle.

1  F 

Figure 2. Allure « souhaitée » des fonctions de distribution des défaillances. 

« Très haute fiabilité » ne signifie donc pas obligatoirement très longue durée de vie mais plutôt, sur une population de composants, une distribution des durées de vie très resserréeautour d’une valeur « de fin de vie » spécifiée. 

Le fondement incontournable d’une approche « active » de la fiabilité passe par l’analyseapprofondie et la modélisation des mécanismes de dégradation des composants soumis enfonctionnement à des contraintes, internes, ou /et externes c’est à dire environnementales. Il ya là un effort de recherche important à fournir car les interactions composant - contraintessont toujours complexes. Plusieurs étapes sont à considérer suivant le degré de maturité destechnologies, chacune devant être construite pour parvenir à ce qu’on appelle la fiabilitéopérationnelle, c’est-à-dire dans des conditions de production industrielle et d’utilisationspécifiées. On conçoit que le chemin peut être long, notamment pour certains

nanocomposants dont les procédés de fabrication et les limites fonctionnelles sont loin d’êtredéterminés. On peut résumer les marches à franchir selon les phases suivantes : 

• L’analyse comportementale sous contrainte, comportant l’identification et lalocalisation des zones critiques, l’analyse des contraintes physiques, chimiques ouélectriques actives, et l’étude de l’interaction contrainte- composant. L’impact deséléments de cette phase préliminaire mais importante relève des choixtechnologiques, de l’évaluation des risques, des limites fonctionnelles, et bienentendu de l’élaboration des premières règles de conception. 

• La modélisation des dégradations avec la détermination des lois d ’évolution desindicateurs précoces et l’analyse des mécanismes de défaillance. Cette étape, plusapprofondie, a un impact sur la mise au point des procédés technologiques, ainsique sur la conception et la durée des tests de vieillissement accélérés, destinés à« démontrer » la fiabilité du composant. 

MSTP-mai 2005 53

Page 54: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 54/92

 

• L’évaluation et la prédiction des taux de défaillance et des durées de vie, étape qui présuppose une certain degré de maturité des technologies. 

Comment construire et prévoir un tel comportement ? La tâche est particulièrement arduecar il s’agit de maîtriser tous les facteurs qui peuvent générer les défaillances et un« étalement » de leur distribution dans le temps. Il y a là un effort de recherche important àfournir car les interactions composants-contraintes sont toujours complexes. 

2. Nanotechnologies et fiabilité

Le principe de l’intégration « amont » de la fiabilité dans les phases de conception et defabrication étant posé comme indispensable, on peut distinguer deux types de situation pour clarifier la problématique des nanotechnologies : 

• Dans les domaines de la « nano-électronique », issus des technologiesmicroélectroniques, l’approche, du type « top-down », correspond plus ou moins àune extension des procédés vers les dimensions nanométriques. Ces technologies

voient fortement augmenter leur criticité, c’est-à-dire leur sensibilité vis-à-vis defaibles variations de paramètres technologiques, et faire face à des fluctuationsdirectement issues du rapprochement des dimensions des composants élémentairesvers les échelles moléculaires ou atomiques. Ainsi les technologies « MOS ultime »,

 par exemple, sont confrontées aux problèmes de distribution spatiale de dopants, derugosité de bord de grille, etc. qui induisent autant de dispersions de paramètresélectriques tels que les tensions de seuil des transistors. A ces effets s’ajoutel’amplification, de mécanismes de dégradation par vieillissement, tels que lesdégradations des oxydes de grille par injection d’électrons chauds, qui deviennentlimitatifs des durées de vie. L’introduction de nouvelles étapes de procédé,notamment en lithographie, et de nouveaux matériaux (isolants de grille,(« high K »

 par exemple), interconnexions..) nécessite une fiabilisation, mais cette dernières’effectue dans une large mesure en continuité avec les acquis scientifiques ettechniques antérieurs et peut aboutir rapidement à des résultats satisfaisant lesexigences actuelles de fiabilité pour une intégration des dispositifs dansl’environnement technologique industriel. 

• Dans le cas des nanotechnologies issues directement de la science des matériaux etde l’exploitation de leur propriétés spécifiques (« bottom-up »), la fiabilité doit êtreimpérativement abordée dès les phases préliminaires de mise au point. Le caractèrenouveau de matériaux tels que les nano tubes de carbone par exemple implique des

 procédés également nouveaux dont beaucoup ne sont pas stabilisés. Intégrer la

fiabilité potentielle au travers d’un choix de procédé tolérant aux défauts constitueune des première action à mener dans une démarche de recherche et développement.Sachant que ces procédés sont, ou seront, contrôlés sur des modes collectifs oumacroscopiques (et non au niveau des composants élémentaires), il s’agit bien dechoix technologiques effectués dans une optique fiabilité ; c’est-à-dire prenant encompte les aspects de stabilité chimique, d’auto-guérison au défauts, d’insensibilitéaux éléments non fonctionnels, et d’auto-organisation. Le but est de compenser ladispersion a priori considérable des éléments actifs et la faiblesse intrinsèque desrendements de fabrication pris dans le sens habituel, c’est-à-dire au niveau ducomposant individuel. 

Alors que pour les nanocomposants « top-down », on dispose, d’une façon générale, d’une base de connaissance des principaux mécanismes de dégradation, il n’en est pas de même pour les toutes nouvelles technologies « bottom-up » ou l’utilisation de nouveaux matériaux,

MSTP-mai 2005 54

Page 55: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 55/92

 

de nouveaux procédés et l’exploitation de propriétés jusque là non utilisées va conduireinévitablement à de nouveaux comportements. 

Tout d’abord, il y a des facteurs positifs qui vont dans le sens d’une robustesse accrue desnanotechnologies : elles sont peu sensibles aux chocs, et présentent plus généralement une

 bonne résistance mécanique et thermomécanique, du fait de leur dimensionnel extrêmementfavorable. On peut penser aussi que les contraintes thermiques internes seront faibles étantdonné la très faible dissipation qui caractérise les nanocomposants.

Mais il y a également des facteurs qui renforcent la criticité intrinsèque desnanocomposants. Comme aux débuts de la microélectronique, la taille des structuresélémentaires actives et celles des défauts est comparable. Du fait de l’importance dessurfaces, la sensibilité aux agressions risque d’être globalement accrue. On peut également

 prévoir une susceptibilité aux surcharges électriques, de type décharges électrostatiquesd’autant plus importante que les signaux électriques internes sont faibles. La présence de plusen plus fréquente de matériaux organiques dans les procédés des nanotechnologies va sansdoute poser la question de leur stabilité chimique et de son impact sur la fiabilité à très long

terme. Enfin il faut signaler la question de la connectivité vers le monde macroscopique, pour lequel l’énorme « gap » dimensionnel ne manquera pas de poser le problème de safiabilisation.

Figure 3 : transistor MOS à nanotube de carbone (source IBM)

3. Modèles physiques du vieillissement

Le vieillissement des nanocomposants résulte d’un ensemble de processus physico-

chimiques qui se manifestent par des dérives de caractéristiques (fonctionnelles ou non). Cesdégradations inévitables sont propres au composant en tant que réalisation technique, maisaussi dépendent fortement de son utilisation et de l’environnement, et ce dans leur nature etleur cinétique. A terme, cet endommagement, progressif ou plus brutal, conduit à une pertetotale de la fonctionnalité du système et donc à la défaillance. 

L’identification des mécanismes de dégradation et de défaillance, et la détermination deslois physiques qui les gouvernent est donc indispensable pour concevoir et développer desdispositifs nanotechnologiques ayant, par les choix technologiques qu’ils impliquent, lemeilleur potentiel de fiabilité. Mais la détermination de modèles physiques de vieillissementest également la seule voie pour évaluer de façon réaliste la durée de vie des dispositifs.

Dans les systèmes nano-électroniques, identifier ces zones critiques, et modéliser lacinétique d’évolution des dégradations potentielles, nécessitent le recours aux outils desimulation numérique : en particulier, la simulation physique (par éléments finis). Ce type

MSTP-mai 2005 55

Page 56: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 56/92

 

d’outil devient indispensable pour prévoir les effets de contraintes variées sur des structuresdevenues complexes, tant au point de vue de leur configuration géométrique que de la variétédes matériaux associés. Dans la plupart des cas, c’est une modélisation mixte, analytique – simulation par éléments finis, qui permettra de « descendre » dans la structure fine ducomposant, de prendre en compte les effets locaux (par exemple les claquages ou l’initiation

de fissures), les zones interfaciales des structures, les ruptures technologiques(interconnexions, packaging…), et ainsi de représenter de façon réaliste l’aspect « micro etnanosystème » que comporte tout composant et, a fortiori, les nanomodules assemblés. Ceteffort de modélisation devra s’appuyer sur les techniques de caractérisation et d’analyse

 physique les plus avancées, pour maintenir la base expérimentale indispensable.

C’est donc au prix de modèles microscopiques élaborés du vieillissement, et de lasimulation de structures représentatives du composant ou système, que l’on peut obtenir une

 prévision plus réaliste des instants de défaillance. Dans un avenir plus éloigné, l’introductionde distributions de paramètres au lieu de valeurs fixes, pour tenir compte de l’impact desdispersions technologiques, pourra permettre d’obtenir les distributions des instants de

défaillance, plutôt que les classiques durées de vie moyennes. 

4. Tests de vieillissement accéléré.

Que ce soit pour paramétrer des lois semi-empiriques quantifiant des facteursd’accélération globaux, ou pour valider expérimentalement des procédures de simulation dela fiabilité, les tests accélérés sont toujours une base incontournable de la démarche dedémonstration de la fiabilité et de prédiction de durée de vie. Ces tests trouvent toutefois leur limites pour les technologies les plus avancées, et ce pour plusieurs raisons : 

• Devant répondre à une « banalisation » naturelle des milieux de fonctionnementconsidérés traditionnellement comme défavorables (électronique embarquée,automobile notamment…), les circuits intégrés ont atteint des durées de vie trèsgrandes, même en conditions sévères. De plus, il devient de plus en plus difficiled’accélérer sur plusieurs ordres de grandeur les vieillissements par des essais souscontraintes renforcées. Au contraire, dans le cas des micro-assemblages et desmicro systèmes, les facteurs d’accélération possibles sont faibles et rarementsupérieurs à quelques dizaines à cause des limitations imposées par les matériauxou les interfaces les plus fragiles. 

• Les exigences économiques imposent une très grande réactivité de la part desfondeurs et des industriels du semi-conducteur ce qui n’est pas forcémentcompatible avec le compromis entre le nombre de pièces sous test et la durée du

test.Dans tous les cas, le nombre effectif de défaillances observées sera très faible, et les

informations expérimentales sur les processus de vieillissement assez pauvres. L’utilisationde techniques d’optimisation de données statistiques, par tirages aléatoires autour d’une loigénérique expérimentale par exemple, devrait se systématiser. 

Plusieurs voies peuvent cependant être poursuivies pour une bonne estimation de lafiabilité à partir d’essais accélérés. : 

• La conception de structures spécifiques, particulièrement sensibles à unecontrainte ciblée, et représentatives de la technologie d’un ensemble de

composants, permet, par double extrapolation de ramener le vieillissement constatésur ces structures de test à la filière technologique dans son entier. Cette stratégieissue directement des techniques "WLR" (Wafer Level Reliability) doit être

MSTP-mai 2005 56

Page 57: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 57/92

 

étendue aux assemblages de types  micro et nanotechnologiques. Ledéveloppement de tests " génériques" représentatifs de familles technologiquesconstituera également une avancée intéressante 

• L’identification et l’utilisation d’ « indicateurs de dégradation », paramètresmesurables, pas nécessairement fonctionnels, mais assurément corrélés à unmécanisme physique aboutissant potentiellement à la défaillance, peut permettreune évaluation de la cinétique de vieillissement. D’ores et déjà, pour denombreuses technologies, dont les technologies sub-microniques, seules desvaleurs de dérives spécifiées de ces indicateurs seront exploitées à l’issue des testsde vieillissement accélérés sans aucune défaillance réelle observée.L’extrapolation des durées de vie jusqu’à la défaillance s’effectuent à partir desmodèles de dégradation. 

5. Conclusion

l’intégration dans leur développement des notions de robustesse et de fiabilité. Dans cedomaine, un écart important Le succès industriel des nanotechnologies est clairementconditionné par des taux de défaillances exigés actuellement ne sera pas toléré trèslongtemps. La construction de la fiabilité des nanocomposants commence par la prise encompte des aspects de criticité vis-à-vis des contraintes, et cela dès les premiers choixtechnologiques. Elle implique également l’identification et la caractérisation des mécanismesde défaillance où l’on retrouve notamment les aspects mécaniques, thermiques, chimiquesliés à la diversité des matériaux utilisés avec une difficulté supplémentaire due au caractère« ultime » des paramètres dimensionnels. L’utilisation des simulations physiques par éléments finis rend possible la description des dispositifs dans leur complexitédimensionnelle et leur variété technologique. Elles permettent la prise en compte d’effetslocaux et d’envisager des tests de fiabilité génériques, communs à plusieurs configurationsdifférentes par les dimensions, ou les contraintes d’utilisation.

Si la méthodologie de construction de la fiabilité des nanocomposants issus del’évolution « Top-down» est abordée en continuité avec celle des technologies sub-microniques, par contre les dispositifs imaginés et réalisés à partir de nouvelles synthèses

 physico-chimiques nécessitent une approche spécifique. Les concepts d’auto guérison et plusgénéralement de tolérance aux défauts doivent être particulièrement recherchés et exploités. 

Sur un tel thème, la mise en commun des compétences et des acquis de différentes équipesde recherche nationales, en association avec des partenaires industriels, doit permettre des

avancées rapides et coordonnées dans le domaine de la fiabilité des micro et nanosystèmes, àun niveau équivalent à celui d’autres initiatives internationales en réseau. 

D’autre part, il nous paraît important de couvrir le sujet depuis le matériau jusqu’àl’assemblage, y compris sous forme de micro ou de nanosystème, notamment parce qu’unemajorité de défaillances dans un composant a pour origine les interfaces technologiques. 

De plus, la problématique de la fiabilité est par définition extrêmement large et couvre à lafois les questions relatives à la physique et à la physico-chimie des matériaux, aux

 phénomènes électriques, aux phénomènes thermiques, aux modèles mathématiques detraitement de données, etc. 

Le côté pluridisciplinaire de l’approche est absolument indispensable et devra être pris encompte dans cette recherche

&&&

MSTP-mai 2005 57

Page 58: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 58/92

 

  Appendice F

CAO de SYSTÈMES et CIRCUITS INTÉGRÉS:

du TRANSISTOR à la COMPLEXITÉ des SYSTÈMES 

 Michel Robert  Après un résumé sur l’état de l’art et les tendances actuelles dans le domaine de la conception des systèmes et

circuits intégrés, une description de quelques verrous scientifiques identifiés, permet de souligner le caractère

interdisciplinaire des travaux de recherche à mener dans ce domaine, de la modélisation physique des briques

technologiques de base à l’élaboration de systèmes intégrés de complexité croissante associant des éléments

matériels et logiciels.

1. Contexte et état de l’art

Depuis l’invention du tube à vide en 1904, du transistor en 1947, du circuit intégré en1960, l’évolution des technologies de fabrication des circuits intégrés, permet de réaliser aujourd’hui des systèmes microélectroniques complexes, intégrés sur une même puce : lesSOC (System On Chip). La technologie CMOS8, avec des tranches de silicium de 300 mm

 permet de fabriquer une centaine de circuits intégrant chacun plusieurs dizaines de millionsde transistors ayant des longueurs de grille de 90nm. Les circuits les plus complexesdépassent déjà le milliard de transistors.

Devant ces possibilités, les techniques de conception des systèmes électroniques évoluent

très rapidement avec l’intégration de systèmes de plus en plus complexes et des duréesd’obsolescence de plus en plus courtes compte tenu de l’évolution actuelle de notre sociétéet, en particulier de la compétition économique. Les enjeux sociétaux et économiques sont eneffet cruciaux du fait de la présence des technologies micro-nano-électroniques dans latotalité des équipements destinés aux technologies de l’information et de la communication.

 Notons que l’augmentation des coûts de ces technologies (plusieurs milliards d’euros pour unsite de production, et plus d’un million d’euros pour un jeu de masques nécessaire pour lafabrication d’un circuit intégré), conduit à une évolution du paysage industriel par concentration des sites de production et de recherche en Europe, en Asie et aux Etats-Unis. 

Les performances techniques recherchées pour les objets nomades communicants

(téléphones mobiles, assistants numériques personnels, navigateurs GPS, …) sont une bonneillustration des objectifs à atteindre dans des marchés où la compétition internationale est trèsforte : faible poids, faible volume, grande autonomie, bonne couverture géographique, bonneergonomie, performances permettant de transmettre en temps réel des informations audio ouvidéo, souplesse d’adaptation à des standards par programmation ou reconfiguration,sécurité, … , et faibles coûts. Ces performances ne peuvent être atteintes qu’en utilisant aumieux l’état de l’art dans les technologies de fabrication et de conception.

La figure 1 illustre le compromis à trouver entre le fabricable (quelle technologie ?), leconcevable (quelle architecture ? quels méthode et outils de CAO ?) et l’utilisable (quelusage ?, quel marché ? quel prix ?). 

8 Les technologies CMOS sont basées sur l'utilisation de deux transistors à effet de champ complémentaires, l'un conduitalors que l'autre est bloquant et inversement. On fabrique ainsi un inverseur. Dans un transistor à effet de champ, les chargesqui conduisent le courant sont induites par une tension comme sur les électrodes des condensateurs.

MSTP-mai 2005 58

Page 59: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 59/92

 

 

FABRICABLE 

CONCEVABLE 

UTILISABLE

X

 Figure 1. Représentation d’un projet : le concevable, le fabricable, et l’utilisable.

Les évolutions des méthodologies de conception des circuits intégrés visent à améliorer lescompétitivités des entreprises en réduisant les temps de conception et ainsi optimiser lescoûts et diminuer les temps de mise sur le marché 9 . Si l’on s’en réfère aux « lois del’évolution » qui illustrent l’accroissement des besoins algorithmiques, des performances des

 processeurs, des progrès technologiques en intégration sur silicium (loi de Moore), des progrès en Conception Assistée par Ordinateur (CAO) et des capacités énergétiques des batteries, on peut constater que l’écart ne cesse de se creuser entre le « fabricable », lestechnologies, et le « concevable », la CAO, (Figure 2). Par conséquent, il est nécessaire detrouver des solutions architecturales aptes à faire face aux nouveaux compromis de

 performances. Les besoins concernent la puissance de calcul, la flexibilité, la minimisationdes coûts, mais aussi l’efficacité énergétique, notamment dans le marché de l’embarquécompte tenu de l’évolution lente des capacités des batteries. 

   C  o  m  p   l  e  x   i   t   é   (   l  o  g   )

1982 1992 2002 2012

Processeurs

 CA O

  T e c  h n o

  l o g  i e s

Ba t teries

   E  v o   l  u

  t   i o  n   d  e

  s    b  e  s

 o   i  n  s   (   a   l  g  o

  r   i  t   h  m

  e  s   )

   C  o  m  p   l  e  x   i   t   é   (   l  o  g   )

1982 1992 2002 2012

Processeurs

 CA O

  T e c

 

  h n o  l o g  i e s

Ba t teries

   E  v o   l  u

  t   i o  n   d  e

  s    b  e  s

 o   i  n  s   (   a   l  g  o

  r   i  t   h  m

  e  s   )

 Figure 2. Les « lois de l’évolution »

9 Avant de fabriquer un circuit intégré, il faut concevoir son schéma en plaçant les transistors les uns par rapport aux autres.

Cette opération, qui peut concerner des centaines de million d'éléments, ne peut se faire à la main et nécessite des outilsinformatiques très performants que l'on entre dans ce qui est appelé CAO (conception assistée par ordinateur). Si on

voulait schématiser un circuit comportant 100 millions de transistors "à la main", en supposant que l'on puisse en

dessiner un toutes les secondes, il faudrait 3 ans par un spécialiste.

MSTP-mai 2005 59

Page 60: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 60/92

 

Les outils de CAO dans le domaine de la microélectronique, évoluent ainsi en prenant encompte l’aspect global « matériel/logiciel embarqué »10 et les problèmes de validation11. Leconcepteur de circuits intégrés a "manipulé" principalement des transistors et des circuitsélémentaires (cellules pré-caractérisées) pendant les années 80, et des circuits complexesréalisant une fonction donnée (blocs fonctionnels) pendant les années 90 (VHDL). Il

assemble déjà, et il assemblera de plus en plus des blocs fonctionnels complexes(« composants virtuels ») déjà validés, dont la fonctionnalité pourra correspondre à unefonction complexe (calcul, mémoire, cryptographie, compression,…), voire à unmicroprocesseur ou même à un ordinateur complet avec sa mémoire et ses interfaces. La ré-utilisation et l’assemblage de briques "virtuelles" protégées par des règles de propriétésintellectuelles (IP pour Intellectual Property) permet ainsi d’accélérer la conception dessystèmes sur puce. Un bloc "IP" est défini comme un composant virtuel ré-utilisable,testable, commercialisable et auquel est associé une notion de service (support,maintenance,.. etc.). Ces architectures nouvelles sont issues en général des travaux derecherche menés dans les laboratoires publics et conduisent de manière croissante à descréations d’entreprises spécialisées dans la commercialisation de composants virtuelsspécialisés. 

Deux tendances complémentaires de réalisation des systèmes électroniques sedégagent aujourd’hui : 

• A partir de circuits standards disponibles sur catalogue. Les réalisations sont basées sur des composants programmables au niveau matériel (FPGA) ou logiciel(processeurs). Ces techniques souples sont adaptées à la fabrication de prototypesou de petites/moyennes séries, et accessibles à un grand nombre d’utilisateurs. Uncircuit FPGA complexe permet aujourd’hui d’intégrer plusieurs millions de porteslogiques allant jusqu’à des cœurs de processeurs (câblés ou synthétisés) que

l’utilisateur peut configurer. • Des circuits spécifiques. Les réalisations sont basées sur la conception de systèmes

sur puce (SOC) spécifiques, en utilisant des composants virtuels (IP). Cettetechnique permet d’obtenir les meilleures performance (vitesse, puissance,surface) mais, compte tenu des coûts (moyens humains, logiciels, coûts des

 prototypes,..etc.), elle est aujourd’hui réservée à des fabrications en grandes séries.

L’augmentation de la complexité des dispositifs que ce soit en terme de nombres detransistors, de performances électriques, mais aussi l’intégration de nouveaux types demodules (circuits hyperfréquences, systèmes électromécaniques, ...) conduisent, au delà des

 problèmes de conception, à de très nombreux défis à relever dans le domaine de la

vérification et du test en incluant des aspects comme le diagnostic et la tolérance aux fautes.La partie vérification de certains projets est plus importante en temps passé que la conceptionelle-même 12 . Ces challenges très pluridisciplinaires se situent au niveau circuit (testanalogique et mixte, modélisation de fautes, test RF, ….) et système où il faudra trouver dessolutions aux problèmes suivants : méthodologies de conception en vue du test structuré,

10 Un système intégré réalise une ou un ensemble de fonctions données. Pour ce faire, il y a deux possibilités : soit on

utilise des circuits électriques câblés une fois pour toutes pour réaliser la fonction, soit on utilise un microprocesseur que

l'on programme, soit on mixte les deux.11

Concevoir et fabriquer un circuit intégré suivant un cahier des charges, c'est bien mais encore faut-il pouvoir valider sonfonctionnement en le comparant à ce qui est attendu.

12 La vérification complète du fonctionnement d'un PENTIUM-IV avec les moyens les plus puissants prendrait quelques

années.

MSTP-mai 2005 60

Page 61: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 61/92

 

transfert de très grands volumes d’informations entre le testeur et le circuit sous test autravers de canaux à bande passante limitée, techniques de conception en vue du test

 permettant sa réutilisation pour les IPs. A plus long terme, il faudra s’attacher à fournir des bases solides pour aborder ces aspects : (i) utilisation généralisée de techniques de testintégré, voire de tolérances aux fautes supportant des nouveaux modèles de fautes et des

fonctions de diagnostic étendues, (ii) nouvelles méthodes de conception en vue du test faisanten particulier appel à la hiérarchie de conception, (iii) amélioration des techniques dediagnostic pour gérer les défaillances due aux erreurs des procédés de fabrication et auxmarginalités, (iv) amélioration des outils de CAO et des algorithmes de test en terme decapacité (complexité) et de modèles de fautes (prise en compte des nouvelles technologies). 

2. L’apport des nouvelles technologies aux architectures des circuits

Les nouvelles technologies dans les SOC doivent être considérées en parallèle de la feuillede route (« International Technology Roadmap for Semiconductors » ou roadmap ITRS). Iln’est donc pas possible de savoir aujourd’hui si elles doivent être vues comme des

successeurs au CMOS ultime (on peut fixer actuellement une limite autour de 5 à 10 nm),comme des compléments, ou encore des alternatives. Afin de répondre à ces questions, lesnouvelles technologies doivent être étudiées et caractérisées selon les trois niveaux :composants, circuits et systèmes. 

La spintronique

Le développement de la « spintronique » va permettre d’envisager l’utilisation demémoires magnétiques à accès aléatoire (MRAM). Une des conséquences pratiques sera uneévolution des architectures des processeurs exploitant ainsi l’avantage de disposer dedonnées embarquées dans de la mémoire non volatile. La technologie MRAM pourrait aussi

révolutionner les circuits logiques programmables, en remplaçant les circuits mémoires deconfiguration par une MRAM embarquée. 

L’électronique moléculaire

Une alternative sur le long terme au CMOS est l’électronique moléculaire, c’est à dire dessystèmes électroniques constitués d’une seule molécule. 

Parmi les avantages justifiant son développement, on peut citer : 

• Une molécule est intrinsèquement de taille nanométrique, ce qui paraît pouvoir répondre naturellement au problème de la miniaturisation et aux difficultés

 prévisibles du CMOS à l’échelle de 10nm et moins.• Au delà de la miniaturisation, l’électronique moléculaire est le domaine naturel

d’utilisation des techniques d’auto-assemblage qui devraient permettre lafabrication de circuits ultradenses mettant en jeu des milliards de nano-objets avecdes coûts de production de circuits très faibles (en comparant avec lesextrapolations sur les technologies actuelles) 

• L’électronique moléculaire, basée sur des objets quantiques, est un champ parfait pour tester et développer de nouveaux paradigmes d’architecture, qui pourraients’avérer efficaces en termes de gestion de la complexité (incluant tolérance auxdéfauts, autoréparation, auto-organisation, ..) et surtout en coût énergétique decalcul, répondant ainsi à deux limitations prévisibles du CMOS : l’augmentation

de la complexité avec les générations de processeurs et surtout l’augmentation dela puissance consommée. 

MSTP-mai 2005 61

Page 62: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 62/92

 

Les nanotubes de carbone

On peut aussi citer les nanotubes de carbone qui se présentent sous la forme de feuilletsde graphite enroulés en cylindres co-axiaux de diamètres de l’ordre de la dizaine denanomètres. Ils peuvent être soit isolants, soit semi-conducteurs, soit conducteurs. Ils

 permettent de réaliser des transistors et des interconnexions, d’où des applications possiblesdans le domaine de la nano-électronique. 

Optique et photonique

L’apport de l’optique et de la photonique, sous réserve d’une maîtrise des technologies,des coûts et des performances, est à envisager pour la connexion des signaux critiques(horloges, bus) par des guides d’ondes couplés, par exemple à l’extérieur du boîtier, à de lafibre optique, et au niveau interne des éléments d’émission (nanolasers) et de réception dessignaux. 

A côté de ces sauts technologiques, il est important de souligner l’importance de

l’encapsulation hybride des puces sophistiquées qui seront élaborées vraisemblablement dansdes filières technologiques spécialisées (mémoires, processeurs, circuits multimédia faibleconsommation, capteurs et microsystèmes). Il s’agira de concevoir, modéliser, caractériser,tester et fabriquer en série des cubes technologiques ( « SIP » pour System In a Package)associant en 3 dimensions diverses technologies, avec un nombre croissant mais limité de

 broches de connexions avec le monde extérieur.

La figure 3 illustre ce que pourrait être l’architecture d’un SOC de la prochaine décennie :en complément de l’évolution des technologies CMOS sur silicium, on devrait voir apparaître progressivement pour la réalisation de blocs mémoires ou pour la réalisationd’interconnexions les autres technologies citées. Cet exemple présente des éléments de

calculs réalisés en technologie CMOS, des bus d’ interconnexion réalisés à partir de guided’ondes ou de nanotubes de carbone, des blocs mémoires volatiles et non volatiles (MRAM)et une zone d’électronique moléculaire. De tels systèmes pourraient de plus être empilés lesuns sur les autres. 

SpinMRAMFPGA

Moléculaire

DSPsCPUs

FPGA

TEST RF

Mems

ROM

ADC/DAC

RAM

A

N

ALO

G

COMMUNICATIONS : BUS, NoC

IPs

 

15nmGate oxide: 2nm

Nanotubes de carbonneConnexions 

Transistors 

Encapsulation 3D

Nano-transistorsOptique : connexions (horloges, bus)

par fibre optique, guides d’ondes,…

Transistordouble grille

 

Figure 3. Une hypothèse de SOC "hybride" de la prochaine décennie

MSTP-mai 2005 62

Page 63: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 63/92

 

Contrairement aux circuits actuels réalisés dans des technologies standard et homogènes(procédé CMOS), les systèmes intégrés du futur auront un caractère hybride et hétérogène,

 pour tirer avantage des progrès technologiques. Quelles que soient les alternativestechnologiques retenues, il s’agira pour un système complexe donné, d’assembler, de fairefonctionner, et de produire, en grandes séries lors de la prochaine décennie, des milliards de

nano-objets à l’image des progrès réalisés à ce jour en microélectronique (plus d’un milliardde transistors pour les circuits les plus complexes). 

Outre ces évolutions technologiques qui vont permettre d’améliorer les performances desarchitectures actuelles, il est indispensable d’envisager de nouveaux paradigmesd’architecture, comme nous l’avons mentionné avec l’électronique moléculaire. L’apport deces nouvelles technologies dans les SOCs permettra de développer des systèmes pluscomplexes et plus performants, une meilleure intégration de capteurs, l’augmentation de lacapacité des mémoires intégrables, l’amélioration de la fiabilité,…etc.

Les architectures matérielles sont aussi bien purement logiques pour du calcul intensif (enfouis) que mixtes logiques/analogiques notamment dans le domaine des

télécommunications : les technologies émergentes offertes permettent d’innover dans cesnouvelles architectures. Les performances des systèmes logiciels dépendront des

 performances de ces architectures. En effet, ce qu’il faut augmenter, c’est le facteur de mériteMOPS/µW/mm2 ou mm3 (Million d’Opérations Par Seconde par micro-watt et par mm2 oumm3 du support matériel) en prenant en compte l’évolution des technologies CMOS etsurtout en anticipant l’apport des composants nanométriques émergeants (magnétiques,organiques, moléculaires…). Le critère de faible consommation devient primordial y compris

 pour les systèmes fixes : ce sont essentiellement des avancées sur le matériel qui permettrontde limiter l’augmentation de la consommation aussi bien dans le calcul logique que dans lesfonctions analogiques périphériques (RF par exemple). 

3. Les verrous scientifiques pour la CAO des systèmes intégrés

L’évolution des domaines de la conception des systèmes intégrés se situe dans unenvironnement interdisciplinaire où se pose les grandes questions du domaine des sciences ettechnologies de l’information et la communication et des systèmes. On peut citer une liste denouveaux paradigmes « physique vs informatique» : les technologies (moléculaire, optique,quantique... ), traitement de l’information multiforme et à grande échelle (données, signal,images …), maîtrise des systèmes complexes artificiels et compréhension des systèmesvivants ou naturels, compréhension des mécanismes de l’intelligence et les systèmes deconnaissance artificiels et naturels, modélisation des différentes formes d’interaction et

développement de mondes virtuels. En soulignant la nécessité de recherchesinterdisciplinaires, on peut distinguer deux orientations principales du domaine de la CAOdes circuits et systèmes intégrés en y associant les disciplines scientifiques principalementconcernées : 

• Systèmes complexes à dominante informationnelle : architecture, conception,vérification. Les principales disciplines concernées sont l’informatique, l’EEA, lesmathématiques et la physique 

•  Nanotechnologies pour le traitement de l’information, microsystèmes etintégration. Les principales disciplines concernées sont les procédéstechnologiques, la physique, la chimie, l’électronique, l’optique,l’électromagnétisme, l’énergétique, la mécanique, la thermique et la biologie 

MSTP-mai 2005 63

Page 64: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 64/92

 

Les futures architectures matérielles prendront en compte de manière croissante lesinteractions avec les logiciels (applications, systèmes d’exploitation, (re)configuration) etl’environnement réel (analogique par exemple). Il s’agit donc d’associer en recherche descompétences en micro-électronique, en traitement du signal et des images, en informatiquetemps-réel, en architectures informatiques, et bien évidemment dans les disciplines de base

que sont la physique, la chimie et les mathématiques.Les verrous scientifiques, qui devront faire l’objet d’efforts particuliers, sont

essentiellement : 

• La maîtrise de l’accroissement de la complexité des systèmes : spécifier,concevoir, vérifier, tester et caractériser des systèmes intégrant plusieurs milliardsde transistors.

• L’innovation des architectures permettant de trouver un équilibre entre lescontraintes d’efficacité, de réutilisation, et de flexibilité. On peut citer les

 problèmes liés à la création et à l’utilisation des composants virtuels, lesarchitectures reconfigurables dynamiquement, les architectures d’interconnexion

dans un contexte SOC (bus et micro-réseaux sur puce), les architecturesmultiprocesseurs hétérogènes, les circuits mixtes (analogique/numérique). 

• L’innovation en conception conjointe « matériel/logiciel », où le logiciel embarquéou enfoui («embedded») permettra de plus en plus de personnaliser et d’adapter lecircuit à une norme ou une application. 

• L’innovation dans les outils logiciels de CAO, notamment dans les étapescritiques : modélisation des effets physiques liés aux réductions des dimensions,synthèse physique, simulation, plates-formes virtuelles et réelles de prototypage desystèmes.

• la maîtrise des aspects vérification (de la spécification du système au circuit avec

un apport des mathématiques). Le test (intégré), la tolérance aux fautes et lafiabilité sont des domaines de recherche critiques compte tenu de l’évolution de lacomplexité des systèmes aux niveaux matériels et logiciels. 

• Les aspects énergétiques : faible tension, faible consommation, autonomie,capacité des batteries, dissipation. Il s’agit certainement d’un des défis les plusdifficiles du nano-objet aux systèmes complexes. Les performances des circuitsréalisés en technologie CMOS sont aujourd’hui limitées pour des problèmes deconsommation (un processeur actuel peut dissiper plusieurs centaines de Watts).Les solutions sont à rechercher par des compromis au niveau des technologies, descircuits et des systèmes (en distinguant les niveaux transistor, logique, architecture,fonctionnel, logiciel et système). Une formalisation à chaque niveau des modèles

 permettant une communication entre les différents niveaux d’abstraction estindispensable pour progresser dans ce domaine. 

Pour chaque innovation, il est nécessaire d’étudier les interfaces, les protocoles, les outilsde développement, l’intégration de ces outils dans un flot de conception et dans un contextede compétition scientifique et économique (on peut citer l’aspect stratégique de la définitiondes standards d’échanges , de langage,..etc.). 

La maîtrise de l’accroissement de la complexité des systèmes et la maîtrise de l’apport desnanotechnologies nanométriques, ne peuvent être dissociées. Par exemple, il estindispensable de développer des recherches sur les architectures, les méthodes et outils CAO

 pour la synthèse d’architectures tolérant les défauts et fluctuations technologiques dessystèmes intégrés du futur. 

MSTP-mai 2005 64

Page 65: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 65/92

 

4. Conclusion

Depuis l’apparition des premiers outils de CAO, il y a une trentaine d’années (logiciels desimulation électrique et de dessin des masques technologiques), l’expérience acquise montrequ’un outil de CAO ne remplacera jamais un concepteur de circuit. Cela s’explique par 

l’évolution rapide des technologies et des architectures qui ne permettent pas de stabiliser leslogiciels de développement, contrairement à d’autres domaines comme la bureautique. Unlogiciel de conception d’un circuit programmable standard (FPGA) est composé de plusieursmillions de lignes de code qui doivent être régulièrement réactualisées. La formation de lamatière grise est donc un enjeu stratégique essentiel dans ce domaine. L’évolution desméthodes de conception et de vérification des systèmes intégrés complexes« matériels/logiciels », conduit à des modifications dans le domaine de la formation desarchitectes des systèmes du futur, au niveau LMD (Licence, Master, Doctorat). Les métiersde la conception deviennent multidisciplinaires : connaissances des technologiesd’intégration, des techniques de modélisation du circuit au système, des aspects logiciels(prenant en compte des contraintes de temps réel pour les systèmes embarqués), des

communications,… etc. Que ce soit à l’échelle de la formation ou de la recherche ces défis ne pourront être relevés que par des équipes pluridisciplinaires. De nouveaux modesd’organisation mixtes regroupant les divers aspects formation LMD, recherche publique etR&D industrielle autour de ressources technologiques communes sont à envisager auxéchelles nationale et européenne. 

Avec la micro-électronique, nous avons donc assisté à un développement sans précédentdu degré de miniaturisation, dans le domaine du traitement de l’information et de lacommunication. Les progrès actuels correspondent à un ensemble cohérent dedéveloppements d’équipements, de procédés de fabrication, de méthodes et d’outils ( CAO)de conception, avec la contrainte d’une progression constante des performances et d’une

diminution continue des prix. Les produits les plus avancés ont des dimensions critiques endessous des 100 nanomètres : nous vivons actuellement l’émergence de nouvelles disciplinesau cœur des nanosciences et des nanotechnologies, qui s’appuient sur les sciences de basecomme la physique, la chimie ou la biologie et en retour, fournissent des outils de mesure etde visualisation qui en accélère les progressions. Les recherches menées dans le domaine desnanotechnologies en électronique, photonique, électronique de spin, nanotubes de carbone,moléculaire, vont conduire à de nouveaux types d’architecture. On peut citer l’émergencerécente des mémoires magnétiques (futurs blocs IP MRAM) dont les propriétés de nonvolatilité vont conduire par exemple à revisiter les architectures des processeurs.

Du nanomètre au térahertz et à la téracomplexité des systèmes, l’électronique, la micro-

électronique et demain la nano-électronique ont de beaux jours en perspective, pour ladécouverte et l’exploration des continents du nanomonde. En s’appuyant sur une large basede connaissances existantes, l’innovation sera la résultat d’un effort collectif soutenu.

&&&

MSTP-mai 2005 65

Page 66: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 66/92

 

 

 Appendice G

NANO-MICROFLUIDIQUE

 Daniel Hauden 

Les progrès technologiques substantiels accomplis dans le domaine de la miniaturisationengendrent de véritables révolutions, en particulier dans le domaine des sciences du vivant etde leurs applications à la santé, ainsi qu’en génie des procédés et en chimie :

• en biologie, les puces à ADN, à protéines, ou à cellules mettent à profit les états desurface et la possibilité de réplication massive de structures microfabriquées pour identifier rapidement des séquences génétiques, permettant l’établissement du profild’expression des gènes dans les tissus sains ou malades et facilitant le diagnostic,évaluer les facteurs de risques, développer de nouveaux médicaments et individualiser les traitements,

• les Lab-on-Chip tant dans le domaine biomédical qu’en chimie analytique, permettentgrâce à la miniaturisation de réduire le temps d’analyse, les volumes mis en jeu et lescoûts,

• en génie des procédés, la miniaturisation rend possible le contrôle des réactionschimiques et biochimiques, améliore la sélectivité et le rendement des réactions :

traiter par toute petite quantité des réactifs dangereux, quitte à utiliser nombre deréacteurs en parallèle, laisse envisager un progrès au plan de la maîtrise de la sécuritéde ces procédés.

Ces différents exemples mettent en jeu des écoulements mono ou polyphasiques,éventuellement réactifs, ainsi que des phénomènes de transfert dans des microsystèmes, oùles effets des parois, dont la nature physico-chimique peut être complexe, deviennent

 prépondérants du fait du rapport élevé surface/volume.

Pour aborder la nano-microfluidique, il ne suffit donc pas de miniaturiser les dispositifs par une approche homothétique, encore faut-il savoir comprendre, caractériser et gérer lesécoulements de fluides, et le comportement des molécules, réactifs… impliqués dans cessystèmes et en particulier les interactions avec les surfaces et les particules entre elles, ceciaux échelles nanométriques. Il n’est d’ailleurs pas certain que tout doit être transporté dansun microcanal : des gouttes mises en mouvement par électromouillage, ou des nano-

 particules solides pilotées par un champ magnétique peuvent être utilisées pour le transportd’espèces chimiques ou biologiques.

En outre, la conception et la mise en oeuvre de composants nano-microfluidiques, pour desessais, du screening ou de la métrologie, n’est pas le seul objectif visé par le génie des

 procédés. La structuration interne, à l’échelle sub-microscopique, d’un équipementmacroscopique, et la liaison du micromonde interne au macromonde externe, par des échelles

intermédiaires choisies et optimisées, sont des défis pour les procédés à l’échelle de la  production industrielle. De ces défis dépend pour l’essentiel la valeur ajoutée économique.

MSTP-mai 2005 66

Page 67: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 67/92

 

Le contrôle des écoulements est aussi un défi important pour les économies d’énergie dansdes branches industrielles où la France est leader européen.

L’ensemble des compétences autour de la nano-microfluidique va de la modélisation,des matériaux et des micro-nanotechnologies de mise en œuvre jusqu’auxmicrosystèmes et aux nanosystèmes applicatifs simples (composants) ou complexes(microsystèmes intégrés et automatisés) pour la biologie, le médical, la chimie, le géniedes procédés...

Les études en cours et à venir concernent :

*les recherches de base amont : modélisation et caractérisation des liquides et des gazen contact avec des solides, des liquides ou des gaz. Ici une approche essentiellement« bottom-up » est essentielle à la compréhension des phénomènes et des interactions des

 particules et des surfaces,

*les recherches sur les matériaux souvent autres que le silicium et leur mise en

œuvre technologique dans les nano-composants et les microsystèmes fluidiques,*les recherches sur les nano-microsystèmes fluidiques  appliqués à la biologie, en

 particulier dans les domaines de la génomique fonctionnelle du génome, du protéome etdu métabolome, des applications médicales comme le diagnostic et les thérapies, ladécouverte de nouveaux médicaments (tri à haut débit, activité et toxicité et maîtrise desrisques environnementaux(détection de polluants, d’agents pathogènes),

*les recherches sur les microsystèmes fluidiques  pour le génie des procédés , lachimie analytique (laboratoire sur puces, microsystèmes d’analyses complètes) etl’énergie (micropile à combustible, micromachine thermique),

*les applications de la microfluidique aux systèmes de contrôle actifs distribués pour l’aérodynamique et les économies d’énergie.

Certaines Recherches Essentielles Pour l’Avenir :

° Des éléments de modélisation existent mais demeurent hétéroclites, autant dans leur approche théorique que dans leur mise en forme : expression analytique de l’électro-osmose, simulation par éléments finis des écoulements, simulations à l’échelle atomiquedes interactions de surface. Les problèmes de dynamique d’interface, d’interaction avecles particules, les parois, l’action d’un champ électrique ou acoustique constituent dessujets où la modélisation doit encore progresser. Ils concernent les connaissances

scientifiques fondamentales des écoulements et des transferts dans les systèmes nano-microstructurés :

-phénomènes électro-hydrodynamiques - phénomènes de glissement liquide/solide

-micro-mélanges - nano-objets fluidiques - dynamique des systèmes polyphasiques

-phénomènes de mouillage (hydrophilicité, phobicité) - écoulements non newtoniens

-dispersion - phénomènes d’instabilité - contrôle des écoulements et des transferts-écoulements de gaz raréfiés.

L’approche de modélisation « bottom-up » est très importante.

° Le silicium a joué un rôle considérable dans le développement des MEMS(microelectromechanical systems) et participe également au développement de lamicrofluidique. Cependant, l’utilisation de matériaux comme le PDMS (poly dimethyl

MSTP-mai 2005 67

Page 68: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 68/92

 

siloxane), le PMMA (poly methyl métacrylate), peut contribuer à considérablementtransformer la microfluidique en allégeant les techniques de fabrication des microcanaux eten introduisant des états de surface de qualité nanométrique. Cependant, ces matériauxsemblent peu adaptés pour le génie des procédés, où les conditions agressives amènent à

 promouvoir des matériaux métalliques, des verres ou des réfractaires.

De nouvelles approches technologiques sont à développer pour la fabrication demicrosystèmes et de nanosystèmes fluidiques, en particulier tridimensionnelles compatiblesavec une intégration poussée.

° Nouveaux concepts en nano-microfluidique Il s’agit de tout projet, même ambitieux, visant à démontrer la faisabilité de nouveauxconcepts, mécanismes ou propriétés physico-chimiques pour la conception de systèmes

microfluidiques et nanosystèmes, par exemple, pour - l’adressage mono, bi ou tridimensionnel de substances par un mécanisme de transport

- fluidique guidée ou adressable électriquement ou optiquement

- la levée des barrières de diffusion aux interfaces 

- la résolution multidimensionnelle de composés biologiques à échelle nanométrique

- la conception de systèmes de transport bidimensionnel dans des fluides (par exemple bicouches supportées).

Bien évidemment l’ensemble des applications potentielles seront concernées par uneminiaturisation plus poussée vers les nanotechnologies.

&&&

MSTP-mai 2005 68

Page 69: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 69/92

 

 Appendice H1

APPORT des NANOTECHNOLOGIES aux SOURCESd’ÉNERGIE MINIATURES

 Bernard Gauthier-Manuel

L’essor actuel de l’électronique portable, permis par l’intégration sans cesse croissante desmicrocircuits, nécessite des sources d’énergie adaptées et compatibles avec les contraintesenvironnementales actuelles et futures. Les batteries utilisées de nos jours limitentl’autonomie des dispositifs et nécessitent la présence d’une source d’électricité etl’intervention humaine pour leur recharge. La tendance à la prolifération des capteurs

nomades est freinée par le manque d’une source d’énergie de longue durée respectueuse del’environnement 

Les apports des nanosciences se rencontrent dans différents domaines tels que laconversion photovoltaïque de l’énergie solaire où la nanostructuration des matériauxcontribue aux développements technologiques. Le fait de travailler en déposant un film actif nanostructuré sur un support bon marché permet une réduction des coûts mais s’accompagned’une dégradation des performances. Il pourra en être de même dans le domaine de lathermogénération qui pour l’instant recherche des matériaux adaptés. 

De nouveaux types de batteries apparaissent utilisant aussi des films nanostructurés pour en diminuer la taille. On les rencontre dans les batteries de type Lithium-ion et métal-

hydrure. 

Comme la feuille de route des industries électroniques prévoit à l’échéance 2014 unediminution de la tension d’alimentation des circuits de l’électronique portable à une valeur égale à 0,6 V, une solution séduisante est l’utilisation de piles à combustible miniatures.Contrairement aux batteries, la durée de vie dans ce cas, n’est limitée que par la quantité decarburant embarqué ; elles sont non polluantes car ne générant que de l’eau ; leur recharge sefait facilement par un simple changement de réservoir. 

Encore faut-il être capable de réaliser une pile miniature fonctionnelle et résoudre le problème du stockage du carburant. 

Devant les enjeux économiques considérables l’activité de recherche dans ce domaine esttrès importante. Si les solutions classiquement étudiées (membrane de Nafion) n’utilisent que

 peu les possibilités offertes par les nanosciences, d’autres solutions plus novatrices exploitent pleinement ces nouvelles possibilités : 

Une alternative existe utilisant la nanostructuration d’une membrane en silicium poreux demanière à reproduire la structure moléculaire du Nafion et s’affranchir ainsi de difficultésinduites par l’instabilité géométrique des ionomères soumis à des hydratations variables dufait de leur trop mauvaise propriétés mécaniques. 

Le point dur actuel est le choix du carburant à utiliser et de son stockage. Si l’hydrogènesemble la solution la plus facile à mettre en oeuvre, son stockage pose cependant problème.

Les carburants liquides tels que le méthanol nécessitent une étape de reformage qui accroît lacomplexité des systèmes.

&&&

MSTP-mai 2005 69

Page 70: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 70/92

 

 

 Appendice H2

NANOTHERMIQUE

Sébastian Volz

Pourquoi la nanothermique ?

Les notions de nanotechnologie et d’énergétique ne sont pas encore naturellement associées.Pourtant, avec la nécessité de développer l’économie d’énergie et les énergies renouvelables,les nanotechnologies vont trouver là un potentiel d’applications à forts enjeux. Cet enjeu estclairement identifié aux Etats-Unis où des conférences sur le thème sont lancées. Un grandcentre inter-universitaire (MIT, Harvard, Berkeley , Princeton, Purdue…) intitulé ‘ NanoscaleEnergy ’ conversion est en cours de création.Le secteur de l’énergie n’est pas le seul concerné, les STIC le sont aussi, et de manièrecruciale.Enfin, ces motivations sont indissociables du développement des nanosciences puisque tousles modèles classiques de la thermodynamique et de la thermique deviennent inopérants auxnanoéchelles.

 Des applications prometteuses et nombreuses :

De nombreuses applications des nanotechnologies utilisent les transferts de chaleur ou biensont confrontées à des problèmes de dissipation.

Le stockage local sera ‘assisté thermiquement’. Le « millipède » développé aux laboratoiresd’IBM à Zürich est une technique en phase d’industrialisation qui se base sur la fusion dusupport par une pointe de type AFM chaude. Des approches utilisant la dépendance duchamp coercitif à la température pour localiser le chauffage sont en développement pour lestockage magnétique. Enfin, les MRAM utiliseront le chauffage résistif pour fiabiliser 

l’écriture (inhibition par chauffage).

Applications ‘Energies’

Les matériaux super-isolants sont en fort développement. Ils sont le plus souvent constituésd’aérogels, amas de nanoparticules plus ou moins coalescées. Le transfert conductif àtravers ces nanoparticules conditionne largement les performances des matériaux.Les nanofluides sont des liquides chargés de nanoparticules : leur conductivité effective estsensiblement supérieure à celle du liquide simple. Si l’explication physique de cetteaugmentation n’est pas encore claire, les gains énergétiques envisagés sur les échangeurs

‘macro’ sont considérables.La conversion thermoélectrique a été révolutionnée dans les dernières années, par lafabrication de nanostructures en super-réseaux au pouvoir de conversion 2 fois supérieur à

MSTP-mai 2005 70

Page 71: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 71/92

 

celui des matériaux thermoélectriques passés. Des matériaux composites à nanofils sont aussienvisagés.La conversion thermo-photovoltaïque est, elle aussi, en train d’être améliorée par lafabrication de nanostructures qui exaltent le transfert par les modes résonnants (phonons-

 polaritons ou plasmons).

MicroélectroniqueLa fiabilité et la durée de vie des microprocesseurs sont conditionnées par les niveaux et lesgradients de température. Les puces en technologie (65 nanomètres) arrivent en phased’industrialisation. De nouveaux modèles physiques sont requis et de nouvelles métrologiessont à développer pour la caractérisation et le contrôle.

Intégrer davantage signifie chauffer plus encore puisque le nombre des éléments dissipatifsaugmente par une unité de surface et parce que les résistances électriques augmentent lorsqueles sections diminuent. Il est donc nécessaire aussi de penser à de nouvelles structures tels lesnanotubes qui sont envisagés pour la fabrication des pistes et des transistors. Le

comportement thermique de ces structures hyper-conductrices est encore mal compris et doitêtre optimisé.

 De nouvelles métrologies :

Les techniques optiques (caméra infra-rouge, réflectométrie) sont couramment utilisées pour cartographier la température sur des dimensions microniques. Elles sont cependant limitéesen résolution spatiale par le phénomène de diffraction. Pour atteindre des échellesnanométriques, la microscopie à sonde locale est plus adaptée. Elle est basée sur lamicroscopie à force atomique dont l’objet est d’obtenir la topographie de surface encontrôlant la force appliquée par une pointe de rayon de courbure nanométrique sur l ’échantillon. La microscopie thermique à balayage consiste à remplacer la pointe demicroscopie à force atomique qui est une simple pyramide inversée, par une thermistanceallant se mettre en contact avec l’échantillon. Cette résistance est par ailleurs calibrée entempérature de manière à produire par balayage la cartographie de la surface. La microscopiethermique à sonde locale reste délicate à caractériser : les échanges thermiques entre la pointeet l’échantillon ne se cantonnent pas au contact solide-solide mais aussi au transfert par legaz qui les sépare. La question des canaux de transfert thermique pointe-échantillon n’est pasrésolue à l’heure actuelle de manière satisfaisante. C’est pourtant ce type d’échange pointe-échantillon qui est utilisé dans le système millipède ou dans les techniques de chauffage localappliquées au stockage.

 La rupture des modèles thermiques classiques aux nano-échelles

De nombreuses applications des nanotechnologies utilisent les transferts de chaleur ou biensont confrontées à des problèmes de dissipation. Or les phénomènes physiques mis en jeudans les problèmes thermiques changent de nature aux courtes échelles de longueur et detemps. La nanothermique ne peut se traiter que par la remise en cause de tous les modèlesutilisés traditionnellement en thermique. En effet :- la conduction thermique est habituellement modélisée par une loi de diffusion : la loi deFourier. Cette loi traduit le comportement diffusif des phonons. Elle n’est valable que pour des distances supérieures au libre parcours moyen des phonons qui varie entre 5 et 100 nm

suivant les matériaux. Dès lors que les échelles de longueur mises en jeu deviennent plus petites, la loi de Fourier n’est plus valable et l’on doit utiliser de nouveaux modèles.

MSTP-mai 2005 71

Page 72: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 72/92

 

- la modélisation habituelle de la convection repose sur l’utilisation de la mécanique desfluides. Dès lors que les échelles de longueur mises en jeu sont inférieures au libre parcoursmoyen des molécules, la modélisation habituelle n’est plus adaptée. Par exemple, leséchanges thermiques entre deux surfaces séparées de 50 nm se font par l’intermédiaire demolécules qui effectuent des vols balistiques entre les surfaces sans qu’il y ait de collisions

moléculaires. Cette situation est caractérisée par un faible nombre de Knudsen, l’hypothèsede milieu continu est abandonnée et l’on doit avoir recours aux approches statistiques,intervenant par exemple dans l’étude des gaz raréfiés, telle l’équation de Boltzmann pour ladensité de particules.- les échanges radiatifs sont eux aussi profondément modifiés aux courtes distances. Deuxinterfaces séparées d’une centaine de nanomètres peuvent échanger de l’énergie par le biaisd’ondes de surface. Ces modes électromagnétiques qui sont confinés près des interfaces et ne

 participent pas du tout aux flux lorsque les distances sont supérieures aux longueurs d’ondetypiques mais deviennent les modes principaux aux courtes échelles de longueur. Leursexistences dépendent étroitement de la nature des matériaux.

En conclusion, la miniaturisation conduit à la modification extrême –plusieurs ordres degrandeur généralement- des propriétés thermiques (conductives, radiatives, convectives).Utiliser ce changement de comportement pour améliorer l’économie et la conversiond’énergie, la diffusion de la chaleur dans les composants ou encore l’utiliser commemécanisme fonctionnel dans les systèmes des TIC est un enjeu majeur.

&&&

MSTP-mai 2005 72

Page 73: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 73/92

 

 

 Appendice I 

CAPTEURS et NANOTECHNOLOGIES

Philippe Gaucher 

L’introduction des nanotechnologies dans le domaine des capteurs peut se décrire à plusieursniveaux:

- Nano-objets et effets quantiques:L’utilisation de couches ultraminces de matériaux supraconducteurs ou magnétiques a

 permis de réaliser de nouveaux principes de détections. Citons les détecteurs infra-rouge à puits quantiques (QUIPs ou Quantum Interference Photodetectors) qui utilisent destransitions spectroscopiques dans des matériaux artificiels, et les capteurs magnétiques baséssur l’effet de jonction Josephson (SQUID ou Superconducting Quantum InterferenceDevices) dans lesquels la conductivité d’une structure SIS (Supra-Isolant-Supra) est sensibleà des très faibles champs magnétiques. Il faut ajouter à cela les capteurs basés sur laMagnétorésistance Géante (GMR) qui utilisent de très fines couches de matériaux ferro et

ferri-magnétiques pour réaliser des magnétomètres ultrasensibles. Une prolongation de cestechniques est basée sur l’effet Hall Quantique.

- Capteurs utilisant des matériaux nanostructurés:La miniaturisation des capteurs électromécaniques et optiques (capteurs inertiels,acoustiques, interférométriques, capteurs de contraintes et de déformations) et leur intégration dans des microsystèmes (MEMS ou Micro-Electro-Mechanical Systems)nécessitent d’utiliser des matériaux fonctionnels plus performants utilisant des effets detransitions de phase de type martensitique (alliages à mémoire de forme et céramiques"relaxors") ou des nanocomposites (nanotubes de carbone, matériaux nanotexturés). L’intérêtici est l’aspect "multi-échelle" de ces matériaux qui permet de concentrer l’énergie sur de très

faibles volumes. Dans le domaine optique, on peut citer les matériaux à bande photonique(Photonic Band Gaps). Dans le domaine acoustique, les matériaux piézo-électriques à trèsfort couplage électromécanique.

- Capteurs issus des outils d’études des nanostructures:Les microscopies de champ proche électronique, mécanique, optique ou acoustique (STM,

AFM, SNOM, ...) se prêtent à la miniaturisation et à la réalisation de capteurs de propriétéslocales ayant une grande résolution spatiale. Ces techniques sont pressenties dans le domainede l’enregistrement (magnétique ou optique) et pourraient lire des densités d’informationgigantesques (écriture à l’échelle atomique par "hole burning" par exemple).

&&&

MSTP-mai 2005 73

Page 74: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 74/92

 

 

 Appendice J 

NANOTECHNOLOGIES et NOUVEAUX MÉDICAMENTS

Patrick Couvreur 

IntroductionL’explosion des connaissances dans le domaine de la biochimie, de la biologie moléculaire etde la génétique a permis de connaître les bases moléculaires d’un nombre chaque jour plusimportant de maladies. Ces informations aboutissent aujourd’hui à de nouvelles voies derecherche pour la découverte de molécules biologiquement actives : oligo- et polynucléotides, peptides et protéines, petites molécules capables de moduler l’expression d’ungène etc. Les formes traditionnelles d’administration des médicaments (comprimés, formesdermatologiques, collyres etc.) ne sont plus adaptées à ces molécules à fort potentielthérapeutique mais souvent instables et/ou mal absorbées et qui nécessitent d’être adresséesvers le site d’action tissulaire, cellulaire, voire sub-cellulaire. C’est la raison pour laquelle, le

développement de vecteurs de médicaments a pris un essor considérable au cours desdernières années. S’appuyant sur de nouveaux concepts physico-chimiques, la recherchegalénique a permis d’imaginer des systèmes sub-microniques d’administration(nanotechnologies) capables : (i) de protéger la molécule active de la dégradation et (ii) d’encontrôler la libération dans le temps et dans l’espace. Cette note fait le point des recherchesdans ce domaine en montrant l’extraordinaire potentiel de ces nouveaux systèmesd’administration et leur rôle dans la découverte de nouveaux médicaments. Elle traite

 principalement de la voie intravasculaire.

Nanotechnologies de première génération pour le ciblage hépato-splénique

Les liposomes (systèmes micro vésiculaires composés d’une ou de plusieurs bicouches de phospholipides organisées en phase lamellaire) et les nanoparticules (systèmes colloïdauxdont la structure est généralement constituée de polymères, de préférence biodégradables)sont les principaux vecteurs galéniques de médicaments. Leur taille, généralement inférieureau demi-micron, autorise l’administration intravasculaire sans risque d’embolie.Lorsqu’elles sont administrées par voie intraveineuse, ces nanotechnologies interagissentfortement avec les protéines plasmatiques en raison de la très grande surface spécifiquequ’elles développent (plusieurs dizaines de m2 par gr). Ainsi, des interactions hydrophobes secréent entre la surface du vecteur et des opsonines (IgG, éléments du complément,

fibronectine etc.) qui possèdent des récepteurs spécifiques au niveau des macrophages duSystème des Phagocytes Mononucléés (SPM). Les vecteurs colloïdaux décorés d’opsoninessont alors captés principalement par les cellules de Kupffer du foie et les macrophages de lazone marginale de la rate dont les récepteurs reconnaissent spécifiquement les fragments Fc

MSTP-mai 2005 74

Page 75: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 75/92

 

des IgG, le fragment C3bi du complément ou la fibronectine. Après avoir interagi avec lerécepteur macrophagique, les vecteurs seront internalisés par la voie de l’endocytose et ilsaboutissent dans des phagolysosomes où ils pourront éventuellement être dégradés par lesenzymes lysosomiales.

La distribution tissulaire (hépatosplénique) et intracellulaire (lysosomotropisme) de cesvecteurs de première génération a été mise à profit pour vectoriser des molécules d’intérêtthérapeutique au niveau de ces sites biologiques et traiter ainsi différentes pathologies.En particulier, des applications dans le domaine des infections intracellulaires ont fait l’objet

de travaux particulièrement prometteurs. En effet, lorsqu’elles se trouvent dans lecompartiment sanguin, les bactéries sont également opsonisées et captées par les macrophagesdu MPS. Beaucoup d’antibiotiques sont peu actifs sur ces germes à localisation intracellulairecar ils diffusent mal à l’intérieur de la cellule, où ils n’atteignent pas les compartimentsintracellulaires infectés (endosomes/lysosomes). La localisation tissulaire (foie, rate),cellulaire (macrophages) et subcellulaire (endosomes/lysosomes) des vecteurs de premièregénération en font donc une navette de tout premier choix pour le transport efficace

d’antibiotiques au niveau des cellules infectées.

Un autre domaine d’application est celui du cancer puisque le tropisme hépatique desvecteurs de première génération a été mis à profit pour traiter les métastases hépatiques. Dansce cas, il s’agit d’un ciblage indirect puisque le médicament anticancéreux est livré auxcellules de Kupffer du foie qui jouent le rôle de réservoir de médicament en effectuantl’internalisation du vecteur par endocytose et sa dégradation. Le principe actif ainsi libéré (s’iln’est pas lui-même dégradé dans les lysosomes) peut alors diffuser dans l’ensemble du tissu etnotamment vers les cellules néoplasiques. Notons que la distribution hépato-splénique desvecteurs de première génération permet aussi, dans certains cas, de réduire la toxicité demédicaments en les détournant de leur cible toxicologique. Ainsi, la toxicité cardiaque de ladoxorubicine a pu être réduite après encapsulation dans des liposomes ou des nanoparticules.De la même manière, la toxicité rénale de l’amphothéricine B a été fortement diminuée aprèsson administration à des patients sous la forme de liposomes. Des spécialités issues de cesconcepts ont été mises récemment sur le marché comme l’AmbisomeR  ou la DoxosomeR  .

 Notre laboratoire a également amené l’une de ses technologies (nanoparticules de polyalkylcyanoacrylate chargées en doxorubicine) à des essais cliniques (phase II) grâce à lacréation d’une société start-up (Bioalliance) qui occupe maintenant près de 50 personnes.

Nanotechnologies de deuxième génération ou le concept de résidencevasculaire prolongée

La capture rapide et massive des liposomes et des nanoparticules par le SPM constitue,cependant, un inconvénient lorsque d’autres territoires biologiques sont visés (cas, par exemple des tumeurs solides). En effet, la clearance plasmatique rapide des vecteurs de

 première génération constitue une barrière à l’accès vers d’autres tissus et/ou cellules. L’idéea donc émergé que l’adressage tumoral nécessitait d’abord d’éviter la capture par le MPS.Puisque l’opsonisation des vecteurs constitue, comme il a été dit plus haut, le principalmécanisme responsable de cette capture, une piste a consisté à développer des systèmesrésistants à l’opsonisation. Cependant, les phénomènes d’opsonisation correspondent à lareconnaissance par l’organisme du « non soi » et ils sont donc particulièrement difficiles à

empêcher. Ce verrou technologique a pu être résolu grâce à l’application à la galénique duconcept physico-chimique de la « répulsion stérique ». Ce concept repose sur le principe durecouvrement des vecteurs par des polymères hydrophiles et flexibles empêchant les

 protéines (en particulier les opsonines) de s’adsorber à leur surface.

MSTP-mai 2005 75

Page 76: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 76/92

 

 

De très nombreux travaux ont alors été entrepris afin d’insérer dans la bicouche phospholipidique des liposomes des phospholipides (comme la phosphatidyléthanolamine)couplés au polyéthylène glycol (PEG). Ces liposomes « peggylés » se caractérisent par un

temps de demi-vie plasmatique prolongé après administration intraveineuse et une capturehépatique réduite. Le caractère « furtif » (absence de reconnaissance par le MPS) estd’autant plus prononcé que les liposomes sont de faible taille (c’est-à-dire avec un rayon decourbure important). Il a été montré que la durée de la résidence vasculaire dépendait à lafois de la longueur des chaînes de PEG (un poids moléculaire de 2000 semble être une valeur limite en deçà de laquelle l’effet de répulsion stérique ne joue plus) et de leur densité à lasurface des liposomes. La distance interchaîne conditionne, en effet, la structure moléculairedes chaînes de PEG qui peuvent adopter suivant les cas une configuration en « champignon »ou en « brosse », la structure « en brosse » constituant la barrière stérique la plus efficace.Des approches similaires ont été effectuées avec les nanoparticules, soit en recouvrant leur surface à l’aide de copolymères de polyoxyéthylène/polyoxypropylène (POE/POP)

(pluronics et poloxamers), ou en y greffant, comme dans le cas des liposomes, des chaines dePEG. Une réduction de la capture hépato-splénique et une rémanence vasculaire accrue sontalors également obtenues. L’étape la plus délicate pour la conception de nanoparticules"furtives" consiste, cependant, à établir une couche stable de PEG par liaison covalente à lasurface de particules dont le cœur est, par ailleurs, constitué d’un polymère biodégradable.Cet objectif peut être atteint par la synthèse de copolymère biodégradables « peggylés »(comme le poly(éthylèneglycol-co-acide lactique) (PEG-PLA) ou le polyéthylèneglycol-co-hexadécylcyanoacrylate) suivie de leur précipitation sous forme de nanoparticules (par des

 procédés de nanoprécipitation ou d’évaporation de solvant) . Notons qu’ une couche de PEGou de POE/POP obtenue par simple adsorption est facilement désorbée in vivo.

Le concept d’encombrement stérique induit par des chaînes hydrophiles et flexibles grefféesà la surface des nanoparticules ou des liposomes a donc permis le développement d’unenouvelle génération de vecteurs « furtifs » à rémanence vasculaire prolongée et nonreconnus par le SPM. En raison de leur taille, ces systèmes ne sont pas capables de diffuser àtravers l’endothélium vasculaire. Il y a, cependant, des exceptions remarquables au niveau decertaines tumeurs dont l’endothélium a subi des modifications importantes qui le rendent plus

 perméable (à condition que la pression du liquide interstitiel au niveau tumoral ne s’oppose pas au flux des substances du compartiment vasculaire vers le tissu). La rémanencevasculaire accrue des vecteurs « furtifs » peut ainsi aboutir à leur extravasation sélective auniveau de l’endothélium vasculaire tumoral, plus perméable que l’endothélium vasculaire au

niveau des tissus sains.

Lorsqu’ils sont chargés en médicaments anticancéreux, ces vecteurs « furtifs » de deuxièmegénération ont montré une efficacité remarquable dans le traitement de tumeursexpérimentales, ce qui  a d’ailleurs abouti récemment à la mise sur le marché du DoxilR 

(liposomes peggylés chargés en doxorubicine). Un autre domaine d’application thérapeutiquea été abordé récemment par notre laboratoire avec la conception de nanoparticules préparéesà l’aide d’ un copolymère « peggylé » (polyéthylèneglycol-co-hexadécyl cyanoacrylate).Lorsque ces vecteurs sont chargés en tamoxifène (un antagoniste des récepteurs desoestrogènes), ils sont capables de guérir l’uvéite auto-immune expérimentale en adressantspécifiquement ce médicament vers les cellules responsables de la réaction inflammatoire

auto-immune.

MSTP-mai 2005 76

Page 77: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 77/92

 

Les nanotechnologies de troisième génération ou l’utilisation de ligands àreconnaissance moléculaire

L’adressage de ces systèmes au niveau cellulaire et subcellulaire peut se faire par 

l’utilisation de ligands (anticorps, peptides, sucres, acide folique) capables de reconnaître demanière sélective des antigènes ou des récepteurs hyper exprimés à la surface des cellulescible (cellules cancéreuses, cellules infectées etc.). La conception de ces vecteurs detroisième génération nécessite la construction d’édifices supramoléculaires composés : (i)d’un cœur biodégradable (phospholipides ou polymères), (ii) d’une couche de polymèreshydrophiles et flexibles (PEG) pour éviter la reconnaissance hépato-splénique et (iii) àl’extrémité de certaines chaînes de PEG, d’un ligand de reconnaissance membranaire.Lorsque la cible moléculaire (récepteur ou antigène) présente à la surface des cellules estinternalisée par endocytose après interaction avec son ligand, le contenu du vecteur peut alorsêtre libéré au niveau intracellulaire (cytoplasme ou endolysosomes, suivant la nature du traficintracellulaire que subit le récepteur) et y exercer son activité.

Cette stratégie a abouti, par exemple, à coupler à la surface de liposomes « peggylés » unanticorps monoclonal (anticorps 34A) reconnaissant des glycoprotéines de surface expriméesau niveau luminal de l’endothélium vasculaire pulmonaire. Lorsque ces liposomes sontchargés d’amphothéricine B, ils sont très actifs dans les aspergilloses pulmonairesexpérimentales. Une autre construction a consisté à conjuguer le fragment Fab’ d’unanticorps orienté contre le proto-oncogène HER2 à l’extrémité des chaînes PEG de liposomesà base de phosphatidyl éthanolamine-PEG et chargés en doxorubicine. Ces liposomesadressés ont fait la preuve de leur remarquable efficacité dans des cancers expérimentauxconsistant en des xénogreffes chez la souris nude de cellules du sein humaines

hyperexprimant l’antigène HER2. Récemment, l’acide folique a été couplé à la surface denanoparticules via des chaînes de PEG. Il a été montré que ce vecteur était capable dereconnaître de façon très spécifique les cellules cancéreuses exprimant le récepteur FBP(Folate Binding Protein). 

Conclusion

De nouveaux systèmes galéniques d’administration, de transport et de vectorisation desmédicaments ont pu être mis au point grâce à des recherches menées à l’interface de laPhysique, de la Chimie et de la Biologie. En particulier, la Physico-chimie a permis de

développer de nouveaux concepts dans le domaine des nanotechnologies et des systèmessupramoléculaires organisés tandis que la Biologie Cellulaire et Moléculaire a contribuéquant à elle à identifier ou à mieux connaître les cibles biologiques. Cette note a fait le pointdes principales avancées réalisées pour la vectorisation de molécules biologiquement activesaprès administration intravasculaire. Des travaux similaires ont, cependant, aussi été réalisés

 pour la vectorisation de principes actifs par d’autres voies. Les nano- ou microparticules ont, par exemple, été utilisées pour l’administration par voie orale d’antigènes en vue du ciblagedes plaques de Peyer, afin d’induire une immunité muqueuse de type IgA. Ces approchessont susceptibles d’aboutir à de nouveaux vaccins, plus efficaces et plus aisés à administrer.

L’utilisation de vecteurs galéniques pour la thérapie génique constitue également un domained’investigation passionnant qui n’a pas été abordé dans le cadre de cette note. Ces vecteursnon-viraux constituent, cependant, une alternative prometteuse à l’utilisation des virus pour la transfection des acides nucléiques. Des stratégies biomimétiques permettront peut-être, à

MSTP-mai 2005 77

Page 78: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 78/92

 

l’avenir, d’aboutir à des vecteurs aussi efficaces que les virus sans en avoir les inconvénients(immunogénicité, réveil d’oncogènes etc.).

Bien que futuristes, les recherches menées en vue de concevoir de nouveaux vecteursgaléniques ont dépassé le stade de la simple curiosité de laboratoire puisqu’elles ont déjà

abouti à la mise sur le marché de nouveaux médicaments pour le traitement du cancer et decertaines maladies infectieuses.

Signification de quelques termes 

ENDOCYTOSE : action qui consiste pour la cellule à internaliser une molécule ou une particule par invagination de la membrane cellulaire. Après internalisation cellulaire, lamolécule ou la particule seront localisées dans une vacuole d’endocytose qui a le nomd’ENDOSOME (quand la vacuole ne comporte pas encore d’enzymes) ou de LYSOSOME(quand la vacuole a un contenu enzymatique)

PEGGYLÉ : désigne le greffage de polyéthylèneglycol à la surface d’une entité moléculaireou particulaire

LUMINAL : désigne le côté d’un endothélium ou d’un épithélium orienté vers la lumièred’un vaisseau ou d’un organe (par exemple la lumière intestinale)

SOURIS NUDE : désigne une espèce de souris qui n’a pas de pilosité

PLAQUE DE PEYER : désigne le tissu lymphoïde intestinal

TRANSFECTER : action qui consiste à amener à l’intérieur de la cellule un ADN capabled’induire l’expression de la protéine correspondante.

&&&

MSTP-mai 2005 78

Page 79: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 79/92

 

 Appendice K 

DISPOSITIFS MIS en PLACE pour COORDONNER

et SOUTENIR les ACTIONS FRANÇAISES dans leDOMAINE des NANOSCIENCES

Patrice Hesto

Le programme Nanosciences-Nanotechnologies

A la fin de 2004, un programme Nanosciences-Nanotechnologies a été annoncé et sacoordination confiée à l’Agence Nationale de la Recherche (ANR). Ce programme est mis enoeuvre dans le cadre du Réseau National en Nanosciences et en Nanotechnologies (R3N).

Les principaux objectifs du programme sont :

• Le financement des plates-formes scientifiques et technologiques ("grandescentrales"),

• Le financement des meilleurs projets académiques, mettant en réseau leslaboratoires académiques,

• Le financement des meilleurs projets en partenariat, mettant en réseau les

laboratoires publics, des centres de recherche privés de grandes entreprises et desPME innovantes.

Ces trois objectifs étaient partiellement couverts par diverses actions associant des partenaires tels que le Ministère de la Recherche, le Ministère de l’Industrie, l’ANVAR, leCNRS, le CEA et la DGA:

• La mise en place par le CNRS et le Ministère de la Recherche d’un réseau degrandes centrales technologiques destiné à soutenir la recherche technologique de

 base dans le domaine des micro et nanotechnologies. Ainsi la France s’est dotéed’une infrastructure regroupant des moyens techniques importants lui permettantde répondre aux enjeux des nanotechnologies. Les six grandes centrales du réseau

sont situées sur Grenoble (autour du CEA-LETI), Lille (autour de l’IEMN),Toulouse (autour du LAAS), Besançon (autour de FEMTO), et l’Ile-de-France Sud(l’une autour de l’IEF et l’autre du LPN). Cet ensemble est complété par un réseaudes centrales de proximité, plus spécialisées. Elles sont réparties dans l’Est (Nancyet Strasbourg), en Rhône-Alpes (Lyon et Grenoble), en Languedoc (Montpellier),en Bretagne (Rennes) et en Ile de France (Paris Centre et Saclay).

• Un programme Nanosciences regroupant le Ministère de la Recherche, le CNRS,le CEA-DSM et la DGA qui s’est progressivement mis en place avec, dès 1999,une AIP du Ministère de la Recherche. Plusieurs interventions étaient proposéesdans le cadre de ce programme : (i) le soutien de projets de recherche ambitieux et

novateurs; (ii) le soutien à l’accueil dans les grandes centrales de technologies et la participation à l’ouverture et à la jouvence des centrales de proximité; (iii) uneincitation forte au regroupement les forces en nanosciences dans des structures

MSTP-mai 2005 79

Page 80: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 80/92

 

identifiables avec la mise en place des "centres de compétences en nanosciences"(C’nano) autour d’entités ou de thématiques fortes. Au 1er  juin 2005, 5 centres sontidentifiés : en Ile de France, en Rhône- Alpes, dans le Grand-Est, dans le GrandSud-Ouest et dans le Nord-Ouest.

• En 1999, le Ministère de la Recherche, avec le soutien du Ministère de l’Industrieet de l’ANVAR, a mis en place le Réseau Micro et Nano Technologie (RMNT).Son but était de favoriser des transferts technologiques entre la recherche publiqueet les entreprises.

Enfin, le concept de l’Observatoire des Micro et Nano Technologies (OMNT), développéen 2001 par le CEA et le CNRS, devrait être intégré dans le dispositif R3N. Ainsi une veillestratégique et continue sur des thèmes clés des micro et nanotechnologies sera accessible

 pour l’ensemble des acteurs en présence.

La formation

Au début des années 1980, l’industrie de la microélectronique a émis le souhait que desétudiants puissent utiliser au cours de leur formation des installations au meilleur niveau, tantdu point de vue conception de circuit que technologies de fabrication. Pour répondre à ce

 besoin, le Ministère a mis en place le CNFM (comité national de formation enmicroélectronique) avec la mise en réseau de onze centres de ressources. Six d’entre euxs’appuient sur des centrales de technologies : AIME à Toulouse, CIME à Grenoble, CEMIP àParis, CCMO à Rennes, PLM à Lille et PMIPS à Orsay. Depuis 3 ans, les pôles du CNFMconstituent avec le SITELESC, le syndicat professionnel des industries du semi-conducteur,un GIP. Progressivement des TP dans le domaine des nanotechnologies sont proposés auxformations utilisatrices des pôles.

A l’Université, plus de 20 formations relevant des mentions à dominante physique proposent des enseignements en nanosciences et nanotechnologies au niveau de spécialitésde MASTER. Un tiers est à finalité professionnelle, deux tiers à finalité recherche. Les deuxtiers de ces formations sont des évolutions de DEA ou DESS à dominante matière condensée,

 physique du solide, semi-conducteurs, magnétisme et caractérisations physico-chimiques. Letroisième tiers vient des filières microélectroniques. Quelques écoles d’ingénieurs ont mis en

 place en dernière année des parcours nanosciences et nanotechnologies, souvent en liaisonétroite avec des formations universitaires niveau BAC+5. Enfin, de nombreuses universités

 proposent dès les MASTER1 des initiations aux nanotechnologies, ce qui permet de fairedécouvrir ces domaines aux étudiants et ainsi les motiver pour ces spécialités. La majorité deces formations s’appuient sur les moyens du réseau des centrales de proximité et sur celles du

CNFM.

Pour en savoir plus

Programme Nanosciences-Nanotechnologies

Communiqué de presse : http://www.recherche.gouv.fr/discours/2004/dpnanotech.pdf 

Agence Nationale de la Recherche

Toutes les informations sont disponibles sur le site de l’agence : http://www.gip-anr.fr 

Le Réseau Micro Nano Technologies (RMNT)

Toutes les informations sont disponibles sur le site du réseau: http://www.rmnt.org/

MSTP-mai 2005 80

Page 81: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 81/92

 

Observatoire des Micro et Nano Technologies (OMNT)

Site de l’observatoire : http://www.omnt.fr 

Réseau des grandes centrales

PLATO, CEA-LETI, Grenoblenanoélectronique, électronique de spin, technologies ultimes et techniques decaractérisation innovantessite : http://www.minatec.com/minatec/plato.htm

IEMN, CNRS-USTL, Lille procédés et matériaux III-V, nanotechnologies pour les STIC et la biologiesite : http://www.iemn.univ-lille1.fr/plateforme/plateforme_03.htm

CTU, IEF, CNRS-UPS, Orsaycomposants optoélectroniques, nanotechnologies, nanostructures magnétiquessite : http://www.u-psud.fr/ief/ief.nsf/NewCEETAM%5Cwelcome.html!OpenPage

LPN, CNRS, Marcoussisnanosciences, dispositifs photoniquessite : http://www.lpn.cnrs.fr/fr/ct.php

LAAS, CNRS, Toulousedispositifs photoniques, nanotechnologies et nanostructures pour les sciences du vivantsite : http://www.laas.fr/laasvf/index.htm

MIMENTO, FEMTO, CNRS-UFC, Besançon Nanotechnologies spécifiques pour les télécommunications et les biotechnologiessite :http://www.femto-st.fr 

Réseau des centrales de proximité

LPMIA, CNRS-UHP, Nancy et IPCMS, CNRS-ULP, Strasbourgnanostructures magnétiques, matériaux carbonés, propriétés optiques desnanostructures, matériaux moléculaires et supramoléculaires, manipulation desmacromolécules biologiquessite : http://www.lpmi.uhp-nancy.fr/SalleBlanche/

LEOM, CNRS-ECL, Lyonnanomatériaux, nanostructures, nanophotonique, nanobiosciencessite : http://leom.ec-lyon.fr/actualites/plateforme.fr.html

 NANOFAB, CNRS-UJF, Grenoblenanosciences, nanotechnologies

ATEMI, CNRS-USTL, Montpellier nanocaractérisation, boîtes quantiques, nanomécanique, NTCsite : http://www.ctm.univ-montp2.fr/

Dpt Physique, CNRS-ENS, Parisinformation quantique, électronique moléculaire, interface physique-chimie-biologie

LENS, CNRS-Rennes 1 et PALMS, CNRS-Rennes 1nanostructures pour l’optique,

MSTP-mai 2005 81

Page 82: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 82/92

 

SPEC, CEA, Saclaynanofabrication de dispositifs métalliques (supra, magnétisme)

Les centrales du CNFM

site du CNFM : http://www.cnfm.fr/ AIME, INSA, Toulouse

site : http://www.aime.insa-tlse.fr/

CIME, INP, Grenoblesite : http://www.cime.inpg.fr/

CEMIP, ESIEE, Parissite : http://www.cemip.enst.fr/

CCMO, INSA, Rennessite : http://ccmo.univ-rennes1.fr/

PMIPS, dans la CTU, Orsaysite : http://www.u-psud.fr/ief/ief.nsf/CTU%5Cformation05.html!OpenPage

PLM, IEMN, Lillesite : http://oueba.univ-lille1.fr/plfm/

Les principales spécialités MASTER2 en nanosciences-nanotechnologies

Site Spécialité

Aix-Marseille Sciences des matériaux, nanosciences (R)

Aix-Marseille Dispositifs de la nanoélectronique (R)

Angers Ingénierie moléculaire et nanotechnologies (R)

Besançon Electronique et optique – parcours Microsystèmes (R)

Dijon Nanosciences et Nanotechnologies (P)

Grenoble Ingénierie des couches minces, micro et nano technologies (P)

Grenoble Micro et nano électronique (R)

Lille Micro et nano technologies (R)

Lille Matière condensée (R)

Lyon Nanotechnologie (P)

Lyon Physique des matériaux

Montpellier Electronique, nanotechnologies, composants et systèmesMontpellier Physique et ingénierie des matériaux pour la microélectronique et les nanotechnologies (P)

Paris VI Sciences des matériaux et nano-objets (R)

Paris VII Nanosciences (R)

Paris XI Micro et nanotechnologies (P)

Paris XI Micro et nanotechnologies (R)

Poitiers Surfaces, interfaces et nanostructures (R)

Rennes Physique (R)

Strasbourg Matière condensée : matériaux, nanostructures, matière molle (R)

Toulouse Nanosciences, physique, nanomesure (R)

Troyes Optique et nanotechnologies (R)

&&&

MSTP-mai 2005 82

Page 83: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 83/92

 

 

CONCLUSION

Ce tour exploratoire du nanomonde a été réalisé après d’autres voyages récents effectués par d’éminents spécialistes du domaine, le plus souvent à l’initiative d’institutionsreprésentatives de la science française. Que pouvait-on attendre de cette nouvelle approche ?Quels éléments d’analyse s’en sont dégagés et quelles conclusions peuvent être expriméesaprès d’autres voix autorisées ?

Définissons d’abord le caractère de cette démarche comme délibérément transdisciplinaire  par rapport aux disciplines de base dont relèvent les différents champs explorés par les

chercheurs. Elle s’est également fondée sur la relation indispensable, et donc décisive,entre  la science et la technologie s’agissant des principes fondamentaux progressivementdécryptés et des applications qui en sont, toujours plus rapidement, issues. En ce sens lesnanosciences et les nanotechnologies constituent le cadre d’une nouvelle et même frontière

 portant les champs d’investigation et d’opération au niveau des dimensions des molécules etdes atomes. On est bien là dans la continuité de la logique visant à pénétrer toujours plusavant dans la connaissance des constituants de la matière laquelle rejoint désormais ladescription à l’échelle des phénomènes quantiques; or le défi est justement d’établir lecontact le plus direct entre ce niveau et l’échelle macroscopique naturellement accessible àl’homme.

Ainsi le XXIe siècle verra la révolution des nanosciences. Participer aux recherches dans cesnouveaux champs d’investigation peut constituer une expérience exaltante pour les jeunesscientifiques, stimulant leur activité et libérant leur initiative.Dans ce nouveau cadre dimensionnel les phénomènes de surface prennent le pas sur les

 propriétés de volume. A l’échelle nanométrique, la mesure de la cohérence de phase desélectrons devient possible, la fonctionnalisation des molécules est réalisable, l’émergence dunanomagnétisme et de l’électronique de spin laisse entrevoir des performances de détectionde champ magnétique multipliées par dix, voire par cent, par rapport aux magnéto-résistances géantes qui sont elles-mêmes passées en quelques années du stade du laboratoireà la fabrication industrielle pour des usages de grande diffusion.

La nanophysique bénéficie de moyens d’investigation toujours plus pénétrants; lemicroscope électronique en champ lointain atteint aujourd’hui la résolution atomique, maisdéjà celle développée en champ proche prévoit de manipuler des atomes individuels. Dansces conditions, la voie est ouverte à l’élaboration de composants à logique quantique.

La nanochimie amplifie le rôle dévolu à la chimie dans l’organisation et lafonctionnalisation de la matière. L’approche multi-échelle, du niveau moléculaire auxniveaux micro et macroscopiques, permet déjà d’élaborer des matériaux pour un grandnombre de fonctions. Dès lors la maîtrise des voies de synthèse d’objets nanométriquesreprésente un enjeu essentiel. L’augmentation de la surface spécifique (surface/volume)

 peut, par exemple, exalter l’activité des interfaces, affectant leurs propriétés catalytiques,électroniques, optiques ou magnétiques. Ainsi on peut envisager de construire un nano-objetautour d’une propriété, celui-ci pouvant être (auto) assemblé pour constituer un matériau à

 propriétés spécifiques (exemple : les nanomatériaux pour le stockage de l’énergie).

MSTP-mai 2005 83

Page 84: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 84/92

 

 Les nanobiotechnologies découvrent des champs d’applications pleins de promesses

 pour le diagnostic et les thérapies, à la convergence des nanotechnologies et de la biologie. On retient quelques exemples :Des nanoparticules élaborées dans ce cadre offrent de larges perspectives pour le

marquage optique et pour la délivrance de médicaments dans l’organisme.Les nanofils et nanotubes sont particulièrement intéressants à envisager comme supportde sonde détectrice de molécules ciblées.Les surfaces nanostructurées permettent la reconnaissance moléculaire grâce auxdifférents modes de fonctionnalisation chimique.Les systèmes intégrés in vitro (laboratoires sur puce / lab on chip) présentent égalementun grand intérêt pour de multiples applications. Ils sont aussi à la convergence desconnaissances de la mécanique et de la thermique qui décuplent les champsd’applications des activités humaines du futur.

L’ensemble du domaine réclame l’association de multiples compétences disciplinaires et

nécessite celle tout à fait indispensable d’ " Architecte" de  micro-nanosystèmes  pour toutes les applications spécifiques.

L’impact sociétal de ce nouveau secteur d’activités apparaît clairement à travers la réserve,les craintes, voire l’hostilité, exprimées à son égard par certains groupes de pensées. Celles-ci sont alimentées par la suspicion que peut inspirer une description utopique du nanomondedans lequel nous pourrions nous retrouver demain. Un manque quasi-total de connaissanceconcernant ce domaine qui peut apparaître comme un moyen de manipuler, sans contrôle, lamatière à son niveau ultime, conduirait à un rejet des nanosciences et des nanotechnologiesmanifestant un souci (un principe ?) de précaution visant à protéger la liberté individuellede toutes atteintes et à préserver la santé publique de tous risquesLes avancées scientifiques doivent donc être accompagnées d’études probantes sur les

risques potentiels qu’elles contribuent à développer et les moyens de s’en prémunir. Sur ce plan, les Humanités et les Technosciences doivent impérativement ouvrir un dialogue queles médias auront la charge de relayer auprès des populations.

Pour conclure, parcourons les chemins de ce nanomonde où se trouvent les principaux défis à relever dans les champs retenus ici comme essentiels.Quelles sont tout d’abord ces technologies à mettre en œuvre à l’échelle atomique ?Au niveau européen, le 7ième PCRDT définit un double objectif :

- pouvoir rendre fonctionnel quelques atomes ou une molécule dans un piège optique

ou électrostatique miniaturisé à cette échelle (molécule-calculateur)- pouvoir interconnecter une (telle) molécule, déposée à la surface d’un cristal, par desfils diélectriques ou métalliques à l’échelle atomique, c’est à dire être capable defabriquer des instruments de mesure les plus petits possibles tel un convertisseur des

 phénomènes quantiques en courant mesurable.On en vient au concept et à la réalisation de micro-salles blanches où les nanotechniquesd’assemblage, de fabrication et de lithographie devront être compatibles avec l’ultra-vide. Ilfaudra alors développer des techniques de nanoconditionnement spécifique.Pour la modélisation des matériaux et des nanostructures, on assiste à une convergence auniveau des outils de diagnostic, des méthodes de calcul et des tailles d’assemblage. Il fautfournir des moyens de modélisation par nature toujours plus complexes. Les initiatives

européennes devraient permettre de valoriser les atouts existant au plan national. Uneorganisation est à mettre en place.

MSTP-mai 2005 84

Page 85: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 85/92

 

L’exemple peut venir de l’expérience de mise en œuvre et d’exploitation des grandsinstruments scientifiques : les logiciels de base ( produits) sont assemblés ( expériences) etmis à la disposition des utilisateurs selon un protocole défini, conduisant à undéveloppement concerté d’une architecture logicielle de simulation.Les méthodes de caractérisation ont connu des progrès déterminants pour atteindre l’échelle

nanométrique. Aujourd’hui la microscopie à champ proche permet non seulement unevisualisation de la surface atomique mais aussi une manipulation d’atomes sur les surfaces( cf cliché IBM ).Il faut en particulier passer à la conception de composants innovants, assurant des fonctions intermédiaires intelligentes, reliant nano et micro-échelle. Le succès industriel desnanotechnologies est clairement conditionné par la fiabilité des nanocomposants : criticité visà vis de contraintes, caractérisation des mécanismes de défaillance ; on est conduit àdévelopper des outils de simulation physique complexes depuis le matériau élémentaire

 jusqu’à l’assemblage.Les outils de CAO n’ont jamais remplacé les concepteurs de circuit, c’est encore plus vraien nanotechnologies. Leur formation devient désormais un enjeu stratégique essentiel dans

une logique d’intégration matériels/logiciels. Les métiers de la conception deviennentmultidisciplinaires pour élaborer ces nouveaux types d’architecture. L’innovation dans cedomaine ne pourra résulter que d’un effort collectif.Les réalisations nanotechnologiques vont concerner des champs d’application toujoursplus larges : la nano-microfluidique dont l’impact en biologie santé et génie des procédés estdéjà considérable ; ici le passage des propriétés et des performances de volume à celles desurface est déterminant comme par exemple, l’analyse du transport bidimensionnel decouche. De même pour les sources d’énergie miniatures, fondées sur la nanostructuration desmembranes utilisées dans les générateurs électrochimiques et encore de la nanothermique oùles comportements classiques, conductif, radiatif et convectif sont totalement modifiés etlaissent entrevoir des possibilités de transfert et de conversion d’énergie inédites.Il faut signaler aussi l’évolution des capteurs à cette échelle nanométrique, utilisant deseffets quantiques, des matériaux nanostructurés qui ouvrent des perspectives considérables àla nanométrologie.Enfin les nanobiotechnologies appliquées à la vectorisation galénique offrent à la recherched’immenses territoires à explorer ; c’est déjà une réalité pour le traitement du cancer et decertaines maladies infectieuses.Toutes ces avancées scientifiques et technologiques ouvrent sur un monde inédit. Elles ont un

 besoin évident du concours d’esprits curieux et motivés parmi les jeunes générations.Les y préparer constitue un vrai défi pour notre système éducatif, s’agissant de favoriser l’ouverture des disciplines sans pour autant négliger la qualité des savoirs. Certains d’entre

eux auront en outre la mission d’être des médiateurs entre la société et les nouvellestechnologies.

Gérard Cognet  

&&&

MSTP-mai 2005 85

Page 86: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 86/92

 

 

RECOMMANDATIONS

Les nanosciences s’inscrivent dans la logique de l’histoire de l’humanité qui tend àrepousser toujours plus loin les frontières du champ des connaissances, particulièrement dansle domaine des sciences et de leurs applications pour l’Homme. Il s’agit de pénétrer lamatière au plus intime de ses composants. Dans la conduite de cette avancée, la science et latechnologie sont particulièrement imbriquées. En même temps, les nouveaux secteursindustriels de haute technologie (information et communication, matériaux, biologie etsanté…) situés sur des marchés souvent de large diffusion et à caractère très compétitif sonttrès largement dépendants des progrès scientifiques et de la levée de verrous technologiques.La perspective d’un tel champ d’action, considérable par sa nouveauté et ses retombées

 potentielles pour la société, réclame une réponse ambitieuse de la part de notre pays quisouhaite maîtriser son avenir scientifique et technique, économique et social.

Les recommandations qui suivent n’ont de valeur que dans le cadre d’un projet national quiconfirme cet engagement au premier plan des priorités. Les déclarations du Ministre déléguéà la Recherche, Monsieur François d’Aubert, le 16 Décembre 2004, les programmes del’Agence Nationale de la Recherche (ANR) en particulier, doivent pouvoir représenter à cetégard des signes forts de soutien.

• Favoriser l’environnement d’une telle démarche.Il convient de susciter, d’encourager et de développer la créativité qui est essentielle dans

une telle dynamique de projets, en garantissant un accompagnement de moyens pérennesindispensable dans un contexte global où l’accélération du temps impose à la fois rapidité etefficacité. C’est une des conditions pour que de jeunes et brillants esprits s’engagent danscette nouvelle aventure scientifique.

• Aménager le cadre interdisciplinaire des nanosciences.Les contours disciplinaires à l’échelle du nanomètre ont tendance à s’effacer au bénéficed’une convergence d’approche interdisciplinaire. Ainsi la pluridisciplinarité constitue unedes caractéristiques fondamentales de l’étude du nanomonde qui réclame le plus souvent descompétences et des cultures très variées.La constitution d’équipes de projets pluridisciplinaires, pouvant préfigurer de nouveaux

découpages ou modes de fonctionnement de nos laboratoires, est probablement une réponseefficace au défi qui nous est lancé. Cette diversité des différents types d’action devra êtreorganisée et s’intégrer dans une réflexion stratégique des communautés scientifiquesconcernées.

• Etablir durablement la collaboration entre nanosciences et nanotechnologies.Les nanosciences s’appuient largement sur les nanotechnologies et réciproquement; cemariage entre une recherche fondamentale, ouverte par nature, et une recherche plusfinalisée est d’autant plus nécessaire que les enjeux, en particulier sur le plan économique,sont, à l’évidence, considérables. Un tel engagement devra être d’autant plus affirmé qu’il

 peut se heurter à certains modes de pensées ou traditions de cloisonnement qui restent bienréels dans notre pays. En conséquence la prospective à moyen et long terme des thèmes etdes programmes d’actions devra intégrer non seulement les tenants de la recherche

MSTP-mai 2005 86

Page 87: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 87/92

 

académique mais également ceux de la recherche partenariale publique-privée et, par suite,ceux du développement industriel.

• Organiser la recherche pour maintenir (rejoindre) le niveau compétitif mondial.

Dans cette perspective ambitieuse visant à permettre une participation de premier plan denotre pays en nanosciences et nanotechnologies, il convient de faire apparaître desentités puissantes et internationalement reconnues dans le domaine. A cet effet, lacoordination et /ou le partenariat entre le Ministère de la Recherche, le CNRS et le CEAdoivent constituer des éléments forts d’une structuration reconnue comme nécessaire etau sein de laquelle les "centres de compétence" en nanosciences, définis au niveaunational, doivent prendre une part active. Dans de telles conditions la cohérence enmatière d’affectation des moyens, humains et financiers, pour des projets clairementidentifiés et validés, reste primordiale. A cet égard la mise en place d’une agence, avecune programmation de moyens dédiés à cet objectif, peut être un outil efficace.Au-delà du développement indispensable de collaborations interdisciplinaires, il convient

aussi d’établir des liens avec des équipes au plan international, en particulier dans lecadre de la politique de coopération européenne. Ainsi il faut savoir pleinement profiter de la programmation du 7ième PCRD qui va afficher largement les nanosciences et lesnanotechnologies parmi ses priorités.

• Savoir gérer la complexité.L’implication nécessaire dans de tels projets d’une grande diversité de cultures et decompétences réclame un authentique savoir-faire intégré en matière de "gestion de lacomplexité", sur le plan scientifique et humain pour :

- travailler ensemble sur un même objet ou système.- développer une approche "type multi-échelle" qui permette d’établir un lien, conceptuelet physique, entre le nanomonde et le monde réellement accessible.

- concevoir des architectures de composants innovants qui assurent des fonctionsintermédiaires intelligentes reliant nano et micro-échelles.

• Explorer les "nouveaux espaces".L’exploration du champ des nanosciences va bien au delà de la physique et del’ingénierie. Il faut voir plus loin : développer les réalisations induites par le couplageentre les phénomènes physiques et chimiques, le traitement de surfaces fonctionnalisées,

favoriser le foisonnement perceptible en direction de la nanomécanique et la nano-fluidique, la nanothermique et la nano-énergétique, sans parler des applications ennanobiotechnologies pour lesquelles, en particulier la conception de nouvellesarchitectures de micro-nano systèmes offre des perspectives prometteuses.

• Assurer la formation des jeunes scientifiques.Le contexte des activités en nanosciences et en nanotechnologies exige des étudiantsformés à la pluridisciplinarité, possédant une solide compétence scientifique de base, en

 particulier en mécanique quantique, avec une ouverture vers d’autres disciplines. Lesformations dans ce domaine sont encore très récentes, même si leur nombre s’est

multiplié récemment dans le cadre de l’offre LMD. La période qui vient seradéterminante pour tester la capacité de notre dispositif Master à fournir les

MSTP-mai 2005 87

Page 88: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 88/92

 

compétences nécessaires au meilleur niveau. On peut, du reste, envisager d’offrir la possibilité d’une initiation dès la troisième année de Licence.

• Préparer la Société.

Le devoir d’information est essentiel dans nos sociétés modernes. La nouvellerévolution scientifique ne pourra porter ses fruits que si elle est comprise et acceptée par les citoyens. Les États-Unis consacrent 5% de leur très important programme (NNI) àl’étude de l’impact environnemental et social des nanosciences et des nanotechnologies;laFrance, après d’autres expériences, serait bien inspirée de prendre en considération unetelle démarche.

&&&

MSTP-mai 2005 88

Page 89: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 89/92

 

 

LISTE DES AUTEURS

Patrick BERNIER Directeur de recherche CNRS UMR 5581

Gérard COGNET Professeur INPG UMR 5519

Patrick COUVREUR Professeur Université de Paris 11 UMR 8612

Yves DANTO Professeur Université de Bordeaux 1 UMR 5818

Philippe GAUCHER Professeur Ecole Centrale de Paris UMR 8580

Bernard GAUTHIER-MANUEL Chargé de recherche CNRS UMR 6174Daniel HAUDEN Professeur Université de Besançon UMR 6174

Patrice HESTO Professeur Université de Paris 11 UMR 8622

Christian JOACHIM Directeur de recherche CNRS UPR 8011

François JOLLET Ingénieur CEA-DAM Ile de France

Jean-Luc LERAY Directeur de recherche CEA-DAM Ile de France

Alain MENAND Professeur Université de Rouen UMR 6634

Pierre PUGET CEA-LETI / Département Technologies pour la biologie et la santé

Michel RIBES Professeur Université de Montpellier 2 UMR 5617

Michel ROBERT Professeur Université de Montpellier 2 UMR 5506

Sébastian VOLZ Chargé de recherche CNRS UPR 288

Gilles ZÉRAH Ingénieur CEA-DAM Ile de France

Que Jean-Louis ROBERT, Professeur à l’Université de Montpellier 2, soit remercié pour ses conseils éclairés auprès des auteurs de ce rapport

&&&

MSTP-mai 2005 89

Page 90: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 90/92

 

 

RÉFÉRENCES

RAPPORTS

• Académie des Sciences- Principaux enjeux et verrous scientifiques au début du XXIème siècle Avril 2004 93pChapitre : de la molécule à la société p45-60

• Académie des Technologies- Les nanotechnologies : enjeux et conditions de réussite d’un projet national derecherche 54p

• Académie des Sciences - Académie des Technologies- RST n°18 Nanosciences Nanotechnologies Avril 2004 480p

• Office parlementaire d’évaluation des choix scientifiques et technologiques- L’évolution du secteur des semi-conducteurs et ses liens avec les micro etnanotechnologies Cl. Saunier Tome 1 – Rapport 162p n° 566/138Tome 2 – Actes du Colloque Microélectronique et Nanotechnologies: une chance à

saisir 163p n° 769/244

- Nanosciences et progrès médical J.L Lorrain et D.Raoul 294p n°1588/293• Yole Developpement OMNT- Nanotechnologies, Environnement international 28p- Les start-up des nanotechnologies en 2003 15p

• Développement & Conseil MINEFI / DIGITIP- Etude prospective sur les nanomatériaux 112p

• Observatoire des Micro et Nanotechnologies LETI- Les réseaux de recherche et d’innovation 15p- Nanotechnologies : synthèse 2003 19p- Instrumentation pour la biologie 33p- LETI Rapport d’activité 2003- Séminaire de synthèse de l’Observatoire des Micro et Nanotechnologies

« Les micro et nanotechnologies en 2003 : quelles avancées, quelles perspectives ? »29 /01/04 CD« Les micro et nanotechnologies en 2004 » 27/01/05 CD

- Veille stratégique 5 séries documentaires, 5 n°/an, et 1 n° bilan ° Nanotechnologies° Instrumentation pour la biologie

° Matériaux et composants pour l’optique° Electronique moléculaire° Microsources d’énergie

MSTP-mai 2005 90

Page 91: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 91/92

 

 

• Union européenne- Cordis thematic area 3

 Nanotechnologies et nanosciences Programme européen 21p

- COST Nanoscience and Nanotechnology Advisory Group . Final Report 6-7/02/03- Commission des Communautés Européennes : Vers une stratégie européenne en

faveur des nanotechnologies 30p- Commission des Communautés européennes : IST programme

Technology Roadmap for Nanoelectronics 80p- EuroNanoForum 2003 . Compte- rendu 3p- European micro and nanosystems 2004

Advances and applications for micro and nanosystems, 20-21octobre 2004Colloque ESIEE

- Vision 2020. Nanoelectronics at the centre of change, juin 2004 32p

• Ministère délégué à la recherche- Programme national Nanosciences : Action concertée 2004- Direction de la technologie : Nanomonde 31p- Le financement des nanotechnologies et des nanosciences. L’effort des pouvoirs

 publics en France. Comparaisons internationales.IGAENR n°2004-002 janvier 2004 67p

• CNRS- Focus nanosciences ( à paraître)

OUVRAGES et PUBLICATIONS

- Les nanosciences, nanotechnologies et nanophysique. M.Lahmani, Cl.Dupas,P.Houdy Belin 720p

- Demain le nanomonde - Voyage au cœur du minuscule. J.L.Pautrat Fayard 245p - Laboratoire des technologies de la microélectronique

UMR UJF/CNRS n°5129 Rapport d’activité 1999- 2002 O.Joubert- Spintec Spintronique et Technologie des Composants 

URA CEA/CNRS n° 2512 Rapport d’activité 2002 J.P.Nozières

INTERNATIONAL- Ambassade de France aux Ėtats Unis.

États Unis Sciences physiques n° 11 mai 2004 Les nanocomposites aux ÉtatsUnis :vers une émergence des premières applications.

- Ambassade de France à Tokyo :Matériaux et chimie fine pour la cosmétologie- vers les nanotechnologiesA.Phonebanhdith 32p

- Ambassade de France à Tokyo :Rapport de mission BioMEMS et nanobiotechnologies : C.Bergaud, F.Chate,Y.ChenM.Hoummady, C.Vauchier 25p

- Ambassade de France à Tokyo :Les nanotechnologies au Japon en 2004 N.Caprais 52p

MSTP-mai 2005 91

Page 92: 2005 - Nanosciences Et Nanotechnologies

5/16/2018 2005 - Nanosciences Et Nanotechnologies - slidepdf.com

http://slidepdf.com/reader/full/2005-nanosciences-et-nanotechnologies 92/92

 

- Journal of magnetism and magnetic materials . Topical review Ordered magneticnanostructures: fabrication and propertiesJ.I.Martin, J. Nogués, Kai Liu, J.L. Vicent, Ivan K.Schuller 47p

- The US National Nanotechnology Initiative after 3 years (2001-2003) 10p- National Nanotechnology Initiative NNI : Outline of research and education programs

M.C.Roco NSF 9/30/02 12p - Australian Government : Nanotechnology, Australia capability and commercial potential 31p

- International technology roadmap for semiconductors 2003 editionExecutive summary 60pFront End Processes 58p

- House of Commons. Science Technology CommitteeToo little too late? Government investment in nanotechnology, 2 april 2004

&&&

MSTP-mai 2005 92