Les origines des forces de friction à portée des super...

4
FI 8 – 27 octobre 2009 – page 10 Les origines des forces de friction à portée des super-ordinateurs Guillaume.Anciaux@epfl.ch, EPFL – Faculté de l’environnement naturel, architectural et construit – Laboratoire de simulation en mécanique des solides L’humanité s’est intéressée à la tribolo- gie depuis fort longtemps (des historiens montrent l’utilisation de roues à partir de 3500 av. J.-C.). L’état actuel de nos connaissances apporte une bonne compréhension des dispositifs mécaniques construits par l’homme à l’échelle macroscopique. Toutefois, la mé- canique du contact traditionnelle décrit les phénomènes tribologiques par des lois empiriques ou semi-empiriques par exemple à l’aide de la très célèbre loi de Coulomb. Prenons le cas présenté sur la figure 1. Un objet qui glisse sur un support fixe ne continuera son mouvement qu’à la condition qu’une force lui soit appliquée. Si cette dernière s’équilibre avec les forces de friction alors le mouvement se fait à vitesse constante. Selon le modèle coulombien le rapport μ=F/N est constant. Autrement dit, la force nécessaire pour faire bouger l’objet est proportionnelle à la force qui l’appuie contre le support. En réalité, la loi coulombienne n’est pas exacte. Le coefficient de friction dépend de nombreux paramètres comme la température, la vitesse de glissement, la rugosité des surfaces, la présence d’un troisième corps (liquide ou gazeux) jouant un rôle lubrificateur, et bien d’autres. Finalement, que ce soit à l’échelle macroscopique ou nanoscopique, les problèmes tribologiques sont particulièrement difficiles à expliquer. La raison principale tient, comme beaucoup de problèmes en mécanique des matériaux, du fait que les dif- férents mécanismes interagissent à des échelles de temps et d’espace séparées, mais qui contribuent significativement au phénomène global. Sur la figure 1, un agrandissement de la zone de contact révèle la complexité des surfaces des solides en contact: la surface de contact réelle n’est pas celle que l’ob- servateur de l’échelle macroscopique pourrait constater. C’est donc tout naturellement que de récents efforts de recherche se sont orientés vers le calcul des forces de contact à partir des micro- et nano-aspérités. Bien sûr, les déformations élastiques qui peuvent agir à de très grandes distances de la zone de contact doivent être prises en compte. Cette sépara- tion d’échelle constitue un défi important qui a été un frein, jusqu’à présent, à la simulation numérique des phénomènes de frottement et d’usure aux très petites échelles. Aujourd’hui, avec les expérimentations qui explorent la nano-tribologie et avec la croissance de la puissance des calculateurs, l’explora- tion par la simulation des phénomènes tribologiques devient de plus en plus nécessaire et pertinente. Particulièrement, au Laboratoire de Simulation en Mécanique des Solides, des efforts importants sont portés sur l’influence de la rugosité des surfaces en contact sur le coefficient de frottement. Des études pionnières utilisaient la mécanique des milieux continus comme modèle ainsi qu’une discrétisation par éléments finis pour simuler deux corps, avec des surfaces rugueuses, mises en contact par l’application fig. 1 – un agrandissement de la zone de contact montre la complexité microscopique d’un tel mouvement L Les forces de frictions ont des origines microscopiques encore bien mal comprises. Des recherches, menées à l'EPFL grâce à des super-calculateurs, utilisent des modèles couplant échelle atomique et macroscopique pour apporter de nouveaux éléments de comphension des lois coulombienne de friction. Les avancées ainsi que les difficultés de d la discip line sont ici pr ésentées. F F Friction forces have microscopic origins that are still badly understood. Current research within EPFL thanks to super computers, use multiscale models that couple atomistic and macroscopic simulations to bring new elements of understanding of coulombic friction laws. Advances and difficulties are here pr pr pr esented.

Transcript of Les origines des forces de friction à portée des super...

Page 1: Les origines des forces de friction à portée des super ...flashinformatique.epfl.ch/IMG/pdf_fi-8-9-page10.pdf · FI 8 – 27 octobre 2009 – page 10 Les origines des forces de

FI 8 – 27 octobre 2009 – page 10

Les origines des forces de friction à portée des super-ordinateursGuillaume.Anciaux@epfl .ch, EPFL – Faculté de l’environnement naturel, architectural et construit –

Laboratoire de simulation en mécanique des solides

L’humanité s’est intéressée à la tribolo-gie depuis fort longtemps

(des historiens montrent l’utilisation de roues à partir de 3500 av. J.-C.). L’état actuel de nos connaissances apporte une bonne compréhension des dispositifs mécaniques construits par l’homme à l’échelle macroscopique. Toutefois, la mé-canique du contact traditionnelle décrit les phénomènes tribologiques par des lois empiriques ou semi-empiriques par exemple à l’aide de la très célèbre loi de Coulomb. Prenons le cas présenté sur la figure 1. Un objet qui glisse sur un support fixe ne continuera son mouvement qu’à la condition qu’une force lui soit appliquée. Si cette dernière s’équilibre avec les forces de friction alors le mouvement se fait à vitesse constante. Selon le modèle coulombien le rapport μ=F/N

est constant. Autrement dit, la force nécessaire pour faire bouger l’objet est proportionnelle à la force qui l’appuie contre le support.

En réalité, la loi coulombienne n’est pas exacte. Le coefficient de friction dépend de nombreux paramètres comme la température, la vitesse de glissement, la rugosité des surfaces, la présence d’un troisième corps (liquide ou gazeux) jouant un rôle lubrificateur, et bien d’autres. Finalement, que ce soit à l’échelle macroscopique ou nanoscopique, les problèmes tribologiques sont particulièrement difficiles à expliquer. La raison principale tient, comme beaucoup de problèmes en mécanique des matériaux, du fait que les dif-férents mécanismes interagissent à des échelles de temps et d’espace séparées, mais qui contribuent significativement au phénomène global. Sur la figure 1, un agrandissement de la zone de contact révèle la complexité des surfaces des solides en contact: la surface de contact réelle n’est pas celle que l’ob-servateur de l’échelle macroscopique pourrait constater.

C’est donc tout naturellement que de récents eff orts de recherche se sont orientés vers le calcul des forces de contact à partir des micro- et nano-aspérités. Bien sûr, les déformations élastiques qui peuvent agir à de très grandes distances de la zone de contact doivent être prises en compte. Cette sépara-tion d’échelle constitue un défi important qui a été un frein, jusqu’à présent, à la simulation numérique des phénomènes de frottement et d’usure aux très petites échelles. Aujourd’hui, avec les expérimentations qui explorent la nano-tribologie et avec la croissance de la puissance des calculateurs, l’explora-tion par la simulation des phénomènes tribologiques devient de plus en plus nécessaire et pertinente.

Particulièrement, au Laboratoire de Simulation en Mécanique des Solides, des eff orts importants sont portés sur l’influence de la rugosité des surfaces en contact sur le coefficient de frottement. Des études pionnières utilisaient la mécanique des milieux continus comme modèle ainsi qu’une discrétisation par éléments finis pour simuler deux corps, avec des surfaces rugueuses, mises en contact par l’application

fig. 1 – un agrandissement de la zone de contact montre la complexité microscopique d’un tel mouvement

LLes forces de frictions ont des origines microscopiques encore bien mal comprises.Des recherches, menées à l'EPFL grâce à des super-calculateurs, utilisent des modèlescouplant échelle atomique et macroscopique pour apporter de nouveaux éléments de compréhension des lois coulombienne de friction. Les avancées ainsi que les diffi cultésded la discipppline sont ici prpp ésentées.

FFFriction forces have microscopic origins that are still badly understood. Current researchwithin EPFL thanks to super computers,use multiscale models that couple atomistic and macroscopic simulations to bring new elements of understanding of coulombic friction laws. Advances and diffi culties are hereprprprp esented.

Page 2: Les origines des forces de friction à portée des super ...flashinformatique.epfl.ch/IMG/pdf_fi-8-9-page10.pdf · FI 8 – 27 octobre 2009 – page 10 Les origines des forces de

FI SPÉCIAL HPC – 27 octobre 2009 – page 11

d’une pression. Il a alors été soupçonné qu’aux échelles les plus petites, la nature discrète de la matière pourrait modifier sensiblement les prédictions auparavant obtenues. C’est là que la dynamique moléculaire, qui modélise explicitement chaque atome d’un corps, a fait son entrée. On a alors pu montrer que les forces de contact calculées par la mécanique des milieux continus étaient globalement sous-évaluées, car la représentation de l’organisation atomique ne peut être correctement prise en compte dans une matière assimilée comme continue.

Même si la dynamique moléculaire est une approche bien établie pour la simulation des matériaux à l’échelle atomique, elle possède un talon d’Achille particulièrement vulnérable. Le principal problème réside dans la manipulation infor-matique des atomes nécessaires pour créer des simulations de taille conséquente sur des temps suffisamment longs. Pour donner un ordre d’idée de la difficulté du problème, considérons 1 μm3 de silicium solide. Ce dernier contient approximativement 1011 atomes. Si l’on souhaite stocker 3 champs de données tridimensionnelles (position, vitesse et force sont un minimum) dans des flottants double précision alors un simple calcul permet d’obtenir le chiff re vertigineux de 6,5 Térabytes pour une photo instantanée de l’état de la matière. Il est légitime de se demander comment stocker et visualiser autant de données. Des techniques de parallélisa-tion peuvent aider à réaliser des simulations avec un nombre d’atomes toujours plus important, mais le coût de calcul lié à la résolution spatiale ainsi que les temps simulés (de l’ordre de la nano-seconde pour quelques millions de pas de temps) est et sera pour encore longtemps la plus grande limitation de la dynamique moléculaire. Jusqu’à très récemment les simulations de mécanique du contact eff ectuées considéraient soit des cas 2D, soit de très petits échantillons 3D. Dès lors, le lecteur attentif argumentera qu’il était inabordable de considérer les champs lointains de déformation élastique et leur influence sur la mécanique du contact.

Parallèlement, des méthodes hybrides dites de couplage multi-échelles ont émergé pour palier aux problématiques liées aux très grands nombres d’atomes à manipuler. L’idée, assez simple finalement, est de considérer la mécanique des milieux continus lorsqu’elle est suffisamment précise, et la dynamique moléculaire lorsque les déformations locales ne peuvent plus être considérées comme uniformes sur de larges distances. Concrètement, dans la zone très proche des points de contact il faut une représentation atomique, mais plus loin, les déformations deviennent uniformes et un maillage d’éléments finis fournit une très bonne approximation des champs élastiques. Clairement, l’objectif principal est de réduire significativement le nombre d’inconnues à résoudre et ainsi diminuer les temps de calcul et la masse de données à stocker pour eff ectuer les analyses post-traitement.

La figure 2 montre un domaine utilisé au LSMS pour simuler le contact glissant par un couplage de deux échel-les. La partie atomique contient un million d’atomes et le maillage contient 40 000 nœuds. Le couplage est réalisé dans une zone de recouvrement, où les atomes et les éléments finis coexistent et sont collés ensemble par le jeu d’opérateurs mathématiques. L’indenteur va appuyer sur le substrat qui va se déformer du fait du contact glissant. Ce dernier est étendu grâce à un maillage et peut ainsi prendre en compte le champ élastique longue portée. De nombreux développements de

modèles et de logiciels ont permis qu’une telle approche soit parallélisée et utilisée efficacement sur les diff érents moyens de calcul de l’EPFL.

fig. 2 – Modèle couplé pour la simulation du contact entre deux objets constitués d’atomes de cuivre

Toutefois, ces approches ne sont pas parfaites. Une difficulté importante réside dans la technique de paral-lélisation massive de cette approche. Classiquement une décomposition de domaine est utilisée pour décomposer le calcul global en sous-tâches afin que les processeurs puissent travailler le plus efficacement possible. La figure 3 présente les décompositions sur 4 processeurs puis sur 20 processeurs obtenues par des techniques classiques. Ce sur quoi il faut s’intéresser ici, c’est la zone commune aux deux modèles. Autrement dit, la zone de recouvrement où les deux sous-do-maines sont collés ensemble. Suivant le nombre de sous domai-nes et leur placement, certains processeurs vont participer au couplage ou non. En eff et, dans le cas d’un partitionnement du problème en quatre parts, tous les processeurs chargés d’un sous domaine atomique ont une partie incluse dans le recou-vrement. Ce n’est plus vrai pour la partition en 20 parts. La conséquence directe est ce que nous appelons communément le déséquilibre de charge. Certains processeurs vont terminer leurs tâches plus rapidement et attendre ceux qui ont plus de travail à fournir. Un ralentissement général est alors observé avec une perte d’efficacité du programme informatique. Il est clair que cet eff et augmente avec le nombre de partitions que l’on souhaite utiliser. Pour un grand nombre de proces-seurs (plusieurs centaines au moins) cet eff et commence à devenir ennuyeux et limite l’intérêt de l’approche couplée. Il est important de considérer ce problème et pour ce faire nous travaillons actuellement à l’intégration de techniques de partitionnement de maillages qui prendraient en compte le coût de couplage dans la répartition des tâches.

Les origines des forces de friction à portée des super-ordinateurs

Page 3: Les origines des forces de friction à portée des super ...flashinformatique.epfl.ch/IMG/pdf_fi-8-9-page10.pdf · FI 8 – 27 octobre 2009 – page 10 Les origines des forces de

FI 8 – 27 octobre 2009 – page 12

fig. 3 – Décomposition du domaine présenté sur la fi gure 2 en

4 parties (à gauche) et en 20 parties (à droite)

Mais il y a aussi une problématique du côté de la modé-lisation. En eff et, un problème connu depuis les prémices de ce type d’approche est celui du traitement correct des ondes mécaniques et plus précisément de la bonne transmission de ces dernières entre la dynamique moléculaire et les éléments finis. Si nous imaginons une onde de déplacement (une vague) qui vient de la partie atomique, et se dirige vers la partie de mécanique continue, que va-t-il se passer ? Eh bien cela dépend de la longueur d’onde. Si cette longueur d’onde est très courte (haute fréquence) alors le maillage qui sert de support à l’onde n’a pas assez de points pour représenter cette dernière. L’onde incidente n’a d’autre choix que de se réfléchir à l’interface. Par contre, pour les grandes longueurs d’onde la transmission se fait sans problème. On peut le voir également selon la théorie de l’échantillonnage de Nyquist-Shanon: si une série de points discrets (les nœuds du maillage) sont le support pour un signal harmonique alors il y a une limite dans le nombre de points minimum nécessaire pour représenter correctement l’information de l’onde. Et cette limite est clairement liée à la fréquence de l’onde.

fig. 4 – Réfl exion d’une onde circulaire à la traversée d’une zone de recouvrement dans un cristal d’Argon en deux dimensions

La figure 4 présente une simulation plan où l’onde de déplacement circulaire présente des réflexions à l’interface. Ces réflexions d’ondes n’ont, bien entendu, rien de physique. Des techniques ont donc été inventées pour contrer cet eff et et dissiper ces ondes problématiques. Toutefois, cette portion d’énergie retirée du système a des inconvénients concernant le traitement de la température. En eff et, à cette échelle, la température est en fait une énergie ondulatoire correspondant à des ondes quasi stationnaires de très hautes fréquences. Le maillage ne peut pas les représenter et si le système est capable de les dissiper alors l’information concernant l’énergie ther-mique est perdue. Ces thématiques font partie des recherches que nous menons sur les algorithmes de couplage au LSMS et sont encore émergentes.

Toutefois, le message est clair: il est désormais possible de contrer la limitation spatiale des simulations de dynamique moléculaire dans le cadre de l’étude de la matière conden-sée. Nous avons d’ailleurs déjà appliqué ces concepts sur la mécanique du contact et nous avons pu modéliser le contact glissant de deux surfaces rugueuses (fractales) en prenant en compte l’élasticité à longue portée des objets considérés. Ce domaine, à la rencontre de l’informatique du calcul haute performance, de la modélisation mécanique et de la science des matériaux, présente des facettes clairement multi-discipli-naires. Et d’ailleurs, les multiples difficultés déjà contournées ne le furent que grâce à l’association de scientifiques de spécia-lités a priori diff érentes. Pour l’évolution de cette discipline, il est très important de fournir des eff orts dans la modélisation et les techniques informatiques. La modélisation, car la parallélisation seule ne saurait rendre possible la simulation par dynamique moléculaire d’échantillons macroscopiques. La parallélisation, car pour obtenir une précision accrue, des domaines de grandes tailles sont requis, et la complexité des algorithmes mis en place rend tout à fait non triviale l’utilisation de ces codes sur les super-calculateurs modernes. Grâce à ces outils, nous découvrirons peut-être les origines microscopiques des forces de friction, qui font que la roue tourne depuis des milliers d’années.■

Les origines des forces de friction à portée des super-ordinateurs

Page 4: Les origines des forces de friction à portée des super ...flashinformatique.epfl.ch/IMG/pdf_fi-8-9-page10.pdf · FI 8 – 27 octobre 2009 – page 10 Les origines des forces de

FI SPÉCIAL HPC – 27 octobre 2009 – page 13

Number crunching on clusters at EPFL

Joppe.Bos@epfl .ch, Marcelo Kaihara@epfl .ch, Thorsten.Kleinjung@epfl .ch, Arjen.Lenstra@epfl .ch & DagArne.Osvik@epfl .ch, EPFL– School of Computer and Communication Sciences – Laboratory for cryptologic algorithms

VVous êtes vous déjà posé la question comment l’information est-elleprotégée? Personne n’est vraiment sûr de cette protection. Aucune desméthodes habituelles de protection n’est garantie,tout ce qu’on peut direc’est que nous ne pouvonspas les casser et on espèreque d’autres ne le peuvent pas non plus. La sécurité à long terme repose sur des expériences comme celles décrites ici, menées dans le cadre du Laboratoire decryptologie algorithmiqueded l’EPFL.

EEEver wondered how information is protected? No one knows for sure. None of the currently usedmethods can be guaranteedto off er security. All we cansay is that we cannot break them. We hope that others cannot do so either. Long term security estimates rely on experiments. Some of those carried out at EPFL’sLaboratory for Cryptologic AlAA gogg rithms are described.

INTRODUCTION

Th at 15 equals 3 times 5 is not hard to figure out.Th at 21039-1 equals 5080711 times

55853 66661 99362 91260 74920 46583 15944 96864 65270 18488 63764 80100 52346 31985 32883 74753

times a 227-digit number is less obvious. Everyone with enough time (and patience) on their hands can verify it. But how were those numbers found? And why is it interesting?

Finding the factorizations of 15 or 21039-1 are examples of the integer factoriza-tion problem. It has been studied for ages, mostly for fun1.

It was believed to be hard, and useless. Th e latter changed in 1976 when Ron Rivest, Adi Shamir, and Len Adleman showed an application. If it is hard, then everyone can communicate securely with anyone else. Th is now famous RSA cryp-tosystem led not only to headaches for national security agencies. It also put integer factorization in the center of attention. After more than three decades of scrutiny the results have been disappointing – and reassuring: integer factorization is still believed to be hard and RSA is still considered secure. And there is still no proof that the problem is hard either2.

Th is is not the place to explain how the hardness of factoring can be used to protect information. We describe our experiments to find out how large an RSA modulus has to be to get enough protection. One of our experiments led to the factorization of 21039-1.

Only a few alternatives to RSA have been found. A popular one is ECC (El-liptic Curve Cryptography). It relies on the hardness of ECDLP (elliptic curve discrete logarithm problem). As in integer factorization, there is no hardness proof. But the problem looks even harder: secure ECC-parameters are much smaller than secure RSA-parameters.

Integer factorization and ECDLP experiments can be fully parallelized. Both require hundreds or even thousands of core years. For the rest they are entirely dif-ferent. Integer factorization is a multi-step process. It profits from large memories and needs tightly coupled processors in one of its steps. Large clusters of servers are commonly used. For ECDLP almost anything goes, as long as there is a lot of computing power. It hardly needs memory and no fast network. It suffices to have a large disk to store the data trickling in from the contributors.

Our experiments were conducted on clusters at EPFL. For integer factoring this included the server clusters at LACAL (Laboratory for Cryptologic Algorithms) along with various other clusters (Callisto, Mizar, Pleiades) and the campus greedy network. For ECDLP we used LACAL’s cluster of more than 200 PlayStation 3 game consoles. We also describe some other cryptographic experiments on the PlayStation cluster.

1 See for instance Hunting big game in the theory of numbers, a September 1932 Scripta Mathematica paper by Derrick N. Lehmer, cf. ed-thelen.org/comp-hist/Lehmer-NS03.html.

2 On the contrary, it is easy on a quantum computer. Such computers do not exist yet, so this is not a practical threat.