Simulations Numériques

23
Simulations Numériques Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003 PN

description

PN. Simulations Numériques. Réflexions -- Prospective du PNG ASSNA- 15 Décembre 2003. Notre place dans le monde. 3ème en Europe, après Allemagne et UK en performances 5ème mondial (USA, Japon). From Top500 de Nov 2003. Evolution des performances. - PowerPoint PPT Presentation

Transcript of Simulations Numériques

Page 1: Simulations Numériques

Simulations Numériques

Réflexions -- Prospective du PNG

ASSNA- 15 Décembre 2003

PN

Page 2: Simulations Numériques

2

Notre place dans le monde

From Top500 de Nov 2003

3ème en Europe, aprèsAllemagne et UKen performances

5ème mondial (USA, Japon)

Page 3: Simulations Numériques

3

Evolution des performances

IDRIS: Cray T3E, puis IBM Power 3, 4, NEC SX 5Parmi les Top10: Earth Simulator by NEC est le num 1 (40 Teraflops)Perf = sum des 12 suivants!

Cines: IBM Pow 32 SGI OriginTop15: 11 USA, 2 Japon, 1 Chine1 France: CEABruyères le ChatelCompaq-HP15ème place!

Page 4: Simulations Numériques

4

Statistiques à partir des TOP-500

Page 5: Simulations Numériques

5

Page 6: Simulations Numériques

6

Grapes dans le monde

Page 7: Simulations Numériques

7

Algorithmes variés Ncorps pur t ~ N2

Grape: machine dédiée (PP)GRAPE-5 14 s/dt pour 128 000 particules ou Tree 106 part.

Codes FFT, PM (particule-mesh) en N log N

Codes en arbre en N log N (Barnes/Hut, GADGET..)

Code P3M (PP-PM) et Adaptive P3M Couchman HYDRA

Variante TPM pour Tree/Particle-Mesh, introduit par Xu (1995) incorpore à la partie PM un code en arbre pour la partie PP. Avec TPM, 109 particules (Bode et al 2000) – le record actuel 

Page 8: Simulations Numériques

8

Algorithmes (suite) HPM pour Hierarchical Particle-Mesh Villumsen 1989

ART pour Adaptive Refinement Tree Kravstov et al

AMR Adaptive Mesh Refinement RAMSES (Teyssier 02)

MLAPM de Knebe et al 2000, enzo de Bryan et al 2002hydrodynamique + auto-gravité. Efficacité de la résolution de l'équation de Poisson sur des grilles + grande dynamique des sous-grilles.

Voir sur NEMO une série d’algorithmes et de sitesdisponibles http://bima.astro.umd.edu/nemo/

Page 9: Simulations Numériques

9

Performances scalaires Test effectué sur une évolution de 5 Myr avec 100 000 particules stellaires et 20 000 particules de gaz en PMSPH (sans formation stellaire) avec les conditions initiales NGAA (H. Wozniak) ____________________________________________________|machine | durée (min 19 steps) | durée par dt (sec) ||------------------------------------------------------------------------------|| NEC SX5 (Idris) en scalaire | 2.953 | 9.3 ||------------------------------------------------------------------------------|| DIGITAL EV 766 Mhz (LAM) | 2.824 | 8.9 ||------------------------------------------------------------------------------|| AMD-Athlon 1.4 Ghz (PC) | 2.158 | 6.8 ||------------------------------------------------------------------------------|| IBM SP3 Power 3 (Idris) | 1.616 | 5.1 ||------------------------------------------------------------------------------|| COMPAQ DS20E (LAM) | 1.119 | 3.5 |

Page 10: Simulations Numériques

10

Comparaison de divers codes/machines FFT 1283 utile (méthode de James), 360 000 particules(2 millions de cellules) + collisions de 150 000 particules1sec CPU /dt sur la NEC SX5: 99.5% Vectorisation ratio

Beam-scheme ou SPH, ~5sec/dt

Polaire 2D (64 x 96) 100 000 + collisions 1sec/dtsur COMPAQ DS20E (scalaire)

Tree-code 15-30sec, pour 100 000 part. en scalaire (DS20E)

GADGET: performances comparables + parallélisation

Simul cosmologique (Ninin-Sémelin) 500 000 particules de z=50 à z=4.34 processors= 8269s 8 proc= 4074 16 proc= 2887

Page 11: Simulations Numériques

11

BH86

falcON

FVFPS

BH86, treecode Barnes/Hut, = 0.8

falcON: Dehnen JCP 2002, 10xFaster and momentum-conserving C++tree + FMM expansionFVFPS: Londrillo et al 2003 (F90 + MPI) = (M) min=0.5

FVFPS

Nb of processors

Page 12: Simulations Numériques

12

Mémoire vive (RAM)

La mémoire a beaucoup progressé aussi, les grosses simulationsdemandent des machines parallèles (mais le CPU aussi!)

Pour les FFT2563 0.13 Go 5123 1 Go (en Real*8, 64bits)

10 Tableaux ~100 Mo pour un million de particules

106 part 0.1 Godonc 107 particules possibles avec 1 Go

Par proc aujourd'hui, il est courant d'avoir 4Go RAM(ex. AMD- Opteron, Alpha-servers...)

Page 13: Simulations Numériques

13

Equipes "galaxies" dans le monde

USARutgers: Sellwood, Merritt et al. Grape6 +machine //, ou beowulf. Codes PM et N2 pour les AGN

Hawaii: Barnes et al, TreeSPH

Museum of Natural history (NY): PF: Grande concentration Grape6,surtout pour l’étude des amas globulaires. Piet Hut et al.

Kentucky & Georgia Tech. Shlosman & Heller. PF : SPH. Couplage avec obs parties centrales des galaxies.

Case Western Chris Mihos. PF: SPH, interactionsMaryland: Peter Teuben: NEMO

Santa-Cruz, Harvard: Hernquist, TreeSPH

Page 14: Simulations Numériques

14

CANADACITA : Dubinski, O Neil et al PF : paralléllisme

JAPONHongo (Tokyo) : J. Makino, Y. Funato et al. Grapes +6PF : très grande expérience grapes.

Komaba (Tokyo) : Fukushige et al. Plusieurs Grapes

Mitaka (Tokyo) : Wada et al. Surtout SPH. Concentrationde grapes: 16 grape5, réparties sur 8 nœuds+ système de grape6

Rieken (Tokyo) : Ebisuzaki, Kawai et al.Centre des grapes MDNoguchi Sendai, Habe Hokaido, Bekki, Hozumi, Kyoto etc.

Page 15: Simulations Numériques

15

AUSTRALIESwinbourne commence

ALLEMAGNEPotsdam : Steinmetz, Dehnen, Klessen et al. 8 grape5 sur 8 noeuds d'un beowulf, PF: cosmologie.

Heidelberg MPI : Burkert, Naab et al. Grapes. 1 grape6, plusieursgrape5 et grape3. PF: Interactions et fusions de galaxies à disque, SPH,

Kiel : Hensler, Theis, Kroupa, Harfst et al. 1 grape3. PF : chemodynamique.Heidelberg Rechen Institut : Spurzem et al. PF : Coll Manheim

Munich: Springel et al GADGET

Ukraine: Berczik et al. PF: galaxies naines

Page 16: Simulations Numériques

16

UKCambridge : 1 grape6, surtout pour l’étude des amas globulaires.

SUISSEGenève : Pfenniger, Revaz, et al. Grand Beowulf. PF : structure orbitale et en dynamique des galaxies barrées.Basel : Gerhard, Samland et al. PF: notre Galaxie. SPH, chemodynZurich: Lilly, Carollo, Moore et al: nouveau groupe (PNG-PNC)

ESPAGNEPlusieurs beowulfs. Parmis eux Tarragone, Granada

ITALIEPadova: Lia, Carraro et al PF: populations stellaires

GRECEAthènes : Contopoulos, Patsis et al. grape3 PF:structure orbitale, chaos

Page 17: Simulations Numériques

17

Types de simulations « PNG »

1/ les codes type 'dynamique des galaxies'' (N corps, SPH, Hydro, ...)

2/ Synthèse de populations stellaires /évolutive

3/ hydro/transfert + physique atomique (noyaux actifs)

Page 18: Simulations Numériques

18

Type N-corps: France

1/ + formation stellaire "calibration spectro-photométrique et/ouchimique" (pas de réel feedback auto-cohérent) - Combes, Melchior, Bournaud, et al.- Wozniak & Michel-Dansac

2/ SSP + une dynamique simple Prantzos & Boissier

2/ + 3/ mais sans l'hydroMoy, Rocca & Fioc : PEGASE + CLOUDY(Rocca & Fioc : PEGASE 2 + diffusion poussières = transfert; public)

2/ + 3/Moy & Englmaier : PEGASE + CLOUDY + SPH (en cours)

Page 19: Simulations Numériques

19

1/ N-corps + gaz + chemoParis (Obs Paris, Meudon, CEA)Lyon (Obs + coll Genève?, Wozniak et al)Marseille (Athanassoula et al.)Strasbourg (Ibata, Boily, Pichon)Nice (code Hydra?)

2/ Synthèse de populations Paris (Charlot, Rocca, Moy, Fioc et al, PEGASE)Toulouse+Paris (Schaerer et al, Starburst+PHOTO)Besançon (Robin et al.), Meudon (Pelat et al)

A l’interface avec PNC: Simulations hybrides + SAMGalics (Guiderdoni et al.), Multizooms (Semelin, Combes)

Page 20: Simulations Numériques

20

Prospective et besoins

Orientations scientifiques à donner Thèmes à développer dans l'avenir?

1) Quantitatif plus de particules, plus de résolution2) Qualitatif: explorer les phénomènes physiques

Efforts à encourager:-- faut-il mettre plus de codes dans le domaine public?-- faut-il plus de coopérations entre groupes?-- faut-il des tâches de service (type CNAP?)-- postes fléchés?--aides: ingénieurs des centres nationaux?

Page 21: Simulations Numériques

21

Le Projet Horizon

A l'interface avec le PNC, besoin d'une base de données de simulations lourdes Projet à mener comme une manip spatialeLes produits seraient accessibles à tous, afin de préparer lesexpériences (Herschel, ALMA, VLT, JWST, etc…)

Projet de simulations de taille 100 fois supérieure à ce qui sefait actuellement: plus de dynamique, plus de physique

Effort mis à la visualisation, l'exploitation, en tant que basesde données, et Observatoire Virtuel

Teyssier, Colombi, Combes, Guiderdoni

Page 22: Simulations Numériques

22

Tâche de service CNAP liée à la modélisation numérique

Tâches de service nouvelles: activités numériques directement reliées aux TGE à la fois en amont (préparation des instruments), puis à leur exploitationMise à disposition de la communauté de codes numériquesCes codes comporteraient par exemple: logiciels de simulations à finalité astrophysique, Hydro et Transfert de Rayonnement, MHD, dynamique N-corps (TREE-SPH), de chimie quantique et de dynamique moléculaire spécifiques aux molécules d'intérêt astrophysique, etc..

Développés, mis à jour, documentés dans des centres spécialisés qui assureraient la portabilité, l'aide à l'utilisateur, sa formation (y compris en DEA, post-DEA), l'animation scientifique, etc..

Page 23: Simulations Numériques

23

Conclusions

Depuis l'effort de prospective de 2002-2003 (Colle-sur-Loup Mars03)

les chercheurs s'organisent, les équipes entreprennent des projets encommun, plus ambitieux

Le matériel progresse (IDRIS, et aussi méso-équipement, MPOPM,fermes de PC jeunes équipes (ATIP)

Réactions positives: dans un proche avenir, les équipes françaises pourraient revenir dans la compétition de haut niveau(avec postes nécessaires)

couplage avec les grands instrumentsbases de données, OV