Structures élémentaires en convection thermique - UTCaouahsin/Seminaire-Laboratoire/Seminaire...

33
DEA Physique Statistique STAGE 2002-2003 et Phénomènes non-linéaires LANCIEN Pierre École Normale Supérieure de Lyon _________________________________ Structures élémentaires en convection thermique _________________________________ La convection de Rayleigh-Bénard est une instabilité hydrodynamique d’origine thermique, se manifestant lorsqu’un fluide dans une cellule est refroidi par le haut et chauffé par le bas. Les couches limites thermiques émettent alors des structures cohérentes, appelées plumes, panaches et lames, qui participent au transfert de chaleur entre les deux plaques. Leur étude est une alternative à l’étude statistique classique de la turbulence. Après avoir décrit les caractéristiques des panaches au cours de mon stage de maîtrise, j’étudie ici plus particulièrement les lames, leur organisation sur la surface du haut lorsque celle-ci est refroidie, et leur déstabilisation en panaches, en introduisant notamment des mesures de champs de vitesse par imagerie de particules. Mot-clés : convection de Rayleigh-Bénard, panaches, lames, plumes, instabilités, turbulence. Laboratoire de Physique ENS Lyon Sous la direction de Bernard Castaing et Francesca Chilla Stage effectué du 01/04/2003 au 26/07/2003

Transcript of Structures élémentaires en convection thermique - UTCaouahsin/Seminaire-Laboratoire/Seminaire...

DEA Physique Statistique STAGE 2002-2003

et Phénomènes non-linéaires LANCIEN Pierre

École Normale Supérieure de Lyon

_________________________________

Structures élémentaires

en convection thermique _________________________________

La convection de Rayleigh-Bénard est une instabilité hydrodynamique d’origine

thermique, se manifestant lorsqu’un fluide dans une cellule est refroidi par le haut et chauffé

par le bas. Les couches limites thermiques émettent alors des structures cohérentes, appelées

plumes, panaches et lames, qui participent au transfert de chaleur entre les deux plaques.

Leur étude est une alternative à l’étude statistique classique de la turbulence. Après avoir

décrit les caractéristiques des panaches au cours de mon stage de maîtrise, j’étudie ici plus

particulièrement les lames, leur organisation sur la surface du haut lorsque celle-ci est

refroidie, et leur déstabilisation en panaches, en introduisant notamment des mesures de

champs de vitesse par imagerie de particules.

Mot-clés : convection de Rayleigh-Bénard, panaches,

lames, plumes, instabilités, turbulence.

Laboratoire de Physique ENS Lyon

Sous la direction de Bernard Castaing et Francesca Chilla

Stage effectué du 01/04/2003 au 26/07/2003

Table des Matières

Introduction - La convection de Rayleigh-Bénard - Convection turbulente - Rappels du stage précédent et motivations

I. Récapitulatif des résultats antérieurs - Terminologie - Panache simple - Plume naissante générée par une source ponctuelle - Plume générée par une source ponctuelle - Lame et lame naissante - Intérêt de l’étude des lames

II. Le dispositif expérimental - La cuve - Le chauffage - Visualisation - Acquisition - Plan d’ensemble

III. Mesure de la vitesse - Essai avec la génération de bulles - La prise de vue : problèmes et résolution - Traitement des images - Transformation en vecteurs vitesse - Obtention d’un champ - Comparaison avec la PIV

IV. Résultats sur la lame naissante - Vitesse de montée - Champ de vitesse

V. Résultats sur les lames - Une mesure délicate - Ajout des données de plusieurs clichés - Champ de vitesse - Nombre de Reynolds

VI. Refroidissement par le haut : champ de vitesse - Rappels du premier stage - Champ de vitesse - Combinaison Vue de dessus – Vue de côté - Une nouvelle interprétation

VII. Influence de la température et de la hauteur d’eau. - Aperçu du rôle des paramètres - Rôle de la température : Mesure du nombre de lignes.

VIII. Eléments sur l’instabilité des lames.

Conclusions Références et bibliographie

223

4445 5 5

667 78

99

10111313

1415

16171821

22222325

2728

29

3132

2

Introduction

La Convection de Rayleigh-Bénard

La convection de Rayleigh-Bénard est l’instabilité hydrodynamique qui a été et continue d’être la plus étudiée : la simplicité du dispositif expérimental, en particulier au niveau des paramètres de contrôle, en fait un système de choix pour étudier la turbulence comme le chaos. Le dispositif peut se résumer à une cellule remplie d’un fluide qui est chauffé par la plaque du bas et refroidi par la plaque du haut. L’instabilité résulte du changement de densité du fluide lorsque la température varie. En bas de la cellule, le fluide chauffé voit sa densité diminuer, et il est donc soumis à la poussée d’Archimède qui tend à le faire monter. De même en haut le fluide froid tend à descendre. Cette instabilité est cependant freinée par deux phénomènes : l ‘évacuation de la chaleur par conduction (qui réduit l’efficacité du transport par convection) et la viscosité du fluide (qui s’oppose à son mouvement). Les importances relatives des trois mécanismes sont prises en compte par le nombre de Rayleigh, sans dimension :

νκα 3... hTg

Ra∆

=

où g est l’accélération due à la pesanteur, α le coefficient de dilatation thermique, ∆T la différence de

température entre les plaques, h la hauteur de la cellule, ν la viscosité cinématique et κ la diffusivité thermique.

Plus le Rayleigh est élevé, plus la convection prend le pas sur la diffusion de chaleur ou de quantité de mouvement. Ce nombre, une fois le fluide choisi et la cellule fermée, ne dépend plus que de ∆T, qui est ainsi le paramètre de contrôle. Un des intérêts de la convection de Rayleigh-Bénard est justement ce paramètre : l’entretien énergétique du système n’est pas mécanique, ce qui permet de réduire les artefacts et d’améliorer la qualité du contrôle.

L’expérience montre que la convection de Rayleigh-Bénard démarre à partir de Ra=1708 (lorsqu’on peut considérer les plaques comme infinies), ce qui est en accord avec les prévisions théoriques. Une circulation en rouleaux se met alors en place, qui transporte le fluide et la chaleur à travers la cellule.

Pour prendre en compte la nature du fluide utilisé, un autre nombre sans dimension est introduit : le

nombre de Prandtl

κν=Pr

Il compare les importances relatives de la diffusion de quantité de mouvemente (viscosité) et de la diffusion de chaleur (conduction).

Les diverses expériences de convection jouent ensuite sur la différence de température entre les plaques (avec le Rayleigh), la nature du fluide (avec le Prandtl), ou la géométrie de la cellule (avec le rapport d’aspect, qui est le rapport de la largeur de la cellule sur sa hauteur).

Convection turbulente

Lorsque le nombre de Rayleigh augmente, la régularité des rouleaux se brise et le système devient chaotique. A haut Rayleigh (supérieur à 105), le système se trouve dans un régime turbulent : la vitesse du fluide semble varier aléatoirement, dans le temps comme dans l’espace. Dans les premiers temps, les chercheurs confrontés à ce phénomène ont eu recours à des méthodes statistiques pour tirer des informations pertinentes du système et tester des modèles théoriques. Leur préoccupation principale est de savoir comment la chaleur est transportée entre les deux plaques. L’une des études les plus pratiquées porte sur l’efficacité de ce transport. Comment varie-t-elle avec le Rayleigh ? Le nombre caractérisant l’efficacité du transport de chaleur est le nombre de Nusselt, qui n’est autre que la puissance de ce transfert. Il est ramené à une forme sans dimension en rapportant cette puissance à celle du transfert par diffusion (sans la convection). La mesure du Nusselt passe ainsi par la mesure de la puissance à fournir à la plaque du bas pour maintenir le ∆T constant.

3

Fig 0.1 : Images prises cameras au même instant,

peu après le départ des premiers panaches . Ci-

contre la vue de dessus, puis la vue de face. Ci-

dessous la vue de côté.

Il est possible de faire une analogie électrique : ici, ∆T (donc le Rayleigh) est l’analogue d’une tension imposée, et le Nusselt est l’analogue d’un courant. Pour ne pas entrer dans une discussion qui dépasserait le cadre de ce rapport, disons que les nombreuses études expérimentales menées jusque là sont proches d’une loi :

3/1RaNu ∝

sur une large gamme de Rayleigh. Le Nusselt étant proportionnel à la hauteur h de la cellule, h se simplifie des deux côtés, et cette loi indique donc que la hauteur de la cellule n’a pas d’influence sur le phénomène, mais que c’est plutôt l’épaisseur de la couche limite thermique qui rentre en jeu.

Motivations du stage

Les lois de dépendance entre Nusselt et Rayleigh ne font cependant intervenir que des moyennes de

grandeurs, et ne permettent pas de lever l’indétermination entre plusieurs modèles proposés. Pour tenter d’aller plus loin et de mieux comprendre le transfert de chaleur, de nouvelles approches ont été de plus en plus privilégiées ces dernières années. Certains chercheurs ont ainsi choisi d’affiner les études statistiques en s’intéressant aux distributions des diverses grandeurs. D’autres ont introduit les variations du nombre de Prandtl dans le jeu des dépendances. D’autres enfin tentent d’étudier les structures cohérentes qui se manifestent dans la convection, et qui comptent les couches limites et les panaches.

Francesca Chilla et Bernard Castaing ont ainsi choisi, à l’occasion de mon stage de maîtrise en mai 2002, d’explorer la piste des panaches. Au cours de ce premier stage, j’ai étudié les caractéristiques et l’évolution de panaches isolés, puis celles d’une rangée de panaches. En observant le refroidissement sur la surface supérieure du liquide ou la situation symétrique, le chauffage par la surface inférieure, nous avons été surpris par les différences entre la vue de dessus et la vue de côté (voir fig 0.1). Alors que les vues de face et de côté montrent, comme on aurait pu l’attendre, un forêt de panaches, la vue de dessus montre une organisation en lignes et en cellules. Une étude sommaire nous a permis de comprendre que le fluide chaud, pour monter, se regroupe en lignes sources, qui génèrent des lames se déstabilisant rapidement en panaches aux croisements des lignes. Quelques petits arguments qualitatif ont été avancés pour comprendre certains aspects de la dynamique de ces cellules, mais les questions principales sont restées sans réponse :

Comment et pourquoi les lignes se forment elles? Comment et pourquoi se déstabilisent-elles en panaches ?

C’est dans l’optique de progresser sur ces points que le présent stage a porté dans un premier temps sur l’étude des lames naissantes ou stationnaires (parties 4 et 5 de ce rapport). Ensuite, nous avons tenté de poursuivre l’étude des vues de dessus lors du phénomène complexe de refroidissement de la surface (parties 6 et 7). Ces études ont bénéficié d’éléments nouveaux depuis le précédent stage : d’une part la mise au point et de l’utilisation de la mesure de vitesses par imagerie de particules sur un dispositif expérimental plus abouti (parties 2 et 3), et d’autre part une recherche bibliographique plus approfondie, qui nous a permis de faire un récapitulatif rapide des résultats existant dans ce domaine (partie 1).

4

Dtz ∝

I. Récapitulatif des résultats antérieurs

Cette première partie dresse, sans prétention d’exhaustivité, un rapide état des lieux des connaissances recueillies sur les panaches et les plumes thermiques, grâce au précédent stage effectué en 2002, mais aussi grâce à plusieurs articles découverts au cours du présent stage.

Terminologie

Les premiers expérimentateurs et théoriciens [2,3,4,5] désireux de caractériser les structures thermiques cohérentes présentes en convection ont tout d’abord tenté de les isoler, et de les produire de manière contrôlée. Une méthode simple est de chauffer en un seul point un fluide de température homogène, au repos, placé dans une cuve. La situation est équivalente, dans le cas d’un refroidissement ponctuel, à condition d’échanger haut et bas. Cependant pour des raisons pratiques, c’est le chauffage qui a été étudié. Peu après les premières expériences [5], les structures ainsi générées ont été classifiées, en fonction de la durée du chauffage appliqué.

Si le chauffage est ponctuel dans le temps comme dans l’espace, une bouffée de fluide chaud se sépare de la source et monte en formant un anneau de vortex (fig. 1.1). C’est un panache ou thermique (« thermal » en anglais).

Si au contraire le chauffage est maintenu constant, c’est une colonne de fluide chaud qui s’élève au-dessus de la source, en régime permanent. Cette colonne est habituellement nommée plume.

Enfin la structure intermédiaire, produite au moment où le chauffage est mis en route puis maintenu pour générer une plume, est nommée « Starting plume » en anglais. Nous la nommerons plume naissante. Elle est formée d’une tête, analogue au panache, suivie d’une queue qui deviendra une plume en régime permanent. La plume naissante n’est pas la simple combinaison d’un panache suivi d’une plume : elle possède ses caractéristiques propres. Par exemple, le fait que la tête soit alimentée en chaleur lui donne une vitesse supérieure à celle d’un simple panache.

Voici dans un premier temps un petit bilan des caractéristiques des structures issues d’un chauffage ponctuel dans l’eau: panache, plume naissante et plume.

Le panache simple

Au cours de mon stage de maîtrise [1], je me suis surtout attaché à caractériser un panache simple. Après une phase de formation du panache (la couche chaude qui se forme autour de la source se rassemble puis se détache), le panache démarre son ascension, mais ralentit au cours de sa montée. J’ai mesuré que sa hauteur z varie en :

Où D est une constante qui est d’autant plus importante que la puissance injectée dans le panache est

élevée [1]. L’origine des z doit cependant être choisie en dessous de la source réelle du panache, car la source n’est pas vraiment ponctuelle. Ce résultat est en accord avec un modèle simple développé par Bernard Castaing [1], ainsi qu’avec Shlien [4].

J’ai également vérifié le caractère autosimilaire du panache tout au cours de sa montée. La variation du rayon avec la hauteur a été mesurée quasiment linéaire, sans pouvoir se prononcer plus du fait de l’imprécision des mesures.

Le champ de vitesse du panache a été mesuré par Shlien et Brosh [6]. Plume naissante générée par une source ponctuelle

La plume naissante générée par une source ponctuelle n’est en somme qu’un panache qui continue d’être alimenté en fluide chaud après son départ. L’effet produit est que la tête a maintenant une vitesse constante [4]. La géométrie est toujours auto-similaire, et l’aspect général ne diffère pas vraiment d’un panache simple.

N’ayant pas étudié les plumes ponctuelles au cours du premier stage, j’ai vérifié rapidement la constance de la vitesse dans mon expérience (fig. 1.2). Le résultat est concluant, sauf prés de la surface de l’eau.

Fig 1.1: Panache visualisépar ombroscopie puistraitement d’image [1]

5

Shlien et Tanny [5] ont mesuré le champ de vitesse de la plume naissante, avec une méthode assez analogue à celle utilisée pendant le stage.

Shlien et Boxman (Int. J. Heat. Mass Transfer, 1981) ont mesuré le champ de température par interférométrie. Dans la queue qui alimente la tête, ce champ ne diffère pas beaucoup du champ mesuré dans la plume stationnaire.

Enfin, Kaminski et Jaupart [12] ont mesuré les vitesses de montée pour différentes puissances de chauffage et pour différents nombres de Prandtl, et ont trouvé également des similitudes avec la plume stationnaire.

Plume générée par une source ponctuelle Les principaux résultats sur les plumes stationnaires sont dus à Fujii [2], qui a calculé les dépendances

de plusieurs paramètres, notamment l’évolution de la largeur de la plume y:

21

41

zQy−

avec Q puissance du chauffage, et z hauteur à laquelle y est mesuré. La vitesse maximale du fluide, au centre de la plume, varie comme :

21

max Qu ∝

et est indépendante de la hauteur z. Fujii a également étudié la variation de température, et calculé les différents profils analytiquement pour des nombres de Prandtl de 1 et 2. Le champ de température a été mesuré par Shlien et Boxman (Phys. Fluids 22, 1979).

Lame et lame naissante

Nous avons jusqu’à présent parlé de panaches, plumes et plumes naissantes générés par une source ponctuelle. Si la source est une ligne ? Un chauffage constant génère un voile de fluide chaud au-dessus de la ligne, que nous avons choisi d’appeler lame. Par analogie, on peut aussi parler de lame naissante lorsque le chauffage vient d’être activé. Fujii a conduit les mêmes calculs que précédemment dans le cas d’une ligne source [2] :

52

51

zQy−

∝ et 51

52

max zQu ∝ sont les résultats principaux.

A notre connaissance, aucune étude expérimentale des lames n’a été menée à l’heure actuelle (2003).

Intérêt de l’étude des lames L’observation de la convection générée par le chauffage de toute une plaque fait apparaître que la

chaleur se regroupe en lignes et lames avant de monter sous forme de panaches, prouvant ainsi que les lignes sources ne sont pas de simples cas d’école mais représentent un aspect primordial des structures cohérentes en convection de Rayleigh-Bénard. Comment les panaches sont ils engendrés par les lames ? Est-ce le résultat d’une instabilité propre aux lames elles-mêmes (typiquement un nombre de Reynolds élevé pour la lame), ou au contraire est-ce la turbulence due à la convection qui les déforme ? Par ailleurs, le régime décrit par Fujii peut-il être atteint dans nos conditions expérimentales ? Ces questions constituent le fil directeur de ce rapport.

Les parties 4 et 5 de ce rapport présentent les résultats de notre étude des lames isolées. Les parties 6 et 7 portent sur l’étude des lames générées par le refroidissement de la surface supérieure. Mais avant cela, présentons tout d’abord le dispositif expérimental et les méthodes de mesure employées…

temps en s

haut

eur

en c

m

Plume naissante − (source ponctuelle de 2W)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

9

8

7

6

5

4

3

2

1

Fig 1.2: Hauteur d’une plume naissante au cours du temps

6

II. Le Dispositif Expérimental

Le montage réalisé, amélioré par rapport au stage précédent, était assez modulable pour permettre de prendre l’ensemble des mesures présentées dans ce rapport. Avant de présenter le plan général, détaillons ici les différents éléments.

La Cuve

Le but des expériences étant d’étudier la géométrie des structures présentes en convection, c’est une cuve transparente qui a été utilisée, au détriment de l’isolation thermique habituellement utilisée dans les expériences de mesure de température. Un aquarium rectangulaire (29 cm x 20 cm à la base), dont les parois de verre ont 3mm de large, est rempli d’eau distillée. La hauteur d’eau varie de 8cm à 16cm suivant les expériences. La plaque du bas étant de ce fait en verre ordinaire, donc de faible conductivité thermique, il est possible que le comportement de la couche limite thermique du bas en soit modifiée par rapport aux plaques de cuivre souvent utilisées. L’idéal, recherché sans succès par plusieurs équipes, serait de trouver des plaques à la fois transparentes et conductrices, afin de faire une cellule de Rayleigh-Bénard transparente. Dans notre cas, nous n’avons pas pu chauffer par le bas.

Le Chauffage Trois façons de chauffer l’eau ont été utilisées, afin de varier la dimension de la source (point, ligne,

surface) : • Résistances classiques Afin de générer des panaches ou des plumes issus d’une source

locale, on alimente une résistance placée au fond de l’aquarium. Si les petites résistances classiques, qui sont conçues pour supporter 0.5W dans l’air, conviennent pour faire quelques essais jusqu’à une dizaine de Watts, elles vieillissent assez vite (leur résistance augmente). Il est donc préférable d’utiliser des résistances plus imposantes. La résistance que nous avons choisie (fig 2.1), de 47Ω et supportant 16W dans l’air, convenait pour générer des panaches jusqu’à 20W. Cependant, ses dimensions importantes (15mm de long pour 5mm de diamètre) imposent une certaine prudence avant de parler de source ponctuelle...

• Résistances linéaires L’utilisation de résistances plates, rectangulaires et allongées (55x6mm), de 9,2Ω et pouvant résister à

des températures élevées, a permis d’obtenir une source de chaleur linéique. En plaçant deux résistances bout à bout, la ligne source mesure 11cm sur 0,6cm de large. Dans des expériences antérieures [1], nous avions utilisé pour simuler une ligne 10 petites résistances soudées en série, pour une longueur totale de 10cm. Il s’est avéré que le chauffage n’était pas assez homogène, et au lieu d’obtenir une lame de fluide chaud, c’était 10 plumes naissantes issues des résistances qui s’élevaient. Le problème a donc été résolu par l’utilisation des résistances plates.

• Eau chaude Pour étudier l’effet d’une variation de température sur toute une surface, il n’est pas possible à notre

connaissance de chauffer la plaque de dessous tout en gardant la transparence. Une alternative est de remplir l’aquarium d’eau plus chaude que la température ambiante. La surface supérieure se refroidit (l’évaporation y contribue pour beaucoup), et nous obtenons ainsi un refroidissement par dessus, tout en conservant la transparence. Le problème n’est cependant pas complètement symétrique d’un chauffage de la plaque du bas: ici il est vrai qu’il y a un refroidissement par toutes les parois de l’aquarium, et c’est ce qui empêche les panaches créés en haut de descendre jusqu’en bas, où le fluide est déjà stratifié. Une autre différence est que la surface refroidie est une surface libre, ce qui modifie les conditions aux limites pour la vitesse et peut aussi provoquer des effets dus à la variation de la tension superficielle avec la température. Enfin, c’est l’air qui refroidit l’eau, et ce refroidissement pourrait ne pas être uniforme, car la convection se met également en place dans l’air. Pourtant les études précédentes semblent montrer qu’il est possible de négliger ces effets dans une première approche [1].

Fig 2.1: Résistance cylindrique 47Ω

7

Visualisation • Ombroscopie Cette technique, exposée plus en détail dans le précédent rapport [1], allie simplicité et efficacité. Son

principe repose sur la variation de l’indice optique de l’eau avec la densité, donc avec la température. Une zone chaude fait diverger les rayons lumineux, alors qu’une zone froide les fait converger. Un faisceau de rayons traversant l’aquarium de part en part projette ainsi sur un écran une image de la distribution de chaleur. Les meilleurs résultats sont obtenus avec une source lumineuse la plus intense et ponctuelle possible (dans notre cas un filament de lampe Quartz-Iode de 100W, nu), et située le plus loin possible de l’aquarium (4 m ici), afin d’obtenir une bonne résolution sur l’écran.

• Visualisation par imagerie de particules La deuxième méthode utilisée, qui a été la principale nouveauté de ce stage, est la visualisation par

imagerie de particules. Des particules microscopiques en suspension dans l’eau sont éclairées sur une tranche de la cellule, et photographiées perpendiculairement à cette tranche. La description détaillée de cette méthode et de l’utilisation des clichés obtenus fait l’objet de la partie III.

• Autres méthodes D’autres méthodes de visualisation existent, qui n’ont pas été utilisées ici. Elles sont pour la plupart

basées sur une coloration d’une partie du fluide. L’introduction d’un colorant par exemple permet de visualiser les structures cohérentes pendant quelques secondes, avant que la convection et la diffusion le mélangent complètement [5]. Mentionnons également les indicateurs colorés variant avec le pH [7], ou des microbilles remplies de cristaux liquides, dont la couleur parcourt le spectre lumineux sur une plage de température qui peut être définie à l’avance (sur une dizaine de degrés, tout comme sur une plage de 0.1°C) . Enfin, des expériences assez récentes ont utilisé des caméras infrarouges pour visualiser le champ de température en surface [11].

Acquisition

L’acquisition est faite soit au moyen d’un appareil photo numérique permettant de varier le temps de pose jusqu’à un maximum de 8 secondes, soit au moyen de camera numérique. Dans certains cas, les phénomènes observés présentant des variations importantes dans les trois dimensions, il a été nécessaire de combiner deux appareils numériques ou même deux caméras identiques.

Lampe Q.I.

Filtre anti-calorique

Ecran et fente

Miroir du dessus

Aquarium Miroir du dessous

Résistance

Support Appareil photo

Vers l’écran

Alimentation

Fig 2.2: Photo de la partie principale du montage, vu de dessus (le miroir est au premier plan)

8

Vue d’ensemble La photo 2.2, ainsi que les schémas 2.3 et 2.4, présentent une vue d’ensemble du montage. Les divers

éléments présentés ne sont pas toujours mis en place, et varient suivant la série de mesure effectuée. Deux sources sont nécessaires pour utiliser l’ombroscopie et la visualisation de particules en simultané. La source proche donne un éclairage plus puissant, alors que celle qui est éloignée permet d’obtenir une meilleure résolution sur l’écran pour l’ombroscopie. Dans cette configuration, le miroir représenté en vue de côté est enlevé, et c’est là qu’est placé l’appareil photo servant au tracé de particules ; l’ombroscopie donne alors la vue de dessus. Si c’est uniquement l’ombroscopie qui est nécessaire, en enlevant la source proche, l’écran, et en remplaçant l’appareil photo par le miroir, il est possible de visualiser le phénomène dans les 3 dimensions. Deux caméras (ou appareils photos) suffisent pour capturer l’ensemble, car la vue de dessus et la vue de face sont alors réunies sur le même écran.

Ecran de projection

(ombroscopie)Miroir de dessous

Miroir de dessus

Source proche (éclairage des particules)

Source lointaine (ombroscopie)

Aquarium

Ecran avec fente

Vue de dessus

Ecran (Vue de dessus par l’intermédiaire de 2 miroirs)

Source lointaine (ombroscopie)

Source proche (éclairage des particules)

Ecran avec fente

Aquarium

Ecran (Vue de côté par ombroscopie)

Miroir pour l’ombroscopie decôté, ou appareil photo pour la visualisation de particules

Fig 2.3: Schéma du montage, vu de côté

Fig 2.4: Schéma du montage, vu de dessus

9

III. Mesure de la vitesse

Cette partie décrit en détail la méthode utilisée pour mesurer les vitesses dans le fluide, qui a été développée à l’occasion de ce stage.

Essai avec la génération de bulles

Notre première idée pour mesurer la vitesse de montée dans une lame était d’utiliser l’électrolyse de l’eau, avec une anode de grande surface sur un côté de l’aquarium, et la cathode sous forme d’un fil fin posée au fond, à cheval sur la source de chaleur. Lorsque l’alimentation envoie un courant, la cathode se couvre de petites bulles d’hydrogène qui se détachent lorsque leur diamètre est de l’ordre de celui du fil. Elles se laissent ensuite porter par le fluide. On peut favoriser l’hydrolyse en dissolvant du Na2SO4 à 0,15g/L. Plusieurs équipes (voir Goldstein, Fluid mechanics measurements) ont utilisé ce procédé de manière très convaincante, générant périodiquement des lignes de bulles afin de visualiser leur déformation avec le courant.

Après quelques essais, nous nous sommes cependant aperçus que cette méthode ne pouvait pas être appliquée ici : les vitesses en jeu sont de l’ordre du centimètre par seconde, ce qui pour un fil de 50µm est aussi l’ordre de grandeur de la vitesse propre des bulles. Diminuer cette vitesse nécessite un fil d’électrode beaucoup plus fin, vu que la taille des bulles y est directement reliée.

La prise de vue : problèmes rencontrés et résolution

La solution finalement retenue pour mesurer la vitesse a été d’introduire de petites particules dans l’eau, de les éclairer en sélectionnant une fine tranche de la cuve seulement, et de prendre une photographie de la tranche avec un temps de pose plus ou moins long, afin que chaque particule laisse sur l’image une trace représentant sa trajectoire pendant la pose.

Le choix des particules est délicat. Avant une prise de vue, il faut parfois attendre une vingtaine de minutes, au bout desquelles des particules doivent encore se trouver réparties dans la cuve. Cela nécessite donc des particules de densité très proches de celle de l’eau ou bien de taille très petite et dont la vitesse de chute libre peut ainsi être négligée. De plus, elles doivent être assez grosses pour pouvoir laisser une trace sur l’image. Après plusieurs essais infructueux, le meilleur résultat a été obtenu avec de la simple poussière, collectée sur les étagères des armoires du laboratoire. De tailles très variables, les grains la constituant se déposent au fond de l’eau au cours du temps, mais après vingt minutes, avec un bon dosage, il reste suffisamment de petits grains en suspension.

Le problème principal avec la poussière est le manque de contrôle et le caractère hasardeux des dosages. Souvent, la présence en trop grand nombre de grains de très petite taille peut rendre l’eau trouble, diminuant le contraste de l’image. Un paramètre sur lequel il est alors possible de jouer est les temps depuis lequel les poussières reposent dans l’aquarium. En général, au bout d’un jour ou deux, les plus petits grains s’agglomèrent en plus gros, et la visibilité est améliorée, au profit également du nombre de grains isolables sur l’image.

Après avoir rendu une visite à Claude Jaupart et Anne Davaille, géophysiciens à l’Institut de Physique du Globe de Paris travaillant également sur les panaches et les plumes, leurs conseils nous ont permis de commander de petites billes de verre creuses (et donc de densité proche de celle de l’eau : 1,1), de 10 microns en moyenne. Malheureusement, les billes n’ont été disponibles qu’en toute fin du stage, et donc peu de mesures ont pu en bénéficier, mais il est certain qu’elles remplacent avantageusement la poussière d’armoire…

J’ai consacré une bonne partie du stage à obtenir des images de qualité, c’est à dire dont on puisse extraire le maximum d’information concernant le champ de vitesse. En effet, le nombre de paramètres à régler pour une prise de vue est relativement important, et le dosage pour lequel l’image est de qualité doit être précis : pour la plupart des paramètres, plusieurs effets rentrent en compétition et imposent de choisir un bon compromis. Voici les plus importants d’entre eux :

• Epaisseur de la tranche éclairée. L’image ne contient aucune information sur la distance appareil-particule. Le traitement des données

n’est possible qu’en faisant l’approximation que toutes les particules sont dans un même plan : en un point de l’image, il n’y a qu’une valeur de la vitesse. Dans la pratique, cela impose d’éclairer une tranche fine de la cuve. Si sur une image les traces de particules se croisent en de nombreux endroits, cela signifie que la tranche est trop épaisse. Cependant, une tranche trop fine ne permettra qu’à très peu de particules d’être

10

éclairées, et l’image ne contiendra que très peu d’informations. De plus, cela augmente l’effet des bords, à savoir que la probabilité pour une particule de rester dans la tranche éclairée pendant tout le temps de pose diminue. C’est un biais dans la mesure de la norme de la vitesse, qui pourra paraître plus faible.

• Nombre de particules. Vu que le nombre de points de mesure du champ de vitesse croît directement comme la densité de

particules, il paraît intéressant d’augmenter ce paramètre. Il ne faut pourtant pas négliger le fait que tout le fluide situé entre l’objectif et la tranche éclairée est lui aussi rempli de particules. Celles-ci peuvent ainsi notablement troubler le liquide et diminuer fortement le contraste de l’image. Pour réduire cet effet, il est important qu’en dehors de la tranche lumineuse très peu de lumière atteigne le reste de la cuve, et il faut donc veiller à ce que la pièce soit bien noire, et surtout éliminer les réflexions parasites. Il peut être avantageux de réduire également le nombre de particules de trop petite taille. Dans le cas de la poussière, de nombreuses gammes de tailles sont présentes, et le fluide prend vite un aspect laiteux. Mieux vaut donc des particules de taille assez mono disperse.

Il faut également noter qu’une image contenant trop de traces de particules est vite illisible : deux traces peuvent sembler n’en faire qu’une beaucoup plus longue, et la vitesse sera surestimée. Cet effet est d’autant plus important que le temps de pose est long.

• Temps de pose. Nous venons de voir qu’un temps de pose court autorise une plus grande densité de particules. Le

temps de pose, qui contrôle directement la longueur des traces sur l’image, doit également être ajusté en fonction de la vitesse des particules observées. Un temps trop court produit des traces de quelques pixels seulement, et l’incertitude sur la mesure du vecteur vitesse est grande. Un temps long permet de mesurer les vitesses faibles, mais rend la mesure des grandes vitesses peu exploitable (les traces ne sont plus des segments de droite), et augmente sensiblement l’influence du bruit de l’appareil et des sources de lumière parasites. Une même expérience gagne donc à être photographiée avec plusieurs temps de pose différents, car les images obtenues mettent en évidence des échelles de temps différentes.

• Ouverture de l'appareil. Plus l’ouverture de l’appareil est grande, plus il rentre de lumière, et donc plus les traces sont

lumineuses sur l’image. La contrepartie est une perte de profondeur de champ et de netteté. Régler la netteté sur des particules en suspension peu lumineuses est une opération délicate, et il est préférable d’augmenter la profondeur de champ en n’ouvrant pas l’appareil au maximum, au détriment de la luminosité.

• Paramètres généralement choisis pour les séries de mesure. Au vu des règles qui précèdent et après de nombreux tâtonnements, les paramètres pour la plupart des

séries de mesure se situaient autour des valeurs suivantes : o Quantité de particules : difficile à évaluer dans le cas de la

poussière ramassée sur les étagères. Voir la figure 3.1 pour les billes de verre.

o Distance appareil – tranche éclairée : 20 cm o Epaisseur de la tranche : 5mm à 15mm o Focale (zoom) : 50mm environ (pour contenir quasiment

toute la tranche) o Sensibilité équivalente : 400 ISO o Ouverture équivalente : 4 à 5 o Temps de pose : de 0.5s à 8s. 1s la plupart du temps.

Le traitement des images Une fois la série d’images prise, un traitement numérique approprié est souvent très bénéfique pour la

qualité de l’image et la mise en valeur des informations importantes qu’elle contient. Les images ont été retraitées grâce à des routines Matlab écrites dans ce but. Seules quelques séries

particulièrement bruitées ont bénéficié du traitement complet, car le traitement des centaines d’images obtenues n’était pas envisageable. Un traitement soigné peut corriger une prise de vue mal réalisée, mais ne peut en aucun cas se substituer à une prise de vue soignée. C’est pourquoi l’effort a plutôt porté sur le

Fig 3.1: spatule contenant les billes de verre destinées à tout un aquarium

11

choix des paramètres de prise de vue et la prise d’un nombre important de clichés (plus de trois mille), en vue de la sélection des meilleures images. Cela a permis de moins insister sur la phase de traitement.

Voici toutefois les étapes de celle-ci : • Réduction du bruit et suppression du fond. Les images de la série sont converties en matrices, remplies des valeurs correspondant à la luminosité

de chaque pixel, entre 0 et 255. S’ensuit le calcul d’une image « médiane », en prenant pour chaque pixel la médiane des valeurs prises par ce pixel sur chaque image (la valeur médiane partage les valeurs d'une série statistique en deux groupes de même effectif) . Cette matrice est alors soustraite à toutes les autres.

Cette opération permet d’enlever les éléments constants sur toutes les images : l’arrière plan, les réflexions parasites, et une bonne partie du bruit généré par l’appareil. Il est d’ailleurs curieux que sur la plupart des appareils numériques, le bruit soit en grande partie constant d’une image à l’autre (faut-il alors parler de bruit ou plutôt de défauts de la matrice sensible ?), ce qui permet de le soustraire assez facilement.

L’opération « médiane » est préférée à l’opération « moyenne », car pour une série qui compte une dizaine d’images seulement, la présence des pixels très clairs (ceux situés sur le passage d’une particule) change notablement la moyenne, qui ne représente plus le fond. La médiane permet de s’assurer d’une valeur représentative du fond.

• Ajustement du contraste Une fois l’image médiane soustraite, l’intensité des plus faibles traces

est proche de 0, et celle des plus fortes se situe vers 150. Il faut donc réajuster la luminosité et en profiter pour jouer sur le contraste. En pratique, il faut utiliser une fonction bijective qui transforme l’intervalle [0;150] en [0;255]. Mieux qu’une simple transformation affine, l’emploi de logarithme permet de situer les plus grands gradients de luminosité sur les faibles intensités, pour faire ressortir les traces faibles (fig. 3.2).

Le traitement est alors terminé, et la matrice finale peut être enregistrée comme image en valeurs de gris (voir fig. 3.3).

Transformation en vecteurs vitesse A partir des séries d’images, l’extraction de l’information

consiste essentiellement à convertir les traces enregistrées en vecteurs vitesse. Pour cela, on peut utiliser un traitement automatisé par ordinateur ou une reconnaissance manuelle. L’avantage de la première méthode est évident en termes de gain de temps. Le principal problème est de pouvoir faire confiance à l’algorithme mis en œuvre, qui doit se montrer pratiquement aussi intelligent que l’utilisateur qui effectuerait un traitement manuel. Dans le cas présent, cela aurait impliqué la

150

255

0 Intensité de départ

Inte

nsi

té a

prè

s tr

an

sfo

rmati

on

Fig 3.2: transformation de l’intensité

Fig 3.3: Exemple de traitement d’une image de mauvaise qualité. A gauche l’image originale montre de nombreux amasde poussière en arrière plan. L’image de droite met mieux en évidence les trajectoires des particules. 4 images seulement ont servi pour calculer l’image médiane.

Trace brillante

Trace moyenne

Fig 3.4: extrait d’une image à traiter

12

réalisation d’un algorithme de reconnaissance de formes très évolué : outre le fait que reconnaître une trace allongée, même isolée sur fond bien noir, nécessite des connaissances en reconnaissance d’images, déterminer de surcroît des critères automatiques permettant de distinguer les traces du bruit de fond et autres artefacts pourrait faire l’objet d’un stage à part entière…

La plupart du temps, les images présentent quelques traces très brillantes en petit nombre, un nombre très élevé de traces faibles qui se chevauchent, et dont on ne distingue pas le début ou la fin, en enfin un nombre moyen de traces de luminosité intermédiaire. C’est la reconnaissance de cette dernière catégorie de traces qui est problématique : s’en tenir aux traces très brillantes conduirait à une bien maigre moisson de vecteurs vitesse sur chaque image. Toute la difficulté est donc de repérer les traces qui se détachent plus faiblement, sur fond des innombrables traces si faibles qu’elles deviennent du bruit (voir fig. 3.4).

C’est donc à la main que la reconnaissance des vecteurs a été faite. L’utilisation de l’outil informatique a

tout de même permis un gain de temps considérable en facilitant la mesure. N’ayant pas trouvé d’outil adapté, j’ai en effet programmé une interface graphique en JAVA, version nettement améliorée de l’interface développée dans le précédent stage [1] qui, lorsque l’utilisateur choisit une image, l’affiche au grossissement souhaité (une vignette permet de se déplacer dans l’image entière). L’utilisateur peut ici choisir de repérer des points ou des vecteurs, en créant une nouvelle variable. Points et vecteurs se dessinent à la souris (plusieurs fonctions permettent de corriger une erreur, d’effacer, etc…) . L’utilisateur peut enfin sauver les données sous forme de coordonnées lisibles avec Matlab. Le programme permet en outre de naviguer d’une image à l’autre dans une même série, ce qui s’avère parfois utile pour suivre une particule, afin de connaître le sens d’une trace lorsqu’il n’est pas évident. Si la réalisation de ce programme a demandé du temps (1000 lignes de code), l’investissement a été rentable car il a rendu la mesure beaucoup plus facile et a permis de relever un nombre important de points. La figure 3.5 présente une copie d’écran de cette interface graphique.

• Evaluation de l’erreur Comme toute opération de mesure, la numérisation des vecteurs vitesse comporte des incertitudes.

L’étalonnage pour passer de pixels à des cm, réalisé au moyen d’une règle plongée dans l’aquarium, comporte une erreur faible (environ 1%). L’incertitude sur le temps de pose de l’appareil, difficile à évaluer, ne doit pas dépasser les 5%. Cette erreur n’est cependant pas très gênante, dans la mesure où c’est une erreur systématique, qui est la même pour tous les tracés de particules. La plus grande source d’erreur provient de la résolution de l’appareil, et du relevé manuel : en estimant l’erreur entre 1 et 2 pixels lors du relevé, on remarque que l’incertitude relative dépend de la longueur de la trace. Pour les plus petites vitesses mesurées, l’incertitude peut aller jusqu’à 30%. Cependant, ce sont surtout les plus grandes vitesses (de plus de 3mm par seconde) qui nous ont intéressés par la suite, et l’erreur ne dépasse pas 5% pour celles-ci, ce qui est tout de même non négligeable. Enfin, il ne faut pas oublier le biais introduit par les particules qui sortent ou rentrent dans la tranche éclairée pendant la pause, et qui diminue la vitesse mesurée. Les erreurs précédentes concernaient la norme du vecteur vitesse. Si l’on s’attache à sa direction, il est clair que la pixellisation n’avantage pas les faibles vitesses. L’incertitude est d’ailleurs totale pour des vitesses presque nulles. Dans les cas favorables des grandes vitesses mesurées, l’incertitude passe en dessous de 5°.

Remarque : jusqu’à présent, nous avons parlé sans distinction de vecteur vitesse ou de trace de particule. Il convient cependant de faire ici quelques précisions. Ceci n’est rigoureusement vrai que si la vitesse de la particule est constante pendant le temps de pose. Il suffit alors de relever le vecteur constitué par la trace et de le diviser par le temps de pose pour obtenir le vecteur vitesse, qui est alors valable sur

Fig 3.5: Copie d’écran de l’interface graphique développée en JAVA

13

toute la longueur de la trace. Dans la pratique, la vitesse change au cours du temps, et le vecteur vitesse ainsi calculé ne coïncide avec le véritable vecteur vitesse de la particule qu’en un seul point (dans le cas d’une évolution monotone). Pour minimiser l’erreur faite, nous avons donc considéré que le vecteur vitesse calculé était celui de la particule lorsqu’elle se trouvait au milieu de la trajectoire enregistrée.

Enfin, il va sans dire que le vecteur vitesse mesuré ne peut être qu’une projection de la vitesse de la particule dans le plan de la tranche éclairée (vu que l’appareil vise perpendiculairement à cette tranche). Nous avons négligé les effets de parallaxe.

Obtention d’un champ A ce point du traitement, nous connaissons la valeur du vecteur vitesse dans le fluide en plusieurs

points répartis sur la tranche éclairée. Leur disposition est aléatoire, et ils sont bien sûr plus nombreux dans les zones qui nous intéresseront pour la suite. Comment procéder si l’on désire obtenir à partir de ses points le champ de vitesse dans tout le fluide ? Il faut utiliser des techniques d’interpolation. La triangulation de Delaunay permet, à partir d’un ensemble de points sur un plan, de découper ce plan en triangles dont les extrémités sont des points de l’ensemble. C’est l’algorithme classiquement utilisé pour la reconstruction de paysages par ordinateur à partir de points d’altitude connue. Ici, cela donne pour chaque point du plan 3 voisins parmi les points de vitesse connue. L’interpolation est ainsi plus aisée. Matlab permet d’utiliser Delaunay et une interpolation choisie (linéaire, bicubique…), afin de reconstruire le champ de vitesse sur tout l’espace (voir les fig.4.5 et 5.5).

Il faut être prudent avec ce type de reconstruction, qui ne prend pas en compte les erreurs faites sur la mesure, l’incertitude, et ne donne pas un poids plus élevé aux zones comportant plus de points. Il faut donc prendre garde à éliminer d’avance les points aberrants. Les zones comportant peu de points mais également un fort gradient de vitesse sont mal représentées par ce genre d’interpolation. Tant que la qualité et le nombre des mesures ne sont pas très élevés, les images issues de l’interpolation gardent surtout une valeur illustrative et sont peu fiables.

Un avantage réside pourtant dans le calcul des lignes de courant. En effet, la plupart des images analysées présente des zones de gradient élevé quant à la norme de la vitesse (bords de la lame), mais le gradient concernant la direction du vecteur est en général très faible : la direction du vecteur vitesse varie lentement, et la triangulation de Delaunay suivie d’une interpolation linéaire donne une très bonne image des directions. Les lignes de courant sont donc calculées de manière assez fiable, du moment qu’on ne s’attache pas à la norme de la vitesse.

Comparaison avec la PIV

Une technique très fructueuse de mesure d’un champ de vitesse, qui ressemble beaucoup à celle employée ici, est la PIV (« Particle Image Velocimetry »). Un détecteur prend plusieurs images d’une tranche éclairée contenant des particules en suspension. Ces images sont ensuite traitées par ordinateur : l’algorithme calcule les corrélations entre une zone sur une image et les zones voisines sur l’image suivante. Lorsque la corrélation est maximale, on en déduit la vitesse du fluide. Cette méthode nécessite un détecteur capable de prendre des images rapidement et pendant des temps très courts, car l’image des particules doit être ponctuelle (ne pas laisser de trace). Il faut donc compenser la perte de luminosité par l’utilisation de sources puissantes (lasers de plusieurs Watts en général).

Une version plus simple consiste à prendre un seul cliché, avec un temps de pose long, durant lequel la tranche aura été illuminée deux fois (deux pulses du Laser). L’opération suivante devient alors une auto-corrélation. Cette version de la PIV est très proche de la méthode utilisée ici : la différence au niveau des images est que dans notre cas, les traces des particules apparaissent, alors que le cliché pour PIV ne contient en somme que les deux extrémités de ces traces. Toute l’étape de calcul par corrélation revient à reconstituer ces traces. Notre méthode est beaucoup plus simple à mettre en œuvre, et présente déjà les traces : les lignes de courant apparaissent facilement lorsqu’on visionne l’image. L’énorme avantage de la PIV réside dans le fait que, même si les trajectoires doivent être reconstituées par l’ordinateur, cette étape assure en même temps la numérisation des données, et l’étape fastidieuse de reconnaissance manuelle des traces est évitée.

La méthode que nous avons utilisée sera donc efficace pour visualiser des lignes de courant, pour obtenir rapidement l’ordre de grandeur des vitesses, ou pour connaître le champ de vitesse sur des zones très ciblées, de faible étendue. Dans le but d’obtenir le champ de vitesse précis sur une grande portion de l’image, la PIV est indispensable afin d’éviter une perte de temps sur des tâches fastidieuses.

14

IV. Résultats : Lame naissante Vitesse de montée

La résistance en ligne permet de générer des lames naissantes. Le film de la vue de face par ombroscopie (fig. 4.1) montre que dès que la lame commence à monter, la chaleur se regroupe pour former des petits panaches. Ceux-ci fusionnent à leur tour pour donner des panaches plus gros, et le front qui arrive en haut de l’aquarium n’a alors plus rien de régulier. Une lame naissante n’est donc pas vraiment une structure cohérente, car elle se déstabilise pour se rapprocher d’une série de plumes naissantes. Sur la dernière photo de la figure 4.1, on voit nettement des plumes se dégager de la source, et non pas une lame uniforme comme on pourrait s’y attendre.

Nous avons observé que plus la puissance de chauffage était élevée, plus les panaches formés au début sont petits et nombreux.

Dans ces conditions, il est difficile de parler de vitesse de montée de la lame, celle-ci variant suivant l’endroit où elle est mesurée. Cependant, si l’on raisonne en termes de plumes naissantes à la file, on est en droit de se demander quelle influence elles exercent entre elles. En choisissant une colonne de pixels qui se retrouve dés le début sur une tête de plume naissante peu perturbée (la ligne de coupe de la fig. 4.1), et en traçant uniquement l’évolution de cette colonne de pixels lorsque se déroule le film(fig. 4.2), on constate que la vitesse de montée est constante.

La figure 4.3, qui représente une coupe à un autre endroit, est assez instructive : le film associé indique en effet que la tête située à cette abscisse au départ est englobée dans une plume voisine. La tête de cette plume voisine gagne de la vitesse, et se détache vers le haut. Elle n’est plus alimentée par le bas et devient donc un panache. La figure 4.3 montre une période de croissance linéaire, puis une séparation en deux, due à l’alimentation de la plume voisine. La partie du haut a une dynamique de panache, alors que la partie du bas, après un régime transitoire, retrouve une vitesse constante.

Fig 4.1: Lame naissante de puissance 10W sur 11cm; vue de face à trois instants différents

réflexion parasite

ligne de coupe

surface

temps en s

ha

ute

ur

en

cm

Plume naissante − (source linéique de 10W pour 11cm)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

9

8

7

6

5

4

3

2

1

0

temps en s

ha

ute

ur

en

cm

Plume naissante − (source linéique de 10W pour 11cm)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15

9

8

7

6

5

4

3

2

1

0

panache non alimenté

alimentation d’une plume voisine

Fig 4.2: Coupe de la lame de la fig. 4.1. Evolution au cours du temps Fig 4.3: Autre coupe

15

Champ de Vitesse Pour obtenir le champ de vitesse de la lame naissante,

la méthode décrite en partie 3 a été utilisée : l’aquarium est éclairé sur une mince tranche, perpendiculairement à la ligne source, puis plusieurs clichés ont été pris. Cela ne permet malheureusement pas d’avoir une vision d’ensemble des formations de têtes en panache et de leurs rencontres.

Le traitement des données permet d’obtenir les lignes de courant (fig. 4.4) et la valeur de la vitesse (fig. 4.5 pour la vitesse verticale), pour une lame alimentée par 8,7 W pour 11cm. Les lignes de courant montrent une structure similaire à un panache, avec deux vortex. On peut noter une dérive à droite prés de la surface (qui est à 8,7cm), due au mouvement général du fluide avant de lancer la lame : la lampe Quartz-Iode éclairant la tranche depuis la gauche chauffait légèrement le fluide, entraînant la mise en place d’un rouleau de convection. Celui-ci est cependant assez lent pour être négligé.

Les vitesses maximales ne dépassent pas 0,5cm.s-1 . Il convient là de faire la distinction entre la vitesse au cœur de la lame naissante (que l’on peut voir sur la fig. 4.5) et la vitesse de montée de la tête du panache, dont il était question précédemment. Il faut garder à l’esprit que les formes visibles à l’ombroscopie sont les zones plus chaudes, ce qui est totalement différent d’un marquage par colorant par exemple : une particule de fluide se trouvant dans une zone chaude a tendance à monter, se retrouve vite en contact avec du fluide froid, se refroidit, puis redescend sur les côtés (c’est ainsi que se forment les vortex). La vitesse de montée de la structure cohérente chaude est donc inférieure à la vitesse du fluide qui la compose. Ici, la vitesse de montée a été estimée, à l’aide des différents clichés, à 0,2cm.s-1 , ce qui est environ la moitié de la vitesse du fluide au cœur de la lame.

La partie basse de la figure 4.4 présente l’allure des lignes de courant dans le référentiel des vortex (un vecteur de 0,2cm.s-1 vers le bas a été rajouté au vecteur vitesse mesuré). Cette représentation met mieux en évidence le phénomène du panache, montant au milieu de fluide froid. On peut également constater un effet subtil du changement de référentiel, déjà signalé dans le cas des plumes

naissantes par Tanny et Shlien [5] : la distance entre vortex diminue. Ceci peut se comprendre dans la mesure où le centre du vortex doit être un point de vitesse nulle. Les lignes rouges représentent les points où la vitesse horizontale est nulle (la partie haute de cette courbe n’est pas très significative). Le centre des vortex doit donc être situé sur ligne rouge. Le changement de référentiel appliqué consiste à modifier la vitesse verticale, et les points de vitesse nulle ne peuvent donc le rester : le vortex apparent se déplace alors sur la ligne rouge, en se rapprochant du centre de la lame, d’autant plus que la vitesse ajoutée est grande.

Pourtant, par ombroscopie, il n’est possible de voir qu’un vortex, qui lui ne dépend pas du référentiel… Quel est donc le « bon » référentiel pour le vortex? C’est bien sûr le référentiel qui lui est attaché, et donc celui du bas de la figure 4.4 dans notre cas.

Mais intéressons-nous à présent au futur de la lame naissante : la lame stationnaire…

-3 -2 -1 0 1 2 30

1

2

3

4

5

6

7

8

Hau

teur

en

cm

Abscisse en cm

Lame naissante: lignes de courant

-3 -2 -1 0 1 2 30

1

2

3

4

5

6

7

8

Hau

teur

en

cm

A b s c i s s e e n c m

L a m e n a i s s a n t e : l i g n e s d e c o u r a n t

Fig 4.4: Lignes de courant, dans le référentiel du laboratoire (haut), et dans celui des vortex (bas)

Fig 4.5: composante verticale de la vitesse

16

V. Résultats sur les lames

Pour étudier les lames, la technique utilisée est la même que celle pour les lames naissantes, à la différence qu’il faut attendre de passer en régime permanent pour faire les mesures. Nous avons vu qu’une lame naissante n’est pas une structure très stable, et qu’il est inutile de chercher à connaître trop précisément le champ de vitesse mesuré, car il dépend beaucoup de l’endroit de la coupe, et l’expérience est peu reproductible. Au contraire, la lame est une structure bien identifiable, et notre objectif était de la caractériser le mieux possible. Fujii en a réalisé une étude théorique assez précise en décrivant l’existence un régime auto-similaire [2]. Ce régime peut-il être atteint dans l’eau, en laissant la lame se développer sur quelques centimètres de hauteur seulement ?

Une mesure délicate

Nous nous sommes heurtés à de nombreuses difficultés (qui n’ont pas toutes été contournées), car la mesure du champ de vitesse est très délicate, de même que la simple mesure de la vitesse de montée au centre de la lame. En effet, les lames que nous générons restent très étroites (de l’ordre du centimètre), par conséquent peu de particules éclairées se trouvent sur la zone intéressante à chaque cliché. Si l’on s’intéresse à la vitesse au centre de la lame, là où elle est à son maximum, le problème en est encore accentué, car le gradient de vitesse est très élevé au centre : un millimètre d’écart représente parfois un facteur deux dans la vitesse. Le nombre de traces repérables situées à un millimètre du maximum est extrêmement faible sur un seul cliché, et quand cela se produit, ce n’est encore que pour une hauteur donnée (notre but était de mesurer l’évolution de la vitesse au centre de la lame avec la hauteur).

Augmenter le nombre de particules ne conduirait qu’à surcharger plus l’image dans notre cas, vu que la plupart des particules ne participent qu’au bruit de fond (voir partie 3). Entre la tranche éclairée et l’appareil photo se trouvent environ 15 cm d’eau en avant plan, contenant également des particules, qui dégradent beaucoup le contraste et la luminosité de l’image. L’augmentation du nombre de particules n’est donc réalisable qu’à condition de réduire la disproportion entre la lame (1cm de largeur) et l’aquarium (20x30x15cm). Cela n’est pas envisageable car, en dépit de sa petite taille, la lame interagit avec tout l’aquarium (surface et bords), et la confiner d’avantage conduirait à une situation très éloignée du cas théorique, dépendant beaucoup du dispositif. Le problème provient donc du fait que nous souhaitons mesurer des vitesses faibles sur de petites échelles d’un phénomène en impliquant également de grandes.

On peut alors penser que l’imagerie de particules n’est pas adaptée. La mesure de la vitesse de montée d’un panache peut par exemple être réalisée grâce à des colorants : on dispose une couche de colorant dans une phase plus dense, au fond de l’aquarium, on génère un panache, qui entraîne avec lui le colorant, et on filme sa montée. Cependant avec la lame nous avons affaire à un phénomène stationnaire : une fois la source de chauffage allumée, il faut attendre plusieurs minutes pour passer de la lame naissante instable à la lame stable. Pendant ce temps, la convection due à la plume mélange l’eau de l’aquarium, interdisant l’utilisation d’un quelconque colorant.

L’ombroscopie n’est pas une meilleure solution : du fait de la stationnarité du phénomène, la lame est gris uniforme vue par ombroscopie, et il est impossible de déceler la vitesse verticale du fluide par cette méthode. Il en va de même de l’utilisation d’indicateurs colorés sensibles à la température.

L’imagerie de particules semble donc être la solution la moins mauvaise…

Fig 5.1: Cliché en négatif duprofil d’une lame. Puissance : 8,7W pour 11cm Hauteur : 8,7cm Pose : 1s

Surface libre

Fond

17

Une solution : ajouter les mesures de plusieurs clichés Comme le fait que la lame est stationnaire rend difficile voire impossible la mise en œuvre de

nombreuses techniques de mesure de la vitesse, nous avons voulu essayer au contraire d’en tirer un avantage : chaque cliché permet de ne mesurer que trop peu de vecteurs vitesse, et nous avons devant nous un phénomène censé être stationnaire. La tentation est grande d’ajouter les mesures de multiples clichés pour augmenter le nombre de points. Malheureusement, la lame n’est pas assez stationnaire pour que cette opération soit simple ! En effet, une fois la lame mise en place, elle est soumise à un curieux phénomène d’oscillation assez lent, analogue à celui observé dans le cas de la quasi-lame générée par 10 résistances en série, étudiée lors du précédent stage [1]. Ce phénomène avait été interprété comme un couplage de la lame avec la surface libre ainsi que par l’effet des bords. La figure 5.1 montre bien l’effet de la surface, qui provoque la formation de vortex. Un vortex assez important apparaît à gauche de la lame. L’observation de plusieurs clichés successifs montre que le haut de la lame oscille lentement de droite à gauche, avec formations de vortex prédominants alternativement des deux côtés. Même si ce phénomène n’est pas d’une amplitude très importante au bas de la lame, il faut garder à l’esprit que l’on recherche une résolution bien meilleure que le millimètre en certains zones du champ de vitesse, et la stationnarité de la lame n’est pas assez bonne pour la garantir.

Pour sortir de cette impasse, j’ai essayé de « redresser » a posteriori les lames déviées. En effet, si le gradient de vitesse est relativement élevé au centre de la plume, la direction des vecteurs varie peu en général, et les techniques de reconstruction du champ détaillées en partie 3 permettent d’obtenir des lignes

de courant fiables, à défaut de la norme de la vitesse. J’ai donc écris une série d’algorithmes pour Matlab qui, pour chaque image, réalisent l’interpolation du champ de vitesse et calculent une ligne de courant partant de la source. A partir de cette ligne de courant, il est possible de savoir, pour chaque hauteur, de combien la lame s’est écartée de la verticale, et de corriger les données. La figure 5.2 montre le tracé de ces lignes de courant centrales pour la même lame, à des temps différents, et donne une idée de l’amplitude des oscillations (jusqu’à 1cm en haut). La lame étudiée ici était générée par 4,5W sur 11cm. La hauteur d’eau était de 15cm, et la tranche éclairée était large de 15mm. Jusqu’à mention du contraire, c’est cette série de mesure que nous analyserons par la suite. 20 clichés ont été utilisés, pour un total de 1100 vecteurs vitesse relevés.

Précisons à présent comment s’effectue la correction des données. La partie gauche de la figure 5.3

représente un vecteur vitesse, situé avant correction comme repéré sur le cliché. Le point A est le point de la ligne de courant centrale situé à même hauteur que le vecteur vitesse. La correction la plus simple est de le ramener au point 1. Une alternative aurait été de tenir compte de la longueur parcourue et de ramener A en 2. Il est difficile de savoir a priori quelle correction est la plus en accord avec la physique du phénomène. L’influence de la pesanteur n’étant que verticale, on peut penser que seule la hauteur compte et choisir le point 1, mais il faudrait aussi savoir dans quelle mesure vitesse verticale peut être transformée en vitesse horizontale dans cette configuration. C’est le point 1 qui a été choisi, l’argument décisif étant celui de la simplicité de l’algorithme. Notre vecteur vitesse est alors translaté de la même distance que A. Nous voyons ici que la direction du nouveau vecteur vitesse n’est plus du tout en accord avec le phénomène physique. Modifier également la direction du vecteur vitesse aurait été bien trop hasardeux, ce qui nous contraint donc à nous restreindre à la norme de la vitesse. La direction peut d’ailleurs être lue sur des clichés comme celui de la figure 5.1.

6.2 6.4 6.6 6.8 7 7.2 7.4 7.6 7.8 8

1

2

3

4

5

6

7

8

9

10

abscisse en cm

haut

eur

en c

m

Ligne de courant du centre de la plume, à différents instants

Fig 5.2: Ligne de courant du centre de d’une lame, à plusieurs instants. Puissance : 4,5W pour 11cm

Verticale

Fig 5.3: Méthode de correction des données,par rapport à la verticale de la source (voirdans le texte).

1 2

Ligne de courant centrale

A

18

La figure 5.4 montre que la correction est efficace : chaque point de mesure est affiché avec sa vitesse (le code couleur est le même que pour la figure 5.5). La version corrigée montre une très nette amélioration dans la régularité de la structure obtenue. Il reste à savoir si cette correction est suffisante pour tracer des profils de vitesse…

Champ de Vitesse La figure 5.5 présente la norme de vitesse interpolée

par triangulation de Delaunay, à partir des vecteurs relevés et recadrés des 4 clichés où la lame est la plus droite (flèches blanches). On voit bien les limites d’une telle interpolation : les données ne sont pas en nombre suffisant, et le graphe présente des irrégularités que les clichés ne présentent pas. On peut néanmoins faire quelques remarques générales. Il apparaît nettement que la vitesse au centre de la lame augmente avec la hauteur, quoique l’augmentation reste faible : la vitesse est de l’ordre de 0.5 cm.s-1 à 2 cm de hauteur au-dessus de la source, pour 0.7 cm.s-1 à 9cm. La décroissance sur les bords de la lame est rapide : un facteur 2 est perdu dès 2mm d’écart. Le bas du cliché 5.1, agrandi en figure 5.6, et la direction des vecteurs vitesse de la figure 5.5 nous renseignent également sur l’alimentation de la source en fluide. L’arrivée se fait à 0.1 cm.s-1 environ, et la lame avale du fluide à toute hauteur (ce qui contribue à l’élargir). De plus, sur le fond l’alimentation ne se fait pas exclusivement par du fluide du fond : du fluide de plus haut est attiré et arrive suivant un angle voisin de 20°, montrant que dans ce cas d’une lame artificielle, la couche limite n’est pas la seule à alimenter la source.

4 6 8 100

1

2

3

4

5

6

7

8

9

10Norme de la vitesse (non corrigé)

Abscisse en cm

Hau

teur

en

cm

4 6 8 100

1

2

3

4

5

6

7

8

9

10Norme de la vitesse (corrigé)

Abscisse en cmFig 5.4: Effet de la correction sur la représentation de la norme de la vitesse

Fig 5.5: Vitesse dans la lame (interpolation et données)

19

Outre ces remarques assez qualitatives, les objectifs de cette étude de la lame étaient de caractériser l’évolution de la largeur de la lame et de la vitesse au milieu de la lame en fonction de la hauteur z, en regardant si le régime obtenu est éloigné de celui calculé par Fujii. Rappelons ici les résultats théoriques de Fujii (partie 1):

Pour la largeur y: 52

51

zQy−

Et la vitesse au centre de la lame: 51

52

max zQu ∝

Un but intéressant était donc de mesurer les dépendances en z de y et de Umax. Plusieurs tentatives

ont été soldées par des échecs. Par exemple la sélection des données proche du centre, afin d’essayer un fit pour Umax n’a pas été concluante : en sélectionnant les données sur une portion trop large autour du centre, la décroissance rapide de la vitesse donne des points qui sont trop bas sur le fit. En sélectionnant plus sévèrement, il n’y a pas assez de données. Les barres d’erreurs étaient donc toujours rédhibitoires. Pour la mesure de la largeur, on se heurte à un problème de définition de cette largeur.

• Fit des données Voici la solution finalement retenue. J’ai préféré traiter conjointement la largeur et la vitesse au centre,

et effectuant un fit de toutes les données, en 2 dimensions, en considérant les hypothèses suivantes : - Le profil horizontal de vitesse vertical est supposé auto-similaire lorsque la hauteur varie. - Il est supposé gaussien (ce qui assure l’auto-similarité) - La largeur Y est définie comme l’écart-type de la gaussienne. - La vitesse au centre est l’amplitude Umax de la gaussienne. - Umax varie en z puissance Pu. - Y varie en z puissance Py (On retrouve Fujii pour Pu=0.2 et Py=0.4, à la différence prés que Fujii ne suppose pas le profil gaussien, et s’en tient à la première hypothèse [2]). Nous avons donc en tout point de coordonnées (x,z) la vitesse verticale u :

)²2)²(

(

max

0

Yxx

eUu−

= ,

soit encore : 2

0

..

=Py

Y zCxx

PuU ezCu

Où Cu et CY sont des coefficients constants et x0 est l’abscisse du centre de la lame. Il y a donc 5 paramètres différents pour le fit : Cu , CY , Pu , PY et x0. Un sixième paramètre devrait être l’origine des hauteurs, z0 , mais celle-ci a été fixée sur la hauteur de la source (bien que cela puisse être sujet à discussions). x0 a été déterminé de manière assez simple : évalué tout d’abord grâce aux clichés, il a été ensuite réajusté une fois les autres paramètres trouvés, puis un nouveau fit a concerné les 4 autres paramètres.

Le fit des 4 paramètres a été effectué grâce à la méthode des moindres carrés (ou du χ²), et le tout a été programmé à l’aide de Matlab. Pour s’assurer de la convergence de l’algorithme mis en place, l’opération a consisté en une série de fits à 2 paramètres. Pu et PY étant fixés, un premier fit donne Cu et CY, ainsi que la valeur de χ² obtenue. En parcourant alors l’espace des paramètres Pu et PY, j’ai pu obtenir la répartition du χ² présentée en figure 5.7. Le meilleur ajustement est trouvé pour les paramètres :

Pu = 0.16 PY = 0.41 Cu = 0.94 cm.s-1 CY = 1.4 cm

Si l’accord avec les résultats de Fujii est très bon pour PY , PU est plus proche de 1/6 que de 1/5. Il

manque cependant les barres d’erreurs. Pour tenter de les estimer, j’ai relancé l’ensemble de l’algorithme de fit (sur

Fig 5.6: Zoom du bas de la figure 5.1

20

un espace des paramètres plus restreint autour des valeurs trouvées pour plus de rapidité), pour plusieurs réalisation de l’ensemble de données, générées à partir de l’ensemble mesuré, auquel est ajouté pour chaque vecteur un bruit gaussien de 1 pixel pour chaque extrémité. Le point du minimum de χ² se déplace de 0.01 environ pour Pu et 0.005 environ pour PY. Cela donne une estimation des barres d’erreur dues à des imprécisions de la mesure. Les résultats de Fujii se placent certes en dehors de ces barres d’erreur, mais l’accord peut être considéré comme relativement bon, compte tenu des nombreux facteurs non évalués qui jouent sur l’imprécision des mesures, notamment : 1) Le profil horizontal peut être éloigné d’un profil gaussien 2) La hauteur de la résistance a été prise comme origine des z 3) La correction apportée aux données n’est peut-être pas suffisante (ex : il faut choisir le point 2 de la

figure 5.3) 4) La situation s’écarte notablement du cas théorique analysé par Fujii : présence des bords, effet de la

surface, non stationnarité due à l’oscillation, source ayant une largeur non négligeable… Alors que les points 3 et 4 n’ont pas été approfondis, le premier point peut-être étudié grâce au tracé

du profil horizontal. Sur la figure 5.8, les gaussiennes issues du fit sont représentées pour 9 tranches de hauteurs, ainsi que les points de mesure associés (ils ont été regroupés sur la tranche de hauteur la plus proche, ce qui est raisonnable car la variation verticale n’est pas rapide, à la puissance 0.16). L’accord est assez bon, sauf pour la tranche du bas. Le profil gaussien semble donc adapté. Même s’il n’est peut-être pas le véritable profil, il s’en approche suffisamment, comparé à l’incertitude qu’il y a sur les mesures.

Le point 2 a été peu exploré, mais en laissant l’origine des hauteurs comme sixième paramètre libre pour le fit, la méthode du χ² force à diminuer sa valeur de manière non négligeable. La recherche du minimum étant très lente avec 6 paramètres, j’ai arrêté l’étude à une hauteur de –2 cm sous la résistance source, alors que le χ² descendait toujours, en pensant qu’il n’était pas raisonnable de décaler l’origine si bas : ce n’est pas un paramètre de l’étude de Fujii, qui donne ses lois en prenant la hauteur de la source comme origine. Les valeurs de Pu et PY se modifiaient assez sensiblement en changeant l’origine, passant même par un couple de valeurs très proches de celles de Fujii, mais arrivant pour –2 cm aux valeurs suivantes :

Pu = 0.22 PY = 0.67

0.05 0.1 0.15 0.2 0.25 0.30.2

0.25

0.3

0.35

0.4

0.45

0.5

0.55

loi de puissance de Vmax

loi d

e pu

issa

nce

de la

larg

eur

Moindres carrés: espace des paramètres

1.61.5

1.4 1.3

1.3

1.31.2

1.2

1.2

1.2

1.2

1.11.1

1.1

1.1

1.1

1.1

1.1 1.1

1.051.05

1.05

1.05

1.05

1.05

1.051

1

1

1

0.99

0.99

Fig 5.7: Courbes de niveaux des valeurs de χ² dans le plan de variation de Pu et Py

21

A posteriori, je pense que cette étude mérite d’être approfondie, car la source utilisée a une largeur non négligeable de 6mm (pour Fujii c’est une ligne mathématique), et mes études sur les panaches m’ont également conduit à choisir des origines situées jusqu’à 3cm en dessous de la résistance, afin de raccorder le comportement issu d’une source ponctuelle avec le régime initial de génération du panache à partir d’une source de plusieurs millimètres.

La fiabilité des paramètres trouvés n’est donc pas rigoureusement établie, et le rôle de l’origine reste à éclaircir, mais nous avons réussi à montrer que, dans nos conditions expérimentales, les lames créées adoptent après une phase transitoire un régime très proche de celui décrit par Fujii, et ce malgré la présence de l’oscillation obligeant à corriger les données et des bords.

Outre le profil horizontal donné en figure 5.8, le tracé de la solution est représenté en figure 5.9, qui donne le champ de vitesse verticale issu de cette étude (comparer à la figure 5.5).

Nombre de Reynolds

En arrière plan de cette étude de la vitesse et de la largeur d’une lame, un objectif à plus long terme était de comprendre comment et pourquoi en convection de Rayleigh-Bénard les lames se déstabilisent pour former des panaches. Cela revient à chercher un nombre sans dimension, un seuil à partir duquel une lame se déstabilise. Ce seuil pourrait être un nombre de Reynolds, vu que ce nombre caractérise la transition entre laminarité et turbulence en mécanique des fluides.

Pour une lame, le nombre de Reynolds qui vient à l’esprit est :

νmax.UY

Re = , soit donc ( )

ν

YU PP

YUe

zCCzR

+

=)(

Pour la lame étudiée, à une hauteur de 10cm, Re = 35. Et

pour avoir Re = 1000, il faut attendre une hauteur de 36 m. On voit donc clairement que la lame ne peut se déstabiliser d’elle-même. Il en va de même pour les lames plus puissantes, car si l’on suit la loi de Fujii, Re augmente comme la puissance de chauffage exposant 1/5, ce qui est loin de ramener le seuil Re=1000 à l’échelle d’une cuve de convection pour des puissances raisonnables.

Conclusions sur la stabilité

Nous venons donc ici de montrer que si les lames se déstabilisent en panaches en convection de Rayleigh-Bénard, ce n’est pas d’elles-mêmes que cette déstabilisation provient. Elle doit donc provenir de l’interaction entre les différentes lames, ou encore d’une instabilité de l’alimentation en fluide chaud.

Remarquons également que le régime stable de la lame n’est atteint qu’après plusieurs minutes, montrant par là que l’influence de son environnement, de la vitesse du fluide qui l’ entoure, est relativement importante.

Ces points peuvent être approfondis en observant les interactions entre lames par ombroscopie, ce qui fait l’objet des parties suivantes.

6 7 8 9 100

1

2

3

4

5

6

7

8

9

10

abscisse en cm

haut

eur e

n cm

Profils horizontaux de la vitesse verticale

Fig 5.8: Profils horizontaux de la vitesse verticale suivant la hauteur. Les courbes rouges sont des gaussiennes issues du fit.

Fig 5.9: Champ de vitesse verticale issu dufit.

22

VI. Refroidissement par le haut : champ de vitesse

Nous allons à présent nous rapprocher un peu de la convection de Rayleigh-Bénard, et étudier l’effet du refroidissement de l’eau sur toute la surface du haut. Après un rappel des résultats du précédent stage, nous présenterons une facette nouvelle de l’étude, à savoir les mesures de vitesse par imagerie de particule.

Rappels du 1er stage :

Lors du précédent stage, nous avions observé le refroidissement par la surface supérieure, et symétriquement le chauffage par la surface inférieure, par ombroscopie. L’originalité de l’approche était de combiner simultanément des vues dans les 3 dimensions (face, côté, dessus). Les vues de face et de côté montraient une forêt de panaches et de plumes naissantes, comme nous l’attendions, mais la vue de dessus nous a surpris : nous y avons constaté la présence d’un réseau de lignes qui organisent l’émission des plumes naissantes et panaches à leurs jonctions (cf. l’introduction). Nous en étions arrivés au schéma suivant (prenons le cas de l’eau refroidie par dessus) : la couche limite thermique se déstabilise en lignes qui forment donc des sortes de cellules. Ces lignes sources forment des lames qui descendent en volume, puis se déstabilisent à nouveau en panaches et plumes naissantes sur leurs croisements (qui sont presque toujours des jonctions triples). Nous avions constaté sur la vue de face et de côté que les lames en questions étaient peu visibles, ce qui expliquait pourquoi vue de dessus et vues de côté semblaient si différentes : le réseau de lignes est pratiquement en 2 dimensions. Pour ce qui est du champ de vitesse, nous avions suggéré que les cellules n’étaient pas des rouleaux de convection, avec une vitesse ascendante de l’ordre de la vitesse descendante, mais que les lames et les panaches, qui sont des structures assez locales, descendaient à une vitesse relativement importante, impliquant certes une remontée de fluide pour compenser la descente, mais sur une surface plus grande et donc avec une vitesse négligeable par rapport à la vitesse de descente (fig. 6.1). Nous avions prédit un ordre de grandeur de 20 entre la vitesse de descente et la vitesse de montée.

Champ de Vitesse :

L’observation du champ de vitesse apporte un éclairage nouveau sur le phénomène et remet en cause plusieurs des conclusions précédentes. Dans un premier temps, de nombreux clichés ont été pris de côté, avec un éclairage par une tranche verticale de l’aquarium, rempli d’eau chaude. Le cliché 6.2 en est un exemple. On peut y remarquer nettement des structures descendantes rappelant les clichés de lame naissante (1,2), avec présence de vortex, et des zones de remontée du fluide (comme 4). La dissymétrie descente/montée est bien visible : le fluide descend dans des structures identifiables à leur front avant, alors que la remontée de manière bien plus uniforme (4). La zone indiquée en 3 marque une frontière assez nette : c’est là que le fluide en montée est attiré pour alimenter les structures descendantes. En 5, la structure descendante est moins bien définie, car elle ne semble plus être alimentée par le haut. C’est probablement un panache. Nous voyons cependant la limite de ces clichés : il est difficile d’identifier clairement panaches, lames naissantes vues de profils et plumes naissantes, car nous avons vu que les vues de côté de ces trois structures sont quasiment identiques. La distinction ne peut se faire qu’en observant leur dynamique. La coupe que nous voyons n’est donc pas suffisante et demande à être située par rapport à la vue de dessus en ombroscopie pour être interprétée correctement.

Un point important peut néanmoins être soulevé sur un tel cliché : contrairement à ce que nous pensions lors du premier stage, la vitesse de remontée n’est pas négligeable par rapport à la vitesse de descente (il n’y a pas un facteur 20 mais plutôt un facteur 2). Comment interpréter cela ?

Outre la différence entre les vues de côté/dessus, ce sont donc aussi les observations par ombroscopie et par imagerie de particules qu’il semble difficile de concilier. Le seul recours est d’employer les deux méthodes simultanément.

Fig 6.1: Schéma en coupe d’une cellule, encadrée par deux lames

23

Combinaison vue de dessus – vue de côté

En utilisant simultanément deux appareils photo, nous avons pu obtenir la vue de dessus par ombroscopie en même temps que nous prenions un cliché de la tranche éclairée. Deux petits boulons disposés dans l’aquarium ont permis de repérer la position de la tranche sur la vue de dessus.

Après traitement des données, nous obtenons donc les lignes de courant et la valeur de la vitesse sur la tranche, associées à la vue de dessus (fig 6.4 et 6.5). La correspondance est bonne : les lignes sur l’ombroscopie correspondent bien aux zones descendantes.

Ces données sont très instructives sur la comparaison ombroscopie / champ de vitesse, dans cette situation : la première ne montre que les variations de température, et les lignes y sont beaucoup plus étroites que les zones de descente vues sur le champ de vitesse. Ceci est dû au fait que les lames entraînent dans leur mouvement du fluide pris sur les côtés, comme nous l’avons vu dans les parties 4 et 5. Il faut donc se méfier de l’ombroscopie lorsqu’il s’agit de largeur des lames. Un second point est que l’ombroscopie ne fait quasiment aucune différence entre les lames naissantes qui descendent très bas et celles qui sont encore près de la surface. Cela résulte à la fois de la dilution progressive du fluide froid dans du fluide plus chaud et du fait que la descente n’est pas strictement verticale. La non-verticalité et l’élargissement des lames les rendent quasi invisible à l’ombroscopie, qui représente la dérivée seconde de la température, intégrée sur toute la hauteur de l’aquarium. En effet, à part le front de la lame et son départ, la partie intermédiaire, vue de dessus, ne présente pratiquement pas de variation de la dérivée de la température. Comme l’extrémité de la lame s’élargit et se dilue avec le fluide alentour, seul le départ de la lame présente une dérivée seconde importante car localisée en surface. Une ligne blanche est donc la seule trace d’une lame vue de dessus par ombroscopie. Cela signifie aussi que la largeur d’une ligne blanche représente la largeur de la lame à sa base. Nous pouvons ainsi constater que cette largeur est de l’ordre de la couche limite thermique. Nous comprenons aussi quelle a pu être l’origine de notre erreur lors de la formulation des hypothèses concernant le champ de vitesse, attribuant un facteur 20 entre la vitesse de descente et la vitesse de montée. Ce facteur avait été calculé en prenant la proportion de la vue de dessus occupée par des lignes (en raison de la conservation du débit). A la lumière des études réalisées sur les lames et les lames naissantes dans les parties précédentes, nous sommes à présent plus à même de décrire le phénomène.

1

2

3

4

5

Fig 6.2: Refroidissement par le haut, vue de côté d’une tranche éclairée (négatif). Hauteur : 8,7cm, temps de pose : 1s

24

0 2 4 6 8 10 120

1

2

3

4

5

6

7

8

9Lignes de courant

absc isse en cm

ha

ute

ur

en

cm

Fig 6.3: Lignes de courant (milieu) et valeur de la vitesse verticale (bas) sur latranche correspondant à la ligne noire de la vue de dessus par ombroscopie (haut)

25

Une nouvelle interprétation

Faisons un rapide calcul d’ordres de grandeur sur le refroidissement par le haut, avec un niveau d’eau de 8,7cm, pour un ∆T de 12°C entre l’eau et la température de la pièce.

L’observation attentive des vues de côté par ombroscopie, ainsi que les clichés de tranches éclairées, montrent que des lames descendent jusqu’à au moins 3cm de profondeur. La vitesse du fluide à cet endroit est de l’ordre de 0,15cm.s-1.

Cette vitesse est environ 4 fois inférieure à la vitesse à 3cm mesurée pour la lame de 4,5W / 11cm étudiée en partie 5. Rappelons les résultats de Fujii :

52

51

zQy−

∝ et 51

52

max zQu ∝

Si l’on en croît la dépendance en puissance, le facteur 4 dans la vitesse traduit le fait que les lames sont typiquement 30 fois moins puissantes (de l’ordre de 0,015W.cm-1). Leur largeur est de ce fait 2 fois plus grande, ce qui donne typiquement 2 cm de largeur à 3 cm de profondeur. Ce chiffre semble en bon accord avec les figures 6.2, 6.3 et 6.5.

Si l’on observe à présent la vue de dessus, une taille moyenne pour une cellule est 4 cm environ. Nous voyons donc à quel point le schéma 6.1 est erroné ! Le schéma 6.4 est vraisemblablement plus proche de la réalité. Il est tout à fait en accord avec des clichés comme la figure 6.2, et explique pourquoi la vitesse de montée est du même ordre de grandeur que celle de descente à 3cm.

Les observations par ombroscopie, par imagerie de particules et les ordres de grandeurs extraits des études précédentes sont donc en bon accord.

En outre, l’ordre de grandeur de la puissance linéique

déduite, 0,015W.cm-1, multipliée par une estimation de la longueur de lignes sur la surface de l’aquarium (300cm environ), donne une puissance totale de 5W. Cette estimation très grossière autorise un facteur 2 sur le résultat, mais il est intéressant de remarquer qu’elle est compatible avec ce que l’on pourrait attendre du refroidissement et de l’évaporation de ce volume d’eau.

Dans cette partie, nous avons considéré une hauteur d’eau et un ∆T donnés, mais il est intéressant de

savoir comment se comportent les lignes lorsque ces deux paramètres importants varient…

Fig 6.4: Schéma en coupe d’une cellule, encadrée par deux lames. Version corrigée.

26

0 1 2 3 4 5 6 7 8 9 10 111

2

3

4

5

6

7

8

9

10

11Lignes de courant

abscisse en cm

haut

eur

en c

m

Fig 6.5: graphes similaires à la fig. 6.3. (les couleurs de l’ombroscopie ne sont pas significatives)

27

6°C 12°C 18°C 24°C

8,7cm

4,8cm

2,7cm

1,1cm

VII. Refroidissement par le haut : Influence de la température et de la hauteur d’eau

Cette partie fait suite à la partie 3 du précédent rapport [1], en présentant plusieurs images permettant

de rendre compte du rôle de la température et de la hauteur d’eau, puis en mettant en œuvre la suggestion faite de quantifier le rôle de la température par une mesure manuelle, mais assistée par informatique.

Aperçu du rôle des paramètres

Ces images sont extraites de films de la vue de dessus de l’aquarium au moyen de l’ombroscopie lors du refroidissement d’eau chaude par évaporation et contact avec l’air ambiant en surface supérieure.

Dans cette configuration, deux longueurs caractéristiques existent : H, la hauteur d’eau, et l’épaisseur de la couche limite, qui varie comme l’inverse de l’écart ∆T de température entre l’eau et. Quelle longueur gouverne la taille des cellules ?

La série horizontale présente 4 vues pour ∆T variant par pas de 6°C, alors que la série verticale présente une variation de H (la hauteur est en gros divisée par deux à chaque fois). L’image de référence, commune aux deux séries, a pour paramètres H=8,7cm et ∆T=12°C.

• Influence de la température : A faible ∆T, les cellules sont assez régulières, avec

des bords droits, et les jonctions des lignes sont nettes. Plus ∆T est grand, plus les cellules deviennent irrégulières. A 24°C, on observe une augmentation claire du nombre de lignes par rapport à 6°C. Les cellules sont par conséquent plus réduites. La partie basse des photos, laissant voir le haut de la vue de face, montre l’augmentation du nombre de panaches qui accompagne celle du nombre de lignes. La taille des cellules n’est donc pas fixée par la hauteur H. Il est difficile de connaître l’influence exacte de la couche limite, car l’augmentation de la température de l’eau s’accompagne également de la diminution du nombre de Prandtl. Cet effet est responsable de l’apparition de la vorticité à certaines jonctions de lignes, comme on peut le voir dès ∆T = 18°C. (cf. partie 8). • Influence de la hauteur :

Plus la hauteur d’eau est faible, plus les motifs sont réguliers, traduisant un couplage plus grand entre le départ des lignes et le fond de la cuve. Les lignes sont plus nombreuses, et les cellules prennent des formes allongées. Il semble d’ailleurs apparaître une largeur caractéristique à faible H, montrant que c’est alors H qui influence la taille des cellules.

Fig 7.1: Vue de dessus parombroscopie de l’aquarium,rempli d’eau plus chaude quela température ambiante de∆T, et jusqu’à une hauteur H.

28

Rôle de la température : Mesure du nombre de lignes Le problème qui s’était posé pendant le précédent stage, c’était de trouver un nombre pour quantifier

l’augmentation apparente du nombre de lignes avec ∆T. J’ai donc tenté un essai en choisissant une

grandeur simple à mesurer : le nombre de lignes coupant une droite donnée. Cette mesure a été effectuée manuellement, avec l’aide de l’outil informatique, puisque j’ai programmé une interface graphique en JAVA, qui a accéléré notablement le processus. Comme pour la mesure des vecteurs vitesse en partie 3, il était trop complexe pour moi de réaliser un algorithme fiable détectant le nombre de croisements : la détection est simple dans les cas les plus clairs, mais hélas bien souvent les croisements sont faiblement visibles.

Pour une série à un ∆T donné, plusieurs images sont extraites du film correspondant, suffisamment espacées dans le temps pour qu’il n’y ait pas de corrélation entre elles. Pour chacune d’elle, le programme trace successivement 6 droites horizontales à différentes hauteurs (les mêmes pour chaque image), et demande à l’utilisateur de rentrer pour chaque droite le nombre de lignes croisées (voir fig. 7.2). Le total NC de croisements sur les 6 droites est alors moyenné sur les différentes images, et enregistré.

C’est ce nombre qui fait office de mesure, vu qu’il est relié au nombre de lignes sur la surface observée, et le but était de connaître sa variation avec ∆T. La figure 7.3 présente les mesures effectuées pour plusieurs ∆T. Chaque point nécessite entre 15 et 40 images analysées. Les barres d’erreurs sont approximatives, mesurées au moyen de l’histogramme des valeurs de NC pour 43 images différentes correspondant à ∆T = 12°C et H=8,7 cm (fig 7.4). La largeur typique de cet histogramme est utilisée proportionnellement à la racine du nombre d’images utilisées pour les autres points.

Notons tout d’abord que la variance de NC est très importante pour un même jeu de paramètres : NC varie pratiquement du simple au double sur la figure 7.4. Le nombre NC peut-il alors être assez représentatif d’une sorte de densité de ligne ? oui,

car la croissance de NC sur la figure 7.3 ne fait aucun doute, et est en dehors des barres d’erreur. Il convient cependant de mentionner une grosse difficulté qui montre bien les limites de ce genre de méthodes : les points non entourés de la figure 7.3 ont été mesurés la même journée. La dépendance semblait alors assez linéaire, et laissait même croire que les barres d’erreurs étaient un peu surévaluées… Quelques jours plus tard, d’autres points sont mesurés (représentés entourés d’un cercle noir), qui viennent ternir les mesures précédentes. Je me suis alors demandé ce que donnerait une nouvelle mesure d’une série mesurée quelques jours plus tôt. Les deux points à ∆T=9°C sont mesurés à partir de la même série (le point entouré d’un carré est la deuxième mesure), prouvant par là à quel point la mesure peut

Fig 7.4: Histogramme des valeurs de NC pour les séries à ∆T = 12°C et H= 8.7cm

Fig 7.2: Copie d’écran de l’interface JAVA pour mesurer le nombre NC

Fig 7.3: Evolution de NC avec ∆T.

29

être subjective. Après analyse des divergences, j’ai compris que j’avais changé mes critères pour compter un croisement ou non entre les deux périodes. Il peut sembler surprenant qu’une simple mesure de nombre de croisements soit sujette à discussions, mais le nombre de cas limites où le croisement est peu net ou peut être compté deux fois suivant l’humeur n’est pas négligeable. Quel crédit apporter à cette mesure ? on peut arguer qu’avec les critères de la deuxième série de points, la courbe semble simplement translatée vers le haut. Reste qu’une mesure si subjective est peu fiable. Il faudrait la faire faire par une personne extérieure, sans lui communiquer la valeur de ∆T, et en établissant des critères très précis pour le comptage. Pour le moment, nous avons cependant montré que ce n’est pas la hauteur de l’eau qui contrôle la taille des cellules, mais plutôt la couche limite et/ou le nombre de Prandtl.

VIII. Quelques éléments sur l’instabilité des lames A la lumière des différentes études menées ici, nous sommes en mesure d’apporter quelques éléments

de réponse au sujet de la déstabilisation des lames en panaches, lors du refroidissement par la surface supérieure.

L’étude de la lame isolée a clairement montré que le Reynolds de la lame a des valeurs très faibles : la lame ne se déstabilise donc pas d’elle-même. Voici plusieurs autres pistes proposées d’après nos observations :

• Déstabilisation par l’écoulement environnant En prenant la lame artificielle étudiée en partie 5, nous avons tenté

de la déstabiliser en produisant de légers mouvements du fluide au fond de l’aquarium. La lame est déviée certes, et pendant plusieurs minutes elle garde la trace de la perturbation : elle revient assez lentement à une position verticale. Mais elle a gardé une certaine cohérence, et ne se déstabilise pas en panaches pour une perturbation raisonnable. De même si on introduit un obstacle sur son parcours. Si c’est au niveau de la résistance que le fluide est déplacé, on voit bien une pause dans l’émission, puis la reprise par l’émission d’un nouveau front chaud, mais après ce front, on retourne à une lame naissante, puis à une lame.

De rares fois, cependant, sans que nous sachions vraiment reproduire la perturbation adaptée, l’émission de ce front a été suivie quelques secondes après d’une nouvelle émission, et ainsi de suite pendant quelques minutes (fig. 8.1). La lame a donc pu être déstabilisée en panaches, trouvant ici un nouveau régime, oscillant, mais difficile à atteindre, et instable vu que la lame retourne ensuite dans son régime normal.

L’étude de l’oscillation découverte pour les 10 résistances en série qui ont servi à simuler une lame dans le précédent rapport [1] permet de penser à une deuxième instabilité. Nous avions la une pseudo-lame, formée par une rangée de 10 plumes alignées.

« Prés de la surface de l’eau, la rangée se déstabilise de proche en proche, et le front des points d’arrivée des plumes devient sinusoïdal. Les plumes sont alors inclinées, c’est à dire dans une configuration peu stable, puisqu’elles tendent à être verticales. J’ai ainsi observé que plus les plumes sont inclinées, moins leur sommet est alimenté en fluide chaud. Il arrive un moment où le front déstabilisé s’efface peu à peu, tandis que les plumes réalimentent des points d’arrivée à leur verticale» (extrait de [1]).

On peut penser à une instabilité similaire dans notre cas : quand la lame est trop inclinée par le mouvement du fluide alentour, il arrive un moment où l’alimentation du haut de la lame ne se fait plus bien, puis cesse complètement tandis qu’un nouveau front remonte à la verticale, à partir de la hauteur où l’inclinaison commence. Si cette instabilité a été observée quelques fois, nous n’avons pas poussé cette étude plus loin, et il pourrait être intéressant de chercher un angle caractéristique pour lequel la lame se déstabilise.

• Déstabilisation par une autre lame Quelques essais réalisés ici ont été très instructifs. Nous avons en effet tenté de perturber la lame

artificielle, en plaçant à ses côtés la grosse résistance servant à générer panaches et plumes. L’émission de plumes naissantes, même de puissance très élevée par rapport à la lame, n’a jamais pu la déstabiliser. Les

Fig 8.1: Lame déstabilisée, vue de face

30

deux structures semblaient pratiquement se superposer sans grande modification. Par contre, en plaçant un glaçon à la surface, le panache froid descendant qu’il a généré, même s’il était très faible (il avait du mal à atteindre la bas), a beaucoup affecté la base de la lame : une fois qu’il a atteint le fond, celle-ci a été littéralement soufflée par l’expansion de la tête du panache froid (le retour à la normale ne s’est pourtant pas fait beaucoup attendre). La conclusion est assez nette : les lames sont peu déstabilisées par d’autres lames de même « signe », mais elles sont très sensibles à l’arrivée d’une structure de « signe opposé ».

Doit-on en conclure qu’en convection de Rayleigh-Bénard, la déstabilisation des lames est plus un effet thermique qu’un effet cinétique ? En effet, nous avons vu que la lame ne se déstabilise pas d’elle-même, et est relativement peu déstabilisée par les mouvements environnants, en comparaison de l’effet d’un panache froid même très faible. J’ai pu par ailleurs remarquer sur la vue de dessus par ombroscopie, lors du refroidissement par le haut, que lorsqu’une plume naissante est émise à une jonction de ligne, l’intensité de cette jonction est bien affaiblie par la suite. La puissance retirée par l’évaporation et le refroidissement étant fixée, il est possible qu’il y ait une compétition entre les lames pour produire et alimenter des plumes naissantes avec le fluide froid. L’instabilité des lames pourrait ainsi provenir d’une instabilité de leur propre alimentation en fluide froid, due à une compétition entre les lames pour sa répartition à partir de la couche limite. Il serait intéressant de pousser plus loin cette étude, afin d’obtenir des résultats quantitatifs.

• Vorticité Enfin, nous avons remarqué un autre type de déstabilisation, de nature assez différente des

précédents, qui se manifeste lorsque dans les cas où la température de l’eau est élevée. En effet, le nombre de Prandtl de l’eau baisse lorsque la température augmente, du fait de la diminution de la viscosité. A partir d’un certain seuil, l’apparition de vorticité sur la surface est amplifiée par étirement des vortex dans la direction verticale. Les lames, qui sont des zones où la vitesse verticale est élevée, amplifient donc la vorticité. La vue de dessus, en figure 8.2, met en évidence de nombreuses zones qui présentent de la vorticité. Nous avons constaté que ces vortex n’apparaissent que pour des températures supérieures à 40°C environ. S’il la vorticité se retrouve surtout aux jonctions des lignes, elle est aussi responsable du fait que les bords des cellules sont de moins en moins rectilignes lorsque la température augmente. Comme nous l’avons vu en partie 7, l’influence de la température sur la taille des cellules pourrait en grande partie être due à la vorticité. Ici encore, une étude plus approfondie serait bénéfique.

Nous avons donc mis en évidence de nombreux mécanismes pouvant contribuer à la déstabilisation des

lames en panaches dans la convection de Rayleigh-Bénard. Chacun de ses mécanismes mériterait une étude complète, afin de déterminer leur importance relative dans le phénomène.

Fig 8.2: Vue de dessus pour ∆T = 18°C.

31

Conclusions

Ce stage, principalement axé sur l’études des lames, isolées ou en convection, a précisé leur rôle dans la convection de Rayleigh-Bénard. L’étude des lames naissantes et des lames générées artificiellement a montré que les premières présentent un front relativement instables, et qu’il est possible, en attendant leur stabilisation en lames, d’obtenir un régime presque stationnaire, très proche de celui décrit par Fujii. L’introduction d’une nouvelle technique de mesure, complétant les observations par l’ombroscopie en donnant des informations précieuses sur les champs de vitesse, nous a permis de préciser et de corriger la vision d’ensemble que nous avions des cellules et de la déstabilisation en panaches. Nous avons ainsi pu trouver une certaine cohérence entre les différentes approches du phénomène, en confrontant les ordres de grandeur des tailles, vitesses et puissances caractéristiques. L’étude de l’influence de la hauteur d’eau et de la température, si elle mérite d’être reprise de manière plus approfondie, a montré que ∆T était le paramètre qui influe sur la taille des cellules. Enfin, nous avons pu donner quelques éléments de réponse sur l’instabilité des lames, excluant la possibilité d’une déstabilisation due à leur propre Reynolds, et laissant penser que la répartition de la chaleur en lignes sur la couche limite pourrait y jouer un rôle clef.

Pour progresser sur ces points, il faudrait à présent mener une étude centrée sur la question : « Pourquoi les lignes se forment , à partir d’un refroidissement sur toute la surface ?» . Ceci nécessitera une observation plus précise de la région de la couche limite, et une utilisation de la visualisation de particules dans la vue de dessus, prés de la surface du fluide (quelques essais m’ont montré que cette mesure pourra être délicate à réaliser).

Enfin, il convient à présent d’essayer de transposer tout ces résultats dans une véritable cellule de Rayleigh-Bénard. Le chauffage par la plaque du bas et le refroidissement par le haut pourraient faire apparaître des couplages importants entre les structures cohérentes produites par les deux surfaces, au vu de la déstabilisation d’une lame chaude par un panache froid constatée en partie 8. Le problème principal pour cette étude sera d’obtenir un système de chauffage par le bas qui conserve la transparence de la plaque…

Remerciements Encore une fois, je tiens à remercier Francesca Chilla et Bernard Castaing pour tout ce qu’ils m’ont

apporté (temps, conseils, encouragements, soutien…). Cela va bien au-delà des conventionnels remerciements d’une conclusion de rapport de stage, et je leur souhaite beaucoup de découvertes dans la continuation de l’étude des lames et des panaches, sur laquelle j’ai eu le plaisir de les accompagner pendant sept courts mois.

Merci également à Claude Jaupart et Anne Davaille, de l’Institut de Physique du Globe de Paris, pour l’accueil qu’ils ont réservé à ma visite impromptue, la qualité de leurs explications sur les panaches thermiques, et les références bibliographiques qu’ils m’ont conseillées.

32

Références et bibliographie Tout d’abord, rappelons que le présent rapport fait suite au rapport:

[1] Lancien - Etudes des panaches thermiques dans la convection de Rayleigh-Bénard – rapport de stage, Magistère ENS-Lyon (2002)

Le lecteur pourra ensuite se rapporter avec profit aux références suivantes :

[2] Fujii – Theory of the steady laminar natural convection above a horizontal line heat source and a

point heat source – Int. J. Heat Mass Transfer. 6 (1963) [3] Sparrow, Husar, Goldstein - Observations and other characteristics of thermals - J. Fluid Mech

(1970) [4] Shlien – Some laminar and plume experiments – Phys. Fluids 19 (1976) [5] Tanny, Shlien - Velocity field measurements of a laminar starting plume – Phys. Fluids 28(1985) [6] Shlien, Brosh – Velocity field measurements of a laminar thermal - Phys. Fluids 22 (1979) [7] Zocchi, Moses, Libchaber - Coherent structures in turbulent convection, an experimental study

- Physica A 166 (1990) [8] Lithgow-Bertelloni, Richards, Conrad, Griffiths - Plume generation in natural thermal

convection at high Rayleigh and Prandtl numbers - J. Fluid Mech. (2001) [9] Lemery, Ricard, Sommeria - A Model for the emergence of thermal plumes in Rayleigh-Bénard

convection at infinite Prandtl numbers - J. Fluid Mech. (2000) [10] Shaeffer – Boundary Layer interaction in plume-based variable-viscosity thermal convection –

rapport de stage, Magistère ENS-Lyon (2000) [11] Volino, Smith – Use of simultaneaous IR temperature measurements and DPIV to investigate

thermal plumes in a thick layer cooled from above – Experiments in Fluids 27 (1999) [12] Kaminski, Jaupart – Laminar starting plumes in High-Prandtl-number fluids – J. Fluid Mech.

478 (2003)

Ouvrages généraux :

- Leo Kadanoff - From Order to Chaos - World Scientific series on non linear science - Guyon, Hulin, Petit - Hydrodynamique physique - Editions du CNRS - Paul Manneville - Structures dissipatives, chaos et turbulence - Aléa-Saclay - Philippe Roche - Convection thermique turbulente en cellule de Rayleigh-Bénard cryogénique -

Thèse (2001)

Mais aussi…

Bernard Castaing - Convection turbulente - conférence à l’ENS Lyon (2001) http://www.ens-lyon.fr/asso/groupe-seminaires La Migration des grues - La Hulotte n°56(1988) p34 à 37

Le lecteur curieux de l’utilité des thermiques dans le vol des grues trouvera ici un résumé très intéressant d’une étude publiée par Alerstam et Larsson : Soaring migration of the Common Crane Grus grus observed by radar and from an aircraft –

Ornis Scandinavica 10:241-251, Copenhague 1979