CHAPITRE I BIBLIOGRAPHIE - Portail documentaire SCD Doc'INSA
Transcript of CHAPITRE I BIBLIOGRAPHIE - Portail documentaire SCD Doc'INSA
%LEOLRJUDSKLH
- 18 -
CHAPITRE I
BIBLIOGRAPHIE
%LEOLRJUDSKLH
- 19 -
Ce chapitre rassemble les éléments de la bibliographie nécessaire à l’étude. La première
partie de ce chapitre porte tout d’abord sur une présentation rapide des matériaux composites
à matrice polymère, en termes de comportement mécanique, d’endommagement, de
vieillissement hygrothermique. Cette partie est consacrée exclusivement aux composites
unidirectionnels en terme d’endommagement.
La deuxième partie de ce chapitre est consacrée à la technique d’émission acoustique
(EA) en présentant ses généralités ainsi que les principales applications, relatées dans la
littérature, orientées vers la discrimination des sources d’EA au sein d’un matériau composite.
Enfin, les techniques d’analyse statistiques sont présentées. Elles ont pour but d’extraire
parmi des jeux de données volumineux et complexes, les paramètres qui aideront à la
classification des données et donc à l’identification de la signature acoustique des différentes
sources d’endommagement. Bien évidemment tous les classificateurs ne seront pas décrits
dans ce document, seuls ceux utilisés dans le cadre de ce travail seront présentés.
%LEOLRJUDSKLH
- 20 -
1. MATERIAUX COMPOSITES
1.1 Généralités
Par définition, un matériau composite est constitué de l’assemblage de deux ou
plusieurs phases de propriétés différentes et complémentaires. Il s’agit le plus souvent d’un
renfort noyé au sein d’une matrice permettant d’obtenir un matériau aux propriétés
intermédiaires. Le renfort contribue à améliorer la résistance mécanique du matériau alors que
la matrice assure le double rôle d’élément de transfert des charges vers le renfort et de
protection de celui-ci.
1.1.1 Résines
Un matériau polymère se présente comme un enchevêtrement de chaînes
macromoléculaires constituées par la répétition d’un plus ou moins grand nombre d’unités
structurales. L’unité structurale est le plus petit motif reproductible. L’interaction entre
chaînes s’effectue de manières diverses : liaisons de Van der Waals ou pont hydrogène pour
les polymères thermoplastiques, réseau tridimensionnel avec nœuds de réticulation pour les
thermodurcissables.
Le principal avantage de l’emploi de tels matériaux réside dans leurs propriétés
particulières. En effet, la matrice se caractérise par une déformabilité suffisante pour
transmettre les sollicitations mécaniques vers le renfort tout en protégeant celui-ci des
agressions chimiques externes. En outre, elle présente l’avantage d’être chimiquement
réactive, ce qui permet l’établissement de liaisons fortes avec le renfort.
Selon les applications, on distingue deux familles de matrices polymères :
• Les résines thermoplastiques, de loin les plus employées du fait de leur faible
coût, peuvent être aisément mises en forme et recyclées par simple chauffage. Cette propriété
provient de la tendance qu’ont ces matériaux à polymériser en formant des réseaux linéaires,
donc de rigidité réduite. On peut citer comme exemples les polyamides, les polypropylènes et
les polyéthylènes.
%LEOLRJUDSKLH
- 21 -
• Les résines thermodurcissables polymérisent en formant des réseaux
tridimensionnels très difficiles à rompre, sinon par l’apport d’une importante quantité de
chaleur. Cette caractéristique confère à ces résines de meilleures performances
thermomécaniques que celles des matrices thermoplastiques, ce qui les destine prioritairement
à une utilisation comme matrice de composites. Les résines époxy et polyester entre autres,
qui seront utilisées dans cette étude, appartiennent à cette catégorie.
1.1.2 Fibres de verre
Le verre, sous forme massive, est caractérisé par une très grande fragilité attribuée à une
sensibilité élevée à la fissuration. En revanche, élaboré sous forme de fibres de faible diamètre
(quelques dizaines de microns), le verre perd ce caractère et possède alors de bonnes
caractéristiques mécaniques. Les fibres de verre sont élaborées à partir d’un verre filable,
appelé verre textile, composé de silice, d’alumine, chaux, magnésie, etc. Ces produits peu
coûteux, associés à des procédés d’élaboration assez simples, confèrent aux fibres de verre un
excellent rapport performances / prix, qui les place de loin au premier rang des renforts
utilisés actuellement dans les matériaux composites.
Suivant leur composition, différents types de verres peuvent être obtenus ; dans la
pratique, les verres de type E, utilisés dans cette étude, constituent la presque totalité du
tonnage de verre textile produit actuellement.
Les fibres issues de la filière ne peuvent pas être utilisées pour former les fils de base du
composite sans avoir subi un traitement d’ensimage destiné à assurer la cohésion entre elles, à
les protéger contre les risques de détérioration par la manipulation et l’abrasion, à les isoler de
l’humidité et à éviter la création de charges électrostatiques par frottement.
L’ensimage réalisé en sortie de filière est une opération qui consiste à déposer à la
surface des fibres un agent remplissant les fonctions précitées. En plus de ces exigences
propres aux fibres elles-mêmes, il a pour rôle de favoriser leur intégration dans la réalisation
de composites. Lors de la mise en œuvre, l’ensimage doit faciliter l’imprégnation des fibres
par la résine, c’est-à-dire augmenter le mouillage superficiel et assurer la pénétration de la
résine au cœur des filaments. En usage, il doit favoriser la liaison verre-résine dont dépendent
les performances mécaniques du composite, mais également le comportement du matériau au
vieillissement, sa résistance à l’humidité et à la corrosion.
%LEOLRJUDSKLH
- 22 -
1.2 Endommagement
Les mécanismes d’endommagement des composites unidirectionnels dépendent
essentiellement du mode de sollicitation [1-4]. Trois principaux modes d’endommagement
peuvent intervenir sur un composite unidirectionnel : les ruptures de fibres,
l’endommagement matriciel et la décohésion interfaciale.
1.2.1 Les ruptures de fibres
Les ruptures de fibres s’amorcent au niveau des défauts, quand la contrainte excède la
contrainte à rupture. Une rupture de fibre est représentée schématiquement sur la Figure I.1.
L’interface autour de la fibre peut également se rompre, entraînant un déchaussement de
celle-ci ; la zone touchée est alors le lieu d’une forte concentration de contraintes.
Figure I.1 : Rupture de fibre au sein d’un composite unidirectionnel
1.2.2 Fissurations de matrice
Ce phénomène se déroule en deux étapes (Figure I.2) : (a) des microfissurations
apparaissent au niveau de défauts présents dans la matrice (inclusions, porosités…) ; (b) une
fissure se propage ensuite selon la direction perpendiculaire à la sollicitation. Si la contrainte
en fond de fissure est suffisamment importante, la fissure peut provoquer, à l’arrivée à une
interface, une rupture de fibre ou un décollement interfacial (l’une de ces deux possibilités
sera favorisée par rapport à l’autre selon la plus ou moins bonne cohésion fibre / matrice).
%LEOLRJUDSKLH
- 23 -
a b
Figure I.2 : Initiation (a) et propagation (b) de la fissuration matricielle au sein d’un
composite unidirectionnel
1.2.3 Décohésions interfaciales
Chacun des mécanismes décrits précédemment s’accompagne en général de
décohésions aux interfaces fibre / matrice. De la qualité de l’adhésion à l’interface dépendra
grandement le mode de rupture lors d’un essai : en traction dans l’axe des fibres, par exemple,
une interface très résistante aura pour conséquence une rupture de type fragile (chaque rupture
de fibre s’accompagne d’une propagation de la fissure perpendiculairement à la contrainte) ;
en revanche si l’interface est faible le composite se comporte comme un faisceau de fibres
non liées (une fibre cassée ne participe plus à la résistance de l’ensemble).
1.2.4 Influence de la direction de sollicitation sur les modes de rupture descomposites unidirectionnels
• En traction dans l’axe des fibres les trois modes interviennent :
l’endommagement s’initie par des fissurations de matrice qui se développent ensuite
perpendiculairement aux fibres et entraînent des décohésions aux interfaces. L’accumulation
de l’endommagement crée des zones de concentration de contrainte qui provoquent en fin
d’essai la rupture des fibres et mène à la rupture finale.
• En traction perpendiculaire aux fibres, seules la matrice et les interfaces sont
sollicitées, des microfissures s’y développent au niveau des défauts ; la qualité d’adhésion
fibre / matrice détermine ensuite quel type de microfissures se propagera et provoquera la
rupture de l’échantillon.
%LEOLRJUDSKLH
- 24 -
• En traction déviée par rapport aux fibres, la matrice et les fibres sont toujours
sollicitées et peuvent être endommagées. La répartition entre les modes d’endommagement
varie en fonction de l’inclinaison des fibres par rapport à la direction de sollicitation. En
champ moyen, la contrainte de cisaillement maximum s’établit dans les directions inclinées
de 45° par rapport à l’axe de traction. Cette configuration est donc la plus favorable au
développement d’un endommagement interfacial par cisaillement [5-6].
1.3 Vieillissement hygrothermique
Nous ferons simplement ici les rappels nécessaires à la compréhension générale des
processus de dégradation des différents constituants du composite lors d’un vieillissement en
eau [7-13].
Au sein d’un matériau composite à matrice polymère, l’eau interagit, d’une part, avec la
matrice en volume, d’autre part, avec le renfort et les zones interfaciales. Les cinétiques de
diffusion de l’eau dans une résine homogène diffèrent de celles existant au sein d’une résine
renforcée.
Deux mécanismes peuvent contribuer au processus de sorption d’eau dans le polymère :
la fixation des molécules d’eau sur les sites actifs polaires du réseau macromoléculaire et la
diffusion à travers le volume libre et les microvides. Ces processus dépendent également
fortement des conditions externes : l’augmentation de la température a tendance à accélérer la
prise d’eau en modifiant les paramètres morphologiques et structuraux du matériau
(réarrangements moléculaires, relaxation des contraintes thermiques résiduelles).
1.3.1 Cinétique de sorption
La loi de Fick décrit la diffusion d’une espèce telle que l’eau dans un milieu présentant
un gradient de concentration. Elle se traduit à une échelle macroscopique par une relation
linéaire entre le flux du diffusant à travers une surface plane, de dimensions infinies par
rapport à l’épaisseur, et la dérivée seconde de la concentration perpendiculairement à cette
surface : 2
2
dx
cdD
dt
dcX= où c est la concentration en diffusant et DX le coefficient de diffusion.
%LEOLRJUDSKLH
- 25 -
D’après cette relation, un processus de diffusion fickienne suppose l’établissement d’un
palier de saturation sur les courbes de sorption. La solution de cette équation s’écrit :
πtD
eM
M X
e
t 4= où Mt est la masse d’eau sorbée au temps t, Me la masse à saturation et e
l’épaisseur de la plaque. Deux paramètres suffisent alors pour définir les propriétés de
diffusion du milieu : les masses d’eau absorbées à un temps t quelconque et à l’équilibre. Le
profil de sorption se caractérise par une dépendance linéaire du rapport Mt/Me en fonction de
la racine carrée du temps jusqu’à des valeurs de l’ordre de 0,5 à 0,6. Le coefficient de
diffusion est déterminé à partir de la pente de cette partie linéaire.
1.3.2 Dépendance en température
Pour les températures inférieures à la température de transition vitreuse du polymère
thermodurcissable, le comportement de sorption d’eau est typiquement fickien [8] –
l’augmentation, dans cette zone, de la température accélère l’atteinte du palier de saturation.
En revanche, à l’approche de la transition vitreuse, le modèle fickien n’est plus adapté pour
décrire les phénomènes de sorption.
1.3.3 Phénomènes non-fickiens
L’évolution des cinétiques de sorption aux hautes températures dépend du
comportement du matériau. Dans certains cas, ces écarts prennent l’allure d’une déviation
négative de la courbe de sorption. Ce phénomène résulte de l’élimination de matière due à
l’hydrolyse de la résine ; les microcavités formées sont aussitôt occupées par l’eau (pression
osmotique) de plus faible densité que la résine. Des déviations positives peuvent également
apparaître à partir de l’instauration d’un pseudo-palier de saturation (résines polyester) ; elles
sont dues en particulier au fait que lors de l’hydrolyse, d’une résine polyester par exemple,
chaque coupure se traduit par l’incorporation d’une molécule d’eau dans le réseau (RCOOR’
+ H2O Æ RCOOH + R’OH) et la formation de fonctions hydrophiles (alcool et acide) qui
vont augmenter la quantité d’eau que va pouvoir absorber le réseau.
1.3.4 Effets de l’eau sur les propriétés du composite
1.3.4.1 Plastification
%LEOLRJUDSKLH
- 26 -
Les phénomènes de plastification de la matrice se traduisent par une baisse plus ou
moins sensible (selon la nature de l’élément plastifiant) de la température de transition
vitreuse et des propriétés thermomécaniques du matériau. Ce phénomène intervient le plus
souvent lorsqu’une molécule de bas poids moléculaire s’intercale entre les chaînes du réseau
– l’eau est l’un des principaux éléments plastifiants des réseaux thermodurcissables. Les
molécules d’eau s’y substituent aux liaisons hydrogène qui contribuent à l’édification et à la
consolidation du réseau. Un autre mécanisme de plastification résulte de réarrangements
conformationnels liés à la diffusion de l’eau dans la matrice.
Sur le composite, la plastification engendre généralement les mêmes conséquences en
termes de propriétés mécaniques que sur la résine pure (chute du module élastique, baisse de
la température de transition vitreuse).
1.3.4.2 Dégradation irréversible
En plus de la plastification, des dégradations hygrothermiques irréversibles peuvent
apparaître. Elles peuvent avoir lieu soit au niveau microscopique (hydrolyse) soit au niveau
macroscopique (création de microcavités).
Au niveau de la résine, l’hydrolyse des sites polaires (sur les époxy : hydrolyse des
groupements hydroxyles et amines) est l’une des principales conséquences de l’interaction de
l’eau avec le réseau. Ce processus conduit à la libération de petites molécules qui vont
occasionner l’établissement d’une pression osmotique, favorisant la formation de microvides
qui accélèrent la dégradation et sont des sites de concentration de contraintes lors de
sollicitations mécaniques.
Dans le composite, la dégradation la plus forte se situe au niveau de l’interface
fibre / matrice. Les mécanismes qui mènent à la baisse de la qualité de l’adhésion sont
principalement, pour les fibres de verres : l’hydrolyse des liaisons à base de silanes ;
l’évacuation irréversible des oligomères à bas poids moléculaire ; la relaxation des contraintes
résiduelles de compression.
%LEOLRJUDSKLH
- 27 -
2. EMISSION ACOUSTIQUE
2.1 Généralités [14-15]
Cette technique est essentiellement utilisée pour l’étude de phénomènes physiques et
des mécanismes d’endommagement du matériau mais aussi comme méthode de contrôle non
destructif. Selon l’AFNOR, «le phénomène d’émission acoustique correspond à un
phénomène de libération d’énergie élastique sous forme d’ondes élastiques transitoires au sein
d’un matériau ayant des processus dynamiques de déformation ». Les ondes, de nature et de
fréquences diverses, se propagent dans le matériau et subissent d’éventuelles modifications
avant d’atteindre la surface du spécimen étudié. La vibration de surface est recueillie par un
capteur piézo-électrique, amplifiée, et fournit le signal d’émission acoustique.
Figure I.3 : Schéma de la chaîne d’émission acoustique, de la création de l’onde mécanique
à la visualisation du signal EA
Le phénomène-type de création d’une onde d’émission acoustique au sein d’un matériau
est schématisé Figure I.3. Une fissure se crée au niveau d’un défaut lorsque le matériau est
mis sous contrainte, ou une fissure préexistante croît, entraînant au niveau de celle-ci la
création d’une onde mécanique transitoire. Cette technique permet donc de déceler en temps
réel l’existence de défauts évolutifs. Les défauts passifs ne sont quant à eux pas détectés.
%LEOLRJUDSKLH
- 28 -
Généralement, on distingue l’émission acoustique continue de l’émission acoustique
discrète ou par salves. Pour cette dernière, le signal d’émission acoustique ou la salve a
l’allure d’une sinusoïde amortie. Lorsque les salves sont si fréquentes qu’elles se
chevauchent, le signal d’émission acoustique se traduit par une augmentation apparente du
bruit de fond. Cette émission acoustique est dite continue. Elle est principalement observée
lors de la déformation plastique dans les matériaux métalliques. Dans le cas des composites
fibres/résine, on n’observe pas en général d’émission acoustique continue. Il existe bien le cas
de la détection de fuites dans les réservoirs en composite par émission acoustique de type
continu ; mais c’est l’écoulement de la fuite, plus que l’endommagement même du matériau,
qui occasionne dans ce cas l’émission acoustique.
2.2 Les principales sources d’émission acoustique
Les sources d’émission acoustique sont liées à des phénomènes irréversibles. Dans les
matériaux composites, les salves recueillies peuvent être attribuées à divers mécanismes
d’endommagement ou à des phénomènes de frottement. Par endommagement, nous entendons
tous les phénomènes liés à une perte de cohésion du matériau dont l’accumulation conduit à la
ruine de la structure. Une partie de l’énergie libérée lorsque survient une décohésion peut être
transformée en onde acoustique. Les mécanismes sources attendus lors de la sollicitation
mécanique de matériaux composites fibreux sont principalement : la fissuration matricielle, la
décohésion interfaciale, les ruptures de fibres, le délaminage…. Cependant nous pouvons
rappeler que de nombreux phénomènes physiques peuvent être à l’origine de l’EA [14, 15] :
• déformation plastique, mouvement de dislocations, maclage, glissement aux
joints de grains, formation de bandes de Piobert-Lüders, rupture d’inclusions ou de composés
intermétalliques, transformation de phase (martensitique par exemple) ;
• amorçage et propagation de fissures (contraintes statiques, fatigue, corrosion
sous contrainte, etc) ;
• fragilisation par l’hydrogène ;
• corrosion ;
• ruptures micro et macroscopiques dans les matériaux composites ;
• frottement ;
• impacts mécaniques ;
• fuites (liquide et gaz), cavitation, ébullition ;
%LEOLRJUDSKLH
- 29 -
• bruits extérieurs à des essais (alignement de mors, machine de traction,
environnement, etc).
2.3 Effet Kaiser et le rapport Felicity
Les phénomènes générateurs d’EA sont de nature irréversible. L’effet Kaiser désigne
cette propriété d’irréversibilité. Il est défini comme étant l’absence d’EA lorsqu’un matériau
ou une structure portée à un niveau de sollicitation noté P1 puis déchargée n’émet pas tant que
la sollicitation, appliquée lors d’une deuxième mise en charge, reste inférieure à la valeur
maximale précédemment atteinte P1. On appelle P2 le niveau de sollicitation à l’apparition de
l’émission acoustique lors de la deuxième mise en charge. Si la structure est endommagée
alors P2<P1. On définit ainsi le rapport Felicity Rf = P2/P1.
2.4 Acquisition des signaux
La transformation des ondes mécaniques en surface d’un matériau, en signaux
d’émission acoustique, est réalisée par l’utilisation de capteurs généralement de nature
piézoélectrique. Ceux-ci sont placés en surface du matériau, le couplage avec celle-ci étant
assuré le plus souvent par l’utilisation d’un gel silicone. Le rôle du couplant est d’améliorer la
transmission des ondes entre la surface de l’échantillon et le capteur. Le signal détecté est
ensuite amplifié, échantillonné puis stocké pour traitement ultérieur.
Deux grandes familles de capteurs sont utilisées en émission acoustique. Les premiers,
dits « large bande », possèdent une bande passante régulière dans une zone étendue de
fréquences allant jusqu’au MHz. Ils présentent l’avantage de modifier peu la forme réelle du
signal, mais possèdent en revanche une faible sensibilité. Les seconds, dits « résonnants », ont
une bande passante moins large et présentent un pic de réponse aux alentours d’une certaine
fréquence. Cette caractéristique entraîne une modification de l’allure des signaux ainsi que de
leur contenu fréquentiel ; cependant les capteurs de ce type sont beaucoup plus sensibles et
permettent la détection de signaux de plus faible amplitude.
2.5 Localisation des sources
L’utilisation de plusieurs capteurs permet la localisation de la source d’émission
acoustique correspondant au signal reçu. La Figure I.4 présente plusieurs dispositions de
%LEOLRJUDSKLH
- 30 -
capteurs permettant de localiser les sources pour différentes géométries d’échantillons. Une
localisation linéaire sur une éprouvette de traction ne nécessite l’emploi que de deux capteurs.
Des géométries plus complexes peuvent nécessiter un plus grand nombre de capteurs. La
position de la source liée à un signal reçu est calculée en fonction des différences de temps
d’arrivée des signaux aux capteurs et de la vitesse de propagation des ondes dans le matériau
considéré.
Sources d ’EA
Capteurs piézo
Sources d ’EA
Capteurs piézo
Figure I.4 : Différentes géométries d ’échantillons et positionnements de capteurs permettant
la localisation des sources d’émission acoustique
2.6 Les paramètres exploi tables
On s’intéresse ici aux signaux de type discret. On se place dans l’hypothèse où chaque
salve correspond à un événement physique dans le matériau et où la forme de la salve est
directement liée aux caractéristiques de cet événement. Alors il est important de relever tous
les paramètres pouvant permettre de caractériser un type de signal dans le but de remonter
jusqu’à l’identification des différents mécanismes mis en jeu. Les principaux paramètres
exploitables sont représentés par la Figure I.5. La plupart de ces paramètres sont définis par
rapport à un seuil d’acquisition. Il existe plusieurs méthodes pour fixer ce seuil, la plus
courante consiste à le régler à une valeur légèrement supérieure au bruit de fond. Les
paramètres classiques enregistrés en temps réel sont les suivants :
1) l’amplitude crête exprimée en décibels ;
2) la durée exprimée généralement en microsecondes. Elle correspond au temps qui
sépare le premier et le dernier dépassement de seuil ;
3) le nombre de coups ou le nombre d’alternances correspond au nombre de
franchissements de seuil par le signal sur toute sa durée ;
%LEOLRJUDSKLH
- 31 -
4) le nombre de coups au pic correspond au nombre de franchissements de seuil par le
signal entre le premier dépassement de seuil et l’amplitude maximale ;
5) le temps de montée exprimé en microsecondes. Il correspond au temps qui sépare le
premier dépassement de seuil et l’amplitude crête du signal ;
6) la fréquence moyenne : cette valeur donnée par la plupart des systèmes d’acquisition
ne correspond pas à la transformée de Fourier du signal mais au nombre de coups d’une salve
divisé par sa durée ;
7) l’énergie du signal.
te m p s
ampl
itud
e
t e n sio n
se u i l
d u ré e
te m p s d e m o n té e
n o m b re d e c o u p s
E n e rg ie
te m p s
ampl
itud
e
t e n sio n
se u i l
d u ré e
te m p s d e m o n té e
n o m b re d e c o u p s
E n e rg ie
Figure I.5 : Principaux paramètres mesurés en temps réel sur une salve d’émission
acoustique
%LEOLRJUDSKLH
- 32 -
3. IDENTIFICATION DE LA SIGNATURE ACOUSTIQUE DES SOURCESDANS LES MATERIAUX COMPOSITES : ANALYSECONVENTIONNELLE
Dans l’analyse conventionnelle de l’émission acoustique, la propagation et les
altérations du signal ne sont pas prises en compte. Les paramètres analysés sont fortement
dépendants des propriétés du matériau, des géométries de la structure et du capteur et du
système de détection et d’analyse. Cependant cette analyse permet d’établir des corrélations
entre les paramètres d’émission acoustique et les sources. Ces corrélations ne sont pas
universelles en raison de la dépendance des paramètres d’EA avec la géométrie de
l’échantillon, les propriétés du matériau et le système d’acquisition. Une analyse quantitative
de l’émission acoustique nécessitant la modélisation de la propagation et la prise en compte
des fonctions de transfert permet de déterminer la fonction source indépendante des propriétés
du matériau et de la géométrie. Cependant cette analyse est limitée en raison de l’analyse
complexe nécessaire pour traiter un événement unique. Elle est donc difficilement réalisable
pour un composite.
3.1 Travaux sur le contenu fréquentiel des ondes
L’étude de la relation sources / signaux d’émission acoustique peut être orientée vers
l’analyse du contenu fréquentiel des ondes reçues. Calabro et al. [16,17] ont étudié les
diagrammes FFT (Fast Fourier Transform) des signaux d’émission acoustique reçus lors
d’essais sur des composites unidirectionnels carbone/époxy sollicités en traction à 0° et 90°
par rapport à l’axe des fibres, ainsi que sur des stratifiés à plis croisés [0/90], dans le but de
reconstituer l’intégralité du processus de rupture. Les signaux sont associés à la fissuration
matricielle ou aux ruptures de fibres suivant le type d’essai et le moment de leur apparition.
L’observation des FFT leur a permis d’identifier la présence de fréquences aux alentours de
400 kHz pour les ruptures de fibres, qui ne sont pas présentes pour la fissuration de la matrice.
Des travaux réalisés sur des composites monofilamentaires carbone/polyester [14] leur ont
permis de confirmer l’intérêt de l’analyse dans le domaine fréquentiel.
Downs et Hamstad [18] ont effectué des essais d’impact sur des cuves à pression de
diamètre extérieur de 260 mm réalisées en composite fibres de verre / matrice époxy. Leur
étude portait en particulier sur l’effet de la distance source/capteur. Ils ont pu montrer que les
%LEOLRJUDSKLH
- 33 -
paramètres caractéristiques des formes d’onde tels que l’amplitude, le temps de montée, …
ainsi que le contenu spectral des signaux pour des sources identiques sont largement
influencés par la distance source capteur. Pour des distances faibles (inférieures à 60 mm)
évaluer la signification physique d’un événement acoustique ne peut se faire qu’en tenant
compte de la propagation.
Enfin des travaux de Suzuki, Takemoto et Ono [19-21] ont été réalisés sur le contenu
fréquentiel de l’émission acoustique associée à divers modes d’endommagement. Le premier,
en particulier, associe plusieurs techniques (localisation et simulation des sources,
transformée en ondelettes) dans le but de classer les signaux d’émission acoustique. Leurs
résultats sont très prometteurs mais la technique nécessite de telles conditions expérimentales
(capteurs large-bande peu sensibles, distances source/signal très faibles, maîtrise parfaite de la
géométrie des échantillons) qu’elle paraît pour l’instant très difficilement applicable au
contrôle sur une structure composite réelle.
Plus récemment, des travaux ont été réalisés par Mäder et al. [22] sur des
microcomposites fibres de verre / matrice polypropylène et sur des composites de même
nature. Différentes qualités interfaciales sont testées. L’analyse du contenu fréquentiel est
associée à une analyse plus traditionnelle portant sur l’analyse de l’amplitude. Le fait que le
contenu fréquentiel des signaux de faible amplitude évolue avec les différents ensimages de
fibres suggère que le mode de déformation matricielle est fonction du traitement des fibres.
De même le contenu fréquentiel des signaux de faible amplitude et de moyenne amplitude
associé à la décohésion varie en fonction de la qualité de l’adhésion fibre-matrice. Par
ailleurs, le contenu fréquentiel des signaux de fortes amplitudes associés à la rupture des
fibres ne varie pas. L’analyse fréquentielle des signaux montre que les différents
comportements mécaniques enregistrés sont liés aux interfaces créées.
Une autre piste peut être d’étudier la fréquence des signaux en tant que paramètre,
auquel cas la fréquence moyenne est calculée directement sur la forme d’onde et peut être
étudiée comme le serait l’amplitude ou l’énergie. De Groot et al. [23] ont sollicité dans
diverses conditions des composites fibres de carbone / matrice époxy. Leur objectif était de
produire des modes d’endommagement particuliers dans chacun des types d’essais. Le
paramètre mesuré est la fréquence moyenne des signaux d’émission acoustique reçus. Ils ont
identifié quatre zones pour les modes d’endommagement étudiés : fissuration matricielle de
90 à 180 kHz, décohésions de 240 à 310 kHz, pull-out de 180 à 240 kHz et ruptures de fibres
%LEOLRJUDSKLH
- 34 -
pour les fréquences moyennes de plus de 300 kHz. La comparaison avec la littérature qu’ils
présentent met en évidence une certaine disparité dans les valeurs de ces fréquences d’un
matériau ou type d’essai à l’autre, mais une persistance du classement de ces modes sur une
échelle de fréquences.
Nous pouvons aussi signaler l’existence de travaux basés sur la décomposition en
ondelettes du signal d’EA [24, 25] qui sont aussi très prometteurs. Ils ne seront pas présentés
dans le cadre de ce travail.
Ces résultats sont intéressants dans la cohérence qu’ils présentent d’une étude à l’autre,
et nous verrons par la suite comment des approches similaires ont été abordées pour les autres
paramètres d’émission acoustique, en particulier l’amplitude.
3.2 Identification des sources par les paramètres des salves
De nombreuses études ont tenté, notamment pour les besoins d’applications de contrôle
industriel nécessitant l’emploi de procédures simples, de différencier les mécanismes sources
des signaux d’émission acoustique recueillis lors d’essais sur des composites chargés par
l’emploi d’un seul paramètre calculé sur les formes d’ondes. La plupart d’entre elles portent
sur l’amplitude des signaux d’émission acoustique.
Ainsi Chen et al. [26] ont étudié l’évolution de l’amplitude des signaux d’émission
acoustique reçus lors d’essais de flexion et de traction monotone sur des échantillons de
composite à fibres courtes de carbone et matrice verre. Les résultats obtenus, comparés à des
observations micrographiques à différents stades des essais, leur ont permis d’identifier deux
zones d’amplitudes correspondant à des mécanismes différents : de 60 à 80 dB pour la
fissuration de la matrice et de 70 à 90 dB pour les ruptures de fibres et le déchaussement
(pull-out).
Kim et Lee [27] ont réalisé des essais de mises en charge successives sur des
échantillons de composite fibres de carbone / matrice polymère à plis croisés [0, 90]. La
fissuration matricielle a été reliée aux signaux de faibles amplitudes (40 à 70 dB) et les
ruptures de fibres à ceux de fortes amplitudes (60 à 100 dB).
%LEOLRJUDSKLH
- 35 -
Karger-Kocsis et al. [28] ont analysé l’amplitude des signaux d’émission acoustique
provenant d’essais jusqu’à rupture sur éprouvettes CT réalisées en composite à matrice
polypropylène et fibres de verre longues ou courtes. Des observations en thermographie
infrarouge ainsi que l’évolution de l’amplitude au cours des essais leur ont permis d’établir un
classement des modes d’endommagement en fonction de l’amplitude : fissuration matricielle /
décohésions / pull-out / ruptures de fibres, en partant des faibles jusqu’aux fortes valeurs
d’amplitudes.
Kotsikos et al. [29, 30] ont étudié l’émission acoustique reçue lors d’essais de fatigue
sur des échantillons de stratifiés [0/90°] à fibres de verre et matrice polyester. Ils ont associé
la fissuration matricielle aux signaux d’amplitudes comprises entre 40 et 55 dB, le délaminage
de 55 à 70 dB et les ruptures de fibres aux signaux de plus de 80 dB. Ce travail portait
également sur l’effet d’un vieillissement hygrothermique sur les propriétés du composite. Il
leur a permis d’identifier une diminution du nombre de signaux provenant de la fissuration
matricielle après vieillissement ainsi qu’une augmentation des signaux de la zone associée
aux décohésions fibre/matrice.
Ceysson et al. [31] ont effectué différents types d’essais de flexion sur des stratifiés
fibres de carbone / matrice époxy. Les distributions en amplitude étaient centrées sur la valeur
de 50 dB pour la fissuration matricielle et sur la valeur de 62 dB pour le délaminage. Ces
distributions présentaient toutefois un assez fort recouvrement.
Enfin plusieurs travaux de Benzeggagh et al. [32, 33] ont porté sur l’étude de
l’amplitude des signaux, sur différents types de composites. Quatre zones d’amplitudes ont,
par exemple, été identifiées sur un composite à fibres de verre courtes et matrice
polypropylène sollicité en traction statique et en fatigue : de 40 à 55 dB pour la fissuration
matricielle, de 60 à 65 dB pour les décohésions, de 65 à 85 dB pour le pull-out et de 85 à
95 dB pour les ruptures de fibres. Ce traitement de la distribution de l’amplitude des signaux
enregistrés a été utilisé dans des études réalisées sur des matériaux de nature différente
(composite fibre de verre/matrice polyester, composite fibre de verre/matrice époxy) [34, 35].
Ces différents travaux (Tableau I.1), menés sur divers types de composites et dans des
conditions (essais, acquisition de l’émission acoustique) très variables, amènent à plusieurs
conclusions. Il semble tout d’abord se détacher un certain classement par l’amplitude des
signaux d’émission acoustique provenant des modes d’endommagement les plus
%LEOLRJUDSKLH
- 36 -
fréquemment rencontrés dans les composites, soit par amplitude décroissante : ruptures de
fibres, décohésions et délaminage, fissuration matricielle. Il est cependant clair que les valeurs
absolues (en amplitude) des zones concernées varient d’un type d’essai à l’autre, d’un
matériau à l’autre, etc. Il apparaît également que, dans la plupart de ces études, les zones
même bien identifiées par rapport à l’endommagement correspondant, présentent des
recouvrements et rendent incertaine l’attribution d’un signal à un endommagement ayant
réellement eu lieu, lorsque son amplitude est comprise dans une zone de recouvrement. Cette
conclusion avait déjà été formulée par différents auteurs [36-39].
Moded’endommagement
Chen et al.[26]
Kim, Lee[27]
Kotsikos et al.[29]
Ceysson et al.[31]
Benzeggagh[32-35]
Fissurationmatricielle
60-80 dB 40-70 dB 40-55 dB 50 dB 40-55 dB
Décohésions,délaminage
55-70 dB 62 dB 60-65 dB
Ruptures de fibres 70-90 dB 60-100 dB > 80 dB 85-95 dB
Tableau I.1 : Synthèse des zones d’amplitude associées aux différents modes de rupture dansla bibliographie
Une possibilité pour contourner ce problème est l’analyse simultanée de plusieurs
paramètres. C’est ce que Uenoya [40] a étudié lors d’essais de flexion sur des stratifiés fibres
de verre / matrice époxy. Les signaux sont analysés en fonction de leur amplitude et de leur
temps de montée. Trois zones (fissuration matricielle, décohésions/délaminage, ruptures de
fibres) ont été identifiées, avec toutefois la persistance de recouvrements liés à la proximité
spatiale de celles-ci.
Hill [41, 42] a étudié, sur des cuves à pression en composite verre/époxy et
carbone/époxy, les influences de l’énergie et de l’amplitude des signaux. Ces deux paramètres
étaient utilisés dans un but de prévision de rupture de la cuve.
Les différents travaux indiquent clairement la nécessité d’analyser les signaux
d’émission acoustique par, non pas un, mais plusieurs paramètres. La première perspective en
ce sens est la possibilité d’étudier les évolutions des modes d’endommagement lors d’essais
sur des matériaux ou structures plus complexes que des échantillons « école », pour lesquels il
est en revanche clair qu’une simple analyse en amplitude est, la plupart du temps, suffisante.
La seconde perspective est de pouvoir disposer d’un outil d’analyse générique, c’est-à-dire
adaptable à différents matériaux et structures, les valeurs absolues d’un seul paramètre étant
%LEOLRJUDSKLH
- 37 -
bien entendu trop dépendantes des conditions de l’essai, ne serait-ce que les conditions
d’acquisition de l’émission acoustique.
4. ANALYSE STATISTIQUE MULTIVARIABLE
Diverses méthodes mathématiques [43-48] permettent l’analyse statistique de données
selon plusieurs paramètres. En effet, il est nécessaire après collecte d’information de disposer
de méthodes permettant de définir les ressemblances ou les différences entre les données en
analysant non pas un paramètre caractéristique mais n paramètres, appelés aussi descripteurs.
L’extraction, parmi de grandes quantités de données, de critères de reconnaissance de classes
est le principe fondamental de disciplines très variées telles la reconnaissance d’écriture, la
bioreconnaisance, l’analyse des données météorologiques, la prévision de faillites
d’entreprises, la classification de documents … Fisher a mis en place dans les années 30 les
bases mathématiques de la reconnaissance statistique de formes ou de classes. Un des
objectifs de l’analyse discriminante des données est de prédire l’appartenance de sujets à une
classe à partir de données en analysant une ou plusieurs variables. Citons, parmi ces
techniques, l’analyse de Fisher, l’analyse en composantes principales (ACP), mais également
les k-moyennes, ainsi que les réseaux de neurones.
4.1 Quelques grandeurs caractéristiques d’une classe
Une classe est un sous-ensemble d’éléments sur lesquels on considère qu’une variable a
la même mesure, à un écart près dit intervalle de classe. Un échantillon de N données
multidimensionnelles (par exemple N signaux d’émission acoustique chacun constitué de n
paramètres) est réparti en k classes. Une classe notée cj est, dans le cadre de ce travail, un
ensemble de nj signaux d’EA. Le signal d’EA est représenté en notation vectorielle par un
vecteur X qui est constitué de n paramètres ou n composantes (x1,…,xn).
La dispersion intra-classe Vintra est la moyenne des variances. Elle résume la variabilité
à l’intérieur des classes. La dispersion inter-classes est la variance des moyennes. Elle décrit
les différences entre les classes ; d’où le nom de variance inter-classes.
%LEOLRJUDSKLH
- 38 -
4.2 Classificateur, classifications supervisées, classifications nonsupervisées
Le rôle d’un classificateur est de déterminer, parmi un ensemble fini de classes, la
classe d’appartenance d’un objet. Il doit être capable de définir les frontières qui existent entre
les différentes classes. Appliquées à l’émission acoustique, ces techniques servent à identifier
parmi un grand nombre de signaux, décrits par un certain nombre de paramètres, des classes
de signaux de paramètres proches et donc provenant de phénomènes identiques au sein du
matériau.
La conception d’un classificateur nécessite de réaliser plusieurs étapes :
1) choix des descripteurs pertinents ;
2) acquisition des données expérimentales ;
3) détermination de la fonction de classification (c’est le résultat de l’apprentissage) ou de
la fonction discriminante ;
4) évaluation du taux d’erreur et validation.
Le terme de classifications non supervisées (Figure I.6) signifie que les classes ne sont
pas connues a priori par l’utilisateur. Cette classification ne nécessite aucune information sur
les données. Elle est fondée sur la structure propre de l’ensemble des données. L’application
de telles méthodes se fait généralement en deux étapes : 1) l’emploi d’algorithmes permettant
la réduction des données 2) représentation graphique des classes. Nous pouvons citer
l’analyse en composantes principales [49-52], les k-moyennes [53-55], la carte de Kohonen
[56].
Les méthodes supervisées, quant à elles, nécessitent un jeu de données déjà identifié
pour construire le modèle statistique. Les classes sont connues par l’utilisateur et elles ont a
priori un sens pour ce dernier. Nous pouvons citer les techniques de l’analyse de Fisher, les k-
plus proches voisins [57], LVQ (Learning vector quantization) [58], multi-layer perceptron
(MLP) qui est un réseau de neurones en couches.
%LEOLRJUDSKLH
- 39 -
Figure I.6 : Les différentes étapes de la classification A) supervisée B) non supervisée
A) Classification supervisée B) Classification non supervisée
Acquisition des données
Choix des descripteurs
Identification des différentes classesà la suite de l ’expérience
Apprentissage du classificateur
Vérification de la pertinence de la classification
Application
Choix des descripteurs
Segmentation des données en k classes
Affichage de la classification
Identification des classesInterprétation des résultats
%LEOLRJUDSKLH
- 40 -
Les paramètres d’un classificateur sont estimés à partir d’un ensemble d’échantillons
par un processus d’apprentissage. Si la classe des exemples est connue, il s’agit alors
d’estimer les paramètres de la fonction discrimination pour chaque classe. Si la classe de
paramètre est inconnue, il faut d’abord associer les échantillons par un processus de
« clustering » ou de segmentation des données. La base de données disponible à cet effet doit
être la plus représentative possible de la situation qui sera rencontrée en cours d’exploitation
du classificateur. Elle doit également souvent être de grande taille afin d’estimer au mieux les
paramètres du système.
4.3 Evaluation des distances
La plupart des techniques de classification utilisent des mesures de distances. La
distance euclidienne usuelle notée d(X1, X2) entre le vecteur X1 et le vecteur X2 est définie
comme la racine de la somme des carrés des différences des composantes (chaque vecteur est
constitué de n composantes) :
( )∑=
−=n
1j
2j2
j121 xx)X,X(d
La distance pondérée est définie par la relation suivante :
( )∑=
−=n
1j
2j2
j1j21 xxm)X,X(d
où les coefficients mj strictement positifs pondèrent l’influence de la j-ième variable.
On appelle distance de Mahalanobis de X1 à la classe 2 caractérisée par son vecteur
moyenne X2 . Cette distance permet donc de mesurer la distance à un échantillon caractérisé
par sa position (vecteur moyenne) et sa dispersion (matrice de covariance).
( ) ( )211T
2121 XXXX)X,X(d −∧−= −
%LEOLRJUDSKLH
- 41 -
Λ est la matrice de covariance de la classe 2.
4.4 Méthode de discrimination par les k-moyennes [53-55]
4.4.1 Présentation de la technique
Pour résoudre certains problèmes complexes, il peut s’avérer utile de commencer par
segmenter les données c’est à dire les diviser en classes. C’est l’objet de la méthode des k-
moyennes. La méthode des K-Means de MacQueen (1967) fait partie de la famille
d'algorithmes de classification dit à "centres mobiles". Elle est très simple à mettre en œuvre
et très utilisée. C’est une méthode itérative de partition des données par minimisation de la
variance intra-groupe. La segmentation des données ou la division en classes est une tâche
non supervisée. Il est seulement nécessaire de préciser le nombres de classes k qu’on désire
obtenir au terme du groupement. Cependant il n’est pas nécessaire de connaître la partition en
classes des données. Cette procédure consiste en une succession d’étapes :
1) choix du nombre k de classes ;
2) initialisation des centres des k classes Ck de façon aléatoire ou en les définissant
manuellement ;
3) calcul de la distance séparant chaque vecteur X aux centres des k classes ;
4) affectation des vecteurs d’entrée X à une des k classes selon les concepts de
classification suivants :
- recherche du minimum de la distance euclidienne,
[ ] ji , k1, i X-X X-X si Cj X ij ≠∈∀<∈
- recherche du minimum de la distance de Mahalanobis ;
5) evaluation des nouveaux centres des clusters à la fin de cette étape d’itération ;
%LEOLRJUDSKLH
- 42 -
6) si les centres des classes sont stables, alors l’algorithme a convergé et la procédure est
terminée ; dans le cas contraire, on répète les opérations de 3 à 5.
Le point faible de cet algorithme est que le résultat peut être fonction du point de départ
choisi pour l’initialisation des centres des classes. Après l’application de l’algorithme,
d’autres techniques ou des expertises doivent être utilisées pour dégager les significations
physiques des classes.
4.4.2 Validation du choix du nombre de classes
Il existe des méthodes [59-61] qui permettent de trouver le nombre optimal de classes.
Différents critères peuvent être calculés. Nous présenterons le critère D de Dunn et le critère
DB de Davies et Bouldin.
- Index de validité de Dunn
=
≤≤≤≤≤≤
≠ kl1l
ji
kj1ki1 )c('dmax(
)c,c(dminminD
ji
où d(ci,cj) est la distance entre la classe ci et la classe cj, d’(cl) est la distance intracluster, k est
le nombre de classes. L’objectif est de rendre maximales les distances inter-classes et de
minimiser les distances intra-classes. La valeur de k qui rend maximale D est le nombre
optimal de classes à choisir.
- Index de validité de Davies et Bouldin noté DB. Il est fonction du rapport de la somme de la
dispersion intra-classes et de la dispersion inter-classes. La valeur de k optimale est celle qui
minimise ce rapport.
+
= ∑= ≠ ih
ihk
1i hi d
eemax
k
1DB
dih est la distance euclidienne des centres des classes h et i, ei est la distance moyenne
des vecteurs d’une même classe au centre de la classe.
%LEOLRJUDSKLH
- 43 -
4.5 Méthode de discrimination par les k-plus proches voisins [57]
La méthode des plus proches voisins (PPV) part de l’idée de prendre des décisions en
recherchant un ou plusieurs cas similaires dans un jeu de données déjà résolus et en mémoire.
Cette méthode de classification supervisée ne nécessite pas de phase d’apprentissage
consistant en la construction d’un modèle à partir d’un échantillon d’apprentissage. C’est
l’échantillon d’apprentissage constitué de vecteurs affectés à une classe particulière, associé à
un calcul de distance, qui constitue le modèle. La distance entre l’objet à classifier et tous les
vecteurs de l’échantillon d’apprentissage est calculée. La classe assignée à l’objet est alors
celle du prototype le plus proche. C’est la méthode du plus proche voisin. Un des
inconvénients majeurs de la méthode du plus proche voisin est qu’elle présente une sensibilité
élevée aux abords des frontières entre les classes. Afin de contrer ces effets, la classe assignée
à un vecteur peut être celle qui est la plus représentée parmi les k plus proches voisins. Cette
technique de classification nécessite des temps de calcul très longs.
D’autre part, il est nécessaire, pour cette technique, de déterminer la valeur de k
optimale permettant la meilleure classification possible. Dans le cas d’un problème à deux
classes, on choisira une valeur de k impaire pour éviter les indécisions. Ceci se fait par un
calcul d’erreur appliqué à différentes valeurs de k, celui choisi correspondant à l’erreur la plus
faible. Une technique couramment utilisée pour calculer l’erreur est celle dite du « leave-one-
out ». Elle consiste à retirer successivement chaque vecteur de la base de données de départ,
de construire un classificateur à partir des données restantes, puis de comparer la classe
correspondant au vecteur restant à celle calculée par le classificateur. L’erreur est estimée par
le nombre d’échecs sur le nombre total de vecteurs dans la base.
4.6 Réseaux de neurones
Une des capacités fondamentales de l’esprit humain est celle de pouvoir reconnaître des
formes dans le monde qui nous entoure. Il est alors intéressant de développer des méthodes
automatiques permettant de réaliser ce type d’opération. Le premier réseau de neurones a été
développé dans les années 40. Les réseaux de neurones sont des outils très utilisés pour la
classification, la prédiction ou la segmentation de données. Le réseau de neurones ressemble
au cerveau en deux points :
- la connaissance est acquise au travers d’un processus d’apprentissage ;
- les poids des connections entre les neurones sont utilisés pour mémoriser la connaissance.
%LEOLRJUDSKLH
- 44 -
4.6.1 Généralités [62, 63]
Les réseaux de neurones artificiels sont étudiés depuis de nombreuses années dans le
but d’atteindre des performances proches de l’humain dans les domaines de la reconnaissance
de formes ou de parole. Ces réseaux sont composés d’un grand nombre d’éléments non-
linéaires opérant en parallèle et arrangés en réseaux inspirés des réseaux de neurones
biologiques. Un neurone est une unité de calcul élémentaire qui combine des entrées x1…xn en
une sortie y (Figure I.7). Les entrées n’ont pas toutes la même importance et à chaque entrée
xi est associé un poids wi.
yEntrée
Sortie
x1
x2
xn
w1
w2
wn
Figure I.7 : Schéma de principe d’un nœud constitutif des réseaux de neurones
Dans un réseau de neurones, les neurones sont regroupés en couches. Les différents
modèles de réseaux de neurones diffèrent par leur topologie, les caractéristiques des nœuds et
les spécificités de la phase d’apprentissage. Cette dernière suit le plus souvent le schéma
suivant :
• initialisation de tous les poids à des valeurs aléatoires (généralement comprises
entre 0 et 1) pour tous les neurones du réseau ;
• présentation d’un vecteur d’entrée provenant d’un ensemble d’échantillons
choisis spécifiquement pour la phase d’apprentissage ;
• calcul des valeurs de sortie correspondantes ;
• modification des poids de tous les nœuds du réseau en fonction de la différence
entre les valeurs obtenues et celles désirées ;
%LEOLRJUDSKLH
- 45 -
• définition d’un critère d’arrêt.
Il est à noter que la plupart des variations d’un modèle de réseau à l’autre portent sur le
quatrième point, la formule de modification des poids en fonction du résultat obtenu.
L’utilisation de réseaux de neurones dits supervisés nécessite donc d’avoir une idée a priori
des résultats attendus pour chaque échantillon utilisé lors de la phase d’apprentissage. Un
autre type de réseaux, dits « non supervisés », permet d’obtenir la topologie d’un ensemble de
valeurs échantillons, sans nécessiter la connaissance a priori de leur appartenance en termes
de classes.
On peut citer le perceptron présenté par Rosenblatt en 1958 comme étant la forme la
plus simple. Il consiste en un seul neurone et permet de classer les objets en deux classes
linéairement séparables. La reconnaissance de plus de deux classes est rendue possible par la
mise en parallèle de plusieurs perceptrons. L’apprentissage c’est à dire l’évaluation des poids
des neurones est supervisé, effectué à partir de données préclassées.
4.6.2 La carte topologique de Kohonen [56, 64-70]
L’un des principes fondamentaux de l’organisation sensorielle dans le cerveau est que le
placement des neurones est ordonné et reflète souvent des caractéristiques physiques du
stimulus externe correspondant. Par exemple, dans le système auditif, les cellules et les fibres
nerveuses sont arrangées en fonction de la fréquence qui définit la plus forte réponse de
chaque neurone. Bien qu’il soit reconnu que la majeure partie de cette organisation est
prédéterminée génétiquement, il est clair qu’une partie de celle-ci se crée par apprentissage.
Kohonen a développé un algorithme basé sur le principe de cette organisation topologique,
produisant ce qu’il a appelé des cartes auto-organisatrices, similaires à ce qui se passe dans le
cerveau humain. Les neurones d’une carte auto-organisatrice sont disposés en une seule
couche de laquelle émane une topologie définie par la notion de voisinage. La Figure I.8
illustre un tel réseau dans sa configuration la plus courante, le réseau bidimensionnel. Cette
carte topologique va projeter les données dans un espace discret de faible dimension. A
chaque neurone est associé un vecteur poids. L’entrée du réseau est unique et commune à tous
les neurones, c’est un vecteur X constitué de n composantes. Le nombre optimal de neurones
doit être déterminé empiriquement.
%LEOLRJUDSKLH
- 46 -
4.6.2.1 Phase d’apprentissage
L’apprentissage est non supervisé. Il consiste à répéter les étapes suivantes :
1) initialisation de la carte par l’attribution aux poids de valeurs aléatoires comprises entre
0 et 1 ;
2) présentation d’un vecteur d’entrée X à l’entrée du réseau sans préciser la classe à
laquelle il appartient ;
3) recherche du neurone gagnant ou élu noté q*, neurone dont le vecteur poids est le plus
proche par mesure, par exemple, de la simple distance euclidienne. Cela revient à sélectionner
le neurone correspondant au mieux au vecteur d’entrée ;
4) adaptation du poids de ce neurone élu ainsi que ceux de ses voisins topologiques de
manière à ce qu’ils se rapprochent davantage du vecteur d’entrée ;
( ) ( ) ( )( )( ) ( ) V(q*) q si tW1tW
V(q*) q si tWX*)q(VtW1tW
qqq
∉=+
∈−η+=+
V(q*) désigne le voisinage du neurone élu, η est le taux d’apprentissage. Wq est le
vecteur poids du neurone q, t représente le numéro d’itération.
5) répétition des étapes pour tous les vecteurs du fichier d’entrée et pour un certain
nombre d’itérations.
NeuroneÉlu q*
Voisinagedu neurone
Figure I.8 : Schéma d’une carte de Kohonen
Pendant l’apprentissage, des vecteurs d’entrée sont présentés successivement sans
spécifier les sorties désirées. Après le passage d’un nombre suffisant de ces vecteurs, les poids
affectés à chacun des neurones identifieront des classes représentant l’espace d’entrée. De
plus, les réponses des neurones seront organisées géographiquement afin que des neurones
proches soient sensibles à des vecteurs d’entrée similaires. L’algorithme formant ces cartes
nécessite donc la prise en compte d’une notion de voisinage lors de l’apprentissage : le
neurone le plus sensible à un vecteur d’entrée verra ses poids modifiés afin de se rapprocher
%LEOLRJUDSKLH
- 47 -
un peu plus du vecteur en question et la modification portera aussi sur ses voisins proches par
la définition d’un rayon de voisinage (Figure I.8).
Le rayon de voisinage dans le cas décrit sur la Figure I.8 est égal à 1. Classiquement ce
rayon est pris, soit fixe lors de l’apprentissage, soit fort au début puis décroissant au fil du
passage des vecteurs d’entrée. Un gain doit également être défini, pondérant l’apprentissage à
chaque passage d’un vecteur et décroissant au fil des itérations. L’apprentissage se termine
lorsque, soit les poids convergent, soit le gain devient proche de 0. La diminution du gain doit
donc être assez faible pour permettre cette convergence si elle doit avoir lieu.
4.6.2.2 Interprétation ou étiquetage
Un problème qui se pose typiquement est ensuite l’analyse de la topologie de la carte
formée une fois la phase d’apprentissage terminée. La procédure d’étiquetage consiste à
attribuer à chaque neurone une étiquette qui correspond à la classe d’entrée dont il est le plus
proche. A l’issue de la procédure d’étiquetage, la carte auto-organisatrice peut être utilisée en
tant que classificateur.
4.6.2.3 L’algorithme Learning Vector quantization (LVQ) [58]
Il est important d’établir très nettement les frontières entre les classes. Une bonne
définition de celles-ci peut être obtenue en introduisant une phase d’apprentissage
supplémentaire au cours de laquelle la classification des objets est prise en compte. Cet
apprentissage supervisé consiste à présenter des vecteurs identifiés et à réajuster les vecteurs
poids de manière à minimiser le taux global d’erreur de classification. Cet algorithme LVQ a
également été développé par Kohonen.
4.6.2.4 Visualisation de la topologie de la carte
Cette observation peut être effectuée grâce à la méthode dite NP-SOM (Non-linear
Projection of Self-Organizing Map) développée par Mao et Jain [71]. Cette méthode consiste
en la représentation, en trois dimensions ou niveaux de gris, de la distance euclidienne
maximale d’un neurone à ses quatre voisins immédiats.
%LEOLRJUDSKLH
- 48 -
4.7 Applications à l’identi fication des sources en Emission Acoustique
Dans cette partie nous ne présenterons que les travaux relatifs à l’utilisation de
classificateurs dans le but d’identifier la signature acoustique des différents mécanismes
sources se produisant lors de l’endommagement dans les matériaux composites sollicités
mécaniquement. De nombreux auteurs [72-75] ont mis en évidence l’intérêt de ces techniques
appliquées aux données d’EA.
Anastassopoulos et al. [76, 77] ont combiné avec succès deux algorithmes de
segmentation des données (MaxMin distance [78] et Forgy modifié qui est une version
modifiée de la méthode des k-moyennes) dans le but de classifier les signaux d’émission
acoustique provenant d’essais sur des composites verre/époxy et carbone/carbone. La
séparation est faite sur quatre paramètres dont deux recalculés à partir des paramètres
originaux des salves et considérés comme étant représentatifs des formes des signaux (temps
de montée, amplitude, amplitude/temps de décroissance, temps de montée/durée). L’évolution
des six classes ainsi identifiées est représentée en fonction de l’avancement des essais,
permettant d’établir un critère d’approche de la rupture du matériau. Plus récemment, une
carte auto-organisatrice utilisant l’algorithme LVQ lors de l’apprentissage a été utilisée par
Philippidis et al. [79] pour étudier l’émission acoustique lors d’essais de traction sur des
stratifiés verre / polyester unidirectionnels et à plis croisés ± 45° sollicités en traction.
Ono et Huang [80] ont étudié l’émission acoustique collectée lors d’essais sur des
échantillons de composite carbone/époxy unidirectionnel, plis croisés et à fibres courtes
dispersées, ainsi que sur des stratifiés verre/époxy à plis croisés. La première phase de leur
travail était une classification visuelle de différents types de signaux en fonction du matériau
sollicité et de l’endommagement prépondérant lui correspondant. Six types de signaux pour le
stratifié carbone/époxy et trois pour le stratifié verre/époxy ont ainsi été identifiés et associés
à un mode d’endommagement. La technique des k plus proches voisins était ensuite utilisée
pour classer les signaux provenant d’essais supplémentaires dans une des classes établies,
permettant une supervision de l’évolution des modes d’endommagement. Kawamoto et Ono
[81] ont effectué un travail similaire sur des composites carbone/époxy unidirectionnels et plis
croisés atteignant, comme pour le cas pré-cité, des résultats tout à fait encourageants. Il est à
noter que la classification pré-établie reste subjective car effectuée visuellement par
l’expérimentateur.
%LEOLRJUDSKLH
- 49 -
Pappas et Kostopoulos [82, 83] ont obtenu des résultats significatifs pour la
segmentation des données d’EA à l’aide de la méthode des k-moyennes. Un de leurs objectifs
est d’intégrer ces résultats pour évaluer la durée de vie restante.
Yan et al. [84] ont analysé les signaux d’émission acoustique collectés lors d’essais de
fatigue en flexion trois points sur des pièces d’acier de grande taille. La technique de la carte
auto-organisatrice de Kohonen a été utilisée afin de regrouper les signaux reçus en classes,
puis ces classes sont reliées aux mécanismes d’endommagement concernés (fissuration lente
ou rapide, fretting, perturbations électriques). Leurs résultats, bien qu’ils n’aient pas permis la
classification des signaux dans leur totalité, soulignent la possibilité offerte par cette
technique d’identifier des mécanismes sources différents à travers la comparaison relative des
vecteurs de paramètres, quand la simple observation de leurs valeurs absolues est trop
dépendante des conditions expérimentales et du matériau.
La plupart des travaux présentés ici utilisent comme descripteurs les paramètres
conventionnels d’EA. Nous pouvons signaler des travaux basés sur l’analyse de la forme
d’onde [85, 86]. Ces résultats sont très prometteurs, cependant la classification et
l’interprétation des signaux d’EA basés sur des descripteurs des formes d’ondes doivent être
conduites prudemment car de nombreux facteurs influencent les formes d’ondes. Ces derniers
incluent bien évidemment les caractéristiques de la source et du matériau mais aussi celles des
capteurs et du système de mesure.
%LEOLRJUDSKLH
- 50 -
Auteurs Conditions expérimentales Descripteurs Technique employée CommentairesAnastassopoulos et Philippidis[76, 77]
Composite verre/époxyComposite 2D carbone/carboneEssais de tractionCapteurs R15
Définition du jeu de descripteursle plus pertinent : 4 descripteurs- temps de montée- amplitude- amplitude/temps de
décroissance- temps de montée/durée
- non supervisée- combinaison de : l’algorihme
max-min distance :segmentation initiale desdonnées
- et de l’algorithme de Forgy :optimisation de lasegmentation
Etude de l’évolution de chaqueclasse au cours de l’essai : critèrede rupture
Philippidis, Nikolaidis et Kolaxis[79]
Composite verre/polyesterCapteur R15
7 descripteurs :- temps de montée- le nombre de coups- l’énergie- la durée- l’amplitude- la fréquence moyenne- le nombre de coups au pic
- Fusion de données- non supervisée- Analyse en composante
principale : réduction desdonnées
- Algorithme de segmentationbasé sue Learning vectorquantization : classification
Intégration des résultats de laclassification dans une évaluationde la durée de vie restante
Ono et Huang[80]
Composite carbone/époxyComposite verre/époxy
- Classification visuelle dessignaux
- Méthode supervisée- K-plus proches voisins
Pappas et Kostopoulos[82]
Composite 2D carbone/carboneTractionCapteurs R15
Identification des descripteurs lesmoins corrélés (taux decorrélation inférieur à 0.6) : 5descripteurs- amplitude- énergie- durée- nombre de coups- temps de montée
- non supervisée- k-moyennes- k=5
Association des 5 classes à 5mécanismes différents
Pappas et Kostopoulos[83]
Composite 2D carbone/carboneEssai de fatigueEprouvettes CTCapteurs R15
5 descripteurs- amplitude- énergie- durée- nombre de coups- temps de montée
- non supervisée- k-moyennes- k=6
Analyse de l’évolution del’activité de chaque classe aucours d’un cycle permettantl’association à différentsmécanismes de certaines classes.
%LEOLRJUDSKLH
- 51 -
Yan, Holford, Carter et Brandon[84]
Poutre métalliqueEssai de fatigue, flexion 3 pointsCapteur R15
7 descripteurs :- temps de montée- le nombre de coups- l’énergie- la durée- l’amplitude- la fréquence moyennele nombre de coups au pic
Carte auto-organisatrice Kohonen
Ohtsu et Ono[85]
Composite Carbone/époxyTractionCapteur AET-Mac425, capteurquasi-large bande
Analyse du contenu fréquentiel :calculs des coefficients deréflexion
Utilisation de 2 classificateursdifférents :- Distance minimum- Maximum de vraisemblance
Mise en évidence de 5 classes
- - Jonhson[86]
Composite verre/époxy[0°, 90°], [+45°, -45°]Capteurs DWC B1025 (50kHz-1MHz)
140 descripteurs : la longueur dusignal analysé est un échantillonde 140 points
- identification expérimentalede 5 classes de signaux
- analyse en composanteprincipale
- Classification superviséebasée sur les modèlesdisjoints
Discrimination entre les effets dusà la fissuration matricielles et lesdélaminations
Tableau I.2 : Synthèse des principaux travaux utilisant des classificateurs pour traiter les données d’EA
%LEOLRJUDSKLH
- 52 -
5. SYNTHESE ET METHODOLOGIE DEVELOPPEE
L’émission acoustique est un outil pour caractériser l’endommagement du matériau.
Elle est, en particulier, bien adaptée en tant que technique indirecte d’identification des
mécanismes d’endommagement au sein d’un matériau composite sous charge. Les relations
entre un mode d’endommagement et le signal d’émission acoustique susceptible d’être
produit à la surface du matériau sont malheureusement très complexes et dépendent de
facteurs tels la géométrie des capteurs ou des échantillons.
Les travaux présentant les résultats les plus encourageants portent en fait sur l’étude
statistique des signaux reçus, sur des essais très cadrés, en particulier pour des géométries
d’échantillons simples et bien maîtrisées. Les analyses portent, soit sur des paramètres
standards calculés directement sur les formes d’ondes, soit sur ces formes d’ondes elles-
mêmes, numérisées au moment de leur acquisition, puis traitées par informatique. L’ensemble
des éléments tirés de la bibliographie amène à poser les bases suivantes pour le travail à
effectuer.
• Si l’objectif de l’étude est l’analyse d’essais sur des composites s’approchant
de la structure réelle (plis croisés), il est nécessaire pour l’identification des mécanismes
sources d’émission acoustique d’effectuer préalablement un travail sur des échantillons
« école » et dont les comportements sous sollicitation sont bien connus (résines seules,
composite unidirectionnel).
• L’étude du contenu fréquentiel des ondes, parallèlement à des simulations de
sources ou calculs de propagation, si elle est a priori la plus valide pour l’analyse de
l’émission acoustique, paraît en revanche trop dépendante de paramètres tels la position des
sources, les conditions expérimentales, l’influence des capteurs piézoélectriques, pour être
appliquée à un cas complexe comme celui d’un composite de fabrication industrielle.
• L’utilisation d’un seul paramètre (tel l’amplitude) pour décrire les signaux
d’émission acoustique est insuffisante pour la discrimination des modes d’endommagement,
tout d’abord parce qu’elle est tributaire des conditions expérimentales (acquisition des
signaux, matériau, distance entre capteurs) et parce que, si elle peut être suffisante dans le cas
%LEOLRJUDSKLH
- 53 -
de comportements simples (composite unidirectionnel), les distributions de paramètres se
recouvrent notamment lorsque l’on étudie des matériaux plus complexes (plis croisés).
• Une analyse statistique multi-paramètres paraît prometteuse et il semble
nécessaire pour la conduire d’employer une technique dite « non-supervisée », qui éloigne
toute possibilité de subjectivité dans l’interprétation des résultats. Il semble également
profitable d’associer plusieurs de ces techniques afin d’accentuer la validité des résultats
obtenus. La Figure I.9 résume la méthodologie employée.
Un des objectifs de ce travail est de proposer et de mettre en pratique des méthodes
permettant essentiellement de résumer, d’explorer et d’analyser les données d’EA. Il s’articule
autour de l’utilisation de méthodes de classification. Le but de cette analyse statistique est de
dégager les significations de données obtenues au cours du suivi par émission acoustique de
l’endommagement de matériaux composites à matrice polymère, sollicités mécaniquement.
Ces outils de classification vont simplifier les données d'EA en rendant l’interprétation plus
aisée. Cette étude peut être décomposée en trois phases :
1) recueil de données par expérimentation ;
2) analyse conventionnelle des données d’EA ;
3) utilisation et combinaison de classificateurs, pour cette étape une méthodologie a été
développée incluant :
- une sélection et une définition des descripteurs ou paramètres d’EA à utiliser : en
effet, il est souvent nécessaire de définir de nouveaux descripteurs en raison de la forte
corrélation qui existe entre les paramètres mesurés en temps réel ;
- le choix des classificateurs ;
- la validation des résultats : une question fondamentale est la validité de la
segmentation ou de la partition en classes des données. Les similitudes observées entre les
signaux d’une même classe correspondent-elles réellement à un même phénomène physique
ou inversement les différences enregistrées entre les classes correspondent-elles à différents
%LEOLRJUDSKLH
- 54 -
mécanismes d’endommagement ? Pour cela, il est nécessaire d’effectuer la validation à l’aide
de tests modèles. Dans ce cadre les essais hors axes sur composites unidirectionnels vont
jouer un rôle important, non seulement ils permettent d’isoler les phénomènes
d’endommagement mais ils vont aussi permettre la validation des classifications.
Figure I.9 : Schématisation de la méthodologie employée
Définition desdescripteurs
les plus pertinents
Réalisation d ’essai de tractionsur éprouvettes « modèles »
avec collecte desdonnées d ’EA
Utilisation declassificateurs
k-moyennes, k plusproches voisins
carte de Kohonen
Identification de la signature acoustique des sources
Analyse conventionnelledes données
d ’EA
Validation
Combinaison et application des classificateurssur les données d ’EA collectées
lors des essaisde traction sur plis croisés