MSP Pillet

48
Maurice PILLET Professeur des Universités IUT Annecy – Université de Savoie, Laboratoire LISTIC Ancien élève de l'Ecole Normale Supérieure de CACHAN Appliquer la maîtrise statistique des processus (MSP/SPC) Quatrième édition © Éditions d’Organisation, 1995, 2000, 2002, 2005 ISBN : 2-7081-3349-7

Transcript of MSP Pillet

Page 1: MSP Pillet

Maurice PILLETProfesseur des Universités

IUT Annecy – Université de Savoie, Laboratoire LISTICAncien élève de l'Ecole Normale Supérieure de CACHAN

Appliquer la maîtrise statistique des processus

(MSP/SPC)

Quatrième édition

MSP-Book Page III Lundi, 9. mai 2005 11:47 11

© Éditions d’Organisation, 1995, 2000, 2002, 2005

ISBN : 2-7081-3349-7

Page 2: MSP Pillet

© Éditions d’Organisation 31

Chapitre 2

Après avoir détaillé dans le premier chapitre les aspects culturels quiconduisent les entreprises à maîtriser la variabilité des productions,nous aborderons dans ce chapitre les concepts de base de la MSP quisont :

• le suivi de la variabilité et le pilotage par les cartes de contrôle

• l'évaluation de l'aptitude des processus par les capabilités

Ce chapitre est volontairement dépourvu de calculs statistiques afinque le lecteur se consacre à l'essentiel : la compréhension desprincipes de base. Nous profiterons des chapitres suivants pourapprofondir les concepts énoncés notamment en ce qui concerne lesaspects statistiques et les cas d'application dans les situationsparticulières telles que les petites séries.

Toutes les bases statistiques nécessaires dans cet ouvrage se trouventdans l'annexe statistique en fin d'ouvrage.

Les concepts de la MaîtriseStatistique des Processus (MSP)

MSP-Book Page 31 Lundi, 9. mai 2005 11:47 11

Page 3: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

32 © Éditions d’Organisation

1. Les 5 « M » du processusTous les processus, quels qu’ils soient, sont incapables de produiretoujours exactement le même produit. Cela tous les opérateurs lesavent bien et c’est d’ailleurs un des problèmes principaux auxquelsles régleurs sont confrontés tous les jours.

Quelle que soit la machine étudiée, la caractéristique observée, onnote toujours une dispersion dans la répartition de lacaractéristique. Une cote sur un lot de pièces ne fera jamaisexactement 10 mm, mais sera répartie entre 9,97 et 10,03 mm parexemple. Un lot de résistances électriques dont la valeur nominale estde 10 ohms, aura en fait des valeurs comprises entre 9,9 et 10,1 ohms.Cette variabilité est incontournable et il faut être capable de « vivreavec ».

Ces variations proviennent de l'ensemble du processus deproduction. L'analyse des processus de fabrication permet de dissocier5 éléments élémentaires qui contribuent à créer cette dispersion. Ondésigne généralement par les 5 M ces 5 causes fondamentalesresponsables de dispersion, et donc de non-qualité :

Figure 1 – Les 5 M du Processus

La méthode MSP a pour objectif la maîtrise des processus en partantde l’analyse de ces 5 M. Elle apporte une plus grande rigueur et desoutils méthodologiques qui vont aider les opérateurs et la maîtrisedans leur tâche d’amélioration de la qualité.

Méthodes

Matière

Milieu

Machine

Main-d'œuvre

Gamme• Machine

• Main-d’œuvre

• Matière

• Méthodes

• Milieu

MSP-Book Page 32 Lundi, 9. mai 2005 11:47 11

Page 4: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 33

Et la mesure !

Nous avons coutume de ne pas placer la « Mesure » parmi les M. Eneffet, la mesure ne modifie pas la vraie dispersion vendue au client,mais l'image que l'on a de cette dispersion. La dispersion vue dans unhistogramme sera la « somme » de la vraie dispersion de laproduction et de la dispersion due à l'instrument de mesure. Or ce quicrée la non qualité, ce n'est pas la dispersion vue mais la dispersionvraie. La mesure est un processus à lui tout seul avec ses propres 5M. Unpréalable à la maîtrise d'un processus de fabrication et la maîtrise duprocessus de mesure.

2. Analyse de la forme de la dispersion

2.1. Répartition en forme de cloche

L'analyse des productions sur une machine montre que, en l'absencede déréglage, la répartition des produits suit une courbe en clocheselon une loi : la loi normale. On trouve également d'autresappellations pour cette loi telle que loi de Gauss, loi de Laplace Gauss,mais nous ne rentrerons pas dans les détails statistiques au cours dece chapitre.

Figure 2 – Courbe en cloche

moyenne µ

Écart type σ

Modèle : loi de Gauss

Observationd'un échantillon

Dispersion = 6 σ

MSP-Book Page 33 Lundi, 9. mai 2005 11:47 11

Page 5: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

34 © Éditions d’Organisation

Cette répartition se rencontre très fréquemment dans la nature et passeulement dans le cas des machines de production. Ainsi, la hauteurdes hommes en Europe suit une telle répartition. De nombreusespersonnes mesurent autour de 1,73 m (la moyenne) mais peud'hommes mesurent aux environs de 1,95 m ou de 1,50 m. Lethéorème statistique à l'origine de cette convergence vers la loinormale est appelé « théorème central limite ». On peut l'écrire sousla forme suivante : Tout système, soumis à de nombreux facteurs,indépendants les uns des autres, et d'un ordre de grandeuréquivalent, génère une loi normale.

Dans le cas d'une machine de production, nous sommes bien dans lecadre de ce théorème. En effet, de nombreux facteurs (les 5M)agissent sur la caractéristique. Ces facteurs sont en grande partieindépendants et l'ordre de grandeur de ces effets est faible dans unprocessus maîtrisé.

Désormais, lorsque nous parlerons de la production d'une machine,nous la modéliserons par une courbe en cloche, dont les deuxcaractéristiques importantes seront la position et l'échelle.

La position moyenne (notée ) des pièces donne une bonneindication de la position de réglage de la machine. représente lamoyenne de l'échantillon alors que µ représente la vraie moyenne dela production (voir annexe statistique).

Pour mesurer l’importance des variations autour de la moyenne(facteur d'échelle), il suffit de mesurer la largeur de base de la courbe.La largeur de base de la courbe est appelée : dispersion. Nousverrons plus loin que l'on définit cette largeur de base de la courbepar un calcul statistique D = 6σ. Dans ce cas également nous devronsdifférentier σ qui est le vrai écart type de la population et S qui estl'estimateur de ce σ calculé à partir des données de l'échantillon.

Et si la courbe obtenue n'est pas une cloche?

Pour la plupart des caractéristiques obtenues en production, ondevrait obtenir une courbe en cloche. Il y a quelques exceptionscomme les défauts de forme ou les défauts de position où il estnormal de ne pas obtenir une courbe en cloche. Mais ces cas sortentde l'objectif de ce chapitre.

X X

MSP-Book Page 34 Lundi, 9. mai 2005 11:47 11

Page 6: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 35

Figure 3 – Courbe bimodale

Dans les cas traditionnels, si une distribution n’a pas la courbe enforme de cloche, c’est qu’il se passe quelque chose, le théorèmecentral limite n'est pas vérifié. Il y a donc un (ou plusieurs) facteurqui agit avec un ordre de grandeur plus important que les autres. Leprocessus n’est pas réglé sur la même position. En effet, si l’on produit50 pièces réglées sur la valeur -3, et 50 pièces réglées sur +3, onobtient la courbe figure 3.

Il est donc important lorsqu’on regarde une distribution de bienvérifier que la courbe à la forme d’une cloche. Si ce n’est pas le casc’est probablement le signe qu'un ou plusieurs déréglages importantsse sont produits pendant la production.

2.2. Causes communes – Causes spéciales

On sait que dans une production, deux pièces ne sont jamaisparfaitement identiques. Les dimensions précises d’une pièce usinéesur une machine outil dépendent de nombreux facteurs. Il s’ensuitune dispersion sur la cote que l’on peut séparer en deux catégories :

• les dispersions dues aux causes communes,

• les dispersions dues aux causes spéciales.

-3 Cible +3

Causes Communes

Premierréglage

Causespéciale

Secondréglage

MSP-Book Page 35 Lundi, 9. mai 2005 11:47 11

Page 7: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

36 © Éditions d’Organisation

Cette dichotomie entre les causes de dispersion est une des basesfondamentales de la méthode MSP. Il convient donc de les expliciterdavantage.

Figure 4 – Causes communes et causes spéciales

2.2.1. Les causes communes

Ce sont les nombreuses sources de variation attribuables au hasardqui sont toujours présentes à des degrés divers dans différentsprocessus. Les statistiques étant l’étude des phénomènes perturbéspar le hasard, on sait modéliser le comportement des causesaléatoires, et par conséquent, prévoir la performance d’un processusqui n’est soumis qu’à des causes communes de dispersion. De toutesmanières, ces causes étant toujours présentes et de plus, en grandnombre, il faudra « vivre avec ». L'ensemble de ces causes communesforme la variabilité intrinsèque du processus. Si toutes lesnombreuses causes qui agissent sont d'un ordre de grandeuréquivalent, alors la caractéristique doit suivre une répartition enforme de cloche. Le but de la MSP sera de ne laisser subsister que lesdispersions dues aux causes communes. On parlera alors de processus« sous contrôle »

Exemples de causes communes :

• jeux dans la chaîne cinématique de la machine ;

• défaut de la broche de la machine ;

• ...

Causes spéciales

Causescommunes

ToléranceMaxi

ToléranceMini

Cible

MSP-Book Page 36 Lundi, 9. mai 2005 11:47 11

Page 8: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 37

2.2.2. Les causes spéciales

Ce sont les causes de dispersion identifiables, souvent irrégulières etinstables, et par conséquent difficiles à prévoir. L’apparition d’unecause spéciale nécessite une intervention sur le processus.Contrairement aux causes communes, les causes spéciales sont engénéral peu nombreuses.

Exemple de causes spéciales :• déréglage d'un outil ;

• usure d'un outil ;

• mauvaise lubrification ;

• ...

En fait, lorsqu'on analyse les causes spéciales qui interviennent sur leprocessus, on s'aperçoit qu'on peut classer les causes spéciales en 2catégories (figure 4) :

• celles qui agissent sur la position de la valeur surveillée(déréglage d'un outil par exemple) ;

• celles qui agissent sur la dispersion et donc sur la capabilité duprocessus (défaut de lubrification par exemple).

Les cartes de contrôle (développées au § 5) ont pour objectifs deprévenir l'apparition des causes spéciales et de dissocier celles qui nenécessiteront qu'un réglage de celles qui risquent de modifier lacapabilité habituellement rencontrée.

2.3. Processus « sous contrôle » et « hors contrôle »

Figure 5 – Processus « sous et hors contrôle »

Processus « sous contrôle »

Processus « hors contrôle »

MSP-Book Page 37 Lundi, 9. mai 2005 11:47 11

Page 9: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

38 © Éditions d’Organisation

Un processus « sous contrôle » est un processus dans lequel seulessubsistent les causes communes. La répartition de la production suitalors une courbe en cloche et elle est centrée sur la cible.

Un processus « hors contrôle » est soumis à la présence de causesspéciales. Le résultat de la production ne suit donc pasnécessairement une courbe en cloche et la production peut êtredécentrée par rapport à la cible.

La maîtrise de la variabilité dont nous avons montré la nécessité dansle premier chapitre consiste donc à mettre tous les processus « souscontrôle », c'est l'objectif de la MSP.

3. Surveiller un processus par cartes de contrôle

3.1. Le principe de la carte de contrôle

3.1.1. Les limites naturelles d'un processus

On a vu au paragraphe précédent, que les processus de production etmême tous les systèmes étaient soumis à des variations naturellesaléatoires. Ces variations ont pour origine de très nombreuses causesque nous avons appelées les causes communes.

Ces causes communes agissent de manière aléatoire sur le processusde fabrication. Ainsi, les caractéristiques fabriquées ne sont pastoujours identiques et suivent une loi de Gauss (théorème centrallimite).

Figure 6 – Dispersion naturelle du processus

σ

Cible - 3σ Cible + 3σcible

Limite naturelle inférieure

Limite naturelle supérieure

Dispersion naturelledu processus

MSP-Book Page 38 Lundi, 9. mai 2005 11:47 11

Page 10: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 39

Si la moyenne de la production est centrée sur la cible, il est doncnaturel de trouver des valeurs comprises entre ± 3 écarts types (σ) decette cible. Les valeurs « cible + 3.σ » et « cible - 3.σ » représentent leslimites naturelles du processus. Tant qu'une valeur est dans ceslimites, il n'y a pas de raison d'agir sur le processus, on risquerait dedécentrer un processus bien centré. Si une valeur sort de ces limites,on a une forte probabilité que le processus ne soit plus centré sur lacible, il faut alors le recentrer.

3.1.2. Le pilotage par les limites naturelles

Souvent, les opérateurs pilotent les processus à partir des limites detolérance plutôt que d'utiliser les limites naturelles. Cela peutconduire à deux types d'erreurs illustrées par la figure 7.

Figure 7 – Pilotage à partir des tolérances

Dans le cas 1, processus capable, l'opérateur prélève une pièce qui sesitue à l'intérieur des tolérances. Traditionnellement, cette pièce étant« bonne », il continue sa production. Pourtant, la pièce est en dehorsdes limites naturelles. Le processus n'est pas centré sur la cible, il fautrégler.

Dans le cas 2, processus non capable, l'opérateur prélève une piècequi se situe à l'extérieur des tolérances. Traditionnellement, cettepièce étant « mauvaise », il règle le processus. Pourtant, la pièce estdans les limites naturelles. Il est possible que le processus soitparfaitement centré. Dans ce cas on ne doit pas toucher au processus.

Tolérance Tolérance

Pièceprélevée

Dispersion Dispersion

Cas 1 Cas 2Limite

NaturelleLimite

NaturelleLimiteNaturelle

LimiteNaturelle

MSP-Book Page 39 Lundi, 9. mai 2005 11:47 11

Page 11: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

40 © Éditions d’Organisation

Comme le montrent les deux exemples précédents, il faut dissocierl'action sur le processus (réglage) et l'action sur le produit(acceptation, tri, contrôle…).

• Les tolérances servent à déterminer si les pièces qu'on vient defaire sont bonnes ou mauvaises. Elles servent à agir sur lespièces pour décider de l'acceptation ou du refus des pièces quel'on a fabriquées. On regarde en arrière.

• Les limites naturelles servent à déterminer si le processus defabrication est toujours centré sur la cible. Elles servent à agirsur le processus pour que les prochaines pièces à réaliser restentbonnes. On regarde en avant.

La figure 8 montre clairement l'avantage à utiliser les limitesnaturelles pour piloter un processus plutôt que les limites detolérance. Et ceci même dans le cas de petites séries avec un contrôleà 100 %. En effet, nous avons souvent entendu certainscommentaires sur la MSP tels que : « Cela ne s'applique pas dansmon entreprise, je fais des petites séries » ou encore « Les statistiquesme sont inutiles, je fais du contrôle à 100 % ». Nous montrerons toutau long de cet ouvrage que ces raisonnements sont faux et prouventque les personnes qui tiennent ces discours n'ont pas bien compris lesfondements de la démarche MSP.

Figure 8 – Limites naturelles et tolérances

Considérons un processus qui fabrique un lot de 25 produits aurythme de un produit par heure (petite série). Chaque produit estcontrôlé (contrôle à 100 %). Si on pilote le processus à partir destolérances, on attend de trouver un produit hors tolérance (ou au

MSP-Book Page 40 Lundi, 9. mai 2005 11:47 11

Page 12: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 41

voisinage avant d'intervenir). Si on fait un raisonnement statistique,on note beaucoup plus rapidement le décentrage du processus (horsdes limites naturelles). Les produits fabriqués sont plus proches de lacible, de meilleure qualité. Le contrôle à 100 % valide les produits quisont déjà fabriqués, le raisonnement statistique prévoit la qualité desproduits que l'on va fabriquer !

Dans le cas de la figure 8, dès le produit n°11, nous avions le signalstatistique de décentrage, confirmé par le produit 13 (voir les règlesen 4.5). Il fallait recentrer le processus avant de faire un produitdéfectueux.

Ainsi, même dans le cas d'un contrôle à 100 % en petite série, on aintérêt d'utiliser un raisonnement statistique.

3.1.3. Pourquoi prélever des échantillons ?

Le travail d’un régleur consiste principalement à bien régler samachine, puis à veiller à ce que celle-ci ne se dérègle pas. Poursurveiller la position, les régleurs ont l’habitude de prélever une piècede temps en temps et de régler la machine en fonction de la mesurequ’ils ont faite.

Lorsque les capabilités ne sont pas excellentes, cette méthode conduitgénéralement à des erreurs de jugement, car on confond la dispersionde la machine avec son décentrage.L'origine de ces erreurs de jugement provient de la dispersion. En faitune mesure effectuée représente la somme de deux effets (figure 9) :

• un effet d'écart de réglage de la machine (systématique) ;• un effet de la dispersion (aléatoire).

Figure 9 – Addition du réglage et de la dispersion

Tolérance inférieure Tolérance supérieure

Moyenne deplusieurs valeurs(on élimine en partiel'effet de la dispersion)

1 valeur=

déréglage+

dispersion

Cible

Déréglage

Dispersion

MSP-Book Page 41 Lundi, 9. mai 2005 11:47 11

Page 13: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

42 © Éditions d’Organisation

Pour être capable de piloter une machine, il faut arriver à éliminerl'effet de la dispersion afin de déterminer où se trouve le réglage de lamachine. La seule solution est de ne pas raisonner sur une seulevaleur, mais sur la moyenne de plusieurs valeurs. Le fait de faire unemoyenne élimine en grande partie l'effet de la dispersion.

La figure 10 et la figure 11 illustrent l'efficacité d'une moyenne parrapport à une valeur individuelle pour détecter un petit décentrage.En effet, la dispersion sur les moyennes est plus faible que ladispersion sur les valeurs individuelles dans un rapport de (avec nle nombre de valeurs de l'échantillon). Ainsi, lorsque le processus sedécentre, comme dans le cas de la figure 11, on note que laprobabilité de sortir des limites naturelles est supérieure à 50 % dansle cas de la moyenne, alors qu'elle n'est que de quelques pour centdans le cas des valeurs individuelles. On privilégiera doncsystématiquement un prélèvement d'échantillons par rapport à unprélèvement de valeurs individuelles.

Figure 10 – Pouvoir de détection d'une moyenne

n

Dispersionsur la

moyenne

Dispersion

Probabilité dedétecter ledécentrage avecune seule valeur

Limite naturelle surles valeurs individuelles

Limite naturellesur la moyenne

MSP-Book Page 42 Lundi, 9. mai 2005 11:47 11

Page 14: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 43

Figure 11– Intérêt de faire une moyenne

Il existe cependant des cas où le prélèvement d'un échantillon n'a pasde sens ou n'est pas souhaitable. C'est le cas notamment lorsque l'onsuit des paramètres « procédé » comme un écart de température.Dans ce cas, on raisonnera sur des valeurs individuelles. Noustraiterons ce cas dans les prochains chapitres.

3.2. La carte de pilotage (de contrôle) moyenne/étendue

Dans le but d'aider l'opérateur à détecter si le processus qu'il conduitne subit que des causes communes ou s'il y a présence de causesspéciales, Shewhart1 a, dès le début du 20ème siècle, mis au point unoutil graphique performant appelé : la carte de contrôle. Nous avonschoisi de présenter dans ce chapitre la carte moyenne/étendue carc'est historiquement la plus importante et probablement la plusutilisée. Pour une utilisation manuelle des cartes de contrôle au postede travail par un opérateur, nous préférons cependant utiliser la cartemédiane/étendue qui est plus simple.

1. W. Shewhart – Economic Control of Quality of Manufactured Product – Van Nostrand Co.Inc Princeton. – 1931

Répartition des valeurs

Probabilité de détecter ledécentrage avec la moyenne

Probabilité de détecterle décentrage avec

une seule valeur

Répartition des moyennes

Limite naturelle dansle cas d'une moyenne

Limite naturelle dansle cas d'une valeur

Tolérancemaxi

Tolérancemini

MSP-Book Page 43 Lundi, 9. mai 2005 11:47 11

Page 15: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

44 © Éditions d’Organisation

3.2.1. Principe de remplissage

Figure 12 – Principe d'une carte de pilotage

La figure 14 montre un exemple de carte de contrôle moyennes/étendues. Pour suivre l’évolution du processus, on prélèverégulièrement (par exemple toutes les heures) un échantillon depièces consécutives (par exemple 5 pièces) de la production. Dansl’exemple, on note sur la carte les écarts par rapport à la cible.

Date 23/02

Heure 6h00 6h30 7h00 7h30 8h00 8h30 8h35 9h00 9h30

Mesure 1 1 -1 1 0 1 0 -2 -1 -2

Mesure 2 1 0 0 0 1 2 1 1 -1

Mesure 3 -2 -2 -1 -3 0 3 -1 1 -1

Mesure 4 1 0 -1 -1 1 2 -1 -1 0

Mesure 5 0 0 0 0 0 3 2 0 0

Total 1 -3 -1 -4 3 10 -1 0 -4

Moyenne 0,2 -0,6 -0,2 -0,8 0,6 2,0 -0,2 0 -0,8

Étendue 3 2 2 3 1 3 4 2 2

1

2

-1

-2

0

2

4

6

Moyenne de l'échantillon Point hors contrôle

Cible

Limite supérieurede contrôle

Limite supérieurede contrôle

Limite inférieurede contrôle

Moyenneétendues

Journal de bord

Étendue de l'échantillon

Réglage

Vérification du réglage

MSP-Book Page 44 Lundi, 9. mai 2005 11:47 11

Page 16: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 45

On calcule la moyenne (notée ) de la caractéristique à surveiller eton porte cette moyenne sur le graphique (les points dans l'exemple).De même, on calcule l'étendue sur l'échantillon, c'est-à-dire ladistance entre la plus forte valeur et la plus faible. On porteégalement cette valeur (notée R = Range en anglais) sur le graphique.À mesure que l’on prélève des échantillons, la carte va se remplir etdonner une image de l’évolution du processus.

Sur la carte des moyennes, la ligne en pointillé matérialise la valeursur laquelle on souhaite être réglé (la cible). La ligne supérieure estappelée limite supérieure de contrôle des moyennes ( ), la ligneinférieure est appelée limite inférieure de contrôle des moyennes( ). Les limites de contrôle inférieure et supérieure (limitesnaturelles du processus) déterminent une zone dans laquelle doiventse situer les valeurs portées sur la carte.

Un processus sera dit « sous contrôle » lorsque les points serontrépartis en forme de courbe en cloche à l'intérieur des limites decontrôle. Si un point sort de la carte de contrôle, il faut intervenir etnoter cette intervention dans le journal de bord. Sur la carte desétendues, c'est le même principe de fonctionnement.

Figure 13 – Carte aux médianes

X

LSCX

LICX

Cp  Pp  Ppk  Cp  Pp  Ppk Carte précédente   Carte actuelle 

MSP-Book Page 45 Lundi, 9. mai 2005 11:47 11

Page 17: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

46 © Éditions d’Organisation

La figure 13 montre un autre exemple de carte de contrôle : La cartede contrôle médiane/étendue. Sur cette carte, on ne fait pas de calcul.On note les points mesurés, et on fait ressortir la tendance centrale enentourant le point central (la médiane). Cette carte est préférable à lacarte aux moyennes dans le cas de remplissage manuel. En effet, bienqu'un peu moins efficace que la moyenne, elle est beaucoup plussimple à remplir et passe beaucoup mieux auprès des opérateurs.Nous reviendrons sur cette carte dans le chapitre 5. Pour la suite de cechapitre nous nous focaliserons sur la carte la plus connue : la cartemoyenne/étendue.

3.2.2. Moyenne et étendue, deux fonctions différentes

Sur la carte de contrôle on ne note pas seulement la moyenne, maiségalement l'étendue. Les deux graphiques ont une fonction trèsdifférente car ils ne détectent pas le même type de causes spéciales. Lafigure 14 illustre les deux fonctions. Dans le cas 1, on note une dérivede la position du processus, il faut détecter cette dérive pour ne pasfabriquer des pièces mauvaises. La carte des moyennes détectera lesdérives de position du processus. Dans le cas 2, le processus restecentré sur la cible, mais la dispersion se dégrade (par exemple unebutée se desserre et prend du jeu). Il faut également détecter ce typede dérives car il conduit également à une production de mauvaisequalité. C'est l'objectif de la carte de contrôle des étendues.

Figure 14 – Carte de contrôle des moyennes et des étendues

Dérive détectéepar la carte

des moyennes

Dérive détectéepar la carte

des étendues

Cible

Cas 1 Cas 2

MSP-Book Page 46 Lundi, 9. mai 2005 11:47 11

Page 18: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 47

La figure 15 illustre les deux types de causes spéciales. Dans l’exemplede la voiture qui dépasse le car, il y a présence de cause spéciale, onnote ce type de cause (les déréglages) sur la carte des moyennes. Eneffet, le chauffeur sent une variation de la position de son véhiculesupérieure aux variations communes et il corrige par un coup devolant. En revanche, pour l’exemple de la conduite « hasardeuse »d'un conducteur en état d'ébriété, il n’y a pas forcément variation dela position moyenne (certains arrivent à rentrer !), il y a modificationde la dispersion du processus. C’est donc sur la carte des étendues quel’on notera ce type de causes spéciales.

Figure 15 – Deux cartes pour deux fonctions différentes

Les deux exemples précédents sont significatifs. Dans le premier cas,un réglage suffit pour ramener le « processus » sur la cible, dans ledeuxième cas, la position moyenne est peut-être bonne, mais ladispersion devient importante. Il est impératif d’arrêter le processus,car il risque fortement de générer du rebut !

MSP-Book Page 47 Lundi, 9. mai 2005 11:47 11

Page 19: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

48 © Éditions d’Organisation

4. Mise en place des cartes de contrôle

4.1. Démarche DMAICS

Figure 16 – Mise en sous contrôle d'un processus

La figure 16 illustre les étapes de mise sous contrôle d'un processus.On note sur ce diagramme les deux étapes préalables très importantesqui sont :

• définir le choix des caractéristiques à suivre ;

• l'étude de la capabilité du moyen de mesure.

DéfinirMesurerAnalyserContrôlerStandardiserInnover Améliorer

ContrôlerSuivi et pilotage par carte de contrôle

Détection des causes spécialesMise « sous contrôle » du processus

Innover - AméliorerRéduction de la variabilité

❏ Plans d’expériences, plans produits❏ Mise en place des améliorations

DéfinirIdentification des paramètres critiques

du processus

MesurerVérification de la capabilité du moyen de mesure

MesurerObservation du processus

(Réaliser une carte de contrôle sans limite)

StandardiserOptimisation du processus,

Le processus est mis « sur rails »Diminution de la fréquence des contrôles

AnalyserRecherche des sources de variabilité

❏ Analyse des 5 M❏ Analyse de la variance❏ Etudes des corrélations …

Problèmes decapabilité

AnalyserCalcul des capabilités,

Choix de la carte et calcul des limites de contrôle

Am

élio

ratio

n co

ntin

ue

MSP-Book Page 48 Lundi, 9. mai 2005 11:47 11

Page 20: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 49

En fait la mise sous contrôle d'un processus consiste à suivre ladémarche DMAICS (Définir, Mesurer, Analyser, Innover, Contrôler,Standardiser) de Six Sigma. Les étapes Analyser et Améliorer pouvantparfois être court-circuitées lorsque les capabilités du processus sontbonnes.

4.2. Définir

4.2.1. Le choix des caractéristiques à piloter en MSP

Le nombre de caractéristiques suivies en production est en règlegénéral très important et il n'est pas concevable ni même souhaitablede suivre toutes les caractéristiques par cartes de contrôle. Lapremière étape dans la maîtrise de la variabilité consiste donc à choisirles caractéristiques candidates au suivi par carte.

En règle générale, on retient trois critères de sélection de cescaractéristiques candidates :

1. L'importance de la caractéristique pour la satisfaction du clientfinal ou d'un client sur un processus aval. Comme nous l'avonssouligné dans le premier chapitre, seule compte la satisfactiontotale du client final. Il est donc indispensable de sélectionnerles caractéristiques corrélées fortement aux fonctions attenduesdu produit fini.

2. L'historique de non-qualité sur cette caractéristique. Il est biensûr inutile de suivre par carte de contrôle une caractéristiquequi n'a jamais posé de problèmes de qualité. On privilégiera lescaractéristiques ayant déjà un historique de rebut, de retoucheou qui sont difficiles à garantir. Lors de l'industrialisation, onchoisira les caractéristiques qui potentiellement (en fonction del'historique de l'entreprise, de la précision demandée…) vontposer des problèmes lors de la réalisation.

3. La corrélation existante entre plusieurs caractéristiques. Dans lecas par exemple où plusieurs cotes sont réalisées par le mêmeoutil, il y a souvent une forte corrélation entre les différentescaractéristiques. Il est dans ce cas inutile de les suivre toutes,une seule carte est mise en place.

MSP-Book Page 49 Lundi, 9. mai 2005 11:47 11

Page 21: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

50 © Éditions d’Organisation

4.2.2. La matrice d'impact

La matrice d'impact est un outil permettant de choisir lescaractéristiques les plus importantes à suivre sous MSP. L'objectif decet outil et de rechercher les caractéristiques qui ont un impact fortsur la satisfaction des clients. Il est facilement réalisable à partir d'untableur Excel.

L'impact est noté 1 (Faible); 3 (Moyen); 9 (Fort)

Figure 17 – Matrice d’impact

Exemple

• Dans un premier temps on donne une note d'importance àchaque caractéristique client, puis on pondère l'impact dechaque caractéristique élémentaire sur les caractéristiquesclients. Exemple : le diamètre 2 de la pièce B impacte fortement (9) lafiabilité du produit et moyennement (3) le jeu. L'importance decette caractéristique est alors calculée par :

Importance = 9x5 + 3x3 = 54

• Dans un second temps en fonction de l'historique ou de laconnaissance des experts, on évalue la capabilité prévisionnellede chaque caractéristique.

• Enfin, les caractéristiques candidates au suivi MSP sont parmicelles les plus importantes pour les clients et celles qui ont unecapabilité attendue faible.

Pièce A Pièce B

Caractéristiques client sur le produit

(Tous les clients Assemblage, produit

fini…) Impo

rtan

ce

Larg

eur

10

Para

llélis

me

Hau

teur

8

Prof

onde

ur 2

Dia

mèt

re 2

Long

ueur

Dia

m7t

re4

Fonctionnement souple 5 9 9

Pas de jeu visible 3 9 3 9 3

Assemblage sans forcer 2 3 1 9

Fiabilité 5 3 1 9

Importance 72 24 11 27 54 47 18

Capabilité prévisionelle Ppk � ☺ ☺ � � ☺ ☺

MSP-Book Page 50 Lundi, 9. mai 2005 11:47 11

Page 22: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 51

4.3. Mesurer

4.3.1. La capabilité des moyens de mesure

Ce point est un point essentiel dans la réussite de la mise souscontrôle d'un processus. Il est inutile de placer une carte de contrôlesi la dispersion de l'instrument de mesure occupe déjà la presquetotalité de la tolérance comme nous l'avons vu parfois ! La premièreétape consiste à vérifier si on sait mesurer dans de bonnes conditionsde répétabilité et de reproductibilité. Nous conseillons vivement aulecteur de se reporter au chapitre 3 sur les capabilités des moyens demesure notamment de la méthode R&R avant de mettre en place unecarte d'observation.

4.3.2. Observation du processus

Les cartes de contrôle ont pour objectif de surveiller que les variationsobservées sur le processus ne sont pas supérieures aux variations« normales » générées par les causes communes. Il faut doncconnaître, avant de mettre en place une carte de contrôle, quellessont ces variations. C'est le but de cette phase d'observation.

Une méthode très simple pour réaliser cette phase d'observationconsiste à remplir une carte de contrôle sur laquelle aucune limiten'aura été portée. Les prélèvements s’effectuent par petits sous-groupes de taille constante et identique à celle qui sera retenue pourla carte de contrôle (on prend en général de 3 à 6 pièces consécutivesprélevées de façon périodique par exemple toutes les 15 minutes, 2fois par équipe, un prélèvement par bac...).

Cependant, avant de mettre en place la carte d'observation, il fautéliminer au préalable toutes les sources de variations possibles.Lorsqu'on observe un processus, on trouve toujours de nombreusespetites actions qui contribuent à accroître la variabilité comme parexemple :

• la façon dont on dépose le produit sur le posage ;

• la force avec laquelle on serre un écrou ;

• un mélange de produits d'origine différente ;

• …

MSP-Book Page 51 Lundi, 9. mai 2005 11:47 11

Page 23: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

52 © Éditions d’Organisation

Pour faire ce travail préalable, on observe attentivement le processus,et on note toutes les opérations susceptibles de créer de la variabilité.On utilise pour cela des diagrammes de processus, des films… Un foisla phase d'analyse terminée, on cherche des méthodes de travailnouvelles qui éliminent le plus possible les variabilités.

Le but de ce travail étant d'éliminer toutes les variabilités qui peuventêtre supprimées par la simple observation du processus. Une fois cetteétape réalisée, on peut mettre en place la carte d'observation.

Sélection de la taille des échantillons

Souvent la taille des échantillons est fixée à 5 et ceci pour une raisonhistorique. En effet, lorsque les cartes sont calculées à la main, lechiffre 5 est pratique pour le calcul de la moyenne car une divisionpar 5 revient à une multiplication par 2 suivie d'une division par 10.Mais à part cette facilité de calcul, le chiffre 5 n'est pas toujours lechiffre le plus adapté.

Lors des prélèvements des pièces, il faut respecter les conditionsessentielles suivantes :

1. les pièces à l’intérieur de chacun des sous-groupes doivent êtreproduites dans des conditions très similaires sur un très courtintervalle de temps. Il est donc hors de question qu'un réglageait lieu à l'intérieur d'un prélèvement. Mais, il est tout à faitpossible de réaliser des corrections entre deux prélèvements.

2. la taille des échantillons doit demeurer constante pour tous lessous-groupes.

Le choix de la taille se fera donc en respectant ces deux conditions. Enmécanique, le chiffre 5 convient généralement parfaitement lorsquela capabilité court terme est bonne. On trouvera au chapitre 5une règle pour déterminer la taille de l'échantillon en fonction de lacapabilité court terme et des deux risques statistiques :

• le risque de dérégler un processus bien réglé ;

• le risque de ne pas détecter un décentrage.

Lorsqu'on travaille sur des machines multipostes telles que lestransferts rotatifs, les tours multibroches, nous montrerons qu'il estpréférable de prélever des échantillons de taille égale au nombre depostes. On prendra par exemple 6 pièces sur une machine

MSP-Book Page 52 Lundi, 9. mai 2005 11:47 11

Page 24: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 53

multibroche à 6 broches. L'inconvénient d'un nombre tel que 6 ou 8réside dans les calculs de moyenne qui nécessitent l'utilisation d'unecalculette. Bien entendu cet inconvénient disparaît si le calcul descartes a été automatisé par un logiciel MSP.

Fréquence d’échantillonnage

Le but du prélèvement étant de donner une image du processus sanspour autant mesurer toutes les pièces, il faut que la fréquenced’échantillonnage donne une image la plus juste possible duprocessus.

Figure 18 – Incidence de la fréquence d'échantillonnage

Si nous prenons l'exemple de la figure 18, l'image de l’évolutionréelle du processus va dépendre de la fréquence d’échantillonnageque l’on va choisir. Il est évident que la solution « points noirs » estmeilleure que la solution « points blancs ». On remarque égalementqu’une fréquence plus élevée ne donnerait que peu d’informationssupplémentaires. Il est donc nécessaire de connaître la fréquenced’évolution du processus pour déterminer la fréquenced’échantillonnage.

Certains auteurs proposent des abaques pour déterminer la fréquencede prélèvement. Nous préférons en général suivre la règle empiriquesuivante : « la fréquence des actions correctives sur unprocessus doit être au moins quatre fois plus faible que lafréquence de prélèvement ».

Évolution réelledu processus

MSP-Book Page 53 Lundi, 9. mai 2005 11:47 11

Page 25: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

54 © Éditions d’Organisation

Exemples

Le processus est assez stable, il nécessite en moyenne une action(réglage, changement d'outil...) par demi-journée. Une fréquence deprélèvement d'un échantillon par heure convient dans ce cas.

Un autre processus nécessite en moyenne une action par heure. Ilfaudra alors passer à un prélèvement tous les quarts d'heure.

En général, on choisit une fréquence relativement élevée au début dela mise en place d’une carte et, à mesure que l’on améliore la stabilité,on diminue la fréquence de prélèvement.Pour affiner dès la mise en place des cartes de contrôle la fréquencede prélèvement, il faut absolument noter durant la phased'observation toutes les actions et tous les incidents intervenants surle processus.

Nombre de sous-groupes nécessaires

Pour avoir une bonne image de la variabilité naturelle du processus, ilfaut avoir suffisamment de relevés. En effet, si nous nous satisfaisonsde 5 échantillons par exemple, la fiabilité des données de base pourles calculs des cartes serait de piètre qualité. Il faut attendre d'avoirsuffisamment de données. Lorsque la première carte sans limite estremplie, cela correspond généralement à une vingtaine d'échantillonsqui représentent une centaine d'informations individuelles. Celasuffit pour donner une bonne image du processus.

Durant la phase d'observation, on calculera pour chaque sous-groupeprélevé :

• la moyenne du sous-groupe i ;

• l’écart type ou l'étendue (suivant la carte choisie) du sous-groupe i.

Nous recommandons de représenter les données observées sur lesgraphiques des moyennes et des étendues. Cette représentationdonnera une bien meilleure idée du comportement du processus, enl'absence de pilotage par cartes de contrôle, qu'une série de chiffres.

MSP-Book Page 54 Lundi, 9. mai 2005 11:47 11

Page 26: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 55

Figure 19 – Carte d'observation (écart en centième % à la cible)

4.4. Analyser

4.4.1. Calcul des capabilités

Connaissant la variabilité naturelle du processus, nous pourrons alorschoisir et calculer les cartes de contrôle adaptées à la caractéristiquesuivie. En utilisant les données de la carte d'observation, il sera

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

X1 7 2 1 0 -1 5 1 0 0 1 3 2 0 2 3 0 1 -1 4 1

X2 2 -3 3 0 2 2 3 0 1 2 1 0 0 3 0 1 -1 -1 0 -1

X3 1 0 1 -1 1 1 1 1 2 4 1 0 3 2 1 3 -1 3 -1 0

X4 1 1 -2 1 3 3 3 2 2 3 3 3 0 3 -1 0 -2 2 0 3

X5 0 -1 2 2 0 2 0 3 -1 2 -3 0 2 -1 1 3 0 0 2 2

Xb 2.2 -0.2 1.0 0.4 1.0 2.6 1.6 1.2 0.8 2.4 1.0 1.0 1.0 1.8 0.8 1.4 -0.6 0.6 1.0 1.0

R 7 5 5 3 4 4 3 3 3 3 6 3 3 4 4 3 3 4 5 4

-3.0

-2.0

-1.0

0.0

1.0

2.0

3.0

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

X

R

3.0

2.0

1.0

0.0

-1.0

-2.0

-3.0

8

6

4

2

0

MSP-Book Page 55 Lundi, 9. mai 2005 11:47 11

Page 27: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

56 © Éditions d’Organisation

également possible de calculer des indicateurs de capabilité sur leprocessus. Nous reviendrons également en détail sur cette étape dansle paragraphe suivant. Un chapitre complet de cet ouvrage estégalement consacré aux calculs des capabilités.

A ce stade deux cas peuvent se produire :

• Le processus est déclaré capable et il est donc possible de piloterdirectement en utilisant la carte choisie en passant à l'étape« Contrôler »

• Le processus n'est pas déclaré capable. Il est quand même tout àfait possible et même souhaitable de piloter le processus à partirdes limites naturelles, mais il faut alors mettre en place enparallèle à la carte de contrôle un chantier visant à réduire cettevariabilité avec les étapes « Analyser » et « Innover ».

4.4.2. Calcul des cartes de contrôle

Après avoir réalisé la phase d'observation du processus, nous devonsfixer les limites dans lesquelles il est naturel, du fait des causescommunes, que le processus varie. Il faut établir 2 cartes de contrôle :

• carte des moyennes pour surveiller le réglage de la consigne ;

• carte des étendues pour surveiller la capabilité du processus.

Pour chaque carte de contrôle, nous devons calculer les valeursmoyennes ainsi que les limites de contrôle inférieures et supérieures.

Calcul de l'étendue moyenne sur les échantillons

A partir des valeurs recueillies durant la phase d'observation, nouspouvons calculer la moyenne des étendues :

= 0,04

Avec

Ri : étendue du sous-groupe i

k : nombre de sous-groupes

La moyenne des étendues est très importante car elle indiquel'importance de la variabilité naturelle du processus.

RR R R R

ki k= + + + + +1 2 ... ...

MSP-Book Page 56 Lundi, 9. mai 2005 11:47 11

Page 28: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 57

Calcul des limites de contrôle

Les limites de contrôle se calculent en utilisant les formules suivantes :

Pour la carte des moyennes

Limite de contrôle supérieure :

Limite de contrôle inférieure :

Pour la carte de contrôle des étendues

Limite de contrôle supérieure :

Limite de contrôle inférieure :

La cible est la valeur sur laquelle il faut se centrer. Elle est souventfixée égale au milieu de l'intervalle de tolérance. Pour les processusqui ne peuvent être centrés sur la cible idéale (cote résultant d'unmoule par exemple), on fixe la cible sur la moyenne des moyennes( ) de la carte d'observation.

Les coefficients A2, D3, D4 sont fonction de la taille des échantillons.Nous montrerons dans le chapitre 5 l'origine de ces coefficients.

Figure 20 – Tableau des coefficients pour le calcul des cartes

Exemple de calcul d'une carte de contrôle

Prenons le cas d'une cote, obtenue sur machine-outil, de valeurnominale 10 mm et d'intervalle de tolérance ± 0,1 mm. Les échantillonsprélevés sont des groupes de 5 pièces.

A l'issue de la phase d'observation du processus, nous avons calculé lamoyenne des étendues de chaque sous-groupe = 0,04

Comme il est possible de piloter la caractéristique pour la ramener surla cible, on fixe la cible sur le milieu de l'intervalle de tolérance soit10,00.

n 2 3 4 5 6 7 8 9 10

A2 1,88 1,02 0,73 0,58 0,48 0,42 0,37 0,34 0,31

D3 - - - - - 0,07 0,14 0,18 0,22

D4 3,27 2,57 2,28 2,11 2,00 1,92 1,86 1,82 1,78

LSC Cible A RX

= + 2.

LIC Cible A RX

= − 2.

LSCR D R= 4.

LICR D R= 3.

X

R

MSP-Book Page 57 Lundi, 9. mai 2005 11:47 11

Page 29: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

58 © Éditions d’Organisation

Choix des coefficients

Les groupes étant de 5 pièces, nous prenons les coefficients A2, D3, D4dans la colonne 5 A2 = 0,58 D3 = - D4 = 2,114

En appliquant les formules nous trouvons :

Limite supérieure de contrôle des moyennes

Limite inférieure de contrôle des moyennes

Si on raisonne en écarts par rapport à la cible, les limites s'écrivent :

Limite supérieure de contrôle des étendues

Il n'y a pas de limite inférieure pour des groupes de 5 pièces.

Figure 21 – Exemple de carte de contrôle Xbar-R

La figure 21 montre la carte d’observation sur laquelle on a placé leslimites naturelles (limites de contrôle). Il apparaît sur la carte desmoyennes deux points qui sortent des limites et une série de points

LSC

Xx= + =10 00 0 58 0 04 10 023, , , ,

LIC

Xx= − =10 00 0 58 0 04 9 977, , , ,

LC

Xx= ± = ±0 58 0 04 2 278, , .

LSC xR = =2 114 0 04 0 085, , ,

191715131197531

2

1

0

-1

-2

__

Éten

due

sM

oye

nnes

191715131197531

8

6

4

2

0

11

Carte X-bar-R

Échantillon

UCL=2.278

LCL=-2.278

X=0

UCL=8.352

_R=3.95

LCL=0

MSP-Book Page 58 Lundi, 9. mai 2005 11:47 11

Page 30: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 59

toujours du coté supérieur à la cible. Cela témoigne de la présenced’une cause spéciale (un décentrage ici) qui mériterait un recentragede la production sur la cible.

4.5. Contrôler

4.5.1. Pilotage du processus par cartes de contrôle

Lors de cette phase, le processus est piloté en observant les cartes decontrôle. Pour une efficacité maximale des cartes de contrôle, il estindispensable que les décisions d'actions sur le processus soientdictées par les cartes. Le pilotage par cartes de contrôle doit sesubstituer et non s'additionner aux méthodes empiriques de pilotage.Cette remarque préalable peut sembler anodine, elle est pourtantfondamentale. De très nombreuses applications de cartes de contrôleont échoué faute d'avoir mis en pratique cette remarque.

Figure 22 – Méthode de pilotage

La phase de pilotage consiste donc à observer les cartes, les interpréterafin de détecter l'apparition de causes spéciales et de réagir avant degénérer des produits hors spécification. Les interprétations des cartesde contrôle sont relativement simples, il suffit de connaître lesquelques situations de base.

L'interprétation de la carte des étendues est différente de la carte desmoyennes. L'une surveille le réglage du processus, l'autre surveille ladispersion du processus.

Prélever un échantillon de pièces consécutives et sans intervention

Mesurer les pièces et reporter les points sur la carte de pilotage

Interpréter le graphique en utilisant les règles d'interprétation(figure 23)

Appliquer le tableau de décision (figure 24) En cas de réglage, appliquer la règle de vérification des réglages

Méthode de pilotage

MSP-Book Page 59 Lundi, 9. mai 2005 11:47 11

Page 31: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

60 © Éditions d’Organisation

Lorsqu’on analyse des cartes de contrôle, il faut toujours commencerpar la carte de surveillance du paramètre de dispersion. En effet, si ladispersion du processus augmente, il faut arrêter tout de suite lamachine, car la capabilité court terme est en train de chuter. Parcontre, une variation sur la carte des moyennes se résoudra souventpar un réglage.

Figure 23 – Les règles de pilotage des cartes de contrôle

Graphique Description Décisioncarte des moyennes

Décisioncarte des étendues

Processus sous contrôle

• Les courbes X et R os-cillent de chaque côtéde la moyenne.

• 2/3 des points sont dansle tiers central de la carte.

Production Production

Point hors limites

Le dernier point tracé afranchi une limite de contrôle.

Régler le processus

de la valeur de l'écart qui sé-pare le point de la valeur cible.

Cas limite supérieure• La capabilité court terme se dé-

tériore. Il faut trouver l'origine decette détérioration et intervenir.

• Il y a une erreur de mesureCas limite inférieure

• La capabilité court terme s'amé-liore

• Le système de mesure est bloqué

Tendance supérieure ou inférieure

7 points consécutifs sontsupérieurs ou inférieurs àla moyenne .

Régler le processus

de l'écart moyen qui sépare latendance à la valeur cible

Cas tendance supérieure• La capabilité court terme se dé-

tériore. Il faut trouver l'origine decette détérioration et intervenir.

Cas tendance inférieure• La capabilité court terme s'amé-

liore. Il faut trouver l'origine decette amélioration pour la main-tenir.

Tendance croissante ou décroissante

7 points consécutifs sonten augmentation réguliè-re ou en diminution ré-gulière.

Régler le processus

si le dernier point approche leslimites de contrôle de l'écartqui sépare le dernier point à lavaleur cible

Cas série croissante• La capabilité court terme se dé-

tériore. Il faut trouver l'origine decette détérioration et intervenir.

Cas série décroissante• La capabilité court terme s'amé-

liore. Il faut trouver l'origine decette amélioration pour la main-tenir.

1 point proche des limites

Le dernier point tracé sesitue dans le 1/6 au bordde la carte de contrôle

Confirmeren prélevant immédiatementun autre échantillon.Si le point revient dans le tierscentral – productionSi le point est également pro-che des limites ou hors limites,régler de la valeur moyennedes deux points

Cas limite supérieure Surveiller la capabilité

Si plusieurs points de la carte sontégalement proches de la limite su-périeure, la capabilité se détériore.Il faut trouver l'origine de cette dé-térioration et intervenir.

En cas de réglage : un nouvel échantillon est mesuré et marqué sur la carte. Pour être acceptable, le point doit se situerdans le tiers central de la carte des moyennes

LIC

LSC

LSC

LIC

LSC

LIC

LSC

LIC

LSC

LIC

MSP-Book Page 60 Lundi, 9. mai 2005 11:47 11

Page 32: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 61

4.5.2. Décision sur la production

En fonction de l'échantillonnage qui a été réalisé, il faut décider si laproduction peut être acceptée ou si elle doit donner lieu à un tri. Pourprendre cette décision, il faut tenir compte de la capabilité court termedu processus exprimé par le Cp (voir paragraphe 5 de ce chapitre). Letableau figure 24 donne les règles à appliquer. En cas de mauvaisecapabilité (Cp < 1,33), on doit systématiquement trier la productionpour obtenir un résultat correct. En cas de bonne capabilité(Cp > 1,67), on peut produire sans trier même si on constate un pointhors contrôle. Dans les cas intermédiaires (1,33 < Cp < 1,67), on ne triela production que dans les cas où on constate un point hors contrôle.

Figure 24 – Tableau de décision

Valeur du Cp observé sur les cartes précédentes

Le dernier point sur la carte de

contrôle indique :Cp inférieur à 1,33

Cp compris entre 1,33 et 1,67

Cp supérieur à 1,67

Le processus est « sous contrôle »

Contrôle unitaire (Tri à 100 %)

ACCEPTER les pièces

ACCEPTER les pièces

Le processus de-vient « hors contrôle »

MAIStoutes les valeurs individuelles du prélèvement sont

dans les tolérances

IDENTIFIER et CORRIGER la cause spéciale

Contrôle unitaire (Tri à 100 %)

TRIERles composants de-

puis le dernier point « sous

contrôle » de la carte de pilotage

ACCEPTERles pièces

Le processus de-vient « hors contrôle »

ETune ou plusieurs

valeurs individuel-les du

prélèvement sont hors tolérances

IDENTIFIER et CORRIGER la cause spéciale

Contrôle unitaire (Tri à 100 %)

TRIERles composants depuis le dernier point « sous contrôle » de la carte de pilotage

MSP-Book Page 61 Lundi, 9. mai 2005 11:47 11

Page 33: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

62 © Éditions d’Organisation

4.6. Analyser et Innover

En parallèle avec le suivi et le pilotage par carte de contrôle, ces deuxétapes sont indispensables à la mise sous contrôle d'unecaractéristique lorsque la capabilité s'avère insuffisante à l'issue de laphase « Mesurer ». Ces étapes nécessitent l'utilisation d'outilsstatistiques relativement sophistiqués tels que les études derégression, les plans d'expériences… qui ne seront pas traités dans cetouvrage. Le lecteur pourra avec intérêt se référer à notre ouvrage« Six Sigma, comment l'appliquer »2 pour avoir la descriptiondétaillée de ces étapes.

4.7. Standardiser

Les cartes étant en place, il faudra interpréter celles-ci afin de détecterl'apparition des causes spéciales. Nous serons alors dans la phased'utilisation des cartes de contrôle. L'utilisation des cartes de contrôlemotive les opérateurs et l'encadrement à améliorer le processus etainsi, à diminuer la variabilité naturelle de celui-ci. Lorsque cettevariabilité aura diminué, il faudra alors recalculer les cartes... etcontinuer à améliorer. Nous entrons alors dans la phased'amélioration continue qui est en fait l'objectif de la MSP. Le but estde mettre le processus sous contrôle, nous utilisons le mot « surrails » pour bien imager le but de ce travail : limiter au maximum lenombre d'interventions nécessaires pour maintenir la caractéristiquesur la cible.

Sur la figure 16 nous soulignons la boucle d'amélioration continue.Chaque fois qu'une amélioration permet de stabiliser le processus, onpeut diminuer les contrôles, et ainsi éviter un gaspillage. Contrôlern'apporte pas de valeur ajoutée au produit, l'idéal est de convergervers une mise sous contrôle avec le minimum de mesures.

Enfin toutes les bonnes pratiques qui ont été mises en place dans leprojet doivent être dupliquées aux autres processus. Les démarchesde pilotage doivent être formalisées afin de garantir la pérennité de lamise sous contrôle.

2. Maurice Pillet – Six Sigma Comment l'appliquer – Éditions d'organisation – 2004

MSP-Book Page 62 Lundi, 9. mai 2005 11:47 11

Page 34: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 63

5. Le concept de capabilité (aptitude)

5.1. Le besoin de formaliser une notion floue

Le concept de capabilité est certainement la notion la mieuxrépandue dans les ateliers de production. En effet lorsqu'on analyse laplupart des conversations techniques sur un domaine de production,on s'aperçoit que ces discussions reviennent souvent à des problèmesde capabilité. Les problèmes sont généralement ramenés à la questionsuivante : ce moyen de production est-il oui ou non adapté auxexigences du produit qu'il est censé fabriquer ? Et pourtant, combiende discussions stériles ont lieu sur le sujet à cause des divergencesd'opinion des intervenants sur la capabilité du moyen de production.

Les responsables de production ont toujours une vague idée de laqualité des machines disponibles dans l’atelier, mais ils sontincapables de mettre une valeur numérique derrière cette impression.Or il est fondamental, lorsqu’on parle de qualité, d’être précis et desavoir exactement ce dont est capable le processus par rapport à cequ’on lui demande.

La notion de capabilité est trop importante dans une productionmoderne pour être traitée avec des notions floues. Il est impératifpour toutes les entreprises d'avoir enfin un langage commun enmatière de capabilité entre l'ensemble des services et les personnes del'entreprise. Combien de réunions inutiles pourraient être évitées sitoutes les personnes du bureau d'étude, de la production en passantpar les agents des méthodes utilisaient les mêmes notions decapabilité et le même vocabulaire.

Le terme francisé de capabilité (adaptation de capability) est le terme« aptitude ». Nous avons cependant choisi de conserver le termecapabilité qui nous semble bien répandu et bien utilisé dans lesentreprises.

MSP-Book Page 63 Lundi, 9. mai 2005 11:47 11

Page 35: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

64 © Éditions d’Organisation

5.2. Définition de la capabilité

La capabilité se mesure par le rapport entre la performance demandéeet la performance réelle d’un processus.

Elle permet de mesurer l'aptitude d’un processus à réaliser unecaractéristique dans l’intervalle de tolérance fixé par le cahier descharges. Le fait d'utiliser un chiffre pour caractériser la capabilité estfondamental. Un chiffre est objectif, il n'est pas sujet à interprétation.Lorsqu'on utilise du vocabulaire pour décrire une situation, celui-ciest toujours flou et sujet à interprétation.

Plusieurs normes décrivent les capabilités (aptitude en français) etcela ne simplifie pas le travail des sous-traitants qui doivent utilisersimultanément plusieurs normes. Les choses se sont un peuaméliorées en 2004 avec la suppression des normes CNOMO. Nousavons choisi les notations les plus utilisées actuellement quiproviennent des normes QS9000.

Nous dissocierons deux types d'indicateurs de capabilité :

• Les indicateurs long terme qui traduisent la réalité des produitslivrés. On parlera alors de performance du processus.

• Les indicateurs court terme qui traduisent la dispersion sur untemps très court. On parlera alors de capabilité du processus.

5.3. Pp et Ppk (Performance du processus – long terme)

5.3.1. Performance intrinsèque du processus Pp

Pour préciser toutes ces notions un peu floues, la MSP fournit unindicateur précis dans ce domaine, c’est l’indicateur Pp (Performancedu processus).

Cet indicateur est calculé de la façon suivante :

Une capabilité s’exprime par un chiffre

PpIT

LT

= =Intervalle de tolérance

Dispersion long terme 6σ

MSP-Book Page 64 Lundi, 9. mai 2005 11:47 11

Page 36: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 65

Dans une première approche, un processus sera dit capable sil’intervalle de tolérance est plus grand que la dispersion aléatoire duprocessus avec une petite marge, c’est-à-dire lorsque le Pp estsupérieur à 1,33 (8σ/6σ).

Figure 25 – L'indicateur Pp

La figure 25 montre deux situations typiques. La première correspondà un processus non capable car la dispersion est plus importante quel'intervalle de tolérance. Dans la seconde, la dispersion est faible auregard de l'intervalle de tolérance, le processus est donc capable.Précisons que la dispersion aléatoire est prise comme étant égale à sixfois l’écart type de la dispersion du processus, c’est-à-dire l’intervallecontenant 99,7 % des pièces fabriquées (dans l'hypothèse d'unedistribution de Gauss). Pour calculer cette dispersion, il faut donc unnombre suffisamment élevé de mesures (une centaine) et vérifier quela distribution de ces mesures a bien une forme de cloche. Si ce n'estpas le cas, il faut prendre quelques précautions sur lesquelles nousreviendrons dans les chapitres 4 et 10 sur les capabilités.

La dispersion utilisée pour le calcul de la performance Pp est ladispersion long terme du processus. En effet, la mesure de laperformance processus doit traduire la capacité à produire sur le longterme. Il faut donc tenir compte de l'ensemble des influences quipeuvent perturber le processus pendant le temps de production. Cettedispersion est constituée des dispersions à court terme et desdispersions consécutives aux variations de consignes (déréglages)incontournables sur le long terme.

Intervalle de tolérance Intervalle de tolérance

Dispersion = 6σ6

Processus non capablePp < 1,33

Processus capablePp >1,33

Dispersion = 6σ6

MSP-Book Page 65 Lundi, 9. mai 2005 11:47 11

Page 37: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

66 © Éditions d’Organisation

Le calcul du Pp sera donc réalisé à partir d'un échantillonreprésentatif de l'ensemble d'une production. En général, la périoderetenue pour le calcul d'un Pp est au moins d'une semaine. Ainsi, lePp calculé donnera une bonne indication de la qualité de laproduction livrée au client.

5.3.2. Indicateur de déréglage Ppk

Nous venons de voir qu'une des conditions nécessaires pour qu'unprocessus soit capable est que l'indicateur Pp soit supérieur à 1,33.Cette condition est-elle suffisante ?

Figure 26 – Nécessité d'un indicateur Ppk

Dans la figure 26, les deux situations ont un Pp supérieur à 1,33, etpourtant, lorsque la production est décentrée, il existe des pièces horstolérance. L'indicateur Pp est donc insuffisant et il faut mettre enplace un autre indicateur Ppk, qui tiendra compte du déréglage duprocessus.Ainsi, le Pp donnera la performance intrinsèque du processus et lePpk la performance réelle.

Cet indicateur devra être aussi simple d'interprétation que le Pp, c'est-à-dire que le processus sera capable si Ppk est supérieur à 1 (dans unpremier temps). Bien sûr, comme pour le Pp, un Ppk de 1 sera troprisqué, nous retiendrons comme limite 1,33.

Dans le cas de la figure 27, le processus est déréglé du côté supérieur àla moyenne. Dans ce cas, on note que la production est capable tantque la distance D1= kσ (Tolérance Supérieure – Moyenne) est plusgrande que la distance D2 (moitié de la dispersion aléatoire).

Intervalle de tolérance Intervalle de tolérance

Dispersion Dispersion

Pp = 1,5 Pp = 1,5

MSP-Book Page 66 Lundi, 9. mai 2005 11:47 11

Page 38: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 67

Figure 27 – Processus déréglé du côté supérieur à la moyenne

Ppk est donc un indicateur qui compare les deux distances D1 et D2 enétablissant le rapport entre les deux distances. Bien sûr, dans le casd'un déréglage du côté inférieur à la moyenne, ce n'est plus ladistance D1 qu'il faudra considérer, mais une distance D'1 (Moyenne– Tolérance inférieure).

Nous pouvons donc écrire la formule de calcul du Ppk

Le terme Ppk vient du fait que l'on calcule le Pp du coté le plus prochede la spécification en faisant le ratio entre la distance exprimé ennombre d'écart type (kσ) divisée par la moitié de la dispersion (3σ).On a donc Ppk = k/3

5.3.3. Interprétation de Pp et Ppk

Un processus, pour être capable, ne doit pas produire d'articlesdéfectueux. Le critère de base pour la performance sera donc le Ppkqui inclut à la fois la performance intrinsèque et le déréglage. Nousretiendrons comme limite :

Mais il ne faut pas pour autant négliger le Pp. En effet, en comparantpour un processus le Pp et le Ppk, nous pouvons obtenir de précieuxrenseignements.

Un processus est capable (sur le long terme) si son Ppk est supérieur à 1,33

Toléranceinférieure

Tolérancesupérieure

Moyenne

Dispersion

kσD1

D2

Ppkoyenne Limite la

ispersion

k LT

LT

= =Distance (M plus proche)

1 2.(D Long Terme

/

)

σσ3

MSP-Book Page 67 Lundi, 9. mai 2005 11:47 11

Page 39: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

68 © Éditions d’Organisation

En cas de réglage parfait, on vérifie aisément que Pp = Ppk. Enrevanche, plus le déréglage est important et plus la différence entre Ppet Ppk devient importante. L'objectif des opérateurs sera donc d'avoirun Ppk le plus proche possible du Pp.

5.4. Cp et Cpk (Capabilité processus – Court terme)

Figure 28 – Dispersion court terme et dispersion long terme

Lorsqu'on observe un processus de production (figure 28), onconstate que celui-ci n'est pas toujours centré sur la même valeur,mais qu'il subit des variations de consignes. En fait, au cours d'unesemaine de production, on dissocie deux types de dispersion : ladispersion court terme et la dispersion long terme.

• La dispersion long terme inclue les fluctuations de consigne.Elle traduit la qualité des pièces livrées aux clients.

• La dispersion court terme dépend principalement du moyenretenu et des conditions de gamme retenue, mais également desautres M qui sont le Milieu, la Main d'œuvre, la Matière. Cettedispersion serait égale à la dispersion long terme si le processusétait parfaitement stable.

Cette dissociation nous conduit à définir deux nouveaux indicateurs :Cp et Cpk.

CaractéristiqueTolérance Supérieure

Dispersionlong terme

DLTLT

Tolérance Inférieure

Temps

Dispersioncourt terme

DCTCT

MSP-Book Page 68 Lundi, 9. mai 2005 11:47 11

Page 40: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 69

La Performance processus (Pp et Ppk) s'intéressait à la dispersionlong terme, la Capabilité processus (Cp et Cpk) va s'intéresser à ladispersion court terme.

Pour calculer les indicateurs Cp et Cpk, on mène une étude dedispersion permettant d'identifier cette dispersion court terme. Pourcela deux méthodes sont possibles.

Première méthode

On prélève une cinquantaine de pièces consécutives fabriquées par leprocessus étudié et on mesure la dispersion obtenue sur cetéchantillon. Cette dispersion nous permet de calculer Cp et Cpk avecles mêmes relations que Pp et Ppk. On aura donc les relationssuivantes:

Cette méthode n'est possible que si la cadence du processus estsuffisamment rapide pour ne laisser subsister dans cet échantillon quela dispersion court terme. Un processus pour lequel le cycle deproduction serait de 5 mn par produit, nécessiterait plus de 4 heuresde production pour réaliser un tel essai. Il est évident que l'on ne peutpas garantir la stabilité pendant ces 4 heures. On ne mesurerait doncpas la dispersion court terme mais déjà une dispersion long terme.Cette méthode ne conviendrait pas dans ce cas.

Deuxième méthode

La deuxième méthode pour mesurer la dispersion court terme,consiste à prélever de petits échantillons (3 pièces consécutives parexemple) à intervalles réguliers ou consécutifs, mais sans action sur le

Remarque : On trouve également dans certain cas l'indicateur CR :

CpIntervalle de tolérance

Dispersion court terme du processus

IT

6 CT

= =σ

CRCp Tolérance

CT= =1 6σ

CpkDistance (Moyenne/Limite la plus proche)

1/2 Dispersion court terme du processus

Dist(M/LlpP)

3= =

σCT

MSP-Book Page 69 Lundi, 9. mai 2005 11:47 11

Page 41: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

70 © Éditions d’Organisation

processus pendant la production de ces trois pièces. En revanche, ilpeut y avoir des actions de réglage entre deux échantillons. Dans cecas, la dispersion court terme sera la moyenne des dispersionsobservées sur chacun des échantillons.

Ces deux méthodes seront détaillées, notamment en ce qui concerneles calculs, dans le chapitre sur les capabilités (chapitre 4 etchapitre 10).

5.5. Les indicateurs liés à la cible : le Cpm et le Ppm

L’indicateur de capabilité Ppk est aujourd’hui couramment admiscomme l’indicateur de capabilité de référence pour l'acceptation d'unlot entre client et fournisseur. Pourtant, les nouvelles contraintes dela production que nous avons exposées dans le premier chapitre avecl'objectif cible font apparaître les limites de cet indicateur.

Nous pensons en effet (figure 29) que, dans certains cas, un Ppk debon niveau (Ppk = 2) peut donner moins de satisfaction qu’un Ppkconsidéré comme limite (Ppk de 1,33). Dans les relations clients/fournisseurs établies sur le Ppk, les deux productions donnentsatisfaction. Pourtant une des productions est centrée avec lemaximum de densité de probabilité sur la valeur cible, alors que laseconde est décentrée et la densité de probabilité pour la valeur cibleest pratiquement nulle.

Nous pensons que limiter les exigences en matière de capabilité auseul Ppk peut être dangereux. Le seul respect de l'indicateur deperformance Ppk > 1,33 peut conduire à des montages impossiblesdans le cas d'un tolérancement statistique (voir chapitre 10).

Pour tenir compte de cette évolution dans la façon de voir l’intervallede tolérance en fabrication, les indicateurs Pp et Ppk doivent êtrecomplétés. Deux autres indicateurs commencent à être largementutilisé dans les entreprises : l'indicateur Cpm pour le court terme etPpm pour le long terme. Cpm tient compte à la fois de la dispersion etdu centrage. Son objectif est de donner une image globale duprocessus par un seul indicateur. Il assure que les conditions decentrage et de dispersion minimum dont nous avons signalél’importance sont respectées.

MSP-Book Page 70 Lundi, 9. mai 2005 11:47 11

Page 42: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 71

Figure 29 – Le Ppk n’est pas suffisant

L'indicateur Cpm est basé sur la fonction perte de Taguchi.

Figure 30 – Fonction perte de Taguchi

Le nouvel indicateur Cpm reflète la perte (au sens de Taguchi) due àun déréglage. Cpm est défini par :

La fonction perte intervient au dénominateur. On note quel'indicateur Cpm est égal à Cp lorsque le processus est parfaitementcentré. Cpm décroît lorsque le décentrage augmente. Comme on leconstate, Cpm tient compte à la fois du centrage et de la dispersion.

En garantissant le Cpm, on assure que le processus est réellementcentré sur la cible. La variabilité sur le produit fini sera faible.

Dispersion DispersionPp=1,33, Ppk =1,33 Pp=4, Ppk =2

L

X

Perte pourla société

Perte pourl'écartX - cibleX - cible

Fonction perteL = K(X-cible)_L = K(X-cible)2

X

X Cible

σ

Perte moyennepour un lot demoyenne etd'écart type σ :

X

L K X cible= + −( ( ) )σ 2 2

CpmIT

6. X Cible

Cp

1 9(Cp Cpk)2 2=

+ −( )=

+ −σi2

MSP-Book Page 71 Lundi, 9. mai 2005 11:47 11

Page 43: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

72 © Éditions d’Organisation

On calcule également sur le long terme la performance Ppm par lamême relation, mais en prenant l'écart type long terme.

5.6. Exemple de calcul de capabilité

A l'issue d'une production, on prélève aléatoirement 69 pièces dans lelot fabriqué. On veut calculer la performance de processus. Soitl’histogramme figure 31 pour une cote de 50 ± 0,05.

Figure 31 – Exemple de calcul de capabilité

Calcul de la moyenne et de l’écart type :

Calcul des indicateurs de capabilité long terme Pp et Ppk :

Le processus est jugé capable selon le critère Ppk (Ppk > 1,33). Lepourcentage hors tolérance est inférieur à 32 ppm.

PpmIT

6. X Cible

Pp

1 9(Pp Ppk)2 2=

+ −( )=

+ −σ LT2

49.95 50.0550.009LSL USL

σ = 0.009

49.950 49.965 49.980 49.995 50.010 50.025 50.040

X n= =−50 009 0 0091, , σ

Ppx

Ppkx

= = = − =0 1

6 0 0091 84

50 05 50 009

3 0 0091 52

,

,,

, ,

,,

MSP-Book Page 72 Lundi, 9. mai 2005 11:47 11

Page 44: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 73

Calcul du Ppm

Le processus est jugé juste capable selon le critère Ppm (Ppm > 1,33).

Cela signifie que la perte moyenne générée par les produits de cettepopulation est égale à la perte moyenne d’une population centréeayant une performance Pp de 1,33.

Le Ppm valide une nouvelle façon de voir l’intervalle de tolérance enfabrication. En effet, avoir une cote en limite de tolérance n’est pasgrave si cette pièce est isolée. La probabilité d’assemblages défectueuxest quasiment nulle. Par contre si plusieurs pièces se situent à cettelimite, il y aura des conséquences néfastes sur la qualité. Ainsi, leconcepteur a deux solutions pour obtenir l’assurance d’unfonctionnement correct de son mécanisme :

1. réduire l’intervalle de tolérance et imposer que les produitssoient tous dans cet intervalle quelle que soit la répartition ;

2. laisser un intervalle de tolérance large, mais en imposant à lafabrication des conditions de centrage et de répartitionverrouillées par le Ppm.

Bien que la seconde solution semble plus difficile à respecter a priori,nous sommes persuadés qu’à long terme cette solution est de loin laplus économique en matière de moyens de production à mettre enœuvre.

Cependant, si le Ppm offre une vision plus moderne des capabilitésque le Pp, Ppk, il ne les remplace pas pour autant, mais plutôt il lescomplète. Nous proposons au chapitre 11 une approche novatrice detolérancement (le tolérancement inertiel) fondée sur cette approche.

Remarque : si les mêmes données avaient été issues d'unprélèvement représentant la dispersion court terme (1/4 heure deproduction par exemple) avec les mêmes calculs nous aurons calculéles indicateurs Cp, Cpk, Cpm.

PpmIT

X Cible=

+ −=

+ −=

6

0 1

6 0 009 50 009 501 33

2 2 2 2σ ( )

,

, ( , ),

MSP-Book Page 73 Lundi, 9. mai 2005 11:47 11

Page 45: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

74 © Éditions d’Organisation

5.7. Synthèse des différents indicateurs de capabilité

Lorsque l'on parle d'aptitude ou de capabilité, on peut distinguerdeux niveaux :

• la capabilité court terme représentant la capabilité du moyen deproduction si l'on arrive à parfaitement stabiliser la caracté-ristique ;

• La capabilité long terme (performance) qui traduit laproduction livrée au client.

Il est toujours difficile de donner des durées correspondant à cesdifférentes capabilités car cela dépend du type de production. On peutcependant donner un ordre de grandeur dans le cas de grandes sériesautomobiles par exemple en disant que la capabilité court termeserait représentative de cinq minutes de production, la capabilité longterme représenterait une semaine de production.

On peut donc établir le tableau suivant qui précise les différentsindicateurs de capabilité que l'on peut calculer.

Figure 32 – Les différents calculs de capabilité

Comme on le constate sur le tableau, il n'y a pas de différence decalculs entre les différents indicateurs, il y a seulement des différencesdans ce qu'ils représentent en terme de temps de production.

capabilité intrinsèque

Vraie capabilité« Centrage »

Vraie capabilité« Perte »

Court termecapabilité(1/4 heure)

Cp Cpk Cpm

Long termeperformance(1 semaine)

Pp Ppk Ppm

Tolérance6σ

min( , )TS X X TI− −

3 3σ σTolérance

x cible6 2 2σ + −( )

MSP-Book Page 74 Lundi, 9. mai 2005 11:47 11

Page 46: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 75

5.8. L'interprétation de la chute de capabilité

Figure 33 – La chute des capabilités

L'analyse des chutes de capabilité pour un processus est souvent trèsintéressante. En effet, nous partons d'un processus avec un potentielde capabilité Cp pour arriver à un produit livré au client avec uneperformance Ppk. L'important est bien entendu d'avoir un Ppk ou unPpm supérieur à 1,33 selon le critère choisi. Si ce n'est pas le cas, il estfondamental, pour résoudre le problème, de déterminer l'origine dece manque de capabilité.

La chute de capabilité entre Cp et Pp traduit l'instabilité du processus.En effet, si on sait stabiliser un processus, on limite les variations deconsignes et la dispersion long terme sera proche de la dispersioncourt terme.

Figure 34 – Chute entre Cp et Pp

Court termeCp

Long termepotentiel

Pp

Long termecentrage

Ppk > 1,33ou Ppm > 1,33Ppm > 1,33

Conditiond'acceptation

Stabilitédu processus

Centragedu processus

Perte de capabilité

Caractéristique Caractéristique

Dispersioncourt terme

Dispersionlong terme

Dispersionlong termeDispersion

court terme

Temps Temps

Processus instable Processus stable

MSP-Book Page 75 Lundi, 9. mai 2005 11:47 11

Page 47: MSP Pillet

Appliquer la maîtrise statistique des processus (MSP/SPC)

76 © Éditions d’Organisation

Nous avons vu précédemment que la chute de capabilité entre Pp etPpk était due au déréglage. Nous pouvons alors interpréter l'ensembledu tableau des capabilités comme dans l'exemple figure 35.

Le tableau suivant concerne un produit comportant 5 caractéristiquespour lesquelles le centrage est assez facile à obtenir. Dans ce cas, leCpk n'est pas d'une grande utilité car un déréglage sur le court termepeut très rapidement être compensé.

Ce tableau permet une appréhension immédiate des problèmes lorsd’une réunion pour peu que l'ensemble des personnes concernéesaient été formées à la notion de capabilité. Nous avons grisé dans letableau tous les cas de figure où :

• le Ppk est inférieur à 1,33 ;

• le Ppm est inférieur à 1,33.

Figure 35 – Tableau des capabilités

Chaque caractéristique ayant une case grisée doit être discutée pourpermettre une amélioration. On note l'intérêt du Ppm qui globalisel'ensemble de la chute de capabilité. L'interprétation du tableaufigure 35 est la suivante :

Caractéristique 1 : aucun problème, Ppm est supérieur à 1,33. Le Ppkest également supérieur à 1,33.

Caractéristique 2 : Ppm est inférieur à 1,33 et il y a une chute entreCp et Pp. Il faut stabiliser les variations de consigne au cours du temps.Une surveillance du processus par carte de contrôle s'impose.

Caractéristiques Cp Pp Ppk Ppm

1 - Ø 10±0,05 2,5 2,2 1,9 1,63

2 - Ø 12±0,05 2,5 1,1 1,0 1,05

3 - Ø 8±0,02 1,1 0,9 0,8 0,86

4 - L 20±0,06 3,2 2,5 1,1 0,57

5 - L 10±0,04 2,5 2,2 1,6 1,07

➞➞

➞➞

MSP-Book Page 76 Lundi, 9. mai 2005 11:47 11

Page 48: MSP Pillet

Les concepts de la Maîtrise Statistique des Processus (MSP)

© Éditions d’Organisation 77

Caractéristique 3 : Ppm est inférieur à 1,33 et le Ppk est médiocre.Au départ, la capabilité court terme est insuffisante. Une actionméthode ou maintenance s'impose. Nous ne pouvons probablementpas résoudre le problème dans l'atelier. Il faut, soit modifier la gammede fabrication, soit réparer la machine dans le cas d'une détériorationde la capabilité court terme par rapport à la capabilité court termehistorique.

Caractéristique 4 : Ppm est inférieur à 1,33. Il y a un gros écart entrele Pp et le Ppk dû à un décentrage. Il est souvent aisé de remédier à cetype de problème en maîtrisant mieux le centrage de lacaractéristique. Une surveillance par carte de contrôle s'impose.

Caractéristique 5 : Ppm est inférieur à 1,33 et pourtant Ppk estsupérieur à 1,33. Une amélioration est encore possible en centrantmieux le processus pour être plus sur la cible. Bien que le Ppk soitsupérieur à 1,33, ce cas de figure génère une perte supérieure au casPp = 1,33 et Ppk = 1,33. Cela peut être délicat dans le cas d'untolérancement statistique.

MSP-Book Page 77 Lundi, 9. mai 2005 11:47 11