Master: MANAGEMENT ET AUDIT DES ORGANISATIONS
Transcript of Master: MANAGEMENT ET AUDIT DES ORGANISATIONS
Master: MANAGEMENT ET AUDIT DESORGANISATIONS
Encadré Par : Mr ADLOUNI
Année universitaire 2008/2009
Introduction
I- techniques de prévision
A- LES TECHNIQUES D’EXTRAPOLATION/ PREVISIONS :
1-LES TECHNIQUES QUANTITAVES :
a- la méthode des moyennes mobiles :
b- Le lissage exponentiel :
c- le modèle économétrique :
d- Le tableau d’échange inter-industriel (TEI) :
2- Méthode qualitative de prévision
a- Approches logistiques ou courbes en S
b- Comparaisons technologiques indépendants du temps :
c- La méthode PERT ou la méthode du chemin critique
(technique d’ordonnancement)
II- les techniques de la prospective
Définition de la prospective
A- les méthodes de prospective
1. méthode de scénarios
B- analyse structurelle et comportement d’acteurs
1- méthode de morphologie
2- les ateliers de la prospectives stratégiques
3- l’analyse MACTOR
C- consultation d’expert :
1- méthode délphi
2- L’abaque de Régnier
3- méthode d’impacts croisés probabilistes : Smic-Prob-Expert
III - Les techniques d’aide à la décision
a. MULTIPOL
2
b. La stratégie dynamique interrelationnelle : STRADIN
c. L a prospective dynamique interrelationnelle : PRODIN
Conclusion
3
Introduction :
L’incertitude est à la fois la raison d’être de la planification stratégique et
la cause de sa piètre contribution à la gestion des entreprises, la
performance souvent insuffisante de la planification stratégique s’explique
de la tendance vers la bureaucratisation des activités inhérentes au
processus de planification, et à transformer celui-ci en un exercice
technocratique par lequel on tente de prédire l’avenir et s’y préparer.
En conséquence, certains gestionnaires en viennent à croître que l’intérêt
de planification ne réside pas dans le portrait (plan), mais plutôt dans le
processus qui en découle.
Depuis longtemps on a attaché une grande importance à l’amélioration
des techniques de planification, à fin qu’on doit être capable de prédire les
circonstances entourant la situation qu’on prévoit.
Il faut donc tenir compte du temps, de fait qu’on ne peut pas faire une
prévision sans connaître le temps d’une manière exacte, et être conscient
de l’incertitude qui caractérise la prévision. En plus il faut s’appuyer sur
des informations qui contiennent des données historiques. A cet égard il
fait distinguer entre les fonctions de planification celles de prévision ; on
utilise la prévision pour prédire ce qui ce passera dans un ensemble de
circonstances données. D’où la prévision donne une idée sur ce que seront
les résultats dans le cas où aucun changement n’aurait été survenu au
déroulement des opérations ( fait par le manager).
Quant la planification, elle décidera à l’aide des prévisions, quelles sont les
conditions les plus intéressantes pour l’entreprise, et c’est ce que veulent
les techniques de planification à atteindre.
Donc les techniques de planification cherchent à répondre aux diverses
situations où les prévisions sont nécessaires, de ce fait on trouve un
certain nombre de techniques qui sont développées au cours des
dernières décennies, avec le développement de la planification. On
distingue d’ailleurs entres les techniques quantitatives et celles
qualitatives.
4
Les premières fondées exclusivement sur des données historiques ce qui
explique leur utilisation dans un environnement stable, notamment à la
période de la planification stratégique.
Les secondes ont pour but de prévoir les modifications d’une situation
initiale aussi bien que la situation elle-même. Ces modifications peuvent
être résulté des facteurs externes, généralement leur application coïncide
avec les environnements de moins en moins stable, si on ne dit pas
turbulent. D’ailleurs l’adoption des techniques quantitatives est due par la
plus grande part à l’intérêt qui s’est manifesté pour la prospective au
cours de ka dernière décennie. L’adoption de ces deux techniques
(qualitatives et prospective) est due à la cadence accrue du changement
technologique et la réduction du laps du temps qui sépare la découverte
et l’utilisation de la technologie.
Pour les techniques d’aide à la décision (stradin et prodin) se sont des
démarches d’analyses pédagogiques qui organisent la décision dans le but
de venir en aide aux techniques anciennes et les rendre aussi valable dans
un environnement complexe.
Pour choisir une technique de planification stratégique le manager doit
tenir en compte :
De l’horizon du temps c'est-à-dire la technique qui peut être valable
à très court terme (moins d’un mois), à court terme (entre 1 et 3
mois), et à moyen terme ( entre 3 mois et 2 ans) à long terme (plus
de 2 ans).
Degré de détail : tenir compte de niveau de détail nécessaire pour
utiliser une technique (ex : les techniques quantitatives demandent
plus de détail que les techniques qualitatives)
Nombre d’élément : connaître le nombre d’élément sur lesquels on
va appliquer cette technique, leur degré de complexité joue un rôle
surtout s’il y a plusieurs décisions à prendre.
Le contrôle par opposition à la planification : une technique
applicable au contrôle devrait être capable de prédire et de
reconnaître à un stade les alternatives aux comportements initiaux.
Généralement les comportements existants continuent dans
5
l’avenir, et on met l’accent sur l’identification de ces comportements
et leur extrapolation au futur.
Stabilité ; planifier des situations stables dans le temps est très
différent de planifier des situations mouvantes.
Lors de cet exposé on va essayer de présenter un certain nombre de
techniques de planification, en se basant sur l’élément du temps ; la
première partie sera consacrée aux techniques de planification à court et
moyen terme, et la seconde sera préservée à celles à long terme et les
démarches qui sont apparues pour aider les techniques existantes à la
poursuite du rôle qui leur était attribué.
I- techniques de prévision
A- LES TECHNIQUES D’EXTRAPOLATION/ PREVISIONS :
L’outil appelé prévision à pour but d’estimer une variable future à partir de
la connaissance d’une histoire, d’une façon générale une prévision est
l’interprétation d’un historique, lequel est constitué par une série
d’observations effectuées à des dates fixes et classées
chronologiquement.
Le thème central de la prévision est l’hypothèse selon laquelle, on peut
trouver des certains comportements, des certains lois dans ce qui s’est
passé auparavant.
Toutes les méthodes de prévision admettent l’existence de certaine loi ou
relations qui peuvent être identifiées et utilisées comme base dans
l’établissement d’une prévision. Pour les méthodes qualitatives, ces lois ou
relations peuvent prendre n’importe quelles formes et n’ont pas besoins
d’être identifiées d’une manière explicite. En revanche pour les méthodes
quantitatives, chaque technique fait des hypothèses explicites sur le type
de la loi sous-jacente.
Ainsi l’aptitude d’une technique à fournir une prévision effective dans une
situation dépend de l’adaptation entre la loi qui régit cette situation et la
technique susceptible de s’accommoder de cette loi.
On distingue habituellement entre quatre lois :
6
Loi horizontale : correspond au cas où les données ne
présenteraient aucune tendance ; lorsqu’une telle loi apparaît, on
qualifie généralement la série de stationnaire ; c'est-à-dire ne tend
systématiquement ni vers la croissance ni vers la décroissance.
Loi saisonnière : existe quand une série fluctue selon certains
facteurs saisonniers. Les saisons peuvent être des mois ou se
confondre avec les quatre saisons annuelles. Ainsi les causes des
lois saisonnières sont multiples allant de façon dont l’entreprise a
décidé de traiter certaines opérations jusqu’aux facteurs externes
tels que la météorologie…
Loi cyclique : analogue à une loi saisonnière mais la longueur d’un
cycle est généralement supérieur à un an et n’a pas de durée fixe
comme la loi saisonnière.
Loi tendance : on parle d’une tendance lorsqu’on observe une
croissance ou une décroissance générale de la variable avec le
temps (les ventes de nombreuses entreprises, le PNB…).
1-LES TECHNIQUES QUANTITAVES :
Les techniques de prévision quantitatives sont utilisées principalement
pour des prévisions à court terme et moyen terme (jusqu’à 2 ans) elles
sont utilisées donc pour connaître la conjoncture et en déduire les
prévisions d’activités de l’entreprise.
Les méthodes quantitatives basées sur l’idée selon laquelle l’étude des
données chiffrées caractérisant une variable économique permet de
mettre en évidence de régularités susceptibles de se reproduire et à partir
desquelles, il est convenable de faire des prévisions sur l’état futur de
cette variable : l’analyse des ventes passées d’un produit rend ainsi
possible dans certain mesure la prévision de ses ventes futures.
1- Les modèles des séries chronologiques :
Le modèle des séries chronologiques est le modèle le plus répondu dans le
domaine de la prévision quantitative dans lequel le temps est un facteur
explicatif.
7
Une série chronologique ou chronique est une suite d’observations d’un
phénomène au cours du temps ; la série des ventes mensuelle d’un
certain produit constitue une série chronologique. L’état d’un phénomène
est repéré à intervalles réguliers selon une périodicité qui peut être très
différente d’un problème à l’autre et qui dépend des possibilités
d’enregistrement mais aussi des réoccupations opérationnelles.
Si l’étude des ventes quotidiennes d’un distributeur se justifie et s’avère
parfaitement réalisable dans beaucoup de cas, serait très coûteux et peu
significatif de travailler avec une périodicité assez courte.
Toute entreprise peut avoir facilement accès à un grand nombre de séries
intéressantes, soit d’origine interne (statistique de production, de
commandes…) soit d’origine externe.
Ainsi on admet qu’il y a deux variables dans un modèle en série
chronologique ; celle que l’on cherche à prévoir et la périodicité de temps
à laquelle on se réfère.
Un modèle en série chronologique suppose toujours qu’une certaine loi ou
combinaison de lois se reproduit avec le temps, en identifiant cette loi et
son point de départ, on peut donc prévoir la valeur de la variable dans une
période quelconque, simplement par la connaissance du nombre de
périodes dans chaque cycle de la loi et le nombre de période depuis le
point de départ.
Un modèle en série chronologique est donc probablement approprié à la
prévision des facteus d’environnements tels que l’économie générale, le
niveau de l’emploi, mais peu approprié à la prévision des variations des
ventes. Hebdomadaires résultant des changements de prix ou de l’effort
de publicité.
Ainsi traiter une série chronologique consiste à mettre en évidence des
différences composantes déjà évoquées à l’aide d’une procédure de
décomposition donnée, la technique la plus courante est celle de lissage.
Lorsqu’on utilise une technique de technique de lissage, i y on a un
processus en deux temps :
8
Dans un premier temps, on calcule une certaine forme de valeur lissée sur
la base des données historique. Dans le second temps, on utilise cette
valeur comme prévision applicable à une certaine période de futur.
La notion fondamentale aux techniques de lissage et que certaine loi se
dissimule sous les valeurs de la variable à prévoir et que les observations
historiques de chaque variable représentent cette loi affectée des
fluctuations aléatoires. Le bu de ces méthodes de prévision est de faire la
distinction entre la fluctuation aléatoire et la loi de base sous-jacente en
lissant les valeurs historiques, ceci est équivaut à éliminer les valeurs
externes trouvées dans la séquence historique et à fonder une prévision
sur des valeurs intermédiaires lissées.
e- la méthode des moyennes mobiles :
La méthode des moyennes mobiles consiste à prendre ensemble de
valeurs observées, à calculer leur moyenne arithmétique et finalement à
employer cette moyenne comme prévision de la prochaine période.
Le nombre réel d’observations comprises dans la moyenne est spécifié par
le manager et reste constant. On emploi le terme MM parce qu’à chaque
apparition d’une nouvelle observation on peut calculer une nouvelle
moyenne et utilisée comme valeur prévue.
Deux caractéristiques des MM apparaissant :
La première est qui avant de préparer une prévision quelconque, on
doit avoir autant d’observations historiques.
La seconde caractéristique des MM est que l’effet de lissage sur la
précision est d’autant plus grand qu’on inclut un grand nombre
d’observations dans le MM.
L’utilisation de la MM se heurte à deux limites majeures, conduisant ainsi
les utilisateurs de la prévision de la remplacer par le lissage exponentiel :
La première pour calculer une prévision. Il est nécessaire de s N
dernières valeurs observées, ceci nécessite un espace considérable.
Une seconde limitation est que la méthode de MM donne un poids
égal à chacune des U dernières observions et aucun poids aux
observations précédentes.
9
f- Le lissage exponentiel :
Le lissage exponentiel fonctionne d’une manière analogue aux MM. Par
lissage des observations historiques en vue d’éliminer le contenue
aléatoire. Pour le lissage exponentiel il n’est pas nécessaire de stocker
toutes les données historiques. Il faut seulement pour préparer une
nouvelle prévision, l’observation la plus récente, et une valeur α
(coefficient de pondération).
La méthode de lissage exponentiel consiste à établir la prévision de la
péiode suivante en corrigeant la dernière prévision d’une partie de l’écart
entre ka réalisation effective et celle dernière prévision. L’efficacité de la
méthode dépend du choix de la valeur du coefficient de lissage (α), plus
celui-ci est grand plus on privilégie les derniers résultats et que l’influence
des résultats antérieurs décroîts exponentiellement avec éloignement de
la date considérée d’où le nom de la méthode.
Le lissage exponentiel remédie ainsi à la seconde limitation des MM en
ceci que des poids décroissants sont attribués aux valeurs observées plus
anciennes.
(α étant compris entre 0 et 1) S t+1= St + α (X t – St)
S t+1= la prévision pour la période t+1
St = la prévision pour la période t
X t = la valeur réelle à la période t
La nouvelle prévision préparée par le L.E est simplement l’ancienne
prévision (St) plus α fois l’erreur de l’ancienne prévision (X t – S t) = erreur
de cette dernière provision.
Il est évident que quand α est proche de 1. la nouvelle prévision contient
un réajustement substantiel tenant d’une erreur dans la prévision
précédente, et inversement quand α est proche de 0, la nouvelle prévision
contient qu’un faible ajustement résultant de l’erreur dans l’ancienne
prévision. L’effet d’un α grand ou petit est tout à fait analogue à
l’influence d’un nombre faible ou important d’observations lorsqu’on calcul
une MM.
10
A côté de ces deux méthodes on trouve également la projection de
tendance qui permet de mettre en évidence la droite de tendance par
simple tracé de ce droit au mieux des points représentatifs des
observations des périodes antérieurs. On peut également déterminer ka
droite de tendance en calculant l’équation mathématique d’une courbe de
tendance et de projeter la courbe dans le futur à partir de l’équation.
Ces méthodes supposent que le futur ressemblera au passé, cette
supposition est plus juste à court terme qu’à long terme.
Ces techniques fournissent donc des prévisions raisonnablement précises
pour le futur immédiat mais sont assez inexactes pour le futur lointain
(sauf si les données sont extraordinairement stables).
2- les modèles causals :
A l’opposé des modèles des séries chronologique, où le temps est un
facteur déterminant et explicatif, ici ce n’est pas le cas. Quand les
données historiques sont disponibles et qu’il est possible de déterminer
explicitement les corrélations entre le facteur à prévoir et d’autres
facteurs ?
Le terme modèle causal est en général réservé aux modèles comportant
d’autres variables que les périodes de temps successives.
Ce modèle est plus sophistiqué des outils de prévision. Il exprime
mathématiquement les relations causales pertinentes, et peut inclure des
données sur le système de production, de distribution, il peut aussi
incorporer directement les résultats des analyses de série chronologiques.
On peut nuancer entre 4 méthodes utilisées.
a- La méthode de régression :
D’une façon plus générale les techniques de régression qui visent à
établir une relation entre une variable quantitative Y dite dépendant et des
variables quantitatives (X1, X2…Xn). Dites explicatives, cette relation
permet d’expliquer la valeur de Y à l’aide des valeurs proses par (X1, X2…
Xn)
Dans le cas d’une régression simple la relation cherchée est de type
Y=aX+b
11
Le modèle de régression est construit dans le d’expliquer à partir des
observations dans quelles conditions se détermine la valeur de la variable
dépendante. Mais il cherche également de prévoir les valeurs futures de
cette variable.
La technique de régression et utile pour le court et le moyen terme.
Mauvaise pour le long terme, de même elle peut identifier le point critique,
elle est utilisée généralement pour la prévision des ventes par classes de
produits, prévision des marges.
b- le modèle économétrique :
Le modèle économétrique est un système d’équations interdépendant qui
décrit certains systèmes d’activités. Les paramètres de ces équations sont
généralement estimés simultanément selon le système d’équation
inhérent à ce genre de modèle. Il exprime mieux les causalités qu’une
équation de régression ordinaire et de ce fait. Es applications des modèles
économétriques sont nombreuses. Ils sont utilisés dans les révisions
portant sur, la consommation, la production, les marges, les agrégats
nationaux dans l’ensemble. Leur emploi constitue une très bonne méthode
pour les études à moyen et long terme.
c- Le tableau d’échange inter-industriel (TEI) :
Ce tableau est le résultat le plus connu des travaux de Léon Tiff « tableau
input, output » : il permet l’étude et la simulation des biens et services
entre les différents secteurs de l’économie, c’est-à-dire entre les
entreprises et leurs marchés. On notera qu’il suppose la prise en compte
d’une masse assez importante d’informations de fait intéresse au plus
haut point les groupement d’entreprises ou les syndicats de profession. Il
permet en effet de procéder à des prévisions fiables en matière de
régression de CA par secteur ou sans secteur d’activités.
L’indice d’intention d’achats et d’anticipation, ces études du grand public :
Déterminant les intentions s’achat de certains produits mesurant les
opinions générales sur le présent et le futur et estiment comment elles
12
affecteront les habitudes d’achats. Cette approche est plu utile pour la
recherche et la détection que pour la prévision.
La puissance réelle d’un modèle causal dans une méthode de prévision
vient de fait que l’on peut développer toute une gamme de prévision
correspondant à une gamme de valeurs des différentes variables. Mai la
difficulté de ces techniques… des informations sur plusieurs variables, en
plus de la variable unique faisant l’objet de la prévision, les besoins… sont
donc beaucoup plus importants que ceux d’une série chronologique.
En outre les modèles de causalité reliant en général plusieurs facteurs, il
faut plus de temps pour les établir et sont d’autre part plus sensible que
celui du modèle en série chronologique aux modifications des relations
sous-jacentes/
2- Méthode qualitative de prévision
Toutes les techniques de prévisions traitées précédemment sont basées
sur l’hypothèse qu’on a à sa disposition un certain nombre d’observations
historiques, et que ces observations représentent une loi de
comportement sous-jacent ainsi que des fluctuations aléatoires.
Ces méthodes de prévision sont employées principalement dans deux
types de situations :
Dans le premier cas, on doit prévoir dans quel délai un certain
nouveau produit sera largement adopté, par exemple, une
administration au courant d’un certain nombre de découvertes
scientifiques non encore appliquées, souhaite prédire l’instant à
partir du quel leur application sera largement répandue de même,
une entreprise peut se oser des question sur l’horizon temporel le
plus favorable pour l’adoption d’un développement ou procédé
nouveau.
La seconde situation pouvant exiger une technique de prévision
qualitative serait celle ou l’on vise à prédire quelles innovations ou
découvertes se produiront dans un domaine spécifique, par exemple,
au niveau gouvernemental, certains administration pourraient
s’intéresser à la « percée » de nouvelles découvertes médicales pour
diverses maladies, ainsi qu’au contenu même de ces découvertes.
13
Au niveau de la grande entreprise, on pourrait trouver la situation
suivante : l’entreprise souhaiterait prévoir les nouveaux procèdes et les
techniques nouvelles qui se développeront dans sa branche industrielle
des 15 ou 20 années suivantes, afin de féliciter la planification de
l’expansion des usines et le développement à long terme du marché.
Dans les deux cas, qu’il s’agisse d’une part de prédire le moment
d’adoption d’une certaine technologie et quelles découvertes apparaîtront
l est impossible d’utiliser les méthodes quantitatives.
Ces méthodes étaient basées sur l’hypothèse de disponibilité de données
historiques, d’où l’on pouvait extraire une loi fondamentale permettant de
prévoir les événements. Cependant, dans le genre de situations que nous
venons de décrire de telles données historiques n’est pas disponibles, ce
qui fait naître le besoin de méthodes de prévision plus qualitatives.
Le fondement de toutes les méthodes qualitatives de prévision est l’emploi
d’experts pratiques participant à l’établissement des prévisions. Les
diverses techniques présentent simplement des procédures variées qui
permettent d’aider ces experts à formuler leurs jugements subjectifs sur le
futur.
C’est cette dépendance vis-à-vis des jugements des experts qui rend les
approches qualitatives de prévision moins séduisantes que les méthodes
quantitatives, lorsque le choix entre les deux est possible.
Les méthodes qualitatives de prévision ou méthodes technologiques
comme on les appelle souvent, ne fournissent ni une procédure détaillé ni
une procédure ponctuelle, comme le font la plus art des techniques de
prévision quantitatives.
Il est plutôt nécessaire que les méthodes qualitatives soient souples, et
que leur emploi soit toujours adapté à la situation considérée.
Dans ces méthodes l’homme, au lieu d’un modèle mathématique, est
l’agent principal de traitement des faits, de la connaissance t de
l’information. Les experts doivent parvenir à la prévision « optimale » par
l’application des processus mentaux bien plus que l’utilisation des
formules.
14
Clarke, dans l’introduction de son livre profils du futur, décrit la tache à
laquelle on doit faire face lorsqu’on effectue une prévision qualitative : la
prévision ne tente pas de décrire le futur, mais de définir les limites à
l’intérieur desquelles les futurs possibles doivent se situer. Si l’on
considère les époques qui s’étendent devant nous comme un pas
inexploré, dont personne n’aurait dressé la clarté, ce que l’on cherche
faire, c’est à arpenter ses frontières pour avoir quelque idée de son
étendue. La géographie de l’intérieur doit rester inconnue jusqu’à ce
qu’on l’atteigne.
Les auteurs qui ont cherché à décrire des méthodes particulières de
prévision qualitative ont généralement distingué deux subdivisions :
exploratoires et normatives.
Les méthodes exploratoires parlent de la connaissance d’aujourd’hui, de
son orientation et de ses tendances, et tentent de prédire ce qui se passer
dans l’avenir, et à quel moment.
Les méthodes normatives, en revanche, cherchent d’abord à évaluer les
buts et les objectifs de l’organisation, puis remontent le courant pour
identifier les développements et technologies nouvelles qui ont le plus de
chances de conduire à la réalisation de ces objectifs.
On peut dire donc les méthodes exploratoires cherchent donc seulement à
décrire ce qui pourrait arriver tandis que les méthodes normatives confient
à l’organisation le leadership de mise en œuvre des développements qui
vont se produire.
Dans la suite de cette partie nous examinerons trois méthodes de
prévision qualitatives : les deux premières ‘ Méthode logistique ou courbe
en S1 et comparaisons indépendante du temps) sont des méthodes
exploratoires et enfin la méthode de PERT qui une technique
d’ordonnancement ;
a- Approches logistiques ou courbes en S :
Nous avons décrit précédemment un certain nombre de méthodes
quantitatives de prévision qui fondamentalement, utilisaient
l’approximation d’une courbe. Elles cherchaient dans les données
15
historiques une loi sous-jacente, et ensuite à approcher cette loi par une
certaine courbe ;
On trouve un principe similaire à la base d’une des méthodes qualitatives
de prévision.
Dans ce cas cependant, les données historiques ne jouent directement
qu’un rôle très réduit, et sont remplacées par le jugement des experts.
L’une des courbe les plus applicables et les fréquemment employées par
les autres technologiques est la courbe en S.
Une courbe en S implique un démarrage lent, une forte pente ascendante,
et enfin un plateau. Cett courbe est une forme caractéristique de bien de
développements technologiques ainsi que des ventes de nombreux
produits. Cambers et se collaborateurs en 1971 rapportent que les ventes
des récepteurs de télévision noir et blanc et couleur ont suivi une loi en S.
Ayrés (1969) et Jantsch (1967) indiquent également diverses technologies
qui ont évolué selon des courbes en S.
L’utilisation d’une courbe en pour représenter la croissance peut
s’appliquer non seulement à un produit généralement à un paramètre
donné, par exemple Ayres (1960) a appliqué cette approche de la
prévision qualitative à des domaines tels que la vitesse maximale de
transport ;
Dans la plupart des cas, il est extrêmement difficile de prédire le point
auquel on se retrouve sur une telle courbe.
Dans le domaine des affaires, l’utilité de cette approche peut donc se
trouver limitée.
Un autre problème se manifeste dans l’emploi des courbes en S : il s’agit
de trouver le type le plu approprié, cela dépend de la technologie ou du
point de vue que nous voulons prévoir.
Ainsi, pour utiliser cette méthode de prévision, nous devons connaître par
expérience antérieure la forme approximative de courbe en S valable dans
chacun des cas, et c’est là qu’il faut appliquer le jugement d’un expert.
D’autres formes fonctionnelles de courbes telles qu’exponentielles,
logarithmiques, ou double exponentielle, peuvent être utilisées pour
représenter la réalité, mais la question est toujours de savoir quelle est la
16
forme de courbe qu’on peu admettre comme la plus correcte. Répondre à
cette question sera souvent aussi difficile que la prédiction elle-même.
Il est évident que le choix de la courbe influencera la prévision de façon
significative.
b- Comparaisons technologiques indépendants du temps :
Dans de nombreuses méthodes quantitatives de prévision, il est
indispensable d’identifier une tendance ou une autre loi de comportement
et de l’étendue au futur. Mais avec de nombreux changements techniques
ou culturels, une telle approche est difficile à appliquer par la suite des
relations complexes. Il est souvent possible, en revanche, de prédire les
développements dans un certain domaine, en se basant sur les
développements dans un autre domaine (c’est la une des permises
fondamentales de la régression multiples).
Dan maint secteur digne d’intérêt, le futurologue peut identifier une
tendance propre à un certain domaine. Il pourra donc prévoir le second
domaine et son développement en suivant la tendance du premier.
Les difficultés naissent, cependant lorsqu’on essaie de déterminer la façon
dont les deux domaines sont reliés.
L’approche qualitative des comparaisons indépendantes du temps confie
au futurologue la responsabilité de représenter cette relation mutuelle
entre les deux tendances.
L’aspect essentiel de cette méthode est l’identification d’une tendance
primaire dans un domaine qui, selon le futurologue conduira à des
développement dans le domaine particulier qu’il souhaite prévoir (à cela il
doit ajouter ces connaissance et son jugement sur ce que pourra être la
relation entre les deux tendances).
La prévision pourra alors être établie en présentant graphiquement la
tendance primaire, et en projetant la tendance inconnue sur la base de
relation entre les deux tendances.
Prenons un exemple spécifique : nous pouvons considérer qu’il existe une
relation plausible (admissible, recevable) entre la vitesse maximale des
avions militaires (tendances primaires) et la vitesse des avions
commerciaux (tendances, à prévoir). Etant donné qu’il est raisonnable
17
d’admettre que la vitesse des avions militaires amènera des évolutions
dans la vitesse des avions commerciaux, on eut établir un diagramme
(figure suivante) pour relier ces deux tendances.
Avions militaires Avions commerciaux
Comparaison technologique indépendante du temps pour la
vitesse des avions
D’après ce diagramme le futurologue peut déterminer que le rythme
d’accroissement de la vitesse des avions militaires est tel que cette
vitesse doublera tous les dix ans, tanis que pour les avions commerciaux,
elle doublera tous les douez ans. En projetant l’accroissement de la vitesse
des avions militaires, on peut donc prédire aussi bien ce sue sera
l’accroissement pour les avions commerciaux.
Il y’a de nombreux difficultés à mettre en œuvre cette méthode de
comparaison indépendante du temps, les principales consistant à identifier
une tendance primaire à laquelle on puisse de fier, et à décider quelle est
exactement la relation entre cette tendance et l’objet de la prévision.
18
c- La méthode PERT ou la méthode du chemin critique
(technique d’ordonnancement)
Mise au point par la marine américaine en 1958, la méthode PERT est
appliquée aussi bien pour la planification de l’économie d’un pays que
pour la fixation et synchronisation des mesures à prendre pour le
lancement d’un produit.
A l’origine, telle qu’elle fut mise au point par la marine Américaine portait
exclusivement sur l’étude du temps et délais, et se fondait sur les
principes suivants :
Chacune des phases à accomplir pour exécuter un programme
donné doit être représentée d’une façon suffisamment claire pour
pouvoir être inscrite dans réseau, composée d’événements et
activités. Un événement représente une action spécifique accomplie
à u instant sonné. L’activité représente le temps et les ressources
nécessaires pour passer d’un événement au suivant. Il est très
important que les événements et les activités soient définis avec
suffisamment de précisions pour que le contrôle du déroulement du
programme se fasse sans difficulté
Les événements et les activités doivent succéder dans un réseau
suivant des règles qui obéissent à la plus pure logique et permettent
la détermination d’importants chemins critiques et subcritiques.
Des estimations de durée sont effectuées pour chaque activité du
réseau sous forme d’une fourchette à trois branches c’est çà dire
que la ou les personnes qui connaissent le mieux l’activité
concernée estiment un chiffre de durée optimiste (estimation du
temps minimum qu’une activité doit rendre les résultats qu’on ne
peut obtenir que si l’on bénéficie d’une chance exceptionnelle et si
tout marche bien tout de suite), un chiffre de durée plus probable
(estimations du temps normal que doit prendre une activité, résultat
que l’on obtient le plus souvent si l’activité se trouve répétée un
certain nombre de fois dans des circonstances similaires) et un
chiffre de durée pessimiste ( Estimation du temps maximum qu’une
19
activité doit prendre, résultat que l’on obtient que si l’on joue
vraiment de malchance).
Ces trois estimations sont nécessaires pour tenir compte du degré
d’incertitude afférant l’activité et de la nature pleinement probabiliste de
développement et des projets particuliers.
En réalité, l’utilisation de cette méthode exige des cadres responsables qui
surveillent les opérations et prennent des décisions, généralement deux
fois par semaine. Etant donné que la technique fournit des données
d’exécution et de durée prévisionnelle d’une façon très ordonnée, les
cadres peuvent faire porter leurs efforts sur les activités plus riches en
raison de la marge positive dont elle bénéficie. Il peut également procéder
à une nouvelle évaluation de la succession des activités le long du chemin
critique .
Le principal avantage de cette méthode tient peut être au faitt que le type
de planification requis pour créer un réseau valable contribue de façon
très importante et intéressante à la définition et au bon contrôle final d’un
programme complexe.
Un avantage de la méthode, surtout qans le cas qui s’accompagnent d’une
réelle incertitude, est l’estimation sur trois plan.
Bien que cette triple estimation complique u peu les choses, elle permet
de tenir compte des réalités de la vie pratique qui créent tant des
difficultés lorsqu’il s’agit de planifier l’avenir.
Enfin cette technique fasse appel à un langage courant permet de
présenter de grandes quantités de données d’une façon très ordonnée. On
peut dire que cette technique représente l’avènement du principe de la
gestion par exception dans le secteur de la planification et de contrôle
dans lequel ce principe n’existait as encore de façon sérieuse ;
Ce dernier avantage n’est pas mince dans notre monde moderne ou les
entreprises fonctionnent à grande échelle et où les relations à l’intérieur
des organisations sont complexes.
II- les techniques de la prospective
Définition de la prospective
20
L'action sans but n'a pas de sens et l'anticipation suscite l'action.
C'est ainsi que la prospective et la stratégie sont généralement
indissociables, d'où l'expression de prospective stratégique.
Quoiqu’il en soit, la prospective constitue bien une anticipation
(préactive et proactive) pour éclairer l'action présente à la lumière des
futurs possibles et souhaitables. Se préparer aux changements prévisibles,
n'empêche pas d'agir pour provoquer les changements souhaités. Dans la
logique du triangle grec1, le bleu de l'anticipation ne peut se transformer
en vert de l'action qu'avec le jaune de l'appropriation par les acteurs
concernés.
D- les méthodes de prospective
En ce qui concerne les méthodes de la prospective stratégique, il
faut certes rappeler leur utilité : stimuler l’imagination, réduire les
incohérences, créer un langage commun, structurer la réflexion collective
et permettre l’appropriation. Il ne faut cependant pas non plus oublier
leurs limites et les illusions de la formalisation : les méthodes ne doivent
pas se substituer à la réflexion, ni brider la liberté des choix.
Il convient aussi de préciser que les méthodes de la prospective
n’ont pas la prétention de se prêter à des calculs scientifiques comme on
peut le faire dans des domaines physiques (par exemple, pour calculer la
résistance de matériaux).
Il s’agit seulement d’apprécier de manière aussi objective que
possible des réalités aux multiples inconnues. De plus, le bon usage de ces
méthodes est souvent bridé par les contraintes de temps et de moyens
inhérents aux exercices de réflexion.
Leur usage est inspiré par un souci de rigueur intellectuelle,
notamment pour mieux se poser les bonnes questions (pertinence) et
réduire les incohérences dans les raisonnements. Mais si leur utilisation
peut aussi stimuler l’imagination, elle ne garantit pas la création.
Le talent du prospectiviste dépend aussi de dons naturels comme
l’intuition et le bon sens6. Si la prospective a besoin de rigueur pour
21
aborder la complexité, il lui faut également des méthodes et des outils
suffisamment simples pour rester appropriables.
1- méthode de scénarios
La prospective stratégique met l’anticipation au service de l’action et
elle poursuit son essor en se diffusant dans les entreprises et les
administrations. Les années 80 et 90 ont ainsi été marquées par le
développement de la planification stratégique par scénarios notamment
dans les grandes entreprises du secteur énergétique (Shell, EDF, Elf) sans
doute en raison des chocs pétroliers passés et à venir.
Depuis le début des années 80, nous nous sommes attachés à
développer les fortes synergies potentielles entre prospective et stratégie.
La synthèse recherchée se présente sous la forme d'une approche
intégrée de planification stratégique par scénarios.
L'objectif de cette approche est de proposer des orientations et des
actions stratégiques s’appuyant sur les compétences de l'entreprise en
fonction des scénarios de son environnement général et concurrentiel.
La prospective avec ses tendances et ses risques de rupture bouleverse
le présent et interpelle la stratégie. De son côté, la stratégie s'interroge
sur les choix possibles et les risques d'irréversibilité et se réfère depuis les
années 80 aux scénarios de la prospective comme en témoignent
notamment les travaux de Michael Porter (1999). Il n'empêche que les
approches et les outils restent souvent séparés. Nous les avons
rapprochés depuis 1989, en partant des arbres de compétences
développés par Marc Giget (1998).
Avant de présenter le schéma de la planification stratégique par
scénarios en neuf étapes, il convient de rappeler la définition et les
origines de la méthode des scénarios.
Un scénario est un ensemble formé par la description d’une situation
future et du cheminement des événements qui permettent de passer de la
situation origine à la situation future. Le mot scénario est souvent utilisé
de manière abusive pour qualifier n’importe quel jeu d’hypothèses.
22
Rappelons que les hypothèses d’un scénario doivent remplir
simultanément cinq conditions : la pertinence, la cohérence, la
vraisemblance, l’importance et la transparence.
On distingue en fait deux grands types de scénarios :
- exploratoires : partant des tendances passées et présentes et conduisant
à des futurs vraisemblables ;
- d’anticipation ou normatifs : construits à partir d’images alternatives du
futur, ils pourront être souhaités ou au contraire redoutés. Ils sont conçus
de manière rétroprojective.
Les principales étapes de la méthode des scénarios sont les
suivantes :
- identifier les variables-clés (il s’agit notamment de l’objet de l’analyse
structurelle) ;
- analyser les jeux d’acteurs afin de poser les questions clés pour l’avenir ;
- réduire l’incertitude sur les questions clés et dégager les scénarios
d’environnement les plus probables grâce aux méthodes d’experts.
En effet, la première étape a pour objectif d’analyser le problème
posé et de délimiter le système étudié. Il s’agit ici de situer la démarche
prospective dans son contexte socio-organisationnel afin d’initier et de
simuler l’ensemble du processus à l’aide d’ateliers de prospective.
L’étape n° 2 est fondée sur une radioscopie complète de
l’entreprise, des savoir-faire aux lignes de produits,
matérialisée par l’arbre des compétences.
L’étape n°3 identifie les variables clés de l’entreprise et de son
environnement à l’aide de l’analyse structurelle.
L'étape n°4 entend appréhender la dynamique de la
rétrospective de l’entreprise dans son environnement, son
évolution passée, ses forces et faiblesses par rapport aux
principaux acteurs de son environnement stratégique.
L’analyse des champs de bataille et des enjeux stratégiques
permet de repérer les questions clés pour le futur.
L’étape n° 5 cherche à réduire l’incertitude qui pèse sur les
questions clés pour le futur. On utilise éventuellement les
23
méthodes d’enquête auprès d’experts pour mettre en
évidence les tendances lourdes, les risques de rupture et
finalement dégager les scénarios d’environnement les plus
probables.
L’étape n°6 met en évidence les projets cohérents, c’est-à-dire
les options stratégiques compatibles à la fois avec l’identité de
l’entreprise et les scénarios les plus probables de son
environnement.
L’étape n° 7 est consacrée à l’évaluation des options
stratégiques ; une approche rationnelle inciterait à s’appuyer
sur une méthode de choix multicritères mais c’est rarement le
cas ; avec cette étape s’achève la phase de réflexion préalable
avant la décision et l’action.
L’étape n° 8 du projet aux choix stratégiques est cruciale
puisqu’il s’agit de passer de la réflexion à la décision. Les choix
stratégiques et la hiérarchisation des objectifs sont du ressort
d’un comité de direction ou de son équivalent.
Enfin, l’étape n° 9 est tout entière dévolue à la mise en oeuvre
du plan d’action ; elle implique des contrats d’objectifs
(négociés ou suscités), la mise en place d’un système de
coordination et de suivi et de développement d’une veille
stratégique (externe).
Le passage de la réflexion prospective à l’action stratégique suppose
à tout moment une appropriation par les acteurs concernés. C’est dire que
le personnel, et pas seulement les cadres dirigeants, doit être impliqué au
maximum dans ces différentes étapes sans pour autant altérer le
caractère nécessairement confidentiel de certains choix stratégiques. Pour
réussir le passage à l’acte de la réflexion à l’action, il faut en effet passer
par l’appropriation : on retrouve les trois composantes du triangle grec.
Ce schéma est d’abord destiné aux entreprises pour lesquelles il est
possible de donner une représentation sous forme d’arbre des
compétences. Elle est aussi adoptée pour des travaux de prospective
territoriale.
24
E- analyse structurelle et comportement d’acteurs
4- méthode de morphologie
L’analyse morphologique redécouverte en prospective à la fin des
années 80 est devenue un des outils les plus utilisés. Curieusement, il a
longtemps été utilisée en prévision technologique et assez peu en
prospective économique ou sectorielle. Pourtant, elle se prête bien à la
construction de scénarios.
Ainsi, en 1998, dans une intervention plus limitée en temps (quatre ou
cinq journées de travail) pour l'association regroupant les producteurs de
maïs, l'AGPM, nous avons été amenés à proposer le recours à l'analyse
morphologique pour les deux phases classiques : prospective et
stratégique (Bassaler, 2000). La première analyse fournit des scénarios
d'évolution concernant les enjeux futurs du maïs et de son environnement
technique, économique et réglementaires. Chacun de ces scénarios pose
des questions stratégiques aux producteurs de maïs auxquels peuvent
être associées différentes réponses possibles. Là encore l'analyse
morphologique va permettre d'organiser la réflexion collective sur les
profils de réponses stratégiques les plus pertinents et cohérents.
5- les ateliers de la prospectives stratégiques
Si la prospective a besoin de rigueur pour aborder la complexité, il lui
faut également des outils suffisamment simples pour rester appropriables.
Depuis le milieu des années quatre-vingt, la démarche des ateliers
de prospective stratégique s'est imposée pour répondre à ces
préoccupations.
Avant de se lancer dans un exercice plus ou moins lourd de prospective
stratégique, il est sage de prendre le temps du temps de la réflexion sur la
nature du problème posé, sur la manière dont on entend s'y prendre pour
chercher des réponses et les mettre en oeuvre. En effet, il est inutile de
perdre du temps sur des faux problèmes et un problème bien posé est à
25
moitié résolu. Lors du lancement d'une réflexion de prospective
stratégique, devant impliquer souvent plusieurs dizaines de personnes sur
de longs mois, il est aussi utile de simuler l'ensemble de la démarche qui
va être suivie, en faisant le compte à rebours des objectifs et des
échéances intermédiaires, le choix des méthodes étant non seulement
subordonné à la nature du problème identifié, mais aussi aux contraintes
de temps et de moyens du groupe chargé de la réflexion.
6- l’analyse MACTOR
L'analyse stratégique du jeu des acteurs constitue l'une des étapes
cruciales de la prospective : la résolution des conflits entre des groupes
poursuivant des projets différents et qui conditionne l'évolution du
système dans lequel ils évoluent.
Méthode d’analyse des jeux d’acteurs, Mactor (Méthode ACTeurs,
Objectifs,Rapports de force) cherche à estimer les rapports de force entre
acteurs et à étudier leurs convergences et divergences vis-à-vis d’un
certain nombre d’enjeux et d’objectifs associés.
A partir de cette analyse, l’objectif de l’utilisation de la méthode est
de fournir à un acteur donné une aide à la décision pour la mise en place
de sa politique d’alliances et de conflits.
Mode opératoire
La méthode comporte sept phases :
phase 1 : construction du tableau « stratégies des acteurs »
La construction de ce tableau concerne les acteurs qui commandent
les variables-clés issues de l'analyse structurelle : c'est le jeu de ces
acteurs « moteurs » qui explique l'évolution des variables commandées
(signalons que le nombre utile d'acteurs se situe souvent entre 10 et 20).
Les renseignements collectés sur les acteurs sont mis en forme de la
façon suivante :
- d’une part, une véritable carte d’identité de chaque acteur est établie :
ses finalités, ses objectifs, ses projets en développement et en maturation
26
(préférences), ses motivations, ses contraintes et ses moyens d'action
internes (cohérence), son comportement stratégique passé (attitude) ;
- d’autre part les moyens d'action dont dispose chaque acteur sur les
autres pour faire aboutir ses projets sont examinés.
phase 2 : identification des enjeux stratégiques et des objectifs
associés
La rencontre confrontation des acteurs en fonction de leurs finalités, de
leurs projets et de leurs moyens d'actions, permet de révéler un certain
nombre d'enjeux stratégiques sur lesquels des objectifs convergent ou
divergent.
phase 3 : positionnement des acteurs sur les objectifs et repérage
des convergences et divergences (positions simples)
Dans cette étape, il s'agit de décrire, au sein d’une matrice « acteurs x
objectifs », l'attitude actuelle de chaque acteur par rapport à chaque
objectif en indiquant son accord (+1), son désaccord (-1) ou bien sa
neutralité (0).
Pour recenser les jeux d'alliances et de conflits possibles, la méthode
précise le nombre et les objectifs sur lesquels les acteurs, pris deux à
deux, sont en convergence ou en divergence. Deux premiers graphes
complets des convergences, puis des divergences possibles, sont alors
établis. Ils permettent de visualiser des groupes d'acteurs en convergence
d'intérêt, d'évaluer leur degré de liberté apparent, de repérer les acteurs
les plus menacés potentiellement et d'analyser la stabilité du système.
phase 4 : hiérarchisation des priorités d’objectifs pour chaque
acteur (positions valuées)
Les graphes construits lors de la phase 3 restent assez élémentaires :
ils ne prennent en compte que le nombre de convergences et de
divergences d'objectifs entre acteurs. Pour rapprocher le modèle de la
réalité, il convient de tenir compte également de la hiérarchie des objectifs
pour chaque acteur. L’intensité du positionnement de chaque acteur est
ainsi évaluée à l'aide d’une échelle spécifique.
phase 5 : évaluation des rapports de force des acteurs
27
Une matrice des influences directes entre acteurs est construite à
partir du tableau « stratégie des acteurs » élaboré lors de la phase 1 en
valorisant les moyens d’action de chaque acteur. Les rapports de force
sont calculés en tenant compte à la fois des moyens d'actions directs et
indirects (un acteur pouvant agir sur un autre par l'intermédiaire d'un
troisième).
Un plan « influence-dépendance » des acteurs est alors construit.
L'analyse des rapports de force des acteurs met en avant les forces et les
faiblesses de chacun d’entre eux, leurs possibilités de verrouillage, etc.
phase 6 : intégration des rapports de force dans l'analyse des
convergences et des divergences entre acteurs dire qu'un acteur
pèse deux fois plus qu'un autre dans le rapport de force global
donne implicitement un poids double à son implication sur les
objectifs qui l'intéressent. L’objet de cette étape consiste donc à
ajuster le rapport de force de chaque acteur à l’intensité de son
positionnement par rapport aux objectifs.
De nouveaux graphes des convergences possibles et des divergences
entre tous les acteurs sont alors obtenus. La comparaison entre les séries
de graphes permet d'observer la déformation des alliances et conflits
potentiels, tenant compte des hiérarchies des objectifs et des rapports de
force entre acteurs.
phase 7 : formulation des recommandations stratégiques et des
questions clés de l'avenir
Par les jeux d’alliances et de conflits potentiels entre acteurs qu’elle met
en lumière, la méthode Mactor contribue à la formulation des questions-
clés de la prospective et de recommandations stratégiques. Elle aide, par
exemple, à s’interroger sur les possibilités d'évolution des relations entre
acteurs, l’émergence et la disparition d'acteurs, les changements de rôles,
etc.
Pour faciliter la réalisation des analyses de jeu d’acteurs, et notamment
pour calculer les rapports de force entre acteurs, le Lipsor a développé et
met gratuitement à disposition du public un outil dédié, le logiciel
MACTOR.
28
F- consultation d’expert :
4- méthode délphi
Mise au point par Olaf Helmer15 au sein de la Rand Corporation dans
les années 60 (Helmer, 1967), la méthode Delphi a pour but de mettre en
évidence des convergences d’opinion et de dégager certains consensus
sur des sujets précis, grâce à l’interrogation d’experts, à l’aide de
questionnaires successifs.
L’objectif le plus fréquent des études Delphi est d’apporter l’éclairage
des experts sur des zones d’incertitude en vue d’une aide à la décision.
Mode opératoire
La technique a connu de nombreuses versions différentes, nous
présentons ici la démarche d’origine.
phase 1 : la formulation du problème
Cette étape est fondamentale dans la réalisation d’un Delphi. En effet,
dans une méthode d’experts, l’importance de la définition précise du
domaine d’investigation est d’autant plus grande qu’il faut être bien
certain que les experts recrutés ont tous la même notion de ce domaine.
L’élaboration du questionnaire doit se faire selon certaines règles : les
questions doivent être précises, quantifiables (elles portent, par exemple,
sur les probabilités de réalisation d’hypothèses et /ou d’événements, le
plus souvent sur des dates de réalisation d’événements), et
indépendantes (la réalisation supposée d’une des questions à une date
donnée n’a pas d’influence sur la réalisation d’une autre question)
phase 2 : le choix des experts
Cette étape est d’autant plus importante que le terme d’expert est
ambigu.
Indépendamment de ses titres, de sa fonction ou de son niveau
hiérarchique, l’expert sera choisi pour sa capacité à envisager l’avenir.
Le manque d’indépendance des experts peut constituer un inconvénient ;
par précaution, les experts sont donc « isolés » et leurs avis sont recueillis
par voie postale et de façon anonyme : l’opinion de chaque expert est
donc obtenue, et non une opinion plus ou moins faussée par un processus
de groupe (pas de leader).
29
phase 3 : le déroulement pratique et l’exploitation des résultats
Le questionnaire est envoyé aux experts (une centaine d’exemplaires
au moins, car il faut tenir compte des non-réponses et des abandons : le
groupe final ne doit pas être inférieur à 25). Il est bien sûr accompagné
d’une note de présentation précisant les buts, l’esprit du Delphi, ainsi que
les conditions pratiques de déroulement de l’enquête (délai de réponse
précisé et anonymat garanti).
Pour chaque question, il est important que l’expert évalue son propre
niveau de compétence.
Des questionnaires successifs sont envoyés afin de diminuer la
dispersion des opinions, et de préciser l’opinion consensuelle médiane. Au
cours du deuxième tour, les experts, informés des résultats du premier
tour, doivent fournir une nouvelle réponse et, surtout, sont tenus de la
justifier si elle est fortement déviante par rapport au groupe. Au cours du
troisième tour, il est demandé à chaque expert de commenter les
arguments des déviants. Au quatrième tour, il donne la réponse définitive :
opinion consensuelle médiane et dispersion des opinions (intervalles
interquartiles).
5- L’abaque de Régnier
L’abaque de Régnier est une méthode originale de consultation
d’experts, conçue dans les années 70 par un médecin français, François
Régnier, afin d’interroger des experts et de traiter leurs réponses, en
temps réel ou par voie postale, à partir d’un vote colorimétrique. «
Nouvelle approche de la communication interactive, l’Abaque de Régnier
utilise une échelle ordinale et colorée, dont les données sont
cartographiées dans une grille. Cela favorise la révélation des opinions et
des représentations, ainsi que l’évolution des individus et des groupes.
Comme toutes les méthodes d’experts, elle est destinée à réduire
l’incertitude, confronter le point de vue d’un groupe à celui d’autres
groupes, et du même coup, prendre conscience de la plus ou moins
grande variété des opinions.
30
Mode opératoire
La logique utilisée par l’abaque est celle des trois couleurs des feux de
la circulation (vert, orange, rouge), complétées par le vert clair, et le rouge
clair (permettant de nuancer les opinions). Le blanc permet le vote blanc
et le noir l’abstention. Il s’agit donc d’une échelle de décision colorée.
phase 1 : le recueil des opinions d’experts
Dans un premier temps, il convient de définir assez précisément la
problématique étudiée. Cette problématique sera abordée avec soin et
décomposée en éléments (ou items). Ces items seront des affirmations
élargissant le champ des discussions sur l’évolution du passé et /ou sur la
vision de l’avenir. Chaque expert se prononce alors individuellement vis-à-
vis de l’affirmation en utilisant l’échelle colorée mise à sa disposition.
phase 2 : le traitement des données
Il consiste à traiter les réponses colorées sous une forme matricielle
représentant : en ligne, les items définissant le problème et, en colonne,
les experts participant à l’étude. L’image en mosaïque constitue un
véritable panorama de l’information qualitative et rend visible
simultanément la position de chacun des experts sur le problème (cf.
figure 17 infra).
phase 3 : la discussion des résultats
Sur la base de cette image colorée commencent le débat et/ou
l’explication du vote : les procédures restent ouvertes et chacun peut, à
tout moment, modifier sa couleur et justifier son changement d’opinion.
6- méthode d’impacts croisés probabilistes : Smic-Prob-Expert
Les méthodes d’impacts croisés probabilistes visent à déterminer des
probabilités simples et conditionnelles d’hypothèses et/ou d’événements,
ainsi que les probabilités des combinaisons de ces derniers, en tenant
compte des interactions entre événements et/ou hypothèses.
L’objectif de ces méthodes est non seulement de faire ressortir, pour le
décideur, les scénarios les plus vraisemblables, mais aussi d’examiner des
combinaisons d’hypothèses que l’on aurait exclues a priori.
31
Mode opératoire
Ces méthodes constituent une famille de techniques qui tentent
d’évaluer les changements dans les probabilités d’un ensemble
d’événements à la suite de la réalisation de l’un ou de plusieurs d’entre
eux.
Nous parlerons ici de l’une de ces méthodes, Smic-Prob-Expert
(Systèmes et Matrices d’Impacts Croisés). Pratiquement, si l’on considère
un système à n hypothèses, la méthode Smic-Prob-Expert permet de
choisir, à partir d’informations fournies par des experts, parmi les 2n
images possibles (jeux d’hypothèses), celles qui devraient (compte tenu
de leur probabilité de réalisation) être tout particulièrement étudiées.
Smic-Prob-Expert consiste donc à cerner les futurs les plus probables qui
serviront de base à la construction des scénarios.
phase 1 : la formulation des hypothèses et le choix des experts
Une enquête Smic-Prob-Expert démarre avec une base de cinq ou six
hypothèses fondamentales et de quelques hypothèses complémentaires.
Or, il n’est pas facile d’étudier l’avenir d’un système complexe avec un
nombre aussi limité d’hypothèses ; d’où l’intérêt de méthodes telles que
l’analyse structurelle (cf. point 2.3 supra) ou la réflexion sur la stratégie
des acteurs (cf. point 2.4 supra) qui permettent de mieux identifier les
variables-clés et de mieux formuler les hypothèses de départ.
L’enquête est en général réalisée par voie postale (un taux de retour
de l’ordre de 25 à 30% se révèle être assez satisfaisant). Il faut compter
un mois et demi environ pour sa réalisation. Les experts interrogés seront
choisis selon les mêmes critères que pour la méthode Delphi.
Il leur est demandé :
- d’apprécier la probabilité simple de réalisation d’une
hypothèse à l’aide d’une échelle allant de 1 (très faiblement
probable) à 5 (très probable) ;
- d’apprécier sous forme de probabilité conditionnelle, la
réalisation d’une hypothèse en fonction de la réalisation et de
la non-réalisation de toutes les autres. Compte tenu de toutes
32
les questions que l’expert doit se poser, il est obligé de révéler
le niveau de cohérence implicite de son raisonnement.
phase 2 : la probabilisation des scénarios
Cette phase consiste à analyser les données brutes :
- en corrigeant les opinions des experts de façon à obtenir des résultats
nets cohérents (i.e. satisfaisants aux axiomes classiques des probabilités) ;
- en affectant une probabilité à chacune des 2n combinaisons possibles
des n hypothèses.
Grâce à la moyenne des probabilités accordées à chacune de ces
images par l’ensemble des experts, il est possible de déterminer une
hiérarchie de ces images, et par conséquent, des scénarios les plus
probables.
Il convient alors, au sein de ces scénarios, d’en choisir 3 à 4 parmi
lesquels au moins un scénario de référence (i.e. avec une forte probabilité
moyenne) et des scénarios contrastés, dont la probabilité peut être faible,
mais dont l’importance pour l’organisation ne doit pas être négligée.
L’étape ultérieure concerne l’écriture des scénarios : cheminement
du présent aux images finales, comportements des acteurs. Elle
relève de la méthode dite des scénarios.
III - Les techniques d’aide à la décision
1. MULTIPOL
BUT
Comme toute méthode multicritère, la méthode MULTIPOL vise à
comparer différentes actions ou solutions à un problème en fonction de
critères et de politiques multiples.
L’objectif de Multipol est ainsi de fournir une aide à la décision en
construisant une grille d’analyse simple et évolutive des différentes
actions ou solutions qui s’offrent au décideur.
33
DESCRIPTION DE LA METHODE
La méthode MULTIPOL (pour Multicritère et politique) est
certainement la plus simple des méthodes multicritères, mais non la moins
utile. Elle repose sur l’évaluation des actions par l’intermédiaire d’une
moyenne pondérée, comme l’évaluation des élèves d’une classe de fait
selon des matières affectées de coefficients.
On retrouve dans Multipol les phrases classiques d’une approche
multicritère : le recensement des actions possibles, l’analyse des
conséquences et l’élaboration de critères, l’évaluation des actions, la
définition de politiques et le classement des actions. L’originalité de
Multipol vient de sa simplicité et de sa souplesse d’utilisation. Ainsi, dans
Multipol, chaque action est évaluée au regard de chaque critère au moyen
d’une échelle simple de notation. Cette évaluation est obtenue par
l’intermédiaire de questionnaires ou de réunions d’experts, la recherche du
consensus étant nécessaire.
Par ailleurs, le jugement porté sur les actions ne s’effectue pas de
façon uniforme : il faut tenir compte des différents contexte liés à l’objectif
de l’étude.
Une politique est un jeu de poids accordé aux critères qui traduit l’un
de ces contextes. Ces jeux de poids de critères pourront ainsi correspondre
aux différents systèmes de valeurs des acteurs de la décision, à des
options stratégiques non arrêtées, ou encore à des scénarios multiples et
aux évaluations incluant le facteur temps.
En pratiques, les experts répartissent pour chaque politique un poids
donné sur l’ensemble des critères. Comme le montre le tableau suivant
résumant les différentes pondérations possibles pour le choix du troisième
aéroport pour la région parisienne. Une « politique indifférenciée » ne
34
privilège ainsi aucun critère, tandis que la « priorité à l’aménagement du
territoire » néglige le critère « qualité de l’espace aérien »
Pour chaque politique, la procédure MULTIPOL attribue un score
moyen aux actions. On calcule ainsi un tableau des profils des
classements comparés des actions en fonction des politiques. Ainsi que le
montre le graphique suivant, toujours issu de l’étude comparant les sites
possibles pour la construction d’un troisième aéroport pour la région
parisienne, les sites de Beauvillier et de Sainville/Santeuil sont les mieux
classés quelle que soit la pondération des critères. L’on s’aperçoit
également que le soit de Rouvilliers résiste moins bien à la pondération
donnant la priorité aux contraintes d’environnement
2. La stratégie dynamique interrelationnelle :
STRADIN
Cette méthode s’inscrit pleinement dans une conception de la
stratégie qui ne veut pas être le reflet de la démarche linière de
formulation et de mise en œuvre souvent décrite, ou l’interaction entre le
quoi et le comment d’une part ; et entre le décideur et le maître d’œuvre
d’autre part, semble être nécessaire.
Une conception qui ne soit pas uniquement Fondée sur une vision
rationnelle et purement économique, mais surtout qu’elle soit faite de
créativité, de prise en compte de la réalité humaine et organisationnelle,
de dialectique entre le souhaitable et le possible, d’acceptation de
l’incertitude et d’ambiguïté.
Il s’agit d’une méthode de prise de décision de groupes fondée sur le
jeu dynamique entre acteurs. Cette méthode a été développée a fin
d’utiliser les ressources d’un réseau informatique décentralisé permettant
un échange continu d’information.
35
STARDIN a été développé par les 2 principes suivants :
- Elle laisse chaque individu agir et réagir aussi naturellement que
possible.
- Elle prend en considération l’aspect diachronique du processus de la
prise de décision dans la mesure ou ce dernier (Formation de la stratégie,
sa mise en œuvre, son …) est réalisé selon une démarche continue
pendant laquelle les stratégies sont modifiées et de nouveaux objectifs
sont formés.
La démarche permet d’observer, d’analyser et de contrôler les
conséquences organisationnelles de décision ainsi que d’anticiper les
ruptures internes qui peuvent découler des choix stratégiques et de leur
mise en œuvre.
La démarche se déroule comme suit :
Le groupe A : « Proposition »
Les responsables opérationnels de CAS sont chargés de faire des propos
originaux ou modifiées suite à un premier pasage
Le groupe B : « Entreprise »
Finance, Personnel, production, chargés de critiquer la proposition sur la
base des contraintes…..
Le groupe C : « environnement »
R & D, Marketing, juridique, Chargés de critiquer la proposition par rapport
aux contraintes externes.
La direction générale, comité de direction se trouvent devant trois
possibilités :
36
- Proposition acceptée
- Proposition refusée
- Proposition révisée dans ce pas elle sera renvoyée au groupe A
accompagnées de recommandations nécessaires.
Pendant que les groupes B, examinent une proposition de A, ce
dernier continue à travailler sur une nouvelle proposition ainsi un flux
continu de propositions, critiques ; justement et décisions se met en place
rapidement, en plus l’information formelle et informelle, qui circulaire
entre les groupes, tend à créer une dynamique circulaire dans laquelle
chaque participant de chaque groupe peut, atout moment, ajouter des
éléments.
Enfin, les groupes B, C et D peuvent aussi avoir des idées qui sont
soumises à une évaluation selon le processus.
C’est par le cirant informel d’information que ces idées sont
transmises au groupe A ; Quand toutes les propositions sont examinées, le
groupe D doit rassembler de manière synthétique les recommandations
retenues appuyées sur des hypothèses et faits pertinents. Dans
l’ensemble de la démarche, il est demandé aux groupes un travail
constructif.
Et pour conclure, nous pouvons dire que STARDIN est une méthode
de prospective interne qui respecte le schéma dialytique et culturel de la
firme et qui permet d’anticiper les risques associés à la mise en œuvre des
décisions ; Cette stratégie semble être moins efficace pour obtenir une
adhésion individuelle et collective à l’action stratégique de l’entreprise
3. L a prospective dynamique interrelationnelle : PRODIN
37
Cette méthode consiste que, dans l’entreprise, et dans toute autre
organisation, l’analyse stratégique demeure encore trop souvent l’affaire
des experts : consultants, planificateurs, stratèges, sociétés d’étude, etc…
Ceux qui agirent, qui mettront en œuvre, qui influenceront le cours des
évènements ne sont que trop rarement impliquées, d’une manière
prédominantes, dans l’élaboration de cette vision de futur.
La conception de PRODIN est fondée sur les prémisses suivantes :
Premièrement : les gestionnaires, acteurs experts d’une
entreprise ou d’organisation social ont des qualités intrinsèques qui leur
permettent non pas de voir dans le futur mais de l’imaginer à partir de
leur base de compétence d’expérience.
Deuxièmement : Ces gestionnaires, auteurs experts vont
former peu à peu leur futur.
Troisième : la réalité est subjective et ne peut être découverte
par une démarche purement mécanique et rationnelle.
Quatrième : une démarche dialytique permet d’arriver grâce à
la confrontation des idées vision satisfaisant.
Des enjeux et défis futurs
Les points d’application de la méthode PRODIN ont été :
-L’analyse d l’environnement concurrentiel, technologique, social,
commercial ;
- Définition de nouveaux modes d’organisation ;
- Détermination de profits futurs de personnels ;
- L’identification de nouveaux modes de gestion ;
38
- La méthode s’articule en plusieurs étapes de travail et phase d’analyse
39
Méthodes de planification dans l'entreprise Russell .l . ackof
Cahier du Lipsor n° 20 – Prospective stratégique : problèmes et
méthodes
La stratégie de l’entreprise A.R THEITART
http://docs.ufrmd.dauphine.fr/st/cours.html
40