ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

18
Dr Shoumen DATTA Chercheur, Département Ingénierie des Systèmes, Forum pour l’Innovation dans la chaîne logistique Directeur général de l’Ecole d’Ingénierie, Massachusetts Institute of Technology Les outils et procédés permettant de réduire les insuffisances de la chaîne logistique sont très précieux. La capacité à s’adapter peut en effet ne pas dépendre de la seule technologie mais d’une perpétuelle aptitude à l’innovation des processus dans la gestion de la Supply Chain. Pour cela, les dirigeants doivent être capables d’imagi- ner l’utilisation combinée de différents concepts, outils et technologies pour ré- duire les insuffisances, les incertitudes, et l’asymétrie de l’information dans le réseau de valeur. Cet article propose de combiner différentes idées dans un esprit d’approche « solutions » visant à améliorer les décisions. Cet article conceptuel vise à stimuler un large panel de décideurs qui voudraient pouvoir prendre de meilleures décisions en s’appuyant sur une connaissance plus approfondie tirée tant de l’innovation du processus que de l’ana- lyse « au bon moment » de données en temps réel. Ce n’est pas la panacée pour s’affranchir des mauvaises étapes d’une prise de décision ; cela ne peut fonctionner qu’avec l’appui nécessaire, sinon approprié, des « facilita- teurs » dont nous parlerons plus loin. Dans les systèmes décisionnels tels que, par exemple, le Supply Chain Management (SCM) ou la disponibilité militaire, la gestion de l’incerti- tude est essentielle. Nous proposons une convergence raisonnable des concepts, des outils, des technologies et des normes existants ; utilisés conjointement, ils peuvent améliorer l’adaptabilité des systè- mes de décision pour lutter contre l’incerti- tude dans des applications aussi diverses que l’optimisation des profits ou le temps de réac- tion dans la disponibilité hospitalière ou mili- taire. Ces améliorations doivent viser à réduire le « bruit » et favoriser l’adaptabilité. Cette proposition est illustrée par la Figure 1. En ce qui concerne les systèmes de décision, nous prendrons souvent le Supply Chain Management comme exemple et nous discu- terons de la façon dont les pratiques actuelles de la chaîne logistique pourraient s’améliorer si les praticiens (les décideurs) adoptaient et utilisaient réellement un nouveau schéma de pensée, de nouveaux outils analytiques, de Logistique & Management Vol. 12 – N°2, 2004 3 Avertissement Cet article est vraiment très simplifié, incomplet et plein de digressions. L’auteur endosse la pleine responsabilité des éventuelles erreurs et incohérences, et il présente ses excuses au cas où la lecture en serait peu convaincante. Il espère que ce brassage d’idées (simple exploration) suscitera de nouvelles réflexions. Outre les collaborateurs cités en fin d’article, l’auteur s’est permis d’utiliser plusieurs sources d’information pour « nouer les fils » et montrer comment des disciplines a priori éloignées peuvent, lorsqu’elles sont fusionnées, offrir de nouvelles directions de recherche. Enfin, la liste des références est tout à fait incomplète. Il est évident que la recherche initiale n’est pas due à l’auteur. En revanche, les opinions et commentaires exprimés ici sont bien les siens, et ne représentent en aucun cas la position du MIT en tant qu’institution ou celle des collaborateurs ou de leurs organismes d’appartenance. Pour les spécialistes, il est possible que cet article n’amène rien de neuf. Mais c’est la synthèse, la convergence des idées telle que le suggère l’auteur qui peut précipiter la transformation de certains systèmes décisionnels dans le sens de l’adaptabilité ou peut-être, avec le temps, de la prédiction. Toute suggestion peut être adressée par courriel à l’adresse suivante : [email protected] Titre original Adapting Decisions, Optimizing facts and Predicting Figures: Can Confluence of Concepts, Tools, Technologies and Standards Catalyze Innovations ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts, des outils, des technologies et des normes peut-elle accélérer l’innovation ? Les nouvelles technologies pour le Manage- ment Logistique Global (SCM) et la production flexible impliquent que les entreprises soient capables de percevoir très tôt les déséquilibres dans les stocks – virtuellement en temps réel – et puissent, en réaction à des signes d’accumu- lation non désirée, arrêter très vite la fabrica- tion incriminée. Alan Greenspan - Témoignage devant le Comi- té Sénatorial américain « Banking, Housing and Urban Affairs » (13 février 2001)

Transcript of ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

Page 1: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

Dr Shoumen DATTAChercheur, Département Ingénierie des Systèmes, Forum pour l’Innovation dans la chaîne logistiqueDirecteur général de l’Ecole d’Ingénierie, Massachusetts Institute of Technology

Les outils et procédés permettant de réduire les insuffisances de la chaîne logistiquesont très précieux. La capacité à s’adapter peut en effet ne pas dépendre de la seuletechnologie mais d’une perpétuelle aptitude à l’innovation des processus dans lagestion de la Supply Chain. Pour cela, les dirigeants doivent être capables d’imagi-ner l’utilisation combinée de différents concepts, outils et technologies pour ré-duire les insuffisances, les incertitudes, et l’asymétrie de l’information dans leréseau de valeur. Cet article propose de combiner différentes idées dans un espritd’approche « solutions » visant à améliorer les décisions.

Cet article conceptuel vise à stimuler un largepanel de décideurs qui voudraient pouvoirprendre de meilleures décisions en s’appuyantsur une connaissance plus approfondie tiréetant de l’innovation du processus que de l’ana-lyse « au bon moment » de données en tempsréel. Ce n’est pas la panacée pour s’affranchirdes mauvaises étapes d’une prise de décision ;cela ne peut fonctionner qu’avec l’appuinécessaire, sinon approprié, des « facilita-teurs » dont nous parlerons plus loin. Dans lessystèmes décisionnels tels que, par exemple,

le Supply Chain Management (SCM) ou ladisponibilité militaire, la gestion de l’incerti-tude est essentielle.

Nous proposons une convergence raisonnabledes concepts, des outils, des technologies etdes normes existants ; utilisés conjointement,ils peuvent améliorer l’adaptabilité des systè-mes de décision pour lutter contre l’incerti-tude dans des applications aussi diverses quel’optimisation des profits ou le temps de réac-tion dans la disponibilité hospitalière ou mili-taire. Ces améliorations doivent viser àréduire le « bruit » et favoriser l’adaptabilité.Cette proposition est illustrée par la Figure 1.

En ce qui concerne les systèmes de décision,nous prendrons souvent le Supply ChainManagement comme exemple et nous discu-terons de la façon dont les pratiques actuellesde la chaîne logistique pourraient s’améliorersi les praticiens (les décideurs) adoptaient etutilisaient réellement un nouveau schéma depensée, de nouveaux outils analytiques, de

Logistique & Management

Vol. 12 – N°2, 2004 3

AvertissementCet article est vraiment très simplifié,incomplet et plein de digressions.L’auteur endosse la pleineresponsabilité des éventuelles erreurset incohérences, et il présente sesexcuses au cas où la lecture en seraitpeu convaincante. Il espère que cebrassage d’idées (simple exploration)suscitera de nouvelles réflexions.Outre les collaborateurs cités en find’article, l’auteur s’est permis d’utiliserplusieurs sources d’information pour« nouer les fils » et montrer commentdes disciplines a priori éloignéespeuvent, lorsqu’elles sont fusionnées,offrir de nouvelles directions derecherche. Enfin, la liste desréférences est tout à fait incomplète.Il est évident que la recherche initialen’est pas due à l’auteur. En revanche,les opinions et commentaires exprimésici sont bien les siens, et nereprésentent en aucun cas la positiondu MIT en tant qu’institution ou celledes collaborateurs ou de leursorganismes d’appartenance.Pour les spécialistes, il est possibleque cet article n’amène rien de neuf.Mais c’est la synthèse, la convergencedes idées telle que le suggère l’auteurqui peut précipiter la transformation decertains systèmes décisionnels dans lesens de l’adaptabilité ou peut-être,avec le temps, de la prédiction.Toute suggestion peut être adresséepar courriel à l’adresse suivante :[email protected] originalAdapting Decisions, Optimizing factsand Predicting Figures:Can Confluence of Concepts, Tools,Technologies and Standards CatalyzeInnovations

ADAPTER, OPTIMISER, PRÉVOIRLa convergence des concepts, des outils,des technologies et des normes peut-elleaccélérer l’innovation ?

Les nouvelles technologies pour le Manage-ment Logistique Global (SCM) et la productionflexible impliquent que les entreprises soientcapables de percevoir très tôt les déséquilibresdans les stocks – virtuellement en temps réel –et puissent, en réaction à des signes d’accumu-lation non désirée, arrêter très vite la fabrica-tion incriminée.

Alan Greenspan - Témoignage devant le Comi-té Sénatorial américain « Banking, Housingand Urban Affairs » (13 février 2001)

Page 2: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

nouvelles technologies et les normes émer-gentes pour réduire l’incertitude. L’emploi dedonnées temps réel est déterminant pourl’industrie (commerce de détail, santé) et ladéfense. Pourtant, ces quelques dernièresannées (1999-2003), on a constaté un intérêtdisproportionné pour les outils d’acquisitionde données type Technologies d’Identifica-tion Automatique (AIT), dont un exempleparticulièrement marquant est l’identificationpar fréquence radio (RFID). A notre avis, lebon point de départ d’une réflexion sur laréduction de l’incertitude du système, c’est devoir comment les données temps réel peuventinfluer sur le processus (opérationnel).L’emploi des AIT pour identifier des objetsavec le RFID est intéressant quand ces don-nées (systémiques, locales) deviennent utiles« au bon moment » eu égard au processusopérationnel. Mais il faut aussi que ces pro-cessus fournissent des informations décision-nelles, c’est à dire destinées à élaborer les

décisions rapidement, à s’adapter si néces-saire, et à réagir ou se mettre en situation deréagir. Cette connectivité, qui découle de laproposition esquissée par le Figure n°1, estillustrée par le Figure n°2.

Les données temps réel au « bon moment »(données right-time) peuvent modifier lesprocessus opérationnels actuels et stimulerl’innovation. Cependant, il n’est pas suffisantde fournir des données temps réel aux « systè-mes Legacy » ou aux ERP. Pour améliorerl’adaptabilité, les systèmes décisionnels doi-vent pouvoir accéder à l’information« right-time », elle-même fondée sur des don-nées temps réel (analytique temps réel) prove-nant de différentes sources (marqueurs RFID,capteurs, GPS, codes à barres). Le débat sur leformat (code électronique/EPC ou codifica-tion identifiant universel/UID) reste encoreouvert, mais cela ne devrait pas bloquer laréflexion, condition préalable pour quel’innovation des processus fasse bon usagedes « données right-time. »

Il est possible que les architectures agnosti-ques de format (logiciels) détiennent la clépour connecter les données temps réel àd’autres logiciels ou ERP. Mais il nous semblepeu probable que les progiciels ERP puissenttraiter ou analyser des flux de données tempsréel de l’ordre du Gigabit. Certains avaientsuggéré (et nous leur emboîtons le pas) des’intéresser à l’utilisation d’un logiciel basésur agent (ABM) combiné à un logiciel tradi-tionnel basé sur équation (EBM) afind’extraire l’information du flot croissant dedonnées temps réel. La connectivité de cesdonnées est tout aussi importante que le par-tage de l’information entre entités pour amé-liorer le processus de prise de décision. Et àson tour, ce partage de données ou d’informa-tion permet d’améliorer la performance del’ensemble du réseau de valeur.

L’interaction entre entités exige une infras-tructure sécurisée et une plate-forme diffusetotalement ouverte à la collaboration. Nousproposons une telle plate-forme (ubiquiste,agnostique avec transpondeur et appartenant àl’infrastructure civile) dans laquelle les inter-rogateurs de données sont des systèmes deradio logicielle (SDR-SWR). L’accès et lecontrôle du partage des données sont réguléset authentifiés via la couche Application logi-cielle (transmise par l’Internet) de la mêmemanière que pour une Internet « appliance1 »avec régulation à distance (ex : allumer le fourmicro-onde tout en rentrant chez soi en voi-ture).

Logistique & Management

4 Vol. 12 – N°2, 2004

Figure 1 : Proposition pour passer de l’optimisation du « bruit » à unemeilleure adaptabilité à l’avenir.

Quand Napoléon affirmait (sitant est qu’il le fît réellement) :« ceux qui ont besoin de se for-ger une représentation mentale

de chaque chose sont inaptes aucommandement », il faut com-

prendre cela comme ladénonciation du défaut originel.En effet, s’il aborde une bataille

avec devant lui un tableau dé-crivant comment tel ou tel

combat s’est déroulé dans telleou telle circonstance, le chef mi-litaire réalisera dès les premiers

contacts que quelque chose amal tourné. Son Figure est dé-

truit ; et il ne lui reste plus rien,sauf peut-être une autre repré-

sentation personnelle, quielle-même ne lui servira pas

longtemps. Il est possibled’autre part, quand sa premièreprévision s’avère erronée, qu’ilsoit assailli par une telle masse

d’images différentes que, là-aus-si, il ne sache plus quelles

adaptations pratiques faire. Enfait, trop de références au passé

peut être presque aussi gênantque pas de référence du tout.

Pour répondre de manière ap-propriée aux exigences d’un

environnement en constante évo-lution, nous devons non

seulement sélectionner et ex-traire des éléments de leur cadregénéral, mais aussi savoir quel-

les en sont les parties quipeuvent circuler et muter sans

modifier leur sens et leurs fonc-tions générales.

F.C. Bartlett

1 - Ou « appareil Internet ».Note du Traducteur.

Figure 2 : La connectivité des donnéestemps réel et du processus (analytiquetemps réel) offre de meilleures informa-tions pour les prises de décision.

Page 3: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

Dans les 5, ou plus vraisemblablement les 25 à50 prochaines années, quand nous pourronspasser d’un statut opérationnel auto-adaptif àun statut prédictif, il nous faudra d’autresconcepts et outils, probablement encoreinconnus aujourd’hui. Cependant, en contri-bution à la phase prédictive des opérations,nous proposons une idée issue de l’écono-métrie des séries de temps. Tout simplement,il s’agit d’étudier la possibilité d’utiliser desdonnées temps réel « brutes » (sans regroupe-ment ni tri) pour mieux comprendre les chan-gements et y réagir, quasiment en temps réel.Ceci peut aider à réduire encore plus les ris-ques et l’incertitude, et peut-être même à atté-nuer l’effet Coup de Fouet (Bullwhip). De telsoutils analytiques économétriques sont utili-sés dans le domaine de la finance (volatilitédes prix de la bourse). Si l’on peut modifier lesoutils économétriques (tels que le GARCH -Hétéroscédasticité conditionnelle autorégres-sive généralisée) pour les utiliser avec desdonnées ODD (données dépendant d’objets)temps réel, cela non seulement nous aidera àprédire les paramètres clés de la chaîne logis-tique (prévision de demande, prix) basés surles entrées (données temps réel) mais, en plus,pourra nous fournir une mesure du risqueassocié à la prédiction. Et pouvoir quantifierle risque dans la chaîne logistique est tout par-ticulièrement intéressant.

En résumé, nous allons essayer dans cetarticle de combiner différentes idées dans unesprit d’approche « solutions » dont le but estde réduire l’incertitude et d’améliorer lesdécisions. Nous enchaînerons les notions,allant de la Théorie des Jeux à la simulation,via les Technologies d’Identification Auto-matique (AIT), l’Econométrie des séries detemps, le Grid Computing, les Agents et leWeb Sémantique. Il est fort possible que desgouvernements, des sociétés, des firmes deconsultants et des universitaires ayant uneconnaissance approfondie dans un ou plu-sieurs de ces domaines passent les quelquesprochaines décennies à tenter de synthétiserun ou des modèles ou un modus operandi effi-cace pour combiner ces idées avec d’autresconcepts, outils, technologies et normesémergents qui, utilisés conjointement, pour-raient permettre de mieux saisir les incertitu-des, les analyser, les réduire et y répondre(Figure n°4). Comprendre la convergencefacilitera l’étude du paradigme entre adapta-bilité et efficacité. Le cadre de gestion(tableau de bord des outils) pour diagnosti-quer et déterminer l’équilibre dynamique(spécifique à l’industrie) peut optimiser le

« push-pull » entre adaptabilité et efficacitédans la recherche de l’Equilibre Dynamiquede Gibbs.

« Au musée de la Science à Barcelone, j’ai vuune exposition qui illustrait parfaitement lechaos. Une version non linéaire d’un penduleétait montée de telle manière qu’un visiteurpouvait saisir le poids et le faire se balancercomme il voulait, à la vitesse qu’il voulait. Onobservait alors le déplacement du balanciertout en l’enregistrant avec un crayon sur une

Logistique & Management

Vol. 12 – N°2, 2004 5

Figure 3 : Pour l’émergence de systèmes décisionnels adaptifs, il estnécessaire de mettre en communication bits, atomes et décisions.

Depuis un bureau à Shinzen en Chine, vous vous connectez à un lecteur SDR situé dans unentrepôt aux Etats-Unis de manière à vérifier si vos produits sont arrivés en temps voulu. Cefut le cas. Vous allez aussi apprendre que votre distributeur à Santiago du Chili et votre dé-taillant à Espoo en Finlande ont eux aussi vérifié où en était la livraison quelques instantsavant vous

Figure 4 : Investir dans la convergence des idées pour réduire lerisque et l’incertitude : un pas vers l’Equilibre de Gibbs.

Réduire le risque et l’incertitude : Séparer cause et effet

Infrastructure Ubiquiste de l’Internet 0 :Contrôle On/OFF des données Temps Réel

Page 4: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

feuille de papier. Puis on demandait au visi-teur de reprendre la lentille et de reproduireexactement le même mouvement (position etvitesse). Quel que fût le soin qu’il y mettait, lerésultat obtenu était très différent de ce qu’ilétait la première fois.

Je demandais au directeur du musée ce quefaisaient les deux hommes debout dans uncoin, qui nous observaient. Il me répondit :« Oh, ce sont deux Hollandais qui attendentd’embarquer le « Chaos » ». Apparemment,cette exposition devait être démontée et trans-férée à Amsterdam. Depuis, je me suis tou-jours demandé si les services de ces deuxHollandais n’allaient pas être recherchés unpeu partout dans le monde par des organisa-tions qui voudraient se débarrasser de leur« chaos [1]. »

Pour l’industrie, la quête du Graal, c’est dedébarrasser la chaîne logistique du « chaos »pour mieux l’adapter aux fluctuations de lademande. La gestion de l’incertitude estobérée par le degré croissant d’asymétrie del’informationa entre les partenaires de la« chaîne » logistique ou du réseau de valeurb -designers, fournisseurs, distributeurs, détail-lants, consommateurs, dont les objectifs sontdifférents et souvent opposés, ce qui risque deparsemer d’embûches le chemin des réseauxd’affaires adaptifs de l’avenir [2].

Un des objectifs commerciaux des fournis-seurs est d’obtenir des fabricants qu’ilss’engagent sur des achats fermes de grandsvolumes (mais avec flexibilité de livraison).C’est donc en contradiction avec l’objectif duproducteur pour lequel une réaction rapide àune fluctuation de la demande conduit à unexcédent des stocks de matières premières. Lefabricant doit produire en masse (pour profiterdes économies d’échelle), mais les flux deproduction doivent s’adapter aux variationsde la demande même si l’utilisation des res-sources avait été planifiée sur la base de prévi-

sions. En fait, le producteur peut avoir besoinde plus ou moins de matières premières etrechercher la flexibilité en jouant sur les quan-tités achetées, ce qui va à l’encontre del’objectif du fournisseur. Le désir du fabricantde produire en grand nombre se heurte à sontour à celui des centres de stockage et de dis-tribution qui cherchent à réduire les volumesstockés, leur coût augmentant les frais detransport pour l’ensemble des acteurs.

Pendant l’année 2000 et pour les USA seuls,les coûts relatifs à la chaîne logistique dépas-sèrent le trillion de USD (10% du PIB),c’est-à-dire à peu près le PIB russe et plus quele PIB du Canada ou même le PIB combinédes 22 pays membres de la Ligue Arabe (dontles riches nations pétrolières), lui-même étantinférieur à celui de l’Espagne. Une simpleéconomie de 10% des coûts de la chaîne logis-tique aux USA équivaudrait pratiquement auPIB de l’Irlande[4].

En conséquence, les outils et procédés per-mettant de réduire les insuffisances de lachaîne logistique sont très précieux[5]. Lacapacité à s’adapter peut en effet ne pasdépendre de la seule technologie mais d’uneperpétuelle aptitude à l’innovation des pro-cessus dans la gestion de la SCM. Pour cela,les dirigeants doivent être capables d’imagi-ner l’utilisation combinée de différentsconcepts, outils et technologies pour réduire1/ les insuffisances, 2/ les incertitudes, et 3/l’asymétrie de l’information dans le réseau devaleur.

Le but recherché, c’est de passer d’un mana-gement logistique global basé sur l’offre(« push ») à un réseau auto-adaptif basé sur lademande (« pull »). Un des moteurs de cettetransformation, c’est l’utilisation potentiellede données et d’informations temps réelcomme déclencheur d’étapes de décisionautonomes susceptibles d’effectuer simulta-nément re-planification et exécution. D’aprèsdifférentes études, en 2003 les entreprises ontgénéré un flux de données par seconde supé-rieur à un téraoctet (sans compter les donnéesrassemblées par les AIT). Doit-on considérercela comme de l’information ? En l’état, c’estpeu probable ! L’aptitude à extraire des rensei-gnements à partir de données de manière àgérer l’information peut être le facteur de dif-férentiation entre les entreprises qui saurontexploiter les données (telles que l’identifica-tion automatique ou les capteurs) et celles quine le sauront pas.

Les données stockées dans les ERP peuventpâtir de problèmes qui réduisent la valeur de

Logistique & Management

6 Vol. 12 – N°2, 2004

a - L’asymétrie de l’informationest un concept emprunté aux

économistes et utilisé de façonassez informelle ici pour bien

souligner le manque de visibilitéde l’information (données) entre

organisations. En 1776, dansThe Wealth of Nations, AdamSmith avançait l’idée que lesmarchés en eux-mêmes don-

naient des résultats efficaces. Lapreuve mathématique spécifiant

les conditions dans lesquellesceci était vrai fut apportée en

1954 par Gérard Debreu (PrixNobel 1983) et Kenneth Arrow

(Prix Nobel 1972) dans leurouvrage Existence of an

equilibrium for a competitiveeconomy, Econometrica.

En 1986, B. Greenwald etJ. Stiglitz amenèrent la preuve

que quand l’information est in-suffisamment distribuée

(asymétrie de l’information) oules marchés imparfaits, l’équi-

libre compétitif est inefficace(Globalization and Its Discon-

tents, de Joseph Stiglitz).b - Les réseaux de valeur ren-

voient aux concepts avancés parClayton Christensen dans son

ouvrage The Innovator’sDilemna paru aux éditions Har-vard Business School en 1997. Ilse base sur les concepts de Gio-

vanni Dosi et RichardRosenbloom. Nous utiliserons

indifféremment les expressions« management de la chaîne

logistique - SCM » ou « réseauxde valeur ».

Ampex lança le premier magnétoscope en 1956.Chaque unité valait 50 000 USD et les seulsconcurrents, RCA et Toshiba, étaient loin der-rière. Sony, JVC et Matsushita étaient de simplesobservateurs. Masaru Ibuka, co-fondateur deSony et Yuma Shiraishi, JVC, demandèrent à leursingénieurs respectifs de produire des appareils à500 USD, soit à peine 1% du prix d’Ampex. Dansles années 1980, les ventes de magnétoscopessont passées, chez Sony, de 17 millions à 2 mil-liards, chez JVC, de 2 millions à 2 milliards, chezMatsushita de 6 millions à 3 milliards de dollarsUS et pour Ampex [3], de 296 millions à 480 mil-lions de USD.S’adapter ou Disparaître !

Page 5: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

leur information. De même, les systèmes ERPpeuvent compromettre l’efficacité des don-nées dynamiques si les systèmes statiquessont incapables de répondre en temps quasiréel. Aussi, quand les planificateurs utilisentce type de données ERP ou de sources d’infor-mation dans leurs prévisions ou optimisa-tions, on peut s’interroger sur la validité durésultat. En effet, l’optimisation du processusou la prévision elle–même peuvent avoir étéfondées sur des « bruits » plutôt que sur desdonnées dynamiques solides (cf. Figure n°1).La piètre qualité des données et l’asymétrie del’information entre les différents partenairesde la chaîne logistique sont enfin sourcesd’erreurs (d’optimisation, de prévision), etcelles-ci s’accumulent aux différents niveauxde la chaîne logistique, ce qui se traduit parl’Effet Coup de Fouet/Bullwhip6-9, comme lemontre la Figure n°5. La Figure n°6 présentel’Effet Bullwhip basé sur des données réellesprovenant de l’industrie des semi-conduc-teurs.

Vers des réseaux auto-adaptifs ?Les outils et technologies servant à lisserl’Effet Bullwhip peuvent aussi être utiliséspour inciter les chaînes logistiques à devenirauto-adaptives. Cela suppose que les organi-sations encouragent l’innovation des proces-sus d’affaires visant à améliorer l’interactionentre entités (échanges d’information intra etinter-entreprises) et qu’elles recherchent aussila disparition des silos de données. En réalitécependant, « culture » organisationnelle etgestion du changement sont nécessaires pourstimuler de nouveaux modes de penséesconcernant la convergence des concepts, desoutils, des technologies et des normes. Alors,quelques groupes pourront imaginer lamanière de connecter des objets (atomes)chargés de données (bits) à des processus ou àl’analytique temps réel pour en extraire

l’information temps réel destinée à des déci-sions auto-adaptives qui pourront, à leur tour,optimiser la nature (design, répartition) ou lescaractéristiques (prix, risque) d’objets dansune chaîne télématique.

Tableau 1 : Eléments de la convergencede concepts, d’outils, de technologieset de normes proposée.

Outilset Concepts Sources de Données

RechercheOpérationnelleThéorie des JeuxAgents (IntelligenceArtificielleDistribuée)Outilséconométriques(ODD-VAR-GARCH)Web SémantiqueGrid Computing

Technologies d’IdentificationAutomatique (RFID, ULB,GPS, RTLS2)Technologies d’identification(GPRS, Voix, Manuelle, Codeà barres 2e génération, Codeà barres)Protocoles sans fil (802.11,802.16)Réseaux capteurs(technologie Zigbee -802.15.4)Systèmes de Radio Logicielle(swr).

Recherche Opérationnelleet Théorie des Jeux.La locomotive de l’optimisation (les algorith-mes), c’est la recherche opérationnelle. C’estun domaine de prospection intense etd’innombrables sources d’information sontdisponiblesc. La Théorie des Jeux n’était pasun nom d’usage courant jusqu’en 1994, date àlaquelle les travaux de John Nash, et le filmdont il fut l’objet, incitèrent les journaux éco-nomiques généralistes à en découvrir progres-sivement les vertus. Pendant des siècles, leséconomistes ont travaillé sur différents modè-les de jeux théoriques, mais on considère queles pères de la Théorie des Jeux moderne [12]

Logistique & Management

Vol. 12 – N°2, 2004 7

2 - RTLS : Real-Time LocationSystem = Système delocalisation temps réel = RTLS.N.d.Tc - Cet article n’a pas pour butde rentrer dans le débatRecherche Opérationnelle etThéorie des Jeux. Noussouhaitons seulement fournirquelques descriptions etindications simples sur lespossibilités des applications dela Théorie des Jeux dans laSCM. Ces applications, enelles-mêmes, ne rendent pas laSCM plus réactive, mais lesmodèles proposés peuvent offrirdes vues plus profondes. Laplupart des entreprises sontlargement sous-optimisées. Etdans ce cas, savoir sil’information temps réel peutêtre une valeur ajoutée eststrictement spéculatif. Aussil’optimisation, incluant lesoutils théoriques des jeux,peut-elle être nécessaire pour« régler la machine » avant quel’information temps réel nepuisse aider à adapter la SCMaux événements. Pour unexcellent débat sur l’utilisationde la Théorie des Jeux dans leSCM, voir : 1/ Competition inthe Supply Option Market,Etudes de V. Albeniz et D.Simchi-Levi, MIT 2003, et 2/Game Theory in Supply ChainAnalysis, de G. Cachon et S.Netessine paru dans « SupplyChain Analysis in the eBusinessEra » sous la direction de D.Simchi-Levi, D. Wu et Z. Shen etpublié par Kluwer AcademicPress .

Figure 6 : L’Effet Coup de Fouet dans la chaîne logistique de l’équipe-ment semi-conducteur montre les prévisions de demande par rapportà l’achat réel d’équipement [11]

Figure 5 : L’Effet Coup de Fouet/Bullwhip[10]

Page 6: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

sont John von Neumann et Oskar Morgens-tern (1944). Cette théorie a connu depuis lorsde fantastiques développements, dont leconcept de l’équilibre, les jeux avec une infor-mation incomplète, les jeux coopératifs et lesenchères [13-18, 25].

La Théorie des Jeux nous aide à modéliser,analyser et comprendre le comportement desnombreuses parties prenantes qui interagis-sent dans le processus de prise de décision. Entant que telle, cette théorie s’occupe des pro-blèmes d’optimisation interactive. C’est, enparticulier, un outil d’analyse de situationsdans lesquelles les parties s’efforcent demaximiser leurs propres bénéfices (espérés)en même temps qu’elles choisissent leur stra-tégie. Au final, les dividendes de chaquepartie dépendent du profil des stratégies choi-sies par l’ensemble des parties. La plupart dessituations économiques peuvent être modéli-sées par un « jeu » car, dans toute interactionimpliquant deux parties ou plus, le bénéfice dechacune dépend des actions de l’autre. Doncle thème essentiel dans la Théorie des Jeux estInteractions. Dans le monde des affaires,chaque décideur est un acteur qui prend unedécision ou choisit une stratégie qui serainfluencée par le concurrent. Et on supposeque les hommes d’affaires font des choixrationnels pour optimiser leurs bénéfices.

Pourquoi les entreprises se comportent-ellesainsi ? Dans cette situation, et dans quelquesautres, elles sont confrontées à ce qui, dans laThéorie des Jeux, est connu sous le nom de« Dilemme du Prisonnier », la réponse ration-nelle n’étant pas forcément la plus senséed.

Le Dilemme du PrisonnierAlice et Bob sont arrêtés près du lieu d’uncambriolage. Ils sont interrogés séparément.Chaque suspect peut soit avouer, avec l’espoird’une peine plus légère, soit refuser de parler(ne pas avouer). La police n’a pas d’informa-tions suffisantes pour les inculper, à moins quel’un d’eux n’avoue. Chacun doit donc choisirentre avouer et incriminer l’autre ou se taire,sans savoir ce que l’autre va faire. Si aucun

n’avoue, tous les deux encourent alors unepeine d’un an de prison pour port d’armes pro-hibé. Si les deux avouent et s’accusentmutuellement, ils écoperont de dix ans de pri-son. Mais, si l’un des voleurs avoue et accusel’autre et que l’autre n’avoue pas, alors celuiqui a coopéré avec la police ressortira libretandis que l’autre sera condamné à la peinemaximale, 20 ans de prison. Dans ce cas« l’espace stratégique » est simple : avouer oune pas avouer, et chacun choisit une des deuxstratégies. Les dividendes (pénalités) sont lespeines infligées.

Tableau 2 : Le Dilemme du Prisonnier :Alice (colonne) opposée à Bob (ligne).

Alice Alice

avoue n’avoue pas

Bob avoue 10 - 10 0 – 20

Bob n’avoue pas 20 - 0 1 - 1

Dans ce tableau, les nombres représentent lespeines encourues par les prisonniers suivantles combinaisons de stratégies choisies. celuide gauche est pour la personne située dans leslignes (Bob), celui de droite pour celle figu-rant dans les colonnes (Alice). Ainsi, la lec-ture de la première colonne donne, de haut enbas : si tous les deux avouent, chacun estcondamné à 10 ans, mais si Alice est la seule àavouer, Bob est alors condamné à 20 ans etAlice est libre.

En conséquence, quelles sont les stratégies« rationnelles » dans ce jeu si tous deux veu-lent avoir la peine la plus légère ? Alice vafaire le raisonnement suivant : « De deux cho-ses l’une : ou Bob avoue, ou il se tait. S’ilavoue, je prends 20 ans (si moi, je n’avouepas) et 10 ans si j’avoue (si je coopère) ; dansce cas, il est préférable que j’avoue. D’unautre côté, si ni Bob ni moi n’avouons, j’écoped’une année ; mais là, si j’avoue, je ressorslibre. Dans les deux cas, il s’avère préférableque j’avoue. Donc, je vais avouer. » Mais Bobpeut, et vraisemblablement va, suivre le mêmecheminement intellectuel.

Les deux individus raisonnent de façonrationnelle, avouent et prennent chacun 10ans. Or s’ils avaient agi de façon irrationnelleet n’avaient pas avoué, ils n’auraient écopéchacun que d’une année seulement [19].

Le Dilemme du Prisonnier est un exemplesimple de jeu statique non-coopératif danslequel les joueurs choisissent en même tempsleur propre stratégie, et doivent s’y tenir.L’élément principal de ces jeux, c’est l’exis-tence et la spécificité de l’équilibre de Nash(NE). NE est le point où aucun joueur n’a inté-

Logistique & Management

8 Vol. 12 – N°2, 2004

d - A.W. Tucker, de PrincetonUniversity (il était conseiller de

John Nash pour son doctorat),est l’auteur du Dilemme du Pri-

sonnier. Au printemps 1950, ilétait à Stanford University et sonbureau, à cause d’un manque de

place, se trouvait au Départe-ment de Psychologie. Un jour,

un psychologue frappa à saporte et s’enquit de ce qu’il était

en train de faire. Tucker répon-dit : « Je travaille sur la théorie

des jeux. » Le psychologue luidemanda s’il pourrait faire uneconférence sur son travail. Et il

l’intitula « Le Dilemmedu Prisonnier. »

(www.nobel.se/economics/laureates/1994/nash-lecture.pdf).

Un fabricant de puces casse les prix de ses pro-cesseurs d’ordinateurs de bureau et portablesplusieurs jours après un mouvement similaired’un rival. « Nous allons faire tout ce qu’il faudrapour rester compétitifs sur les prix », dit un repré-sentant. La politique agressive de réduction desprix de la compagnie signifie que la compagniene veut pas abandonner ses gains sur ce marché,même au prix de pertes en final.(CNet, 30 mai 2002)

Page 7: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

rêt à changer sa stratégie puisque chacun achoisi celle qui maximalise ses propres béné-fices compte tenu des stratégies des autresjoueurs.

Un concept clé qui n’a pas été mis en exerguedans le Dilemme du Prisonnier, c’est la répéti-tion des interactions. Or dans le monde desaffaires, les joueurs savent qu’ils sont dans le« jeu » pour longtemps. Ils peuvent donc choi-sir de coopérer, surtout s’ils estiment que cettedémarche a des chances de faciliter la coopé-ration, voire la collaboration de demain. C’estpar des actions répétées que les compagnies sebâtissent une réputation, qui influence lesactions des autres. Par exemple, Intel Corp.utilise son programme de notation « fournis-seurs », qui évalue, pour chacun d’entre eux,les coûts, la disponibilité, le service, la rapi-dité de réaction et la qualité des prestations. Ilmaintient ainsi ses principaux fournisseursdans une course permanente à l’excellence.« Nous récompensons les fournisseurs qui ontles meilleures notes en faisant plus d’affairesavec eux », dit Keith Erickson, Directeur desAchats. Et comme incitation supplémentaire,Intel Corp. englobe de temps en temps sesmeilleurs fournisseurs dans ses publicités. Lacompagnie laisse même les plus performantsse prévaloir de leurs relations avec Intel Corpdans leur propre publicité.

Dans la réalité, chaque partie de la chaînelogistique agit de façon tout à fait égoïste. Etdonc la somme des choix individuels n’abou-tit pas à un résultat optimal pour l’ensemblede la chaîne. Le bénéfice d’une chaîne« décentralisée » composée de multiples com-pagnies gérées indépendamment est en géné-ral inférieur au total des bénéfices de laversion centralisée de la même chaîne, ver-sion dans laquelle les interactions entre parte-naires (fournisseurs, fabricants, détaillants)sont gérées par un seul décideur (moinsd’inconnues) de façon à optimiser les bénéfi-ces au profit de l’ensemble. Le partage del’information dans cette dernière configura-tion réduit les évidentes insuffisances de laversion décentralisée, qui sont dues à la« double marginalisation » découlant d’unprocessus de décision égocentrique. Donc, lebénéfice optimum est plus important dans unechaîne centralisée où l’information est par-tagée.

Une stratégie de réduction des carences dansune chaîne décentralisée est « l’intégrationverticale » : une entreprise possède chaqueélément de sa chaîne logistique. Ford MotorCompany en fut un bon exemple. De nos

jours, les demandes et préférences desconsommateurs changent rapidement. Lescompagnies qui se concentrent sur leur métierde base sont généralement plus réactives pourrester en tête de la compétition. En consé-quence, on constate une tendance à « l’inté-gration virtuelle » dans laquelle les chaîneslogistiques sont constituées de compagniesgérées indépendamment mais étroitementassociées. Des stratégies fondées sur le par-tage de l’information comme celle de la ges-tion partagée des approvisionnements (VMI –Vendor Managed Inventory) sont utilisées parquelques firmes (Dell, P&G, Wal Mart).

En dépit de progrès dans le partage de l’infor-mation, il est rare que les chaînes logistiquesactuelles disposent d’une connaissance totaledes acteurs et des décisions ou des résultats. Ilest courant qu’une firme ait une meilleure pré-vision de la demande qu’une autre ou qu’elleait une meilleure information sur ses proprescoûts et procédures de fonctionnement. Si uneentreprise sait qu’une autre est susceptibled’avoir une meilleure information, elle peutchoisir des modes d’action intégrant cettedonnée. La Théorie des Jeux donne des outilspour étudier des cas avec une asymétrie del’information d’une complexité analytiquecroissante. Pour illustrer ceci, nous allonsnous intéresser à un type particulier de jeu, leJeu de Signaux [20].

Jeu de Signaux

Dans sa forme la plus simple, le Jeu de Signauxse joue à deux. Un joueur a de meilleures infor-

Logistique & Management

Vol. 12 – N°2, 2004 9

Figure 7 : Valeur du partage de l’infor-mation – Accroissement du gain pourl’ensemble de la chaîne logistique(performance)

Page 8: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

mations que l’autre, et celui qui est le mieuxinformé bouge le premier. Par exemple, unfournisseur doit se mettre en situation de four-nir un composant clé de la production d’unfabricant. Celui-ci a une meilleure prévision dela demande que le fournisseur. Dans un mondeidéal, il pourrait partager son information avecson fournisseur pour que celui-ci se dote de lacapacité appropriée. Mais il a aussi intérêt à ceque son fournisseur dispose d’un volume decomposants plus important au cas où lademande serait plus forte que prévue. Il a doncintérêt à gonfler ses prévisions. Ce sera alors lefournisseur, s’il se fie au fabricant, qui suppor-tera le coût de l’augmentation de ces volumes.Le fabricant espère donc que le fournisseur vale croire et augmenter ses réserves. Heureuse-ment, ce dernier connaît le « jeu » du produc-teur. Quel geste (signal) venant du fabricantpourrait-il bien inciter le fournisseur à considé-rer comme crédibles les prévisions du fabri-cant ?

Dans cet exemple, la demande D est en fait lasomme de trois prévisions. La prévision dumarché (µ) est faite par des analystes. Le fabri-cant, à partir de ses sources ou de son expé-rience, établit ses propres prévisions xi (ξ ) qui,dans un système décentralisé, ne sont pas por-tées à la connaissance du fournisseur (asy-métrie de l’information). Cependant, celui-ci,par son expérience, s’est constitué une grille declassement des fabricants fondée sur leursantécédents et leur crédibilité. Ainsi, le four-nisseur confirme la confiance qu’il accorde au« type » d’information prévisionnelle du fabri-cant et peut choisir une valeur de ξ censée êtrereprésentée par une distribution normale. Ceciintroduit une variable aléatoire (stochastique).L’incertitude du marché est représentée parepsilon (ε) dont ni le fabricant ni le fournisseurne peuvent contrôler la valeur. C’est donc une

autre variable aléatoire (terme d’erreur),censée appartenir elle aussi à une distributionnormale.

Ces hypothèses, qui ne sont pas rigoureuse-ment quantifiées et que l’on suppose appartenirà une fonction donnée par une distribution nor-male, introduisent une variabilité. De telleserreurs s’accumulent au fil de chacune des éta-pes des chaînes logistiques (voir Figure n°9),contribuant ainsi à l’apparition de l’Effet Bull-whip. Nous énoncerons plus loin une proposi-tion pour étudier comment on pourrait réduireces écarts en se servant de données temps réelavec des outils analytiques combinant métho-des statistiques et dernières avancées dansl’économétrie des séries de temps [21].

Le jeu de signaux tel que décrit ci-dessusdémarre par l’annonce des prix par le fournis-seur : un prix ordinaire (w) et un prix pour achatanticipé (wa). Le fabricant établit sa prévisionde commande et, s’appuyant sur la fiabilitéqu’il accorde à ses prévisions, il réagit à la pro-position de prix global du fournisseur en émet-tant une commande anticipée (y) au prixconvenu de wa. Le volume de y envoie un« signal » au fournisseur, qui s’en sert pourconfirmer la crédibilité qu’il doit accorder à laprévision « D » du fabricant. Fort de cela, lefournisseur peut donc déterminer ce que doitêtre sa capacité de fourniture (K) de manière àoptimiser ses profits (risque inventaire). Au furet à mesure, l’incertitude du marché se préciseet le fabricant met à jour ses prévisions en utili-sant cette valeur (ε). Il commande alors à sonfournisseur le volume D-y, à un prix plus élevé(w). Bien que l’optimisation fondée sur dessignaux puisse accroître les profits du fabri-cant et du fournisseur, elle demeure cependantsujette aux erreurs commises dans la valeurattribuée aux variables ξ et ε .

Le Jeu de Signaux permet de penser qu’unbon moyen de réduire les incertitudes serait demieux préciser la valeur des variables ξ et ε .On dispose déjà d’un large éventail d’outils derecherche et d’optimisation pour s’attaquer àces valeurs ou à la façon d’obtenir des valeurs

Logistique & Management

10 Vol. 12 – N°2, 2004

Figure 9 : Les données temps réel peu-vent-elles influer sur la chaîne logistiquetraditionnelle au « bon moment » ?

Figure 8 : Le Jeu de Signaux.

Page 9: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

sûres. Cependant, la persistance d’amplesvariations dans les chaînes logistiques montreque les outils existants pour lutter contrel’incertitude ne sont pas forcément adaptés.C’est, en partie, l’une des raisons pour les-quelles nous proposons l’emploi de donnéestemps-réel pour réduire les erreurs,notamment pour les valeurs des variablesξ et ε .

Odd-var-garch :Un outil analytique pour mieuxutiliser les données temps-réel.

Les outils actuels de prévision peuvent êtreobérés par :• des données de piètre qualité,• des données agrégées,• une visibilité réduite pour les décideurs,• des modèles de flux de données médiocres,• une architecture informatique incomplète.

La précision d’une prévision tient en partie àl’adaptation des modèles mathématiques auxprocessus des entreprises. Pour autant, mêmeavec de meilleurs outils statistiques, le décro-chage entre fonctionnement et stocks seracause d’inadéquation. Seule la convergencedes données, des processus et des décisionspermettra d’obtenir une réelle visibilité.

Nous avons à notre portée une excellenteoccasion d’étudier les outils statistiques avecdes flots à ultra haut-débit de multi-gigabitsde données précises.

Un modèle proposé est le Odd-var-garch3

(Données Liées à l’Objet – AutoRégressionVectorielle – Hétéroscédasticité AutoRégres-sive Conditionnelle Généralisée). Ce n’estque maintenant qu’arrive à maturité ce secteurde recherche qui vise à combiner des modèlesséparés dans le but d’envisager la possibilitéd’étudier les séries de temps dans les systèmesde supply chain.

Les modèles de séries de temps peuvent éta-blir un rapport entre les valeurs « actuelles »d’une variable critique et ses valeurs passées(précédentes), et les valeurs des perturbationsactuelles ou passées ou des termes d’erreuraléatoires. En ce qui nous concerne, pour étu-dier cette modélisation, examinons les prévi-sions de demande du marché D :

D = µ + ξ + ε

sachant que :

µ = Prévision des marchés,ξ = Information des fabricants, etε = Incertitude des marchés.

Pour déterminer µ, on peut exprimer leModèle de Régression Linéaire Classique(CLRM) couramment utilisé comme uneéquation linéaire :

Yt = 0 + 1Xt + t (0)

dans laquelle :

Y = variable dépendante utile pourêtre modélisée à fins de prévision,t = période de temps,β = coefficients à évaluer,X = variable explicative, etε = terme d’erreur aléatoire(stochastique).

Cette technique simple peut modéliser demultiples variables explicatives puisque lavariation en Y dépend de paramètres multi-ples. Cependant, le CLRM suppose que ε estcaractérisé par une distribution normale avecune moyenne = 0 et une variance = σ2 pour tou-tes les périodes de temps (t) :

et ~ N(0, 2)

Le but du CLRM est d’évaluer les paramètres(β0, β1) du modèle en fonction de l’échantillondes observations faites sur Y et X. Ce procédéstatistique introduit deux sources d’erreur. Eneffet :

1/ prendre des données échantillon à partird’observations entraîne nécessairementdes erreurs d’échantillonnage, et

Logistique & Management

Vol. 12 – N°2, 2004 11

En 1959, GE confia à la firme deconsultants Arthur D. Little Inc. deBoston une étude pour déterminer s’ily avait ou non un marché pour destéléviseurs portables que GE étaitmaintenant en mesure de construireen utilisant des transistors solides. Aubout de plusieurs mois, toujours en1959, et après avoir dépensé dessommes vertigineuses (des millionsde dollars) en groupes d’études adhoc et en discussions, Arthur D. LittleInc. transmît ses conclusions à GE : iln’y avait pas de marché pour de telstéléviseurs. La direction de GE écartadonc ce projet proposé par sesingénieurs… Juste avant Noël 1959,Sony introduisait sur le marchéaméricain un petit téléviseur B&W eten vendit plus de 4 millions enquelques mois [3].

« A l’opposé, des centaines denouveaux MBAs intègrent chaqueannée des groupes aussi prestigieuxque McKinsey et Cie, et presqueautant en partent. Mais la firmeréussit, année après année, à obtenirdes résultats remarquables parce queses compétences intrinsèques sontenracinées dans ses méthodes et sesvaleurs plutôt que dans ses ressources(vision). J’estime cependant que cetteforce de McKinsey est en mêmetemps sa faiblesse. Les processusrigoureusement analytiques et baséssur des données qui l’aident àdégager des profits pour ses clientssur les marchés actuels, relativementstables, le rendent beaucoup moinscompétent sur les marchés destechnologies [22]. »

3 - Object Data Dependent –Vector AutoRegression –Generalized AutoRegressiveConditional

Page 10: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

2/ étant données les multiples combinaisonsde (β0, β1) que l’on peut évaluer, le but duCLRM est de choisir le couple (β0, β1) quiminimise la somme des restes au carré :

e t2

t=1

n

dans laquelle : et est le terme d’erreur aléatoirepour les données « échantillon », ε t est leterme d’erreur aléatoire des données « popu-lation », prise comme un tout.

Cette technique (le principe des moindres car-rés ordinaires - OLS4) minimise les erreurs deprévision en sélectionnant la paire (β0, β1) laplus pertinente.

Le CLRM combiné aux données temps réel(RFID) représente une avancée. Cette (combi-naison) idée est tirée des modèles arch etgarch. Odd-var-garch a besoin de grandsvolumes de données et donne des prévisionsavec une bien plus grande précision que ne lepourrait n’importe lequel des composants par-ticuliers pris séparément.

Odd-var-garch requiert des progressions detype séquentiel pour combiner le CLRM avecles techniques de séries de temps. Une équa-tion CLRM élémentaire est (1) :

Y = + X + X + + X +t 0 1 1t 2 2t k kt tβ β β β ε�

Et, parce que la dépendance du processus estcapitale pour la réussite, la fourniture de don-nées d’identification automatique temps réel àde vieux modèles de processus ne peut pro-duire que des avantages mineurs.

Une tâche pour l’innovation du processus estd’étudier comment les « X » changent avec letemps réel. Dans la prochaine étape du déve-loppement de Odd-var-garch, les valeurs des« X » sont prévues, d’après les données histo-riques, pour obtenir une prévision incondi-tionnelle de « Y ». Un modèle uni-variant estadapté à « X », dans lequel on utilise lesvaleurs passées (précédentes) de « X » pourprévoir « X ».

X = + X + X ++ X + u

1t 01 11 1t -1 12 1t -2

1N 1t-N XX1t X1t it

α α αα

� �

X = + X + X ++ X + u

kt 01 11 kt -1 12 kt -2

1N 1t-N XXkt Xkt kt

α α αα

(2)

(3) :

Y = + X + + X +t 0 1ii =1

N

1t-i Kii =1

N

Kt-i t

X1 Xkt

β α α ε∑ ∑�

Y = + X +t 0 Kii =1

N

K =1

K

Kt-i t

Xkt

β α ε∑∑ (4)

sachant que :

X1t = variable X1 au temps t,

Xkt = variable Xk au temps t,

X1t-1 = valeur de X1 au temps t-1 (valeurprécédente),

N = période jusqu’à laquelle les valeursprécédentes de X1t peuvent être utiliséesdans l’équation, et

U = terme d’erreur aléatoire.

Dans l’équation 2, α11 et α12 sont coefficientsde X1t-1 et X1t-2 et sont appelés coefficients depondération décalés. Suivant le nombre de« X » dans l’équation 1, on aura un nombre Kd’équations qu’il faudra évaluer pour prévoirles « X » (X1,…,XK) qui seront alors utiliséspour obtenir une prévision inconditionnellede « Y ». Ainsi, nous pouvons évaluer tous lesparamètres (α,β ) simultanément en re-écri-vant l’équation CLRM élémentaire (équation3 ou 4). L’équation 5, qui prend en comptel’impact sur Y des valeurs passées de Ylui-même, est de préférence (5) :

Y = + U + X +t 0 jj=1

N

t-j kii =1

N

k =1

K

kt-i t

Y XKT

β α εϕ∑ ∑∑

sachant que N ~ nombre de valeurs précéden-tes pour chacun des « X » dans le modèle.

En passant aux prévisions inconditionnellesde « Y », on accroît énormément le nombre deparamètres à évaluer, ce qui nécessite unimportant volume de données précises(AIT5).

Il se peut que les entreprises plus petites seplaignent qu’il leur est impossible d’évaluer6000 paramètres ou plus pour chaque sku6.Pourtant, cela deviendra faisable en recueil-lant, via le grid, la puissance de traitement nonutilisée dans de nombreux domaines.

On peut élargir l’équation 5 de manière àenglober le principe d’application de laco-intégration dans les systèmes décisionnels.La plupart des planificateurs pratiquent l’ana-lyse de régression en la supposant fixe, pro-duisant ainsi « des régressions fausses ».L’idée de variables multi-co-intégrées a étédéveloppée par l’introduction du concept dedegré d’intégration d’une variable. Si une

Logistique & Management

12 Vol. 12 – N°2, 2004

4 - OLS = Ordinary LeastSquares.

5 - Automatic IdentificationTechnology

6 - Stock Keeping Unit = unitéde stockage

Page 11: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

variable peut être rendue plus ou moins fixe enla différenciant d fois, on dit qu’elle estintégrée de l’ordre d, ou ~ I(d). Des variablesaléatoires faiblement fixes sont par consé-quent I(0). Beaucoup de variables(macro-économiques) peuvent être considé-rées comme des variables I(1). Si Zt ~ I(1),alors ∆ Zt ~ I(0).

Considérant le CLRM : Y = + X +t 0 1 t tβ β ε

supposons que Yt ~ I(1) et en même tempsXt ~ I(1). Alors, puisque les variables I(1)dominent les variables I(0) dans une combi-naison linéaire, généralement Yt – β1Xt ~ I(1).Cependant, si le terme d’erreur aléatoireε t ~ I(0), alors Yt - β1Xt ~ I(0). Dans unecombinaison où le coefficient β1 est unique,les variables Yt et Xt sont dites co-intégrées.La somme cumulative des écarts de la relationco-intégrante Yt – β1Xt = 0 est alors nécessai-rement une variable I(1). Si cette nouvellevariable Wt est co-intégrée avec les variablesco-intégrées d’origine (Yt ou Xt), alors on ditque Yt et Xt sont multi-co-intégrés.

Les insuffisances du CLRM découlent du faitque la valeur attendue du terme d’erreurprévu, åt, lorsqu’elle est mise au carré, estsupposée être la même en tout point, en touttemps et quelle que soit l’observation (don-nées transversales).

Il y a souvent une présomption d’homoscé-dasticité quant aux données transversales.Quand cette supposition n’est pas respectée,on parle alors d’hétéroscédasticité.

Le CLRM ignore le comportement hétéroscé-dastique du terme d’erreur ε t et il produit desprévisions qui peuvent donner un faux senti-ment de précision parce que la volatilité de laprévision est liée à la volatilité du termed’erreur ε t. Pour modéliser cette variancenon-constante (hétéroscédasticité), on utili-sait la technique du Déplacement MoyenAutoRégressif (AR-MA).

AR est une technique qui permet de ramenerune variable à ses propres valeurs précéden-tes : Y à Y , Y , , Yt t-1 t -2 t -p�

MA exprime les observations présentes d’unevariable en fonction des valeurs actuelles etprécédentes du terme d’erreur aléatoire ε t,ε t-1, …, ε t-q, q étant l’ordre du processusmoyen de déplacement MA (q). En combinantAR (p) et MA (q), on obtient ARMA (p,q), pet q représentant l’ordre précédent de AR etMA.

On utilisait cette technique ARMA pourmodéliser la volatilité variant dans le temps,ce qui a conduit au modèle d’Hétéroscédasti-cité Conditionnelle Auto-Régressive appeléARCH. ARCH nous permet de prévoir lavolatilité du terme d’erreur aléatoire ; il nousoffre ainsi une mesure de Valeur à Risque. Lavariance du terme d’erreur aléatoire (ε t) dansl’équation 5 peut être développée en fonctiondes valeurs actuelles et précédentes (ε t, ε t-1,ε t-2,…, ε t-q) comme suit :

σ t2

0 1 t -12

2 t -22

q t -q2= + + + +θ θ ε θ ε θ ε�

dans laquelleσ t2 est la variante de ε t [var(ε t)].

Cette représentation MA (q) de σt2 fut plus

tard étendue à une représentation ARMA deσ t

2 bande 1, que l’on appelle modèle « Hété-roscédasticité Conditionnelle Auto-Régres-sive Généralisée » ou GARCH. GARCHévolua par régression d’une variable (σt

2) surses propres valeurs précédentes (passées)σ σ σt -1

2t -22

t -p2, , ,� .

Y = + Y + X +t 0 jj=1

N

t-j kii =1

N

k =1

k

kt -i t

y XKT

β α εϕ∑ ∑∑

σ t2

0 1 t -12

2 t -22

q t -q2= + + + +θ θ ε θ ε θ ε�

La variance du terme d’erreur aléatoiredépend non seulement des valeurs précéden-tes de ε (t-1, t-2,…, t-q) mais aussi des valeursprécédentes de la variance σ2(t-1, t-2, …, t-p).

Y = + Y + X +t 0 jj=1

N

t-j kii =1

N

k =1

k

kt -i t

y XKT

β α εϕ∑ ∑∑

σ ∑ ∑t2

0 ii =1

q

t -i2

jj=1

p

t -j2= + +θ θ ε τ ε (6)

GARCH et Prévision.

La technique odd-var-garch saisit aussi ladynamique entre entités dans le réseau devaleur. La dynamique transversale réellecaptée par les modèles VAR relie chaquevariable aux valeurs passées de toutes lesautres variables dans le modèle.

Pour modéliser une dynamique multi-variantede n = 2 en utilisant VAR(p), supposons quep = 1 (décalé de 1 période). L’équation 6peut être étendue au type odd-var-garch pourmodéliser deux entités et considérer seule-ment une période de décalage (n=2, p=1)comme figuré dans l’équation 7.

Y = + X + Y

+ Y +

1t 0 kii =1

N

K =1

K

kt-i 11 1t -1

12 2t -1 1t

XKT

β α

ε

∑∑ ϕ

ϕ

Logistique & Management

Vol. 12 – N°2, 2004 13

Page 12: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

Y = + X + Y

+ Y +

2t 0 kii =1

N

K =1

K

kt-i 21 1t -1

22 2t -1 2t

XKT

β α

ε

∑∑ ϕ

ϕ

σ ∑ ∑1t2

0 ii =1

q

1t -i2

jj=1

p

t -j2= + +θ θ ε τ ε

σ ∑ ∑2t2

0 ii =1

q

2t -i2

jj=1

p

2t -j2= + +θ θ ε τ ε

Dans le modèle var-garch, les interactionsentre domaines de décision sont prises encompte en évaluant le coefficient ϕij qui serapporte aux changements en Yi compte-tenude Yj.

L’impact du changement dans le termed’erreur sur la variable fiable est appelé Fonc-tion de Réponse d’Impulsion.

Appliqué à un grand volume de données pré-cises fournies par l’AIT grâce au grid compu-ting (sémantique), Odd-var-garch pourraittrès bien devenir un outil pour des organisa-tions recherchant une grande précision dansles prévisions de demande et dans les prédic-tions de chiffres en combinant les modèlesbasés sur équation (EBM) et les modèlesbasés sur agents (ABM).

Le GRID

Le modèle de simulation peut être optimisépar l’analyse basée sur données, qui en amé-liore ainsi la précision. De plus, les modèlesbasés sur équation (EBM) peuvent imposerd’évaluer des milliers de paramètres commedes objets uniques. En conséquence, l’avenirdes analyses de données d’affaires peut avoirdes besoins informatiques radicalement diffé-rents.

L’analytique de la supply chain exige desapplications créatives, un partage des ressour-ces à grande échelle et une informatisation àhaut-débit qui puisse fonctionner dans unenvironnement dual EBM et ABM. Le Gridcomputing7 annonce un monde dans lequel lesressources partagées seront intégrées dans des« organisations virtuelles » (vo) réalisées viades portails Web (sémantiques) et des applica-tions très largement distribuées.

Le Grid computing a fait un pas de plus vers lemonde commercial lorsque le Projet Globus asorti de nouveaux outils logiciels qui fusion-nent grid et Web services, lesquels reviennentalors sous l’appellation : Web Services Gridsémantique.

Le grid en tant qu’instrument de partage deressources est confronté à des défis d’accèsexceptionnels. En général, les échanges B2Bsont inhibés par des préoccupations de sécu-rité. Pourtant, il existe bien des protocoles, desservices, des inter-faces de programmation(API – Application-Programming Interfaces)et des kits de développement de logiciels(SDK - Software Development Kits) quigarantissent la sécurité du partage de res-sources. On étudie même l’emploi d’Agentscomme gardes de sécurité.

Les Organisations Virtuelles peuvent varierdans leur but, leur étendue, leur taille, leurdurée, leur structure et leur sociologie. Pour-tant, elles ont toutes le même besoin de :

[1] Relations de partage souples,[2] partage de ressources variées, et[3] Modes d’utilisation variés.

Les technologies de calcul8 distribué ne peu-vent actuellement accepter que des accès hau-tement centralisés et donc limités – troprigides pour les VO dynamiques. C’est donclà que les technologies grid peuvent apporterde la valeur ajoutée, dont des :

[1] Solutions de Sécurité,[2] Protocoles de gestion des ressources,[3] Protocoles et services de recherched’information, et[4] Services de gestion des données.

La concentration des technologies grid sur lepartage transversal plutôt que sur la connecti-vité intra-organisationnelle complète plutôtqu’elle ne concurrence les technologies decalcul distribué existantes.

L’architecture grid doit indiquer comment lescomposants fondamentaux du système intera-gissent les uns avec les autres. L’interopérabi-lité dans un environnement en réseau découlede protocoles communs. De là, l’architecturegrid est d’abord et avant tout une architecturede protocole. Et il était nécessaire que l’archi-tecture constituant les services Grid middle-ware acceptât un ensemble commund’applications dans un environnement deréseau distribué.

Les mécanismes doivent faciliter les relationsde partage qui peuvent être mises en placeentre des parties arbitraires, à travers diffé-rents environnements de programmation.Parce que les VO sont le complément des ins-titutions existantes, les mécanismes de par-tage grid ne peuvent pas imposer dechangements substantiels aux règlementslocaux et doivent permettre aux institutions

Logistique & Management

14 Vol. 12 – N°2, 2004

7 - Technologie de mutualisationdes ressources en réseau. N.d.T

8 - ou Computing distribué.

Page 13: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

individuelles de garder le contrôle ultime surleurs propres ressources.

La Figure 11 illustre les différentes couchesde l’architecture grid établie sur un modèle« de sablier » dont « l’étranglement » définitun petit ensemble d’abstractions et de proto-coles centraux sur lesquels de nombreux com-portements différents de haut niveau (en haut)et de nombreuses technologies sous-jacentes(en bas) peuvent être mis en correspondance.• Le « grid Fabric » est l’interface pour le

contrôle « local ».• La couche « Interface Fabric » fournit les

ressources pour lesquelles l’accès partagéest géré par les protocoles grid.

• La couche « Connectivité » définit les pro-tocoles centraux de communication etd’authentification requis pour les transac-tions de réseau spécifique grid.

• La couche « Ressource » s’ajoute à lacouche Connectivité pour définir les proto-coles régissant la gestion de la sécurité, lecontrôle, la comptabilité et le paiement desopérations de partage faites sur les res-sources individuelles.

• La couche « Collection » est donc globalepar nature et peut mettre en œuvre unegrande variété de comportements de par-tage sans imposer de nouvelles exigencessur les ressources.

• La couche finale du grid englobe les Appli-cations « utilisateur » qui fonctionnent ausein d’une VO. Ces applications sont élabo-rées par échange de messages de protocolesavec le service ad hoc de manière à réaliserles actions souhaitées.

Prise dans sa globalité, cette architectureouverte offre une multitude de combinaisonssouples. Mais le grid computing concerne lepartage contrôlé. Et actuellement, il y a undébat pour savoir si oui ou non le logiciel griddevrait définir les services du système defonctionnement (OS – operating system) àinstaller sur chaque système participant.

Une grande partie de ce qui doit être réalisépar l’architecture grid ouverte est appelée« grid middleware ». On attend un grid com-puting haute performance pour qu’il soit pos-sible d’effectuer des simulations à partir deplusieurs organisations différentes, ce qui per-mettrait d’entreprendre une simulation del’ensemble du système.

La technologie et l’architecture constituentles « Grid Middleware services » nécessairesau soutien d’un ensemble complet d’applica-tions dans un environnement de réseau distri-

bué tel qu’une « supply chain » ou un réseaude valeur.

Pourquoi l’interopérabilité est-elle une préoc-cupation fondamentale ? Imaginez les consé-quences pour votre supply chain si vousdeviez abandonner un fournisseur aux normesRosettaNet et vous approvisionner chez unfabricant de Shinzen (en Chine) qui n’a jamaisentendu parler de RosettaNet ni de sa normePIP's ! Le Grid doit faciliter les relations departage qui peuvent être mises en place entredes parties arbitraires de manière à intégrerde nouveaux participants de façon dynamiqueet rapide, au-delà des différences de plate-for-mes, de langages, de localisations géographi-ques et d’environnements de programmation.Les mécanismes ne servent pas à grand choses’ils ne sont pas définis et développés pourêtre interopérables quelles que soient les fron-tières organisationnelles, les politiques opéra-tionnelles et les types de ressources.

Logistique & Management

Vol. 12 – N°2, 2004 15

Figure 10 : Réseau de valeur auto-adaptif ?

Figure 11 : L’architecture Grid en relation avec l’architecture Internet.Parce que l’architecture Internet va du réseau à l’application, il y aune mise en correspondance du Grid avec les couches Internet.

Page 14: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

En conséquence, les protocoles sont égale-ment cruciaux pour l’interopérabilité. Le Weba révolutionné le partage de l’information enfournissant une syntaxe (http, html) et un pro-tocole universels pour les échanges d’infor-mation. De son côté, le Grid exige desprotocoles et syntaxes standards pour le par-tage de ressources générales. Les protocolesGrid, par définition, préciseront à la fois lafaçon dont les éléments du système distribuéinteragissent les uns avec les autres (pour par-venir à un fonctionnement déterminé), et lastructure de l’information échangée pendantcette interaction. Dans les versions futures, lesontologies pourraient jouer un rôle de plus enplus important dans la « compréhension » del’information échangée via l’utilisation dulangage sémantique (Web Ontology Lan-guage - WOL). L’accent mis sur les interac-tions externes plutôt qu’internes (software,caractéristiques des ressources) a des avanta-ges pratiques importants pour le SCM, sys-tème dans lequel la fédération un peudistendue des partenaires tend à être floue.

De là, les mécanismes utilisés pour découvrirles ressources, établir l’identité, déterminerl’autorisation et lancer le partage doivent êtresuffisamment souples pour être établis etchangés rapidement. Du fait que les organisa-tions virtuelles (VO), type réseau de valeur,complètent plutôt qu’elles ne remplacent lesinstitutions existantes, le partage de mécanis-mes ne peut pas imposer de changementssubstantiels aux politiques locales et il doitpermettre à chaque établissement de garder lecontrôle ultime sur ses propres ressources. Etcomme les protocoles régissent l’interactionentre composants (mais pas leur mise enœuvre), le contrôle local est bien préservé. Lepartenaire commercial de Shinzen, en consé-quence, peut ne pas avoir à transformer sonsystème b2b ou s’abonner à RosettaNet pours’engager avec vous dans une relation d’affai-res en tant que nouveau membre de la chaînede valeur.

Pour que les outils de découverte soient utiles,les Web services exigeront une grille ontolo-gique et l’intégration avec le grid, de manièreà évoluer en services du grid Sémantique.Enfin, pour parvenir à une fonctionnalitécomplexe, il pourrait être nécessaire d’avoirune convergence des ABM à l’intérieur desservices du grid sémantique.

AgentsNous allons étudier ce que sont les Agents etquelle est leur importance dans les systèmes

décisionnels. Le concept d’Agents a germé ausein du MIT et s’est développé à partir del’étude du fonctionnement de l’esprit humainet de l’intelligence [38]. Les origines desAgents sont donc inspirées de la biologie etinscrites dans le mouvement de l’IntelligenceArtificielle (AI), mouvement qui s’imposaautour des années 1950. Quelques uns des toutpremiers concepts d’Agents servirent à créerdes « difference engines », l’unité logiquepeut-être la plus ancienne du réseau neuronald’aujourd’hui (software). L’aspect « intelli-gence » des Agents est un paradoxe concep-tuel. Par lui-même un Agent n’est pasintelligent ; en revanche, les « Agences » lesont. On insuffle aux Agents, qui fonctionnentcollectivement comme un « essaim », unedynamique supérieure et des capacités adapti-ves basées sur l’apprentissage, ce dont lesalgorithmes statiques basés sur équation man-quent.

Leur autonomie permet aux Agents d’exécu-ter des opérations en réponse à des change-ments sans qu’il y ait besoin d’uneintervention humaine permanente. De plus,les Agents qui partagent un même environne-ment avec d’autres Agents (Agences) dans unSystème Multi-Agents9 sont capables demobilité entre les différents environnements.

Un logiciel ebm est incapable de s’adapteraux événements non-linéaires en intégrant demultiples sources d’information. Les Agen-ces « Intelligentes » pourraient donc devenirun outil essentiel pour servir d’interface avecdes sources multiples de données de manière àen extraire une information en temps réel.

Les Agents utiles doivent être alignés sur cesconcepts :• correspondre à des « choses » dans le do-

maine en question plutôt qu’à des fonctionsabstraites,

• être petit en masse, en temps (capable d’ou-blier) et en étendue,

• respecter une grande diversité,• inclure un mécanisme dispersif,• avoir des moyens de saisir et de partager ce

qu’ils apprennent sur leur environnement,• planifier et exécuter de manière concou-

rante plutôt que séquentielle, et• les Systèmes Multi-Agents (MAS) de-

vraient être décentralisés.

Agents vs Equations

L’unité élémentaire des modèles basés suréquation (EBM) relie des données observa-

Logistique & Management

16 Vol. 12 – N°2, 2004

9 - MAS = Multi-Agent System.

Page 15: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

bles dont les valeurs sont affectées par lesactions d’individus multiples, alors que lefonctionnement d’un Agent n’influe pasdirectement sur la représentation de ces com-portements individuels ; ce qui maintient doncdes frontières entre individus. Cette diffé-rence donne aux modèles basés sur Agent(ABM) un avantage en terme de sécurité desapplications commerciales :• Dans un ABM, chaque entreprise a son

propre groupe d’Agents. Il n’est pas néces-saire que les comportements internes del’Agent soient visibles au reste du système.De cette façon, les firmes peuvent conser-ver l’information relative à leur fonctionne-ment interne.

• Une supply chain multi-sections complexepeut être découplée au niveau de l’Agent,permettant une modification des Agents in-dividuels pour refléter une optimisation lo-cale. Puisque ces agents font partie d’uneAgence supérieure, la chaîne logistiquecomplexe reflètera alors une optimisationglobale – la migration d’un modèle de si-mulation vers un modèle de contrôle adap-tif est simple et directe.

Les Agents sont aussi pourvus d’un méca-nisme d’oubli. Les outils de prévision typesbasés sur ebm utilisent comme alternative unemoyenne pondérée des données historiques.

Les ebm ignorent aussi le fait que la planifica-tion et l’exécution ne sont pas concourantes.Les Agents, qui cherchent à éviter le mode defonctionnement « planification puis exécu-tion », évaluent de manière probabilistel’impact du travail sur son utilisation en fonc-tion du temps, d’après l’information en prove-nance du client sur des durées acceptables.

On demande aussi que les systèmes puissentcalculer plusieurs paramètres et les pondérer.En conséquence, les Agents présents dansl’architecture du système doivent être en lienlogique avec les différents systèmes distri-bués.

Le Système Multi-Agents (MAS) nous offrela possibilité de répondre avec la finesse quirequiert de nombreuses connexions à lamémoire en succession rapide.

Agents en maintenance

Même quand une opération n’a que peu devariables critiques de mission, l’emploid’Agents est crucial. Par exemple, telles opé-rations de maintenance sur un aéronef donnérévèlent que l’incapacité à réparer les appa-

reils ou les moteurs était due à un manque depièces de rechange. La modélisation basée surAgent des processus de maintenance permet-trait d’intégrer la demande en provenance desmultiples postes, en anticipant sur les défail-lances de pièces par la gestion des métriquescomme le MTBF ( Mean Time Between Fai-lure - Temps moyen écoulé entre deux pan-nes).

Agents dans la Fabrication

L’industrie aérospatiale commercialefabrique peu de produits et vend à unensemble de clients différents de celui ducommerce de détail. Quelques pièces (modu-laires) et composants servent à plusieursmodèles différents (variantes). Ce secteur,comme celui de l’industrie automobile, tire unbénéfice significatif de la vente subséquentede pièces de rechange et de services. Enconséquence, les compagnies ont accès à unemasse importante de données d’utilisation.

Prenons un exemple : la panne un peu troprapide de deux pompes hydrauliques aux deuxbouts du monde incite un Agent à étudier cetterécurrence. Elles venaient toutes deux dumême lot de fabrication. L’Agent pousse alorsles techniciens de la maintenance à réaliserune analyse de vibration particulière, qui meten évidence un défaut dans l’ensemble du lot.Si l’Agent avait disposé, dans ce réseau devaleur, des données d’analyses de vibrationfaites par le fabricant, il aurait décelé cette ten-dance avant même qu’une seule pompe netombe en panne. Une analyse comparativeimplique l’accès à un traitement de donnéesmassives en un temps raisonnable. Les Agentspourraient accomplir de telles tâches rapide-ment et prédire, donc prévenir, une catas-trophe potentielle.

Or, les réseaux de valeur avec points d’accèsintégrés aux données distribuées via le Gridpeuvent rendre disponible l’informationnécessaire pour qu’un Agent puisse décelerune prédisposition à partir des données fabri-cant, lot, date d’installation et heures d’utili-sation.

Dans un autre scénario, prenons un systèmeAgent qui opère dans le domaine exclusif del’analyse des retours. Cet Agent remarque quele taux de retour des produits d’un fabricant adépassé un certain niveau ces dernières semai-nes. Pourquoi ? Ce produit a une valeur relati-vement élevée, il pèse plus de 08 kilos et laplupart ont été envoyés à 800 kilomètres ouplus. L’alerte lancée par l’Agent arrive au

Logistique & Management

Vol. 12 – N°2, 2004 17

Page 16: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

manager qui inspecte par hasard un condition-nement. Bingo ! Ce packaging est différent decelui des produits qui ont un taux de retourmoins élevé. Un coup de téléphone confirmeque le fabricant a changé tout dernièrement defournisseur d’emballage.

Les Agents peuvent aussi être utiles dans ledomaine de la vente. Ainsi, Dell permet à sesclients de configurer eux-mêmes leurs ordina-teurs. L’allotissement (ou bundling) est unetechnique de marketing ; on associe deux pro-duits que l’on vend à un prix unique inférieurau montant normal de la vente séparée desdeux produits. Ce système procure des recet-tes et bénéfices plus importants que si chaqueélément était vendu séparément. Dell emma-gasine des exaoctets d’information sur leshabitudes d’achat des clients. Un Agent « ana-lytique » est capable de repérer une tendancedu type : 40% des clients qui achètent un sup-plément de mémoire prennent aussi un pro-cesseur grande vitesse. Un Agent« marketing » peut « parler » à l’Agent « prix »pour offrir des ristournes si la mémoire estachetée avec le processeur. Comme la ten-dance des choix pour les combinaisons(mémoire contre vitesse de processeur)évolue en fonction du profil démographiqueou géographique, les données fournies par lesAgents analytiques peuvent être utilisées parles agents « marketing » et « prix » pour offrirde nouvelles options de bundling (fixationdynamique du prix). Ce qui peut augmenter lademande pour la mémoire et accroître recetteset bénéfices. Il est possible aussi de cibler lesclients potentiels pour commercialiserl’option de discount groupée.

En proposant trois options ou plus, sans parlerdes accessoires type appareils photos, MP3 ouimprimantes, le nombre de combinaisons pos-sibles de produits augmente. Pour les Agents,analyser des montagnes de données, décelerles possibilités (multiples) de bundling ets’adapter aux fluctuations de la demande qua-siment en temps réel est très simple. Ils le fontbeaucoup plus vite (des milliards de fois plusvite) que ne pourrait le faire un être humain ouun logiciel basé sur équations. La techniquedu bundling permet d’améliorer les ventesd’un stock de produits peu demandé ou en finde vie (EOL- End-of-Life) avant d’introduirede nouvelles versions ou de nouveaux pro-duits.

Technologies d’identificationautomatique (AIT).

Les AIT offrent aux outils le pouvoir d’acqué-rir des données sur l’objet. Les Codes ProduitsElectroniques (EPC) introduisent la standar-disation d’un format pour données minimalessur les étiquettes RFID (étiquettes ULB) quiservent de référencement à des objets physi-

Logistique & Management

18 Vol. 12 – N°2, 2004

Figure 12 : La supply chain de l’industrie aérospatiale commerciale :collecte de l’information.

Figure 13 : Les Agents dans le commerce de détail

(ce schéma montre où l’on peut intégrer les Agents « retours » et « bundling »).

Page 17: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

ques, dont l’avalanche des données pourraitêtre stockée sur Internet.

RFID : les questions de protection de laconfidentialité.

Les avocats de la protection de la confidentia-lité sont anti-RFID parce qu’ils ne compren-nent pas que le RFID, en tant que technologie,ne peut pas envahir la vie privée. Que les don-nées consommateur soient liées ou non auxdonnées inventaire est seulement une décisionde processus.

ULB

Plusieurs scenarii semblent indiquer que lesbénéfices tirés de l’utilisation d’étiquettesULB dépasseraient le coût d’utilisation d’éti-quettes RFID passives à faible coût. Le métalou le béton n’arrêtent pas l’ULB, et ce sys-tème est sûr. La capacité spatiale de l’ULB est1000 fois supérieure à celle de l’UHF. Elleoffre d’appréciables taux de débit qui fonc-tionnent malgré des interférences multi-voies.Dépourvue de restrictions de spectre pays,l’ULB peut devenir une norme mondiale pourdes communications courte portée.

Les réseaux de capteurs

Les réseaux de capteurs sans fil sont un bonexemple de grille informatique diffuse. Ilssont autonomes et forment des réseaux sans filqui se chargent de données à travers desnœuds spécifiques qui peuvent être connectésaux stocks de données. Du fait de certainspouvoirs analytiques, le réseau de capteurstransmet des analyses de données plutôt quedes données brutes de manière à fournir desréponses.

Le web semantique

Le Web sémantique est un recueil de donnéesen langage rdf (Cadre de Description de Res-sources) qui décrit la signification des don-nées à travers les liens aux ontologies10, quiagissent comme des glossaires décentralisés.Le Web sémantique peut offrir la transparencedu processus au-delà des frontières du lan-gage et de la géographie, même si les partenai-res individuels accomplissent certainesfonctions d’une manière différente des autres.

Les agents seront capables de collecter lecontenu du Web à partir de différentes sour-ces, de traiter l’information et d’échanger lesrésultats avec d’autres programmes ou don-nées, rendant ainsi plus facile le développe-ment de programmes qui peuvent s’attaquer àdes questions compliquées dont les réponses

ne se trouvent pas sur une seule et unique pagedu Web.

Les ontologies peuvent aussi être utiliséesd’une manière toute simple pour améliorer laprécision des recherches sur le Web, parexemple par l’utilisation des règles de déduc-tion.

Une importante facette du fonctionnement (del’Agent) sera l’échange de « preuves » écritesen langage unificateur du Web sémantique.Quelques programmes peuvent déjà échangerdes preuves de cette manière, en utilisant desversions préliminaires. La Figure 14 montreles couches du Web sémantique de Tim Ber-ners-Lee.

Le web sémantique adaptif dans le domainede la santé ?

Le partage de la connaissance dans le WebSémantique via la conception d’Agents peuttrouver un emploi dans le domaine de la santé :

L’utilisation de micro-antennes permet d’exa-miner l’expression des gènes, mais elle pro-duit en même temps une masse ahurissante dedonnées. Pour identifier un état de maladie, ondoit identifier la position d’un gène sur la cartedu génome humain. Une combinaison del’information qui nous dit quels sont les gènesactifs et où l’on peut trouver ce gène actif surle chromosome est un gain extraordinairepour la bonne intelligence du meilleur moded’administration du traitement.

Pour réaliser les connections logiques à partirde ce vaste amas de données, nous avonsbesoin d’Agents dans le Web Sémantique.

Logistique & Management

Vol. 12 – N°2, 2004 19

Figure 14 : Les couches du Web sémantique

10 - Ontologie = Spécificationformelle de la représentationdes concepts, objets et entités etde leurs relations. N.d.T.

Page 18: ADAPTER, OPTIMISER, PRÉVOIR La convergence des concepts ...

Conclusion

Les entreprises utilisent des modèles pouroptimiser les profits ou même prévoir l’actionfuture. Mais ces modèles ont beau être omni-présents, un modèle tiré d’un domaine parti-culier n’interagit pas avec un autre.Pouvons-nous exploiter la puissance demodèles à données multiples ? Nous pour-rions faire des prédictions basées non plus surquelques paramètres comme dans un modèlebasé sur équation (EBM), mais bien sur desmilliards de faits et de fonctions différents queles modèles basés sur Agent (ABM) permet-traient de contenir.

Les décideurs peuvent souhaiter profiter deséléments clés (outils et technologies) men-tionnés dans ce document et rechercher desmoyens de réaliser la convergence. Les pro-grès dans cette direction peuvent être mesuréspar le degré de fusionnement significatif entrebits et atomes en fonction du processus.

Bibliographie

[1] Gell-Mann, M., « The Quark and TheJaguar », éditions W.H. Freeman and Com-pany, New York 1994.

[2] Heinrich, C. et Bettes, B. « Adapt or Die :Transforming your Supply Chain Into anAdaptive Business Network », éditions JohnWiley and Sons, 2003.

[3] Tellis, G.J and Golder, P.N., « First toMarket First to Fail? Real Causes of EnduringMarket Leadership », Sloan ManagementReview, n°37 (2), 1996, pages 65-75.

[4] www.wrmea.com/archives/sept-oct02/0209044-2.html, et www.bea.doc.gov

[5] Shimchi-Levi, D., Kaminsky, P. et Sim-chi-Levi, E., « Designing and managing theSupply Chain », 2nd ed, 2002

[6] Forrester., J., « Industrial Dynamics »,MIT Press, 1961

[7] Sterman, J.D., « Modeling managerialBehavior : Misperceptions of feedback in adynamic decision making experiment »,Management Science (1989) ;

[8] Lee, H., Padmanabhan, P. et Whang, S.,« The Bullwhip Effect in Supply Chains »,

Sloan Management Review n°38, 1997, pages93-102

[9] Brame, J. et Simchi-Levi, D., « The Logicof Logistics », Springer 1997.

[10] Joshi, Y.V., « Information visibility andits effect on supply chain dynamics », MSThesis, MIT, 2000.

[11] Cohen, M., Ho, T., Ren, J. et Terwiesch,C., « Measuring imputed cost in the semicon-ductor equipment supply chain. » Workingpapers ; Wharton School, 2003.

[12] Neumann, J.V. et Morgenstern, O.,« Theory of Games and economic Behavior » ;Princeton University Press, 1947.

[13] Nash, J.F., « Equilibrium points in N-Per-son Games » ; PNAS, 1950

[14] : H.W. Kunh : « Extensive games and theproblem of information » dans « Contribu-tions to the Theory of Games » (sous la direc-tion de Kuhn et A.W. Tucker) aux éditionsPrinceton University Press 1953.

[15] Aumann, R., « Acceptable points in gene-ral cooperative n-person games ». Contribu-tions to the Theory of Games (IV), PrincetonUniversity Press, 1959.

[16] Shubik, M., « Some Experimental NonZero Sum Games with Lack of Informationabout the Rules ». Management Science n°8(1962), pages 215-234.

[17] Shubik, M., « Incentives, DecentralizedControl, the Assignement of joint Costs andInternal Pricing » ; Management Science n°8(1962) pages 325-343

[18] Vickrey, W., « Counterspeculation andCompetitive Sealed Tenders » ; Journal ofFinance n°16 (1961) pages 8-37.

[19] http://william-king.www.drexel.edu/top/eco/game/game.html

[20] Ozer Ozalp, Stanford University, Com-munication personnelle.

[21] Enders, W., « Applied Econometric TimeSeries. » Wiley, 2e édition, 2003.

[22] Christensen, C., « The InnovatorsDilemna », 2000 ; pages 168-169.

[23] Datta, S. et al www.wkap.nl/prod/b/1-4020-7812-9?a=1

Logistique & Management

20 Vol. 12 – N°2, 2004

CollaborateursBenson Adams,

Commandement du Matérielde l’Armée de Terre

Mohua Barari,Professeur d’Economie,Université du Missouri

du Sud-OuestBob Bettes,

Président Fondateur,Applications Mainstreet

Mark Dinning,Groupe de Stratégie

de la Chaîne Logistique,Dell Corporation

Tom Gibbs,Directeur, Intel CorporationHui Li, étudiant de 3e cycle,

Département du GénieAéronautique

et d’Astrophysique, MITMike Li, Chercheur,

Département du Génie Civilet Environnemental, MIT

Yichen Lin,professeur de Management

et de Technologie del’Information, Université deTechnologie de Taiwan Sud,

TaiwanGreg Parlier,

Bureau du développementEconomique,

Université d’AlabamaMicah Samuels,

Directeur généraldes Opérations, Amazon.com

Santtu Toivonen,étudiant de 3e cycle,

Technologie de l’InformationVTT, Finlande