Infrastructures SAP : enjeux et solutions envisagées par les ...

42
n°73 Bimestriel - mai/juin 2008 - 16 e Infrastructures SAP : enjeux et solutions envisagées par les directions informatiques PAGE 8 Les différentes facettes du Master Data Management PAGE 17 L’analyse prédictive rend la BI proactive PAGE 29 Le SIG à la portée de tous PAGE 37 La gestion de la qualité des données PAGE 33

Transcript of Infrastructures SAP : enjeux et solutions envisagées par les ...

Page 1: Infrastructures SAP : enjeux et solutions envisagées par les ...

n°73

Bim

estr

iel -

mai

/jui

n 20

08 -

16

e

Infrastructures SAP : enjeux et solutions envisagées par les directions informatiquesPAGE 8

Les différentes facettes du Master Data ManagementPAGE 17

L’analyse prédictive rend la BI proactivePAGE 29

Le SIG à la portée de tousPAGE 37

La gestion de la qualité des donnéesPAGE 33

Page 2: Infrastructures SAP : enjeux et solutions envisagées par les ...

ZOOM OUTSOURCING

L’avis des directions informatiques

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. »

en savoir pLus

demandez le Livre Blanc rédigé par le Gartner Group et cast sur ce thème :« information series on application management » :www.castsoftware.com/outsourcing

découvrez l’expérience de plusieurs sociétés utilisatrices de solutionsd’application intelligence :www.castsoftware.com/customers

Page 3: Infrastructures SAP : enjeux et solutions envisagées par les ...

de la valeur ajoutée de l’applicationintelligence pour piloter efficacementun parc applicatif sous-traité

La maîtrise des applications et des prestataires dansune opération d’outsourcing

Les entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer

des externalisations plus stratégiques. on l’a récemment observé dans l’automobile avec renault ou dans la grande distribution avec carrefour.

dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution.

comme dans n’importe quelle opération d’outsourcing, le contrat l iant le fournisseur est capital, en particulier les sLas. néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls sLas se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts.

c’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses.

L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. sont ainsi apparues des solutions dites d’application intelligence, basées sur

une technologie avancée d’analyse de code source.en fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant.

La valeur ajoutée de ce type de solutions d’application intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après.

audit de l’existant et préparation des appels d’offres• Déterminer les caractéristiques

techniques du portefeuille applicatif existant avant de le sous-traiter

• Disposerd’informationsderéférencepour évaluer les propositions des sous-traitants

• Obteniruneimageàl’instanttdesapplications pour permettre un suivi dans le temps

transfert vers le prestataire• Réduirelaphased’acquisitiondela

connaissance pour entreprendre plus vite des tâches productives

• Diminuerlecoûtliéàlaproductiond’une documentation exploitable et maintenable par le prestataire

contrôle de la qualité et des coûts en cours de projet• Suivrel’évolutiondelamaintenabilitéet

de la qualité pour éviter toute dérive• Etrecapabledevaliderlaquantitéet

la qualité du travail facturé• Etre en mesure de challenger le

sous-traitant lors des négociations d’avenants

• Industrialiserlesrecettestechniques

renouvellement de contrat, transfert ou ré-internalisation• Détermineretqualifierlesécartsentre

la prestation prévue et les livrables recettés

• Disposerdesinformationstechniquescaractéristiques du portefeuille applicatif en fin de prestation

Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, cast. reconnu par les analystes informatiques comme précurseur du marché, cast compte plus 500 comptes utilisateurs de sa plate-forme d’application intelligence dans le monde.

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

Publi-Reportage

www.castsoftware.com

Page 4: Infrastructures SAP : enjeux et solutions envisagées par les ...

Editeurpress & communication franceune filiale du groupe cast3, rue marcel allégot92190 meudon - francetél. : 01 46 90 21 21fax. : 01 46 90 21 20http://www.it-expertise.comemail : [email protected]

Rédacteur en chefJosé dizemail : [email protected]

Directeur de publicationaurélie magniezemail : [email protected]

Abonnements/Publicitéemail : [email protected]

Conception Graphiquen. Herlememail : [email protected]

Imprimeurmoutot imprimeurs

Parutionit-expert - (issn 1270-4881) est un journal édité 6 fois par an, par p & c france, sarl de presse au capital de 60 976,61 e.

Avertissementtous droits réservés. toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autori-sation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 p&c france. toutes les marques citées sont des marques déposées.Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de press & communication.

Abonnements01 46 90 21 21 prix pour 6 numéros téléchargeables sur le site www.it-expertise.com : 70 e ttc (tva : 19,6%)

un bulletin d’abonnement se trouveen pages 15/16 de ce numéro.

vous pouvez vous abonner surhttp://www.it-expertise.com/abonnements/default.aspxou nous écrire à :[email protected]

Une pépite sous les milliards

Le premier semestre 2008 restera dans les mémoires comme une période de mégaconcentrations, avec la naissance de géants européens et américains. Les milliards volent dans tous les sens, et les négociations donnent parfois le tournis. toutefois,

au-delà des sommes astronomiques - pas toujours justifiées, il s’agit aussi et surtout d’une affaire d’hommes et de spécialistes.

Les hommes qui valaient des milliardsfinalisée en début d’année, la fusion sap-Business objects aura coûté 4,8 milliards d’euros à l’éditeur allemand, et donné naissance à un groupe de 7 000 collaborateurs. dans la foulée, le rachat de Bea par oracle fut plus sportif. en effet, la course-poursuite avait commencé mi-octobre, et la dot sans cesse réévaluée avait bondi de 6,6 à 8.5 milliards de dollars en 3 mois. À plus de 900 millions de dollars par mois, l’attente prend des allures d’eldorado ! cette acquisition concernait 4 300 employés chez Bea. en cherchant à absorber Yahoo, microsoft espérait bien rattraper son retard sur Google, et renforcer sa position sur internet. Le 3 mai, microsoft retirait officiellement son offre de rachat, suite à un nouveau refus et malgré une offre de 47,5 milliards de dollars (33 dollars l’action), soit près de 31 milliards d’euros ! toutefois, l’affaire ne serait peut-être pas enterrée…enfin, Hp, conscient de l’intérêt de couvrir le spectre « matériel, logiciel et service » souhaitait ne plus laisser son concurrent iBm faire cavalier seul et emporter tranquillement des affaires, plus particulièrement sur des opérations importantes d’outsourcing. La synergie service/matériel permet alors de gagner sur plusieurs tableaux. Le constructeur s’offre donc un des leaders du secteur avec eds, pour près de 14 milliards de dollars. dans ce cas, il s’agit également de digérer les 138 000 salariés d’eds, dans un groupe qui en compte déjà 172 000.

Disposer des compétences indispensablestous les analystes ont relevé les prises de position et les stratégies de marché donnant naissance à ces mastodontes. par ailleurs, ces sociétés cotées se doivent de maintenir une croissance à deux chiffres, et la course à la taille n’est peut-être qu’un effet secondaire. en revanche, même si cet argument ne pesait pas dans ces décisions, ces sociétés se dotent également au passage de compétences de plus en plus rares. en europe, mais aussi aux États-unis, le manque de spécialistes informatiques commence déjà à se faire sentir, comme l’illustre le papy-boom sur l’Hexagone. or, ces rachats leur permettent aussi de se doter de compétences et donc d’une ressource rare et chère. et cette matière grise devient un atout important, et plus encore sur un marché informatique où l’externalisation marque sans cesse des points. encore faudra-t-il que ces sociétés sachent retenir ces employés qui n’ignorent pas combien ils sont précieux. et pour ceux qui l’auraient oublié, les opérations de séduction et de débauchage le leur rappelleront régulièrement.

José Dizrédacteur en chef

édito

4 IT-expert n°73 - mai/juin 2008

Page 5: Infrastructures SAP : enjeux et solutions envisagées par les ...

5 - 6 JUIN 2008 • PARISwww.cio-france.com

Contact: Stéphanie Brottes, Chargée de Projet Tel: + 377 97 77 51 35 - Fax: + 377 97 77 75 46 - [email protected] www.naseba.com

Un forum conçu par des DSI pour des DSI

Intervenants

Pascal Lointier, Président, CLUSIF

Yves Crespin, Commissaire principal, Chef de la BEFTI

Jean-Michel Pernaut, DSI Groupe, Lyreco France

Bernadette Lecerf-Thomas, Coach de DSI, Auteur de L’informatique managériale

Luc Golvers, Président, CLUSIB

Marie-Noëlle Gibon, DSI Courrier, La Poste

Bertrand Petit, DSI, Alstom Transport SA

Les thématiquesDeux journées de présentations consacrées au pilotage de la performance

Conférences, allocutions, tables rondes et études de cas sur des thématiques d’actualité :

DSI et sécurité, comment faire face aux nouvelles menaces ?

Gouvernance du SI, comment impliquer dirigeants et managers ?

Mise en œuvre d’un projet ERP, les facteurs-clés du succès

Gouvernance des SI par les Operating MODEL

Conduite d’un projet de Business Intelligence

Avec plus de 20 thèmes proposés entre les ateliers et le programme de conférences, CIO Strategies France est

Partenaires Média

Associations Partenaires

Sponsors

Cocktail SponsorPaul JOLIE, DSI adjoint, Ministère des Affaires Etrangèreset Européennes

Page 6: Infrastructures SAP : enjeux et solutions envisagées par les ...

La VoIP est le futur : offrez ses multiples fonctionnalités à vos collaborateurs. Non pas en remplaçant toute votre infrastructure, mais en vous appuyant sur l’existant, ici et maintenant. C’estpossible, parce qu’il ne s’agit plus de matériels mais de logiciels. Vous pouvez implémenter la VoIP en conservant votre infrastructure en l’état (votre PABX, vos passerelles téléphoniques, et même vos téléphones). Vous n’avez qu’à ajouter le bon logiciel.

Un logiciel intégré à Active Directory, Microsoft Of ce, Microsoft Exchange Server, et à votre PABX. Ainsi, vous optimiserez l’investissement réalisé dans votre PABX en l’intégrant à votre nouvelle solution logicielle VoIP Microsoft. Vos équipes seront prêtes, votre entreprise aussi. Pour en savoir plus, rendez-vous sur www.microsoft.com/france/voip

MIC8015_TEL 210x297 1 9/05/08 16:11:06

Page 7: Infrastructures SAP : enjeux et solutions envisagées par les ...

7IT-expert n°73 - mai/juin 2008

IT-expert n°73 - mai/juin 2008

08 DossierInfrastructures SAP : enjeux et solutions envisagées par les directions informatiquesquelles priorités et stratégies mettent en avant les entreprises pour migrer - ou non -

vers une nouvelle version de leur erp ? consolidation, externalisation, compétences…

spécialiste des erp chez pac, Éric ménard nous fait profiter de sa connaissance des

entreprises et commente des résultats d’études riches en enseignements.

17 TechniqueLes différentes facettes du Master Data ManagementLe mdm ? que cache réellement ce paradigme utilisé à tout-va ? au cœur du système

d’information, cette approche assure la cohérence des données et favorise l’alignement

de l’informatique à la stratégie de l’entreprise. rien de moins ! L’auteur détaille les

différents aspects du mdm, et explique clairement les enjeux de cette incontournable

évolution.

26 Actualités InternationalesLes informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances.

29 Quoi de Neuf Docteur ?L’analyse prédictive rend la BI proactiveaprès le décisionnel qui analysait le réalisé afin de mieux décider au présent, l’analyse

prédictive complète ce rétroviseur en éclairant la route. des technologies utiles à tous

les métiers qui facilitent encore les prises de décision « éclairées ».

33 Comment ça Marche ?La gestion de la qualité des donnéespour que les données informatiques jouent pleinement leur rôle d’information, encore

faut-il s’assurer de leur pertinence. Le lecteur reconnaîtra certainement diverses

situations éprouvées dans la description des risques réalisée par l’auteur, spécialiste

de ces aspects chez cap Gemini. et pourtant, tout est encore possible.

37 Rubrique à brac Le SIG à la portée de tousvulgarisé avec internet et des logiciels comme Google earth, le système d’information

géographique apporte aujourd’hui son potentiel aux applications d’entreprise. intégration

aux sGBd, Web services, etc. L’auteur explique les principes et technologies du siG

et indique des exemples d’utilisation très concrets.

41 LivresManager avec les ERP - Architecture Orientée Services (SOA) par Jean-Louis

Lequeux et Project 2007 - La gestion de projet par alexandre faulx-Briole

Sommaire

Page 8: Infrastructures SAP : enjeux et solutions envisagées par les ...

8 IT-expert n°73 - mai/juin 2008

Infrastructures SAP : enjeux et solutions envisagées par les directions informatiques

Centralisateurs de la gestion des entreprises, les systèmes ERP occupent une place critique. Ils gèrent aujourd’hui

la majeure partie des fonctions de l’entreprise, comme la production, la comptabilité, la finance, le décisionnel,

les ventes, les achats, la logistique, etc. Stratégiques pour l’entreprise, les systèmes ERP participent à la souplesse

et à la réactivité de l’activité. Postes de dépenses importants, ces systèmes sont amenés à être revisités dans leur

conception et dans leur gestion pour alléger les budgets de fonctionnement. De ce fait, les directions informatiques

d’aujourd’hui sont confrontées à de nombreuses préoccupations.

Produit emblématique des ERP, SAP est devenu le progiciel de gestion privilégié de la majorité des grandes

entreprises en France comme à l’international. Pour nombre d’entre elles, évoquer les infrastructures SAP revient

à évoquer la colonne vertébrale de leurs systèmes d’information.

Mais qu’en est-il réellement ? Comment les entreprises gèrent-elles aujourd’hui leurs infrastructures SAP ?

En sont-elles satisfaites ? Comment les décideurs anticipent-ils les évolutions de périmètre, les sauts

technologiques, quelles sont les solutions privilégiées, les orientations choisies ?

Page 9: Infrastructures SAP : enjeux et solutions envisagées par les ...

Dossier & Interviews

9IT-expert n°73 - mai/juin 2008

Les infrastructures SAP au cœur du système d’information

Les services SAP, un écosystème de plus de 2 milliards d’euros en 2007 en France

Les entreprises équipées du logiciel de l’éditeur allemand affectent une large partie de leurs dépenses informatiques à l’intégration, à la maintenance et à l’évolution de leur système sap autant pour les applications elles-mêmes que pour l’infrastructure qui les supporte. mais faute de ne pouvoir ou de ne vouloir) gérer en interne l’ensemble des activités de services liées au système sap, ces entreprises ont massivement recours à la sous-traitance. si l’on considère au sein de la dépense informatique de ces entreprises la part qui est sous-traitée à des prestataires, plus de 2 milliards d’euros, on mesure le poids de l’écosystème sap.

L’équilibre entre licences et sous-traitance SAP par des entreprises françaises

en 2007, les services sap représentaient 8 % des activités de projets et de tma en france, c’est-à-dire que les entreprises sous-traitaient en france pour 1,1 milliard d’euros en prestations de conseil, de mise en œuvre, de développement spécifique, de projet d’intégration et de maintenance applicative sur les progiciels sap. par ailleurs, l’externalisation complète des systèmes sap représente 17 % du volume total de l’infogérance française.

Pourquoi et comment décider d’évoluer vers une nouvelle version

pour la grande majorité des entreprises interrogées, sap est au cœur du système d’information et couvre la plupart des domaines fonctionnels de l’entreprise.

Les infrastructures de production sont aujourd’hui largement centralisées. et pour 90 % des entreprises, le système sap est centralisé sur un site de production. Les mouvements de consolidation géographique ont conduit à cette centralisation des moyens de production, mais cela ne signifie pas pour autant que les infrastructures au sein des datacenters soient consolidées.L’analyse des versions de sap utilisées par les entreprises montre des divergences en fonction de la taille des organisations. ainsi, de nombreuses entreprises continuent de fonctionner sur des versions 4.6c ou antérieures alors que les plus grandes (plus de 5 000 employés) semblent plus enclines à adopter les versions récentes de sap.

avant de migrer, il convient de déterminer la période la plus propice pour acheter une nouvelle version de sap. et cela, même si cela doit être réalisé plusieurs mois ou années avant de migrer physiquement. en effet, il serait absurde d’attendre et que l’offre de rachat des licences précédentes devienne moins intéressant tandis que l’entreprise continuerait à acheter de nouvelles licences pour faire face à sa croissance. en parallèle, les entreprises doivent étudier la possibilité d’adopter le module mdm (master data management) de sap qui permet de mettre en place un référentiel unique, donc une cohérence de l’information, et réduire les développements spécifiques. si ce n’est fait, les entreprises ont à mettre en place une stratégie d’achat de licences sap. (voir tableau page suivante)

1166 M , 8%

1069 M , 17%

1540 M , 9%

1450 M , 19%

2007 2010

SAP

Projetset Maintenance

applicative

Infogérance Projetset Maintenance

applicative

Infogérance

Autres Source Pac

NON7%

OUI93%

0 à 10%15%

10 à 20%15%

20 à 30%8%

Plus de 30%62%

Le système SAPest-il au cœurde votre systèmed'information ?(Étude HP/PAC - 2007)

Quel est le poidsdu système SAPdans votre dépenseinformatique ?(Étude HP/PAC - 2007)

Page 10: Infrastructures SAP : enjeux et solutions envisagées par les ...

2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016

Oct

Jun

Dec

Dec

Mar

Dec

Mar

Mar

Mar

Mar

Mar

Mar

SAP ERP 6.0

mySAP ERP2004

SAP R/3Enterprise

47x200

SAP R/3Enterprise

47x110

SAP R/34.6C

SAP R/33.1I - 4.6B

This strategy is also valid for allindustry-specific add-on applications andSAP enhancement packages for ERP

based on the releases above.

Mainstr.Maint.

Ext. Maint.(+ 4%)*

Ext. Maintenance(+ 4%)*

Ext. Maintenance(+ 4%)*

Ext. Maintenance(+ 4%)*

Ext. Maintenance(+ 4%)*

Ext. Maintenance(+ 4%)*

Ext. Maint.(+ 2%)*

Ext. Maint.(+ 2%)*

Ext. Maint.(+ 2%)*

Ext. Maint.(+ 2%)*

Ext. Maint.(+ 2%)*

Customer-SpecificMaintenance

Mainstream Maintenance

Mainstream Maintenance

Mainstream Maintenance

Mainstream Maintenance

Ramp-Up

Customer-SpecificMaintenance

Customer-SpecificMaintenance

Customer-SpecificMaintenance

Customer-SpecificMaintenance

Customer-SpecificMaintenance

*Overall payment is SAP Standard Support /SAP Premium Support fee plus additional feeof 2% or 4% of the maintenance base per year.

10 IT-expert n°73 - mai/juin 2008

A quelles préoccupations les décideurs doivent-ils faire face ?

La gestion de la production, la maîtrise des coûts, l’évolutivité des systèmes ou le service aux utilisateurs, sont autant de sources d’inquiétudes mais forment également des sources potentielles d’amélioration des systèmes. d’autre part, les entreprises sont régulièrement confrontées à des évolutions de périmètres et sont soumises à des pressions concurrentielles fortes. dans ce contexte, les systèmes d’information permettent aux organisations de gagner en souplesse et en compétitivité. c’est pourquoi nombre d’entre elles voient en leur outil informatique un moyen de créer un levier de croissance. et les directions informatiques deviennent des acteurs de poids pour augmenter la compétitivité de leur entreprise, et elles doivent être capable d’innover en permanence.

Rester attentifs à l’évolutivité et à la sécurité

malgré un niveau de satisfaction élevé, les responsables informatiques doivent continuellement innover et repenser leurs infrastructures pour s’adapter et anticiper les évolutions de l’entreprise.s’ajoutent à ces besoins d’adaptabilité, les inquiétudes inhérentes aux métiers de l’exploitation informatique, à savoir la fiabilité, l’efficacité, la sécurité, le support utilisateurs, etc.qu’ils soient liés aux problématiques communes à toutes infrastructures ou spécifiquement liés aux systèmes sap, différents critères ont été analysés au cours de l’étude pour découvrir les préoccupations des décideurs et saisir les grandes tendances.Le premier résultat concerne la sécurité. qu’elles soient grandes ou moyennes, la sécurité est la principale préoccupation des entreprises.

ensuite, des divergences liées à la taille et aux capacités d’investissement de l’entreprise apparaissent. ainsi, les moyennes entreprises se montrent très préoccupées par la flexibilité et l’évolutivité de leurs systèmes sap ou par le niveau de services et moins concernées par la maîtrise des coûts.Les grandes entreprises, quant à elles, se montrent plus soucieuses de maîtriser les coûts de possession et craignent de perdre des compétences sur leurs applications spécifiques.

*Pourcentage des préoccupations « élevées » ou « très élevées » (Étude HP/PAC - 2007)

52%80%

30%48%

41%59%

26%39%

85%89%

48%45%

Concernant la production de votre système SAP,quel est votre degré de préoccupation

pour les sujets suivants ?*

Les montées de version,migration, mises à jour

La flexibilité et la prédictibilitédes coûts

La gestion des montéesen charge

La mise en conformité(contraintes légales SOX, BALE 2)

La sécurité

Pour l'industrialisationde la production

1000 à 5000 Plus de 5000

Calendrier des mises à jour et de maintenance des versions SAP (Source SAP)

Page 11: Infrastructures SAP : enjeux et solutions envisagées par les ...

Dossier & Interviews

11IT-expert n°73 - mai/juin 2008

Les principales difficultés rencontrées par les entreprises concernent la sécurité et l’évolutivité des systèmes.La sécurité des infrastructures sap est jugée réellement critique par les entreprises et 88 % d’entre elles ont affirmé être préoccupées ou très préoccupées par cette problématique. cela concerne la gestion des accès sécurisés des utilisateurs du système, y compris les accès distants, et la gestion sécurisée des données gérées par le système sap.L’évolutivité des systèmes (c’est-à-dire la capacité à procéder à des migrations, des mises à jour ou des montées de version) préoccupe principalement les moyennes entreprises. ce constat peut être mis en corrélation avec le retard d’adoption des versions récentes de sap par ces mêmes entreprises. La flexibilité, c’est-à-dire ici la gestion des montées en charge, préoccupe aussi les moyennes entreprises. en effet, elles ont souvent moins de capacité d’investissement et peuvent plus difficilement se doter d’infrastructures ayant la capacité d’absorber les pics d’utilisation.

Maîtriser les coûts de fonctionnement

*Pourcentage des préoccupations « élevées » ou « très élevées » (Étude HP/PAC - 2007)

si les grandes entreprises se montrent moins préoccupées par l’évolutivité de leurs systèmes, elles sont en revanche plus sujettes aux problématiques de gestion des coûts. ainsi, parmi ces entreprises, 72% des décideurs sont préoccupés par la maîtrise des coûts de possession contre 51% chez les moyennes entreprises. mais ces dernières ont-elles mis en place les outils nécessaires à la mesure des coûts ? Bien souvent, ce n’est pas le cas.autre point soulevé, la perte de compétences sur les applications spécifiques est considérée comme préoccupante par 54% des grandes entreprises, contre 35% par les moyennes entreprises. il faut dire que ces dernières ont moins recours aux applications dédiées.

Préserver les niveaux de services

quant il s’agit du service aux utilisateurs du système sap, les deux principales sources de préoccupations des entreprises sont d’une part la qualité de service auprès de l’utilisateur final et d’autre la gestion du support utilisateur. nous pouvons également noter que les divergences liées à la taille des entreprises sont atténuées lorsqu’il s’agit de services aux utilisateurs.

Les solutions envisagées

Externaliser ou infogérer ?

L’infogérance, solution privilégiée par les entreprises : 30% des moyennes entreprises et 23% des grandes entreprises ont déjà recours à des prestations d’infogérance autour de leur système sap. il s’agit de la prestation la plus largement adoptée par les sociétés interrogées.

(Étude HP/PAC - 2007)

72%51%

54%35%

34%28%

57%52%

23%25%

Concernant le coût de votre système SAP,quel est votre degré de préoccupation

pour les sujets suivants ?*

La maîtrise du coûtde possession

Une perte de compétencessur les applications développées

en spécifique sur SAP

Des matériels en fin de vie(AS400 par exemple)

Maintenance chère ou arrêtée

Le recrutement du personnelSAP (nbre, expertise…)

1000 à 5000 Plus de 5000

23%30%

18%7%

18%7%

15%9%

15%2%

15%9%

11%5%

7%2%

5%

Quelles solutions avez-vousdéjà mis en œuvre ?

L'infogérance ou I'externalisation

La consolidationdu paysage applicatif

Un plan de continuité de services

La consolidationdes infrastructures

La virtualisationdes infrastructures

L'implémentationdes Best Practices ITIL

Mise en place de SLA

Adoption d'un modede paiement à l'usage

Recours à l'offshoreou au nearshore,

en interne ou externe

1000 à 5000 Plus de 5000

Page 12: Infrastructures SAP : enjeux et solutions envisagées par les ...

12 IT-expert n°73 - mai/juin 2008

pour les moyennes entreprises, l’infogérance arrive loin devant les autres solutions puisque la consolidation d’infrastructures, deuxième des solutions déjà mises en place sur ce segment, n’atteint que 9 % de taux d’adoption.Le marché de l’infogérance sap d’environ 1 milliard d’euros en 2007 est mature, et de nombreux contrats arrivent aujourd’hui en troisième génération. or, les entreprises souhaitent de plus en plus remettre en cause leur contrat avec le prestataire actuel. Globalement, pac attend une croissance de 10 % d’ici 2010 sur ces prestations d’infogérance sap. d’ailleurs, cette dynamique sera assurée par les quelques nouveaux contrats qui vont arriver sur le marché, qu’ils soient d’origine internationale et touchant la france ou régionaux. sans oublier le foisonnement des fonctions des contrats existants et les extensions de périmètre.

L’infogérance est une solution bien adaptée aux entreprises moyennes, c’est pourquoi le taux d’adoption y est élevé aujourd’hui. ces sociétés sont soucieuses de mieux gérer la complexité et l’évolution technologique des systèmes, mais n’ont souvent pas ni les équipes formées ni les moyens nécessaires à leur besoin. comme les grandes entreprises, elles sont confrontées à des environnements économiques internationaux, parfois à des conjonctures économiques difficiles. elles attendent de l’infogérance :• Uneaideàlaflexibilisationdeleursinfrastructuresdanslecadre

de sociétés en forte croissance,• UneaideàlamigrationdeleursystèmeSAP,puisleurgestion,• Uneaideàl’exploitationdeleursinfrastructures,• Etdeplusenpluslagestiondeleursnouvellesarchitectures

(stockage, sécurité et accès des systèmes, messageries, hébergement, gestion de réseaux locaux…).

Hormis l’infogérance, d’autres solutions ont été adoptées et mises en œuvre par les entreprises, comme la consolidation et la virtualisation des infrastructures. À l’instar des préoccupations des décideurs, les solutions adoptées présentent des divergences importantes selon la taille des entreprises. au regard de ces données, il est même possible de parler de « retard à l’adoption » des technologies nouvelles et des bonnes pratiques par les moyennes entreprises.

Quelles orientations pour quelles infrastructures ?

afin d’améliorer leur système sap et répondre aux besoins de pérennité et d’évolution et leurs entreprises, les décideurs ont adopté des solutions telles que les plans continuité de services, l’infogérance, la consolidation, etc. mais les entreprises doivent aller plus loin, elles ont continuellement besoin de gagner en souplesse, en réactivité et d’améliorer les niveaux de services.

elles sont poussées à innover de manière continuelle. elles doivent faire des choix de solutions aujourd’hui pour décider de leurs infrastructures de demain. • Àcourtterme,leschoixdedécisionsdevraientportersur

l’implémentation d’itiL, la consolidation des infrastructures et la mise en place de plans de continuité de services.

• Àmoyentermeleschoixdevraientportersurl’adoptiond’infrastructures soa, la virtualisation des infrastructures et la consolidation du paysage applicatif.

(Étude HP/PAC - 2007)

Quelles solutions pensez-vousmettre en œuvre et à quelle échéance ?

L'implémentation des Best Practices ITIL :

L'adoption d'une infrastructure SOA :

La consolidation des infrastructures :

La virtualisation des infrastructures, Services centers :

Mise en place de SLA :

La consolidation du paysage applicatif :

Un plan de continuité de services :

L'infogérance ou l'externalisation :

Recours à l'off/nearshore, interne/externe :

Adoption d'un mode de paiement à l'usage :

Moins de 1 an 2 à 3 ans 2 à 3 ans

10% 4% 1%

4% 9% 1%

8% 5% 1%

4% 5%

4% 4%

2% 5% 1%

6% 1%

3% 1%

2%

1%

Page 13: Infrastructures SAP : enjeux et solutions envisagées par les ...

Il est possible d'anticiper deux phases majeuresavec un alignement des services d'infrastructures

suivi d'une vague d'alignement des services applicatifs

Alignement des infrastructures

ITIL SOA

Consolidationdu paysage applicatif

Visualisationdes infrastructures

PCA / PRA

Consolidationdes infrastructures

Alignement des applications

2007 2010

Dossier & Interviews

13IT-expert n°73 - mai/juin 2008

Il est possible d’anticiper deux phases majeures avec un alignement des services d’infrastructures suivi d’une vague d’alignement des services applicatifs

• Une voie technologique : la consolidation

si la consolidation est mise en avant parmi les solutions envisagées par les entreprises, il est nécessaire de préciser qu’il s’agit ici de consolidation physique et non pas de consolidation géographique. en effet, 90 % des entreprises interrogées possèdent un système sap dont la production est déjà centralisée sur un site unique et pour les 10 % possédant une infrastructure décentralisée, la consolidation n’est pas envisagée.Consolider les serveurs pour améliorer la qualité et la fiabilité du service et réduire les coûts d’exploitation.devant le caractère critique des systèmes sap et les contraintes légales, les entreprises mettent en place des plans de continuité de services. ainsi 14% des sociétés interrogées ont déjà mis en place ce type de structures et 6% souhaitent le faire dans moins d’un an.

• Des solutions organisationnelles

accompagnant ces évolutions technologiques, il est intéressant de constater que les entreprises adopteront des changements organisationnels. Les pratiques développées et popularisées par les ssii et entre autres par l’infogérance semblent aujourd’hui intéresser les entreprises dans leur propre gestion interne. de nouvelles formes de gouvernance des dsi apparaissent et se développeront avec la restructuration des services internes, la mise en place de sLa (services Level agreement) et de systèmes de refacturations internes, le recours à l’offshore en direct. autre solution organisationnelle, l’implémentation des bonnes pratiques itiL sera la solution privilégiée par les entreprises. 15% souhaitent modifier leurs processus internes pour se plier aux recommandations itiL. n

Page 14: Infrastructures SAP : enjeux et solutions envisagées par les ...

14 IT-expert n°73 - mai/juin 2008

Eric Ménard, director, Business applications

A propos de Pierre Audoin Consultants (PAC) :

PAC est la première société européenne de conseil et d’études stratégiques et marketing spécialisée dans les secteurs des technologies de l’information.

La mission de la société est d’assister et de conseiller les fournisseurs et les utilisateurs des technologies de l’information pour développer des stratégies gagnantes, par

une compréhension pragmatique et à long terme des besoins, des technologies, des marchés, de la concurrence.

Basée à Paris et forte d’une expérience de plus de 30 ans, la société Pierre Audoin Consultants compte plus de 300 grands clients à travers le monde grâce au travail d’un

réseau de filiales à Munich, New York, Londres, Bucarest et aussi de partenaires en Italie, Tunisie, Amérique Latine (Mexique, Argentine, Brésil) et en Asie (Singapour, Chine,

Inde, Australie, Japon).

Pierre Audoin Consultants étudie le marché des ERP depuis une quinzaine d’année en interrogeant éditeurs, sociétés de services et utilisateurs en France comme à

l’international. En 2008, PAC a décidé de formaliser un programme d’étude internationale couvrant les 3 grandes régions (Asie-Pacifique, Europe et Amérique) sur le plus

large marché des services autour d’un ERP : le marché des services SAP. Les thèmes analysés vont du positionnement des acteurs aux besoins en compétences des

consultants.

Synthèse des résultatsMoyennes entreprises (1 000 à 5 000 employés) :

Top 5 des préoccupations Principales Solutions envisagées

1. sécurité (89%)

>1. implémentation itiL

2. montées de version (80%) 2. adoption soa

3. qualité de service utilisateur (70%) 3. consolidation d’infrastructures

4. Gestion du support utilisateur (68%) 4. plan de continuité de services

5. Gestion des montées en charge (59%) 5. mise en place de sLa

Grandes entreprises (plus de 5 000 employés) :

Top 5 des préoccupations Principales Solutions envisagées

1. sécurité (85%)

>1. consolidation d’infrastructures

2. maîtrise du coût de possession (72%) 2. adoption soa

3. qualité de service utilisateur (66%) 3. virtualisation

4. maintenance chère ou arrêtée (57%) 4. consolidation du paysage applicatif

5. Gestion du support utilisateur (56%) 5. mise en place de sLa

Les données présentées sont issues d’une enquête réalisée auprès de 110 entreprises disposant d’un système SAP

et représentatives du tissu économique de plus de 1 000 employés en France.

Page 15: Infrastructures SAP : enjeux et solutions envisagées par les ...

Abonnez-vous à IT-expert

r Je m’abonne 1 an à IT-expert pour 70 € TTC par an (tva 19,6%)

c’est-à-dire pour l’accès aux 6 n° de l’année téléchargeables sur le site http://www.it-expertise.com ainsi que pour l’accès aux anciens numéros

Dès parution du nouveau numéro sur le site http://www.it-expertise.com, un e-mail vous sera envoyé. Si vous ne souhaitez pas recevoir cet e-mail, cocher la case r

Bon d’abonnement à faxer au+33 (0)1 46 90 21 20

ou renvoyer au Service Abonnements3, rue Marcel Allégot

92190 MeudonFrance

Abonnez-vous sur www.it-expertise.com/Abonnement

r mme r mlle r m.

nom

prénom

société

fonction

adresse

cp

ville

e-mail

tél

fax

r chèque joint à l’ordre de press & communication france

r règlement à réception de facture

date :signature obligatoire :

Page 16: Infrastructures SAP : enjeux et solutions envisagées par les ...

IT-expert, le « e-magazine »pour les IT pros

IT-expert, la référence techniquedes professionnels de l’informatique

Bimestriel de conseil et d’expertise technique,

it-expert vous offre l’information essentielle pour

vous former et décider.

Venez télécharger IT-expert sur le site :

http://www.it-expertise.com

www.it-expertise.com

Pour tous renseignements : IT-expert - 3, rue Marcel Allégot - 92190 MEUDON - FRANCETél. : +33 (0)1 46 90 21 21 - e-mail : [email protected]

Page 17: Infrastructures SAP : enjeux et solutions envisagées par les ...

Technique

17IT-expert n°73 - mai/juin 2008

Les différentes facettes du Master Data Management

Les Master Data (informations clés sur les clients, les produits ou les personnels) circulent et sont utilisés

par tous dans l’entreprise, voire par les partenaires. Leur maîtrise est un facteur clé de la performance

du système d’information.

Le Master Data Management (ou MDM), sujet au cœur de l’urbanisation du SI, devient incontournable

pour les éditeurs de progiciels. Cependant au-delà des solutions techniques, les projets de MDM comportent

de multiples dimensions : architecture d’entreprise, conduite du changement, gouvernance, processus,

qualité des données…

Pour apprécier la pertinence d’utiliser une solution packagée de MDM, un check-up préalable des Master Data

(souvent dans un triste état) amène l’entreprise à préciser la nature et à mesurer l’ampleur du projet à mener.

Page 18: Infrastructures SAP : enjeux et solutions envisagées par les ...

18 IT-expert n°73 - mai/juin 2008

Un pilier de l’urbanisation des systèmes

Que recouvre le MDM ? Les 7 points clés

Le master data management (ou Gestion des données de référence) couvre l’ensemble des composants nécessaires pour gérer les données de référence de l’entreprise. ces données de référence sont les informations essentielles aux différents acteurs de l’entreprise pour travailler en cohérence, être capable d’échanger et de consolider les informations provenant de différents processus.

par exemple :• Surlesplansmarketingetcommercial:lesinformationsclés

sur les clients, les produits et services…• Concernantlesressourceshumainesoulesstructuresde

l’entreprise : l’identification et la qualification des personnels, les structures juridiques ou organisationnelles…

• Surlesdomainescomptableetfinancier:leplancomptable,les clés de répartition analytique…

• Ettouteinformationfaisantréférencedefaçontransverseà plusieurs activités et à différentes parties prenantes de l’entreprise : entités des directions métiers, fournisseurs ou partenaires, dans le cadre de processus intra ou interentreprise.

pour coordonner les master data, les référentiels portent les ensembles organisés d’informations partagées faisant référence dans l’entreprise. utilisés par différentes entités métiers, ils assurent la cohérence du partage ou du référencement des actes de gestions.

Le Management des Master Data comporte plusieurs composantes :1. tout d’abord une définition commune et unique de

l’information de référence, partagée dans toute l’entreprise (entre les métiers, entre maîtrises d’ouvrage et maîtrises d’œuvre…). il s’avère souvent complexe de s’accorder sur une définition commune d’une même appellation. par exemple : la notion de client (particulier, entreprise) est elle la même pour tous dans l’entreprise ? cette définition partagée est complétée par une modélisation de la structure de l’information et de ses contraintes d’intégrité.

2. des processus de mises à jour et de validation des données explicitement formalisés et répondant aux exigences de qualité de tous les acteurs de l’entreprise concernés.

3. des « réceptacles » robustes et pérennes pour les systèmes référentiels de l’entreprise. en général, les systèmes informatiques avec leurs bases de données offrent des services d’accès ou de mise à disposition de l’information.

4. Les données de références constituent le contenu ; un contenu qualifié par ses « métadonnées » permettant de l’utiliser au mieux : date de mise à jour, de péremption, auteur de la mise à jour…

5. Les applications clientes à adapter pour se connecter au référentiel et utiliser absolument les master data.

6. La définition d’une tactique et d’une roadmap de mise en œuvre du référentiel reste indispensable :

•Quelestl’étatdesdonnéesexistantes(voirlapartie« checkup des données référentielles ») ?

•Commentfairemigrercesdonnéesexistantes?•Comment faire évoluer les applications clientes

existantes ? •Commentmaîtriserpourlesnouvellesapplicationsleur

connexion au référentiel ?•Commentgérerlechangement?…autant de questions majeures pour la réussite du projet de mdm.

7. enfin une dimension clé : la mise en place d’une Gouvernance des données de référence. À commencer par l’identification d’une « réelle » maîtrise d’ouvrage, responsable du référentiel et des politiques de gestion de son évolution.

Figure 1 : composantes du MDM

Plus de visibilité, de cohérence et d’excellence pour les métiers

Les enjeux pour l’entreprise sont liés aux besoins de cohérence, aux contraintes de traçabilité et aux impératifs de partage d’informations dans l’entreprise :• Performance des processus entre les différents acteurs,

dès qu’il s’agit de décrire l’acte de gestion, de qualifier l’objet métier (commande, facture, livraison…) ou de gérer des échanges d’informations entre les différents acteurs,

• Qualité du service aux clients, quand plusieurs entités sont impliquées dans la délivrance du service attendu. par exemple : la gestion de la relation client en mode multicanal ou par plusieurs agences, ou encore les processus transversaux de réalisation et de délivrance du service qui nécessitent d’identifier le client et sa commande de façon unique et certaine tout en s’appuyant sur les mêmes références de produits et

MDM

1.Définition partagéedes informations

2.Processusde mise à jour

et de validation

3.Réceptacles:Systèmes référentiels

et services

4.Contenu:les Master Data

5.Applications clientes

7.Gouvernancedes Master Data

6.Road-map et conduitedu changement

Page 19: Infrastructures SAP : enjeux et solutions envisagées par les ...

Technique

19IT-expert n°73 - mai/juin 2008

tarifs. exemple classique, le processus de commande/fabrication/livraison/facturation nécessite d’échanger entre les différentes entités front et back-office.

• Conformité aux exigences réglementaires (soX pour la finance, solvency ii dans l’assurance, Bâle ii dans la Banque, cfr part 11 dans la pharmacie, …), conformité qui nécessite la maîtrise des processus de mise à jour de l’information et de sa qualification, mais aussi la traçabilité de l’historique et des usages de la donnée dans l’entreprise en référence des « bons » acteurs et entités de l’entreprise.

• Capacité de pilotage via la mise à disposition de reporting consolidés dans une approche décisionnelle : la capacité à croiser des informations en provenance de plusieurs entités de l’entreprise sur la base des mêmes références y est clé. comment calculer les résultats par vendeur ou par agence si l’on ne partage pas les mêmes informations de référence sur les personnels, les produits, les structures de l’entreprise, etc. ?

Au cœur des travaux d’urbanisation du système d’information

un si urbanisé favorise l’adéquation, dans la durée, entre l’informatique et les processus métiers. ceci pose la question de l’alignement du Système d’Information avec la/les stratégie(s) métier(s). cet alignement nécessite notamment de baser la structure du système d’information sur des fondamentaux durables : les master data de l’entreprise.

selon le club urBa-ea, les principales composantes du processus d’urbanisation se structurent de la façon suivante :• Le«cœur»desprocessusd’urbanisme,

- « définir et maintenir le cadre d’urbanisme » : plans d’urbanisme (cibles et scenarii de migration), règles…,

- « réaliser et maintenir l’infrastructure fonctionnelle » du si : référentiels d’entreprise, dispositifs mutualisés d’échanges inter applicatifs…,

- « développer les relations avec les projets » : cadrage, études amont, accompagnement des projets…

• Lesprocessusdesupport:notamment«Mainteniretdiffuserles cartographies ».

• Etbiensûr,lesprocessusdepilotagedel’urbanisationetdeparticipation à l’arbitrage des projets

La question des master data, question transverse, est au cœur de plusieurs composantes du processus d’urbanisation (voir figure 2).

dans le cadre du plan d’urbanisme, il s’agit d’identifier et de positionner les référentiels majeurs de l’entreprise dans l’architecture fonctionnelle et logique du si.Les master data constituent la plus grande part de l’infrastructure fonctionnelle. dans les relations avec les projets, le cadrage du projet vis-à-vis des référentiels est essentiel. enfin la cartographie du si offre l’opportunité de décrire les master data et leur utilisation dans le si : via la cartographie des processus ou via la cartographie des applications clientes des master data.

Figure 2 : Processus d’urbanisation du club URBA-EA et les Master Data

Les projets de master data management sont des projets transverses qui ont un fort effet de levier sur l’ensemble du si : par le nombre de processus utilisant les informations de référence et par le nombre d’applications clientes impactées.

Les solutions de mdm offrent aujourd’hui des opportunités intéressantes pour l’outillage de ces référentiels et proposent une palette fonctionnelle intéressante.

Le processusd’urbanisation du SI

Urbaniser le Système d'Information de l'EntreprisePiloter l'urbanisation du SI

Maintenir & diffuser les référentiels de cartographie du SI existant& cible (applications, processus, POS fonctionnel)

Communiquer et former sur l'urbanisme

Participer aux comités d'arbitrage projets

Faire le lienavec la stratégie business

& la gouvernance du SI

Mettre les référentielsde données

sous contrôleParticiper aux études

amont des projets

Suivre & accompagnerles projets informatiques

Normaliser & simplifierles échanges

inter-applicatifs

Faire le lienavec les infrastructures

techniques

Élaborer & réviserles plans d'urbanisme

et d'architecture(cibles, road-maps)

les Master Dataau cœur

du processusd'urbanisation

Plansd'urbanisme

Projetsd'Infrastructure

Relationsprojets

Pilo

tage

Supp

ort &

Com

.

Page 20: Infrastructures SAP : enjeux et solutions envisagées par les ...

20 IT-expert n°73 - mai/juin 2008

Commencez par un check-up complet de vos données référentielles !

Le projet master data prendra en charge des données préexistantes dans plusieurs référentiels dont les périmètres et cycles de vie ne se recoupent que partiellement. Le plus souvent au moins un de ces référentiels a déjà éprouvé l’usure du temps et des migrations successives, et parfois à marche forcée.

des utilisateurs et administrateurs fonctionnels connaissent l’existence de données en doublon et de zones de non-qualité. Les responsables du support applicatif et les services de réclamation collectionnent les exemples concrets dans lesquels les modèles de données sont mis à mal et ne savent prendre en compte la réalité et sa complexité qu’au prix d’entorses aux règles de structuration initiales des données. parfois les exigences du paramétrage de l’erp ont nécessité l’adoption d’un concept plaqué qui n’a pas résisté à la pratique ou n’a pas été assimilé avec toutes ses exigences.rares sont alors ceux qui savent présenter un bilan d’ensemble précis, traçable et objectivé de l’état des données qu’ils souhaitent traiter avec le projet master data.voilà l’enjeu du check-up complet des données référentielles que l’on conseille comme un médecin le conseille à ceux qui, ayant déjà un peu d’âge, cherchent à se maintenir au top de leur forme physique : dans les deux cas, le check-up est l’occasion d’examens qui croisent les spécialités, le résultat est précis, documenté et établit une référence pour les futurs contrôles.

diverses spécialités sont mises en œuvre pour le check-up des données, parmi lesquelles on trouve :• leDataProfiling(analysedestructureetdefréquencesdesvaleurs),lestechniquesdedédoublonnage,lesoutilsderestructuration

normative (siretisation des établissements pour les entreprises françaises, rnvp pour les adresses postales, mise aux normes uitt des numéros de téléphone…),

• lalogiquefloueetledataminingpourpousserleplusloinpossiblel’alignementautomatiquedessources,• lacomparaisonaveclesréférentielsexternes,nationauxetinternationaux(INSEE,EAN,GeoBase,prénomsetpatronymes

internationaux…).

après les récentes acquisitions et consolidation du marché du décisionnel, les principaux acteurs disposent d’une offre outillée comportant les briques techniques de base utiles pour réaliser ce check-up : l’etL pour extraire et intégrer les jeux de données, un module qualité des données pour le profiling et la logique floue, des outils de restitution pour documenter le bilan du check-up avec la possibilité de zoomer sur l’ensemble des contrôles effectués et leurs résultats.

Figure 3 : Exemple de résultat d’un check-up des données comme première étape d’une démarche projet Master Data

Détail des contrôles de qualité des données téléphoniques

Thème des 5 points de contrôle Nombre Conf. Non C. Note/20 Criticité

qualité des données téléphoniques (5 points de contrôle) 1 750 000 1 163 988 586 012 15,0

conformité de la donnée (3 points de contrôle) 1 050 000 711 625 338 715 14,2Critique•Important

Modéré•Faible

CONF-01 contrôle du taux de remplissage du champ 350 000 289 853 60 147 16,6Critique•Important

Modéré•Faible

CONF-02contrôle de la conformité du numéro avec les données de l’arcep

350 000 232 418 117 582 13,3Critique•Important

Modéré•Faible

CONF-03 contrôle du caractère géographique du numéro 350 000 189 354 160 646 10,8Critique•Important

Modéré•Faible

fraîcheur de la donnée (1 point de contrôle) 350 000 325 957 24 043 18,6Critique•Important

Modéré•Faible

FRAI-01contrôle de l’unicité de la personne physique en charge d’un numèro

350 000 325 957 24 043 18,6Critique•Important

Modéré•Faible

degré de confiance en la donnée (1 point de contrôle) 350 000 126 406 223 594 7,2Critique•Important

Modéré•Faible

DEG-01contrôle du recoupement des informations sur plusieurs sources

350 000 126 406 223 594 7,2Critique•Important

Modéré•Faible

Page 21: Infrastructures SAP : enjeux et solutions envisagées par les ...

Technique

21IT-expert n°73 - mai/juin 2008

La démarche est nécessairement itérative. en effet, la richesse des analyses et la pertinence des résultats du check-up dépendent fortement du niveau de précision apporté pour décrire les contraintes et les normes applicables pour chaque champ. pour faciliter cette description dans un mode directement ré-exploitable pour la suite de l’analyse, la démarche comprend une phase de rétrodocumentation automatique, puis une validation et un enrichissement par des responsables des données.

parmi les éléments à valider ou compléter, on trouve la définition des identifiants (données obligatoire et unique) pour les objets métier, et les règles de transcodage avec les différents identifiants utilisés dans les systèmes pour ces objets métier.

autre élément essentiel pour fournir des informations globales et précises sur la qualité des données existantes : la présence de métadonnées correctement renseignées. il s’agit notamment de qualifier le degré de confiance que l’on peut avoir dans une donnée, et sa fraîcheur de « mise à jour » :• Cette donnée est-elle volatile ? A-t-on des indices

d’obsolescence (npai…) ?• L’originedeladonnéeetlesconditionsd’acquisitionsont-

elles conservées ? s’agit-il d’une donnée attestée par une pièce justificative ? ou d’une simple déclaration en ligne ? La donnée a-t-elle pu être recoupée ?

Figure 4 : Exemple d’axe d’analyse qualité des données dans un contexte CRM

Aperçu des solutions de Master Data Management

Le marché des solutions pré-packagées de mdm ne manque pas de propositions à l’adresse des architectes, des urbanistes, des informaticiens, des responsables de système d’information… soucieux de mettre sous contrôle les master data de leur entreprise.

un nombre croissant d’éditeurs de différents horizons (particulièrement du monde erp ou décisionnel) propose des progiciels de gestion des master data. ces dernières années ont aussi vu l’émergence d’éditeurs spécialisés (dits « pure players ») dédiés à l’édition de solution de mdm. si la couverture fonctionnelle des solutions peut varier d’un éditeur à l’autre, les progiciels de mdm ont des points communs : ils permettent la mise en place d’un référentiel maître gérant en central les informations clés de l’entreprise (clients, produits, fournisseurs…) avec les données les caractérisant (par exemple : identifiant, nom, prix, numéro de référence…), et ils proposent des fonctions de diffusion en mode transactionnel, par distribution des données ou par l’exposition de services d’accès (fig. 5).

Figure 5 : Flux des Master Data

ces progiciels mdm sont parfois vus comme « les entrepôts de données du monde transactionnel ». ils contribuent à l’homogénéisation des descriptions des données dans tout le si, quel que soit l’applicatif par lequel elles transitent.

Donnéeclient

CONFIANCE(origine,condition d’acquisition,

rapprochement) CONFORMITÉDE�LA DONNÉE

CARACTÈRE« À JOUR »

DE LA DONNÉE

COMPLÉTUDE

Niveau de qualité stable

Action qualité à mener

Risque de donnée fausse ou inexploitable

Donnée inexploitable

Hors champ

vérifiée/prouvée

justifiée/recoupée

déclaréeen

vis-à-visprouvéefausse

�douteuse

rectifiable

nontestée

conforme

nonconnue

nondemandée

renseignée

« le clientn’a pas »

« à jour »à priori

obsolète

risquede

péremption

nonconforme

tests nonapplicables

Indice(s)donnéeobsolète

refusde�réponse

déclaréeà distance

Avant Après le projet MDM

Flux des Master Data

Page 22: Infrastructures SAP : enjeux et solutions envisagées par les ...

22 IT-expert n°73 - mai/juin 2008

on distingue :• Le MDM dans les ERPproposé par des éditeurs d’erp qui ont enrichi leur plateforme d’un module de gestion des master data.• Le MDM « spécifique »développé historiquement à partir de solutions dédiées à la gestion des principales données de l’entreprise : solutions de product information management (pim), de customer data integration (cdi) …• Le MDM « généraliste »visent le traitement de la problématique mdm dans son intégralité sans être dédié à un type de données.

fusions, acquisitions jalonnent le parcours de ces entreprises lancées dans une course à l’offre la plus attractive sur le marché en vogue des solutions de mdm. parmi celles-ci on notera la plus récente celle de stratature par microsoft réalisant par la même une percée sur le marché du mdm, ou encore celle d’Hyperion par oracle.

Voici une liste non exhaustive d’éditeurs de MDM et de solutions qu’ils proposent :

EDITEUR OFFRE

LE MDM DANS LES ERP

oracLe - peopLesoft peoplesoft appconnect•EnterprisePortal•IntegrationBroker•EnterpriseWarehouse

sap netWeaver mdm

Le MDM « spécifique »

iBm intégrés dans l’offre Websphere les produits :•WPC(gestiondesproduits)•WCC(gestiondesclients)

oracLe oracle master data management suite•OracleProductHub•OracleCustomerHub

Le MDM « généraliste »

amaLto offre Xtentis•XtentisDataManager•XtentisSubscriptionEngine•XtentisWorkbench•XtentisBPM…

i2 i2 mdm

KaLido suite KaLido 8m•KALIDO8M,solutionderéférentieldedonnées•KALIDO8E,solutiondedatawarehousingd’entreprise•KALIDO8E+,solutiond’entrepôtsdedonnéesfédérés.

microsoft microsoft mdmsuite au rachat de stratature par microsoft (juin 2007), l’ancienne offre de stratature (+EDM)aétéadaptéeselonlescritèresdeMicrosoft.

orcHestra netWorKs offre eBX.platform

Les éditeurs de progiciel de mdm ne proposent pas tous la même approche. Les uns mettent l’accent sur l’architecture technique, ou les aspects de sécurité de leur solution, d’autres insistent sur la gestion des versions de données, leur module de workflow, ou encore sur la facilité d’utilisation de la solution. autant d’éléments de choix d’une solution de mdm.

Page 23: Infrastructures SAP : enjeux et solutions envisagées par les ...

Technique

23IT-expert n°73 - mai/juin 2008

Synthétiquement on peut regrouper les fonctions attendues pour une solution de MDM comme suit :

TYPE FONCTIONS

Fonctions de base •Collecterlesdonnéesprovenantdesystèmessourceshétérogènes•Homogénéiserlesdonnéessousunformatpivot•Stockerlesdonnées•Gérerlesprocessusdemiseàjouretdevalidationdesdonnées(Workflow)•Transférerlesdonnéesverslessystèmes«clients»,proposerdesservicesd’accès:

synchronisation bidirectionnelle, réplication de données…•Gérerleshabilitations(accèsauxdonnées,droitsenlecture/écriture…)

Autres fonctions •Gérerlesrèglesmétier•Valoriserlesdonnéesparcontexte•Gérerlaqualitédesdonnées:nettoyage,comparaisond’enregistrements,

dédoublonnage…•Assurerlatraçabilitédesactes•Gérerlafraîcheuretlesversionsdedonnées•Historiserlesdonnées•…

La présence et le mode d’outillage de ces fonctions seront des critères déterminants pour la sélection d’une solution mdm, auxquels viennent s’ajouter des critères tels que la maturité de la solution, la facilité d’utilisation (iHm orientée utilisateur), les exigences de performance selon le nombre d’applications clientes ou la volatilité des données à gérer, ou encore l’existence de fonctions spécifiques représentant un vrai plus face à la problématique rencontrée.

toutefois, un projet de master data management ne se résume pas à un choix informatique. pour réussir un tel projet, il est primordial de répondre à un certains préalables avant de se lancer dans le choix d’une solution. mais préalablement au choix de la solution, les facteurs clés du projet de mdm sont le positionnement dans l’architecture d’entreprise, l’évaluation de la qualité des données, le cadrage des processus de mise à jour, la définition de la roadmap de mise en œuvre du référentiel (initialisation et déploiement) et la mise en place d’une gouvernance du référentiel. n

Michel DARDET directeur associé

ORESYS Société de conseil indépendante de 230 consultants basée à Paris, Lyon, Bruxelles, ORESYS aide ses clients à :

• Piloterleursactivités

• Améliorerleurperformance

• Mettreenœuvreleursprojetsdetransformation

Oresys intervient sur toutes les dimensions : métiers, organisation, processus, système d’information, accompagnement du changement.

Dans le domaine de l’Enterprise Architecture, ORESYS a développé des approches pragmatiques et originales pour l’urbanisation des SI.

ORESYS est aussi membre fondateur et animateur du club URBA-EA (www.urba-ea.org ).

Michel DARDET, Directeur Associé du Groupe ORESYS, il est en charge de l’activité « Urbanisation des SI-Enterprise Architecture ». Il intervient

en direction ou en support-expertise sur ces types de missions, et dans la capitalisation des Brest practices.

Assia EL OUAZZANI, Directrice d’études, elle intervient dans la direction de missions de pilotage ou de support à l’urbanisation des SI et

dans l’accompagnement du changement.

Benoit NOËL, Responsable du pôle d’expertise technique, il intervient plus particulièrement en expertise et coaching technique sur les sujets

de Data Integration, Business Intelligence et modélisation dimensionnelle, services internet (B2B et A2C).

Assia EL OUAZZANI directrice d’études

Benoit NOËL responsable du pôle d’expertise technique

Page 24: Infrastructures SAP : enjeux et solutions envisagées par les ...

Pour compléter votre bibliothèque de référence technique, commandez vite les anciens numéros* d’IT-expert à tarif préférentiel !

IT-expert n°63Septembre/Octobre 2006

Dossier : La géolocalisation•Géolocalisation,lestechniquesalternatives

au GPS•LepositionnementparGPS•Géolocalisation,toutn’estpaspermis…•Recyclagedese-déchets

IT-expert n°68Juillet/Août 2007

Dossier : Le décisionnel•Dudécisionnelàlagestiondelaperformance•Lavisualisationdel’informationàdesfins

d’aide à la décision•Lesgrandesétapesd’unechaîned’ETL•ITIL:entremeilleurespratiquesetréférentiel

holistique

IT-expert n°67Mai/juin 2007

Dossier : SOA, l’état de l’art•SOA:Architectures&outils•Imprimezmoins,maîtrisezvoscoûts!•Qualitéinternedeseslogiciels:

mythes et réalités•L’universétrangedesunitésd’œuvre

IT-expert n°62Juillet/Août 2006

Dossier : Panorama sur les techniques Agiles•PHP5,unealternativeà.NETetJ2EE?•Eclipse:leBigBangCallisto•TestDrivenDevelopment•QuiarrêteraGoogle?

IT-expert n°65Janvier/Février 2007

Dossier : Web 2.0 entreprise, quellesréalités?•ITILetISO20000•Logiciellibre•Leswikis:définitionsfonctionnelles

et techniques•Uneapprochestructuréedelacertificationdu

réseau : l’audit automatique du réseau et la validation des changements des configurations

IT-expert n°70Novembre/Décembre 2007

Dossier : Management de la sécurité•Commentlutterefficacementcontre

les intrusions informatiques•MicrosoftOfficeSharePointServeur2007:

les raisons-clés d’un succès•Lesmultiplesfacettesducontrôled’accès

au réseau d’entreprise•Interviewd’AlainBouillé,RSSIausein

du Groupe Caisse des Dépôts•SécuritédelatéléphoniesurIP

IT-expert n°64Novembre/Décembre 2006

Dossier : Capital Immateriel•WindowsVista:lenouveausystème

d’exploitation de Microsoft•LescurseurssousSQLServer•Wimax

IT-expert n°69Septembre/Octobre 2007

Dossier:Quepeut-onoffshorer dansuneDSI?•Laqualitéintrinsèquedesapplicationsdans

les contrats de service•Le«backsourcing»:lorsquel’externalisation

n’estpasutiliséeavecprécaution…•AssurerlesuccèsdesprojetsaveclaTierce

Recette Applicative•Etatdel’artdelaconvergence:

lien entre informatique et téléphonie

* d

ans

la li

mite

des

sto

cks

dis

pon

ible

s

Page 25: Infrastructures SAP : enjeux et solutions envisagées par les ...

http://www.it-expertise.com/Abonnements/Unite.aspx

Offre SpécialeJe souhaite acheter les numéros suivants

IT-expert n°66Mars/Avril 2007

Dossier : Sécurité : Les applications,le talon d’Achille des entreprises•RIA(RichInternetApplication):

définitions et panorama des solutions•Gestiondesdroitsnumériquesenentreprise

avec RMS•Unobservatoirepourmesurerl’urba•LesDRM:uneintroduction

IT-expert n°61Mai/Juin 2006

Dossier : Optimiser innovations ettransformations en gérant le portefeuillede projets et d’applications•Subversion:legranddépart?•L’accessibiliténumérique•Wi-Fi

IT-expert n°71Janvier/Février 2008

Dossier : La gestion prévisionnelle des ressources humaines informatiques•Logiciellibre:étatdel’art•Lesmashupsdébarquentenentreprise•Commentletext-miningdonnedusens•Libertésurveilléepourl’utilisationàdesfins

privées de l’informatique de l’entreprise

Pour commander les anciens numéros d’IT-expert, il vous suffit de nous renvoyer ce document à l’adresse suivante :

IT-Expert3, rue Marcel Allégot - 92190 Meudon - France

Tél. : +33 (0)1 46 90 21 21 - Fax : +33 (0)1 46 90 21 20

Adresse d’expédition & de facturation

TarifsTTC(TVA:5,5%) 1 exemplaire : 8 e 10 exemplaires : 60 e 5 exemplaires : 35 e Autre quantité :

Année 2006 Année 2007 Année 2008 N° 61 N° 65 N° 71 N° 62 N° 66 N° 63 N° 67 N° 64 N° 68

N° 69 N° 70

Mme Mlle M.

Nom :

Prénom :

Société :

Fonction :

Adresse :

CP :

Ville:

E-mail :

Tél. :

Fax :

Chèquejointàl’ordredePress&CommunicationFrance

Règlement à réception de facture

Date :

Signature obligatoire :

Page 26: Infrastructures SAP : enjeux et solutions envisagées par les ...

Actualitésinternationales

26 IT-expert n°73 - mai/juin 2008

Yahoo-Microsoft : suite et fin ?

Rappel : Le 10 février dernier Yahoo rejetait l’offre publique d’achat de microsoft de 44,6 milliards de dollars (30 milliards d’euros), jugée insuffisante. suite des épisodes évoqués dans notre dernier numéro.

samedi 3 mai, microsoft retirait officiellement son offre de rachat. après un nouveau refus malgré une offre de 47,5 milliards de dollars (33 dollars l’action), soit près de 31 milliards d’euros ! L’éditeur de Windows a jugé que les attentes financières de Yahoo n’étaient « pas raisonnables » (le portail demandait 37 dollars l’action).mi-mai, le milliardaire carl icahn, détenteur de 4,3 % du capital de Yahoo (59 millions d’actions) veut entrer au conseil d’administration et y faire nommer des alliés. objectif ? affirmer le mécontentement de nombre d’actionnaires, et relancer les négociations avec microsoft.quelques jours après, microsoft revient à la charge et évoque l’éventualité d’une transaction sur une partie de Yahoo sans plus de détail. par ailleurs, l’entreprise « se réserve la possibilité de reconsidérer » une offre d’achat de Yahoo, malgré d’autres déclarations ultérieures en sens inverse.

Le trublion milliardaire s’avère tenaceLe 20, carl icahn revient à la charge et demande aux autorités financières l’autorisation d’acquérir 2,5 milliards de dollars d’actions. mais surtout, il a conquis le ralliement d’actionnaires de poids : le fonds third point et ses quatre millions de titres, le magnat texan t. Boone pickens et ses dix millions d’actions, et le fonds d’investissement paulson & co et ses 3,7 % du capital de Yahoo. Bref un ensemble de près de 12 % de Yahoo ! et surtout, une assise permettant de nommer plusieurs administrateurs et de forcer Yahoo à accepter l’offre de microsoft (qu’il l’a retiré).Les dirigeants de Yahoo se montrent de plus en plus ouverts… et ne s’attendaient apparemment pas à un tel assaut. pourtant, ils devraient savoir qu’une valorisation reste une croyance très volatile… sous la pression, la firme conduite par Jerry Yang a reporté son assemblée générale à fin juillet, contre le 3 juillet. des propositions de candidats au conseil d’administration par d’autres actionnaires seraient à l’étude. pour contrer celles de carl icahn. Le bras de fer se prépare pour un été très très chaud… n

HP rachète EDS, et rattrape son rival IBM

près de 14 milliards de dollars ! une somme qui prouve manifestement l’intérêt d’Hp pour electronic data systems (eds). Le constructeur/éditeur a proposé une offre supérieure de 32 % au titre le lundi 12 mai. L’acquisition du spécialiste de l’outsourcing ferait de Hp un leader des services informatique juste derrière (et de peu) son concurrent iBm. Les négociations ont été officialisées par les deux sociétés après la clôture de la bourse de new York.

La digestion ne sera pas aisée. en effet, créée par ross perrot (ex-candidat à la présidence des États-unis), eds compte près de 140 000 salariés, tandis qu’Hp en regroupe déjà 172 000. un vrai défi pour les drH des divers pays.

Anticiper les évolutions de marchéHp, suivant iBm, poursuivent leur stratégie de diversification. en effet, les constructeurs de serveurs anticipent les effets secondaires de la consolidation/concentration, de la virtualisation et de la multiplication des datacenters limitant l’explosion de serveurs, et ralentissant immanquablement la hausse des ventes, au moins à moyen terme.

Une offre très généreusesuite à son rachat de price Waterhouse coopers consulting pour 3,5 milliards de dollars en 2002, iBm a créé son département Global Business services (GBs). réponse du berger à la bergère en 2008, Hp annonce le rachat d’eds, leader mondial de l’outsourcing et du service. certes, l’investissement se révèle bien plus conséquent. toutefois, eds dispose d’une infrastructure (à lui ou contractuelle), et donc d’un actif, qui peut justifier en partie la surcote. mais à ce point ? Lors de l’annonce, eds était capitalisée à hauteur de près de 10 milliards de dollars, et affichait un chiffre d’affaires annuel de 22 milliards de dollars. n

Page 27: Infrastructures SAP : enjeux et solutions envisagées par les ...

Actualités internationales

27IT-expert n°73 - mai/juin 2008

10 millions d’articles sur Wikipédia

fin mars, la fondation wikimedia - dirigée par la française florence devouard - annonçait recevoir 3 millions de dollars de la fondation alfred p. sloan. L’organisation caritative à but non lucratif a pour but d’encourager la croissance, le développement et la distribution de contenus libres et multilingues, comme Wikipédia. et dans l’élan de cette annonce, l’encyclopédie participative en ligne annonçait son dix millionième article publié. ces 10 millions d’articles en 250 langues sont prioritairement en anglais (2,3 millions d’articles), puis dans l’ordre en allemand, français, polonais, japonais, italien, portugais, espagnol et suédois.L’encyclopédie source de révolutions ? Wikipédia donne des idées à Larousse, dans la lignée du projet Knol de Google. en revanche, il reste évident que Wikipédia préfère les dons aux publicités, et maintiendra l’accès gratuit à tous ces contenus. quant aux autres… n

Le format Office normalisé !

cette fois c’est fait. Juste après le 1er avril, le format office open XmL (ooXmL) de microsoft utilisé dans la suite office 2007 a reçu la certification iso/iec. L’éditeur de Windows a dépassé le quota requis : moins de 25 % de votes négatifs internationaux à 14 %, et plus des deux tiers de votes positifs parmi les membres avec 75 %. après un vote le 4 septembre 2007, le projet fut rejeté avec la mention « non avec commentaire ». microsoft a donc répondu point par point. alors, les votants pouvaient ou non revoir leur position suite aux explications. Le 29 mars, il faut croire que certains ont agi de la sorte.Bonne nouvelle rassurante pour les opposants (pour de réelles raisons techniques et pas par obscurantisme anti-microsoft peu constructif) que désormais l’éditeur ne peut plus modifier ce format comme il le souhaite, sous peine de perdre sa certification. et l’enjeu reste de taille. en effet, les administrations et grandes entreprises semblent tenir de plus en plus à ce type de normalisation, qui s’il n’ouvre pas automatiquement les portes, peut les fermer par son absence. olivier peyrat, directeur général de l’afnor, a tenu à souligner fermement que la normalisation « n’est ni une guerre de religion, ni une guerre de tranchées ». n

Aie-Phone : Apple tempère ses ambitions

orange devait dépasser les 100 000 iphone fin 2007, chiffre atteint seulement fin mars. si 70 000 unités ont été vendues en décembre, seuls 20 000 ont trouvé acquéreur en janvier et 10 000 en février-mars. L’agonie se poursuit. comment orange pourra-t-il atteindre son objectif de 400.000 à 500.000 exemplaires venus fin 2008 ? La version 3G cet été suffira-t-elle ? une baisse de prix pourrait-elle y changer quelque chose ?on a entendu parler de promotions à 100 euros en allemagne, et apple a déjà renoncé à son modèle d’exclusivité de l’opérateur en italie. toutefois, orange annonce que tout va très bien. « elle est pas belle, la marquise ? » des limites du marketing : si le rêve n’a pas de prix, il ne faut pas abuser sur l’addition ! Le consommateur perçoit alors trop clairement son cauchemar : modèle captif, technologie captive… le tout avec prélèvement automatique sur son compte bancaire. ce n’est pas lui qui va croquer la pomme. surtout que d’autres constructeurs arrivent avec des terminaux très bien finis et sans modèle captif. d’ailleurs, rim, auquel on prédisait le pire suite à la sortie de l’iphone (le marketing touche aussi analystes et journalistes), annonce que le Blackberry se vend très bien avec ses 14 millions d’utilisateurs. mieux encore, destiné aux professionnels à l’origine, le Blackberry rencontre aujourd’hui un public supplémentaire dans le grand public. n

Fin du développement by Borland

en 2006, Borland séparait ses outils de gestion du cycle de vie des applications de ses solutions de développement. en regroupant ces dernières dans sa division codeGear, l’éditeur souhai-tait favoriser une revente qui n’eut jamais lieu. aujourd’hui, embarcadero technologies se montre intéressé pour une offre d‘environ 23 millions de dollars. La transaction devrait être finalisée fin juin, et Borland conservera cependant ses clients codeGear. La fin d’une époque !

pourtant, les outils concernés ont fait les belles heures du client/serveur, d’internet, et du développement rapide d’application. aux côtés de l’environnement de développement Java JBuilder 2008 très apprécié, on trouve le sGBd interbase et Blackfish sqL. un peu égaré parmi ces solutions, 3drrail propose un environnement de programmation ruby on rails. autre pilier de cette galerie, la solution de développement rapide d’application (rad) delphi 2007 for Win32 est encore très utilisé, avec ses variantes delphi for .net, delphi for pHp et delphi/400 ou delphi/400 for pHp.

SpécialisteduC++,Borlandavaitéga-lement enrichi sa division codeGear deC++Builder2007.

de nombreuses légendes du dévelop-pement, mais tout conserver semble dérisoire. n

Page 28: Infrastructures SAP : enjeux et solutions envisagées par les ...

28 IT-expert n°73 - mai/juin 2008

Bye Bye XP ? Et bonjour Windows 7 ?

dans la parution it-expert de janvier 2008, nous évoquions le site savexp.com le site lancé par infoworld. fort d’une pétition en ligne, le site militant pour le maintient de Windows Xp cherche à faire pression sur microsoft. en effet, la commercialisation de l’os sera stoppée le 30 juin 2008 (sauf ultraportables), la disponibilité du produit cessera le 31 janvier 2009, et ses mises à jour en avril 2009. quant aux patches de sécurité, ils seront maintenus jusqu’en avril 2014 (5 ans de plus).et comme si ce frein à l’expansion de vista ne suffisait pas, des indiscrétions sur des sites Web font mention du prochain Windows 7*, qui serait disponible en 2010. une annonce publiée par microsoft chercherait des développeurs pour améliorer la prise en charge du format virtual Hard disk au sein de Windows 7… pour la discrétion, ils repasseront. À moins que… n

*http://wepokers.blogspot.com/2008/05/microsoft-confirms-windows-7-for-2010.html

Un an de délai supplémentaire pour SAP ByDesign

fin avril, sap annonçait qu’il reportait la sortie officielle de son service en ligne Business Bydesign de 12 à 18 mois. pourtant, cette annonce avait plutôt séduit le marché et conforté les acteurs des applications en mode asp ou en saas (software as a service). d’autant plus que l’éditeur allemand proposait le tout en ligne très simplifié pour un erp. une audace plutôt bien accueillie. de plus, sap prenait ainsi les devants pour se positionner sur ce créneau à destination d’un marché qu’il peine à pénétrer : les petites pme/pmi.certes, sap pensait que cette solution allait accélérer sa croissance et conforter ses positions sur les petites entreprises, et annonçait même ses ambitions à hauteur d’un milliard d’euros de chiffre d’affaires d’ici 2010. néanmoins, quelques dysfonctionnements ont poussé le géant européen à revoir sa copie. effectivement, mieux vaut repousser que décevoir, car un échec initial marque pour longtemps ce type d’initiative.entièrement en ligne, Business Bydesign s’adresse aux entreprises de 100 à 500 personnes, avec une suite de modules erp complémentaires : finances, comptabilité, ressources humaines, crm, supply chain, gestion des fournisseurs, gestion de projets, gestion de la conformité, et executive management support. n

Qui va amener Alice au pays des merveilles ?

fin avril, télécom italia étudiait les offres des prétendants à la reprise de sa filiale fournisseur d’accès internet alice. Les trois compétiteurs ne surprirent personne : iliad (free), neuf cegetel et numéricable.

Les premières valorisations d’alice s’étalaient entre 600 à 650 millions d’euros. par la suite, il était plutôt question de 800 millions d’euros. des sommes bien faibles pour l’opérateur italien qui tablait sur un minimum d’un milliard d’euros. toutefois, bien qu’il ait annoncé 900 000 clients, le fournisseur d’accès n’en compterait que 800 000. de plus, ses finances se portent plutôt mal avec 75 millions d’euros de pertes au premier trimestre 2008. c’est pourquoi ces évaluations seraient plutôt justifiées.malgré tout, autant d’abonnés feraient le bonheur de tous les opérateurs nationaux. neuf cegetel (groupe sfr) a déjà racheté club internet et porterait ainsi son nombre d’abonnés à plus de 4 millions, contre 7,5 millions pour orange. de son côté, free deviendrait un excellent second fournisseur d’accès internet, avec ses déjà plus de 3 millions de clients. cependant, il investit déjà lourdement sur la fibre optique.

enfin, numéricable avait annoncé sa stratégie de rapprochement d’un fournisseur d’accès adsL. fin mai, on apprenait que ce dernier se montrait le plus généreux avec 780 millions d’euros, face aux 680 millions proposés par neuf cegetel et aux 600 millions de free. n

Page 29: Infrastructures SAP : enjeux et solutions envisagées par les ...

Quoi de neuf Docteur ?

29IT-expert n°73 - mai/juin 2008

L’analyse prédictive rend la BI proactive

Anticiper : une clé essentielle de la performance dans un univers complexe. Qu’il s’agisse de mesurer plus

efficacement les risques, de détecter à temps des comportements frauduleux ou d’anticiper les comportements

clients, l’analyse prédictive éclaire les décisions des entreprises.

L’analyse prédictive fournit un cadre méthodologique associé à des techniques analytiques permettant d’étayer

et de justifier le processus décisionnel de certains métiers. À partir d’éléments connus, il devient ainsi possible

de déterminer des modèles afin d’anticiper les comportements futurs. Intégrée dans un processus métier, l’analyse

prédictive favorise donc une prise de décision éclairée.

Page 30: Infrastructures SAP : enjeux et solutions envisagées par les ...

30 IT-expert n°73 - mai/juin 2008

Le décisionnel : analyser ce qui s’est passé

avec l’informatisation de la majorité des services des entreprises, il devint possible de produire des rapports sur l’activité ou la performance globale de chaque entreprise et de ses différents départements : la Bi (Business intelligence, ou encore informatique décisionnelle) était née. de nombreux acteurs du monde logiciel s’engouffrèrent dans ce nouvel eldorado (cognos, Bo, Hyperion…). avec le décisionnel, les entreprises pouvaient désormais disposer de véritables tableaux de bord permettant d’affiner leur pilotage : en croisant facilement les données on pouvait ainsi déterminer précisément ce qui avaient été vendu, dans quelles régions, sur quels types cibles, et même établir des liens entre ces différents éléments…Les équipes commerciales, financières ou même marketing se sont ainsi servies de ces solutions pour mesurer leurs réussites. il était enfin possible d’avoir une vue de ce qui c’était passé, avec des outils de mesure. cette approche consistant à se servir de ces informations pour prendre les décisions les plus avisées fut baptisée informatique décisionnelle. cependant, ces chiffres limitaient la perception de l’activité à une vue du réalisé, a posteriori. et l’heure où l’environnement économique et concurrentiel d’une entreprise évoluait toujours plus vite, cette lunette tournée vers le passé montrait les limites intrinsèques des solutions de Bi. et si les décideurs comprenaient ce qui s’était passé, ils avaient plus de difficultés à déterminer pourquoi (ce qui est pourtant essentiel pour prendre des actions correctives…). et surtout, ils ne pouvaient pas anticiper le futur. La Business intelligence concerne donc directement l’expérience, et se contente d’éclaire derrière soi. pour franchir une étape supplémentaire, il fallait alors s’essayer à éclairer l’avenir.

Dresser un pont éclairé entre le passé et le futur

comment pouvait-on prévoir le futur à partir des données du passé ? La réponse est venue de l’émergence, au début des années 2000, de solutions intégrant de puissantes fonctions statistiques qui permettent de modéliser un comportement à partir de données mesurées. ce comportement peut être le comportement d’achat d’un consommateur ou bien le déroulé d’un processus industriel. ces applications montraient clairement qu’il n’y avait pas de limite à la modélisation tant que des données étaient mesurées et historisées.

de la modélisation à la prédiction il n’y a qu’un pas. c’est pourquoi des mathématiciens et des statisticiens ont commencé à mettre à profit la puissance des mathématiques au service de la connaissance du futur.

Extraire la substantifique moelle de la masse

avec l’analyse prédictive, pas de magie ou de boule de cristal. statistiquement, il est possible d’établir que toutes les personnes affichant un comportement spécifique ont certaines caractéristiques communes. par exemple, l’analyse du comportement d’achat d’un

nombre conséquent de consommateurs permet de déterminer que d’autres consommateurs avec les mêmes caractéristiques auront certainement le même comportement.

La difficulté tient alors dans le fait de trouver ces «caractéristiques» ou «variables» dans la masse des données dont regorgent les systèmes d’information. parmi les informations accumulées, dont une large partie présente peu de pertinence, il s’agit de fouiller. pour extraire l’information ou l’intelligence nécessaire à la prédiction, les solutions d’analyse prédictive vont donc creuser dans ces entrepôts de données afin de dénicher et retenir l’information utile. Le terme «creuser» n’est pas choisi au hasard, puisque les premières solutions qui ont vraiment exploité ces données sont les solutions de «data mining» : elles allaient ainsi creuser dans les strates accumulées de données des entreprises, en espérant y trouver des pépites, à l’image des mineurs du monde réel.

si la Business intelligence a permis de stocker les informations du passé, le datamining retrouve, classe, remet en forme, établit des liaisons et analyse ces données. il devient donc désormais possible de modéliser les comportements et d’offrir les fonctionnalités de prédiction qui manquaient aux solutions de Bi.

Apprendre à connaître ses clients

Les départements en charge de la relation client ont été les premiers, en entreprise, à vouloir tirer les bénéfices de l’analyse prédictive. pour en expliquer la raison, il suffit d’examiner le quotidien. tous les citoyens-consommateurs sont confrontés chaque jour à des sollicitations marketing sans intérêt. mais pourquoi une telle situation est-elle, le plus souvent, vécue comme une agression ?parce que les marques n’écoutent pas assez les consommateurs, et n’analysent pas ce qu’ils leur ont dit lors d’une précédente sollicitation, explicitement ou implicitement. Les services marketing vont envoyer une campagne marketing aux consommateurs qui achètent le plus, sans souvent analyser le type de produit que ces consommateurs ont effectivement acquis. voilà une belle preuve des limites de l’analyse purement

Page 31: Infrastructures SAP : enjeux et solutions envisagées par les ...

Quoi de neuf Docteur ?

31IT-expert n°73 - mai/juin 2008

transactionnelle : ce que l’on sait en analysant les données de transaction, c’est uniquement le nombre de fois où j’ai acheté un produit, c’est-à-dire ma fréquence d’achat.ces données servent au service marketing à segmenter sa base clients en fonction du potentiel client. résultat : dans le meilleur des cas, les clients qui dépensent le plus se retrouvent toujours dans la liste des consommateurs à plus fort potentiel. dans le plus mauvais cas, la marque se contente d’inonder toute sa base de « réclames » commerciales, quel que soit le produit à vendre. La facilité d’accès aux consommateurs via internet a fait penser aux annonceurs qu’ils pouvaient envoyer leurs messages autant de fois qu’ils le souhaitaient sur leur cible. une pratique favorisant le rejet de la marque par le consommateur. en effet, ses souhaits ne sont pas pris en compte : il reçoit des «promotions» sur des produits qui ne l’intéressent pas.L’analyse prédictive va permettre d’analyser les caractéristiques de comportement d’achats d’un consommateur et surtout d’extraire des informations sur ses souhaits. par exemple, quand il surfe sur un site marchand pour chercher un produit qu’il souhaite acquérir, le site web enregistre sa navigation. s’il parle avec un téléacteur d’un centre d’appel, celui-ci saisit la conversation (plainte, souhait, question technique…). si ces données sont associées avec les informations sur ce consommateur, le commercial sait ce qu’il a acheté dans le passé, ce qu’il regarde comme produits aujourd’hui, et peut-être le risque qu’il parte à la concurrence (au vu de la conversation avec le centre d’appel).il est donc inutile de lui envoyer une sollicitation sur le produit X s’il s’intéresse au produit Y. cette démarche améliore l’image de la marque, qui le sollicite uniquement sur des produits qui l’intéressent. il est d’ailleurs généralement avéré que cela augmente à moyen terme le revenu généré sur ce consommateur. cerise sur le gâteau : en n’envoyant que les bons messages aux bonnes cibles, l’entreprise réduit le nombre d’envois de sollicitation, donc ses coûts de campagne marketing, dont elle connait à priori le résultat grâce à ce ciblage très pertinent.En résumé, l’entreprise dépense moins, gagne plus et vous augmente la satisfaction client.

L’analyse prédictive profite à tous les métiers

des organisations financières utilisent en temps réel ces techniques d’analyse prédictives pour vous accorder votre crédit sans que vous ayez à attendre plusieurs jours qu’un

processus complexe de validation ait fait son œuvre. Lors de déclaration de sinistres, des assureurs vont pouvoir beaucoup plus rapidement détecter des déclarations frauduleuses et dans le même temps vont pouvoir rembourser plus vite les assurés honnêtes et donc augmenter leur taux de satisfaction. des services de police déploient tous les matins leurs effectifs en fonction de prévisions des lieux potentiels d’incidents. des opérateurs de télécommunication prédisent les risques de départ de clients à la concurrence (churn) pour le limiter par des actions ciblées. ou bien ils peuvent prévoir des pannes et donc anticiper des opérations de maintenance avant que l’utilisateur ne soit impacté, et limiter les temps d’indisponibilité.

il n’y a pas de limite à l’utilisation de ces techniques. Le seul pré requis consiste à disposer d’assez d’informations afin de les soumettre à des formules mathématiques. on ne peut modéliser que si l’on a déjà pu mesurer le passé (d’où l’intérêt des solutions de Bi). et cette modélisation servira de base aux prédictions facilitera les prises de décision des managers. une bonne visibilité grâce à des indicateurs fiable favorise la planification d’actions plus efficaces. n

Nicolas Lehuen, cto, crm company Group

Ingénieur en Mathématiques Appliquées (INSA de Rouen 98), Nicolas Lehuen a

développé son expertise chez Fi System puis chez Ubicco avant de devenir le CTO

de CRM Company Group depuis sa fondation, en 2002.

CRM Company Group rassemble des agences dédiées au marketing à la performance.

Grâce à une plateforme de communication unique, CRM Company Group conçoit et

orchestre des campagnes de marketing multicanal, mesurables, avec engagement

de résultats.

Page 32: Infrastructures SAP : enjeux et solutions envisagées par les ...

NE MANQUEZ PAS

LES PROCHAINES CONFERENCES IDC, EVENEMENTS INCONTOURNABLES POUR VOTRE SECTEUR D’ACTIVITE !

VERITABLES FORUMS D’INFORMATION ET D’ECHANGE ENTRE ANALYSTES, DIRECTEURS ET RESPONSABLES INFORMATIQUES, EXPERTS DU MARCHE, ET JOURNALISTES AU TRAVERS DE :♦ La recherche IDC ♦ Retours d’expérience et études de cas concrets ♦ Paroles d’experts♦ 3 ateliers thématiques et pratiques pour répondre aux besoins plus ciblés♦ Un cocktail déjeunatoire pour maximiser les opportunités d’échange et de rencontre♦ Une exposition spécialisée : espace de rencontre/briefing avec analystes IDC et experts du marché

INSCRIVEZ-VOUS GRATUITEMENTSur notre site : http://www.idc.com/france/events/conferences.jspen précisant le code invitation « BQIN »

Valérie Rolland Tel : 01 55 39 61 24

e-mail : [email protected]

Telecoms et EntrepriseMobilité, Communications unifiées…vers l’entreprise intelligente

11-12 juin 2008Centre Etoile St Honoré, Paris 8ème

Ce forum vous permettra d’identifier :♦ les évolutions technologiques♦ les orientations métier♦ les fruits de la communication unifiée et de la

mobilité

Journée 1 : l’entreprise mobile♦ La mobilité, levier d’innovation de l’entreprise,♦ L’infrastructure de mobilité au service de la

compétitivité de l’entreprise,♦ Gérer et optimiser les terminaux et les applications

en situation de mobilité

Journée 2 : communications unifiées, vers l’entreprise intelligente♦ La ToIP, socle de l’entreprise intelligente,♦ Bilan d’un projet de ToIP - les promesses ont-elles

été tenues ?♦ Impacts sur l’organisation d’un projet de

communication unifiée,♦ Repenser la gestion des télécoms et les relations

avec le SI,♦ Réseaux et sécurité

Business Intelligence et Consolidation du marchéQuels impacts immédiats pour l’entreprise et projets en matière de pilotage ?

19 juin 2008Hotel Le Parc, Paris

Au programme :

♦ Tour d’horizon des innovations qui permettent de satisfaire la constante évolution de la nature et la quantité des besoins,

♦ Standardisation des systèmes décisionnels et extension des couvertures fonctionnelles,

♦ Au cœur de tous les défis, la qualité des données décisionnelles : cohérence, gouvernance et privacy,

♦ Quelle place pour les données non structurées ?

♦ Le SaaS peut-il adresser les applications décisionnelles ?

CF24Q_AV2_ITexpert_A4.indd 1 10/04/2008 10:30:52

Page 33: Infrastructures SAP : enjeux et solutions envisagées par les ...

Comment ça marche ?

33IT-expert n°73 - mai/juin 2008

La gestion de la qualité des données

La gestion de la qualité des données (ou Data Quality

Management, DQM) devient une préoccupation

croissante des directions des systèmes d’information.

Initialement issue d’un besoin de mise en conformité

des résultats des banques et des organismes

financiers, la gestion de la qualité des données s’étend

peu à peu à toutes les fonctions opérationnelles

des entreprises des différents secteurs économiques.

En effet, ces dernières ont pris conscience que leur

efficacité et leur compétitivité dépendent largement

de la valeur et de la qualité des informations qu’elles

gèrent. Toutefois, un investissement massif dans

des solutions logicielles ne suffit plus. Désormais,

il leur faut s’intéresser également au contenu. Selon

la société d’études spécialisée The Data Warehousing

Institute, la mauvaise qualité des données coûterait

aux entreprises américaines plus de 600 milliards

de dollars chaque année.

Page 34: Infrastructures SAP : enjeux et solutions envisagées par les ...

34 IT-expert n°73 - mai/juin 2008

Qu’est-ce que la qualité des données ?

dans l’industrie, la qualité d’un produit est correctement appréciée en comparant ses effets aux attentes des clients. un produit ou service répondant parfaitement aux besoins des clients est donc réputé de grande qualité. il en est de même pour les données : une donnée est de qualité si elle répond parfaitement aux besoins des utilisateurs de cette donnée.si la justesse est une des conditions évidemment nécessaires à la définition d’une donnée de qualité, d’autres caractéristiques doivent également être prises en compte. comme l’indique le tableau suivant, les données peuvent être appréciées en fonction de leur contenu, leur accessibilité, leur flexibilité, et leur sécurité.

PRINCIPALES CARACTERISTQUES DE QUALITE DES DONNEES

Qualité du contenu

• Justesse

• adéquation aux besoins

• compréhension

Accessibilité• disponibilité

• facilité d’accès

Flexibilité

• Évolutivité

• cohérence avec d’autres sources

• traduction

Sécurité

• respect de la confidentialité

• fiabilité

• traçabilité

• intégrité

Principales caractéristiques de qualité des données

en termes de couverture fonctionnelle, les applications métier du système opérationnel, tout comme celles d’aide à la décision du système de pilotage sont concernées. il est à ce propos intéressant de souligner que si les données du système opérationnel sont de mauvaise qualité, celles du système de pilotage ont toutes les chances de l’être aussi, puisque les données de celui-ci sont généralement issues du système opérationnel. résultat : opérationnel hasardeux et pilotage de l’entreprise erroné.notons aussi que l’urbanisation du système d’information et les architectures de type soa nécessitent plus que jamais de s’intéresser aux données et à leur qualité, avec la mise en place ou l’alignement de référentiels de données.ainsi, l’adresse postale demeure une des données les plus utilisées par les entreprises, notamment pour leur gestion de leurs partenaires clients et fournisseurs. c’est aussi l’une des plus touchées par les défauts de qualité. des efforts particuliers méritent donc d’être apportés pour améliorer la gestion de cette donnée complexe.

Le chaos ruineux de la non-qualité des données

Principales conséquences de la non-qualité des données

Les conséquences de la faible qualité des données sont nombreuses et reviennent cher aux entreprises. pire encore, l’impact se propage jusqu’à l’extérieur, notamment en raison de la place grandissante des échanges électroniques. au final, la détérioration de l’image et la perte de crédibilité s’avèrent parfois fatales aux organisations dont les données sont de mauvaise qualité. Les conséquences rencontrées le plus fréquemment sont les suivantes :• Insatisfaction des clients : les clients victimes de données

incorrectes pardonnent difficilement. une livraison tardive suite à une erreur sur la date de livraison reste une erreur courante. avec internet, la sentence est encore plus rapide. d’ailleurs, un internaute s’apercevant que les données d’un site sont peu fiables ou incorrectes -comme des prix non actualisés- n’y reviendra jamais.

• Non-conformité des chiffres publiés : des erreurs dans les données comptables entraînent généralement de lourdes sanctions (amendes et peines). et ce, même si cette situation ne résulte pas d’une manipulation volontaire. suite aux récentes affaires de falsification des comptes, toute erreur dans la publication des chiffres paraît désormais suspecte.

• Dévalorisation de l’image de l’entreprise : en conséquence du point précédent, des erreurs portant sur des données diffusées à l’extérieur de l’entreprise détériorent rapidement l’image de celle-ci, et handicapent son expansion commerciale. de plus, l’impact boursier des sociétés cotées est immédiat, entraînant la chute rapide du cours de l’action.

• Perturbation du fonctionnement opérationnel : les données incorrectes au sein de l’entreprise ralentissent le fonctionnement opérationnel, et rendent les décisions difficiles ou incertaines. cela génère aussi du stress et de la démotivation chez les collaborateurs. de plus, le surcroît de travail engendré par des erreurs de données n’est jamais le bienvenu. enfin, la perte de confiance dans les informations manipulées n’est propice ni à l’initiative, ni à un climat sain.

• Erreurs de stratégie : définir une stratégie nécessite plus de temps si les informations utilisées sont de mauvaise qualité ou tout simplement erronées. comment réfléchir à l’avenir

Faiblequalité

des données

Chiffres publiésincorrects

Image négativede l'entreprise

Alourdissementdes coûts

Choix stratégiquesinadaptés

FonctionnementOpérationnel

chaotique

Insatisfactiondes clients

Page 35: Infrastructures SAP : enjeux et solutions envisagées par les ...

Comment ça marche ?

35IT-expert n°73 - mai/juin 2008

(bugs) portent aussi leur part de responsabilité. Bien que le coût correspondant soit loin d’être négligeable, surtout s’il s’agit d’un problème de conception, la gravité vis-à-vis des données est à relativiser. car une fois corrigée, l’application concernée n’est plus directement à l’origine des problèmes de qualité de données.

Un problème directement lié aux métiers de l’entreprise

La prise de conscience des dirigeants de la relation entre qualité des données et performance de l’entreprise, est très certainement la première source de progrès à développer. il est intéressant de constater que la responsabilité de la qualité des données est actuellement, dans le meilleur des cas, entre les mains de la direction des systèmes d’information. or celle-ci ne peut évidemment pas être tenue responsable de tous les problèmes de données, tout simplement parce qu’elle ne contrôle pas tout, et n’est généralement pas à la source de la création des données. La qualité des données n’est pas une problématique technique, elle touche avant tout au métier de l’entreprise.partant de là, la mise en place de programmes d’amélioration de la qualité de l’information et des données est l’un des vecteurs clés de progrès. un programme doit être géré comme un projet et impliquer largement la ou les directions fonctionnelles concernées (vente, achats, production…). Bien entendu, un tel projet ne doit être lancé que s’il y a un réel besoin et un enjeu significatif pour l’entreprise. il est donc recommandé de bien s’assurer que les processus concernés jouent un rôle significatif dans la compétitivité de l’entreprise. il convient également de définir un objectif clair et réaliste et d’évaluer les chances d’aboutir à un résultat positif. La solution mise en œuvre dans le cadre d’un programme peut comporter des aspects techniques et/ou organisationnels. autre point important, l’entreprise doit se doter de moyens de mesure pour évaluer la qualité des données avant et après mise en œuvre du programme. par exemple, la mesure du taux d’erreurs au sein d’un processus métier peut être l’un de ces indicateurs.

Mesuredutauxd’erreursavantetaprèsmiseenœuvredelasolution

si la situation présente n’est pas maîtrisée ? Les dirigeants peuvent évidemment se fier à leur intuition, mais ce type de démarche montre rapidement ses limites.

• Augmentation des coûts : les impacts énoncés précédemment engendrent évidemment des surcoûts. Les situations variant d’une entreprise à une autre, il est très difficile d’estimer le coût de la non-qualité. certains experts estiment cependant que ce coût caché peut représenter plus de 10 % du chiffre d’affaires, ce qui ampute de façon conséquente la rentabilité.

Les origines du mal : enjeu sous-évalué et mauvais traitements

Les causes d’anomalies portant sur les données sont multiples et variées, mais elles s’expliquent le plus souvent par une sous-estimation générale de ces enjeux. Les décideurs négligent souvent les tâches d’initialisation des données pourtant capitales, tant au démarrage d’une nouvelle application (reprise des données en masse), qu’en régime permanent (saisie manuelle au fil de l’eau). enfin, certains défauts de qualité trouvent aussi leur origine dans la conception des applications informatiques, et dans les défaillances logicielles (bugs).La sous-estimation de l’enjeu des données tient au fait que l’objectif d’une entreprise ne semble pas lié à la production des données. Bien que l’exercice des différents métiers nécessite des informations, le but premier consiste plutôt à obtenir, selon le cas, un client satisfait, un niveau de vente supérieur, un meilleur produit, une meilleure marge, etc. Les données ne se placent donc pas au premier plan de l’activité, et ne sont généralement pas perçues comme un élément essentiel de compétitivité. d’ailleurs, un grand nombre de managers considère que l’investissement dans une politique qualité des données se traduit uniquement en perte de temps et d’argent.La reprise des données d’une ancienne application vers une nouvelle génère souvent l’absence de qualité, car les décideurs ne lui accordent pas toujours l’importance qu’elle mérite. pourtant, la reprise des données en masse peut véritablement être assimilée à un transfert de patrimoine. en effet, les données que l’on initialise dans le nouveau système proviennent généralement d’un ancien système. or si les données de l’application d’origine affichent une qualité médiocre, un transfert effectué sans opération de nettoyage aboutira à une application cible avec les mêmes défauts de qualité. cela est particulièrement vrai pour les données stables, comme la base clients, fournisseurs ou encore articles. ainsi, il est hélas fréquent de transférer des doublons ou des données obsolètes d’une application vers une autre. en conséquence, la nouvelle application ne produit évidemment pas tout le bénéfice que l’on pourrait en attendre.au quotidien, la saisie des données au fil de l’eau présente aussi des lacunes. malgré des contrôles automatisés mis en place dans les applications, la méconnaissance des règles de gestion et le manque de formation engendrent souvent des saisies incorrectes. de nombreux utilisateurs créent et gèrent des données utiles à leur travail, mais peu se préoccupent de l’utilisation qui en est faite en aval. ce cloisonnement nuit considérablement à la qualité et à la fluidité de l’information.Les défauts de conception et les anomalies des logiciels

Taux d'erreurs

Moyenne

Objectif

1 4 7 10 13 16 19 22 25 28 Temps

Taux

d'e

rreu

rs

Page 36: Infrastructures SAP : enjeux et solutions envisagées par les ...

36 IT-expert n°73 - mai/juin 2008

outre le lancement de programmes d’amélioration ponctuels, il s’avère très profitable d’instaurer de façon durable de bonnes pratiques de data management (gestion des données). Basé sur des principes clairs privilégiant les mesures préventives et le pragmatisme, le data management permet incontestablement d’améliorer la qualité des données et de rendre l’entreprise plus performante et compétitive. Les bonnes pratiques recouvrent l’organisation, la gestion, la codification, la documentation, la surveillance, et l’auditabilité des données.

DQM et MDM : les outils ès qualités

pour supporter la gestion de la qualité des données, des outils de DQM (data quality management) sont désormais disponibles. selon le Gartner Group, ce marché représente aujourd’hui dans le monde 300 millions de dollars, et devrait croître de 18 % chaque année pour atteindre 677 millions de dollars en 2011. Le marché actuellement tiré par les pays anglo-saxons commence seulement à toucher la france. d’ailleurs, la plupart des fournisseurs sont américains, à l’instar de dataflux, trillium software, iBm ou informatica. Business objects, racheté récemment par l’allemand sap, fait figure d’exception.

L’objectif de ces outils consiste à améliorer la qualité des données. une majorité de solutions permet de détecter des anomalies, pour les corriger ensuite. il s’agit donc dans l’ensemble d’un mode curatif, même si certains produits fonctionnent de manière préventive en détectant les anomalies à la source en temps réel. en pratique, ces outils s’avèrent très efficaces. ils permettent en particulier d’améliorer la standardisation de certaines données comme les adresses, de détecter et d’éliminer les doublons, de produire des statistiques et des rapports facilitant la détection d’anomalies.

outre ces outils très spécialisés, on assiste depuis quelques années à un engouement pour les solutions de MDM (master data management). Le mdm permet de gérer au sein d’un référentiel un certain nombre d’objets métiers appelés données de base (principalement articles / produits, clients, fournisseurs, employés) pour les diffuser aux différentes applications de l’entreprise. Grâce au référentiel commun, les utilisateurs peuvent manipuler la même version de la réalité, ce qui facilite évidemment les échanges entre applications, et améliore la qualité des flux métiers sous-jacents.

Les solutions de mdm améliorent évidemment la qualité des données, grâce à la gestion mieux maîtrisée des informations

de base de l’entreprise. parmi les fournisseurs de mdm, on retrouve les grands éditeurs d’erp tels que sap (avec la solution netWeaver mdm) qui est un pionnier. iBm est aussi très bien positionné sur le marché avec les produits Wpc (gestion des produits) et Wcc (gestion des clients) intégrés à son offre Websphere. par ailleurs, les acteurs de la Business intelligence développent des offres mdm, comme Hyperion ou teradata. enfin, une multitude de « pure players » tels que sunopsis ou fulltilt solutions apportent des solutions intéressantes. sans oublier les éditeurs de bases de données comme oracle (enterprise master data management et Hyperion mdm) ou microsoft (rachat de stratature en juin 2007).

au-delà des outils, et c’est vraisemblablement l’un des points essentiels, la prise de conscience des enjeux, et l’adhésion des collaborateurs à un programme d’amélioration de la qualité est indispensable. La communication dans l’entreprise autour du thème de la qualité des données et la prise en compte de l’aspect humain constituent incontestablement les clés de la réussite de ce type d’approches. n

Christophe Brasseur, consultant manager chez capgemini

Christophe Brasseur est ingénieur ESTP et titulaire d’un DESS de gestion de l’IAE

de Montpellier. Il a participé à de nombreux projets en France et à l’étranger en tant

que directeur de projet ou consultant, principalement dans le secteur des services

publics, du pétrole, de l’énergie, des utilités, et de la chimie. Il est actuellement

Consultant Manager chez Capgemini.

Christophe Brasseur :

« Data Management, qualité des données et compétitivité »,

éditions Hermes-Lavoisier, Paris, 2005.

Page 37: Infrastructures SAP : enjeux et solutions envisagées par les ...

Rubrique à brac

37IT-expert n°73 - mai/juin 2008

Le SIG à la portée de tous

Les systèmes d’informations actuels, quels que soient les publics concernés, grand public ou professionnels,

intègrent de plus en plus souvent une représentation cartographique des informations. Pour le simple particulier,

la représentation cartographique est utilisée bien sûr pour des plans d’accès aux sites des entreprises, mais

de plus en plus pour faciliter la consultation d’informations diffusées sur le web. La représentation cartographique

se généralise, car elle permet une navigation plus aisée dans l’information. Ainsi, les banques et grands magasins

ou des théâtres permettent à un internaute de rechercher une agence précise en navigant sur une carte

de France présente sur leur site Web. Cet usage qui tend à se généraliser a pour premier objet de représenter

de manière graphique une information dite « géolocalisée » ou « géolocalisable ». Cette convergence entre

le système d’information classique et système d’information géographique (SIG) est de plus en plus suivie

par les professionnels pour leur système d’information.

Page 38: Infrastructures SAP : enjeux et solutions envisagées par les ...

38 IT-expert n°73 - mai/juin 2008

Vous aussi, vous faites du SIG sans le savoir !

une information « géolocalisée » ou « géolocalisable » : qu’est-ce que c’est ? sous ces termes réside une réalité : toute information peut très souvent être localisée de manière géographique. qu’il s’agisse de l’adresse d’une puce rfid ou d’une balise Gps ou que cela concerne des objets aussi différents qu’une école, un théâtre, un arbre, un logement, un espace vert, une borne d’incendie, une citerne de pompier, etc. finalement, quoi de plus évident qu’une information géolocalisée.

dans les années 80, la mise en œuvre des systèmes d’informations permettant d’acquérir, d’analyser, et de représenter des données géographiques était affaire de spécialistes ou d’experts cartographes des services géomatiques qui ont à leur actif la mise en œuvre des premiers systèmes d’informations géographiques. depuis les années 2000, le siG se démocratise et une convergence naturelle s’opère entre les services experts (géomatiques) et les services Études des dsi. cette évolution se traduit par une évolution des intervenants : le siG est de plus en plus l’affaire des ssii généralistes au détriment des sociétés d’experts. cette tendance au rapprochement se retrouve également dans la formation des ingénieurs. en effet, les cursus d’ingénieurs en informatique généraliste intègrent de manière progressive les compétences liées à la mise en œuvre des systèmes d’informations géographiques tandis que les formations des cartographes (écoles de géomatique) évoluent en intégrant un volume croissant d’informatique « classique ». ainsi, ces cursus spécialisés ne se limitent plus à une formation aux produits desktop (client lourd) et au développement de boîtes à outils. il est courant de trouver une initiation aux bases de données et aux langages de programmation orientés publication WeB.

Le plus bel exemple de cette démocratisation est la création d’applications composites (mashup) avec Google maps : http://googlemapsmania.blogspot.com/

Nouveaux mariages : SIG, SGBD, Web Services, etc.

un système d’information géographique se définit comme un système d’information auquel est ajoutée une capacité de stocker

des types de données et primitives géométriques. en outre, il faut ajouter une capacité d’importer, manipuler, interroger, analyser, afficher et extraire ces données. Le stockage de ces données peut se faire a minima au moyen d’un ensemble de fichiers (fichiers de forme structurée) et de manière plus classique en ajoutant à un sGBd du marché une cartouche spatiale. ainsi, oracle, posgresqL, mysqL, sqL server disposent à présent et bientôt de manière native de ces types de données. Les fonctions de gestion de ces données sont ensuite assurées par des outils « desktop » ou par des serveurs d’applications cartographiques qui permettent de diffuser entre autres des Web services cartographiques (Web map service ou Web feature service) à destination de client léger ou riche (rich internet application). Les données homogènes en termes de type géométrique et de symbologie sont appelées des couches. et ces couches assemblées les unes avec les autres permettent de construire une carte : « La réalité est découpée en couches ».

un siG est donc un système informatique permettant, à partir de diverses sources, de rassembler et d’organiser, de gérer, d’analyser et de combiner, d’élaborer et de présenter des informations localisées géographiquement, contribuant notamment à la gestion de l’espace.

Un marché de logiciels structuré en couches

certaines couches constituent les couches de base dites « de fond de plan » du siG sur lequel viennent se greffer les données métiers des sociétés utilisatrices.Les couches de données les plus courantes sont : • la«voirie»quiestnécessaireàlalocalisationdesadresses,

voire au calcul d’itinéraire et à la navigation dont les principaux fournisseurs sont l’iGn, téléatlas et navteq. ces offres ne sont par encore de même niveau en terme de richesse ou de complétude : en effet, certaines sont plus complètes en milieu urbain et d’autres en milieu rural. néanmoins, cet écart tend à se réduire très rapidement.

• l’«orthophoto»(imagesaériennesousatellitairescorrigées)qui vient soit en complément de la première soit peut s’avérer suffisante suivant l’usage du siG.

Page 39: Infrastructures SAP : enjeux et solutions envisagées par les ...

Rubrique à brac

39IT-expert n°73 - mai/juin 2008

Les logiciels de base des SIG peuvent être :• desoutilsdesktopfournissantunegammetrèsriched’outilsde

gestion et d’analyse des données, mais également des briques préparamétrées proche d’une approche progicielle,

• desserveursd’applicationcartographiques(dumarchéoude l’open source) fournissant des possibilités de publication de web services de type images voire de géotraitemement (recherche des coordonnées spatiales pour une adresse par exemple).

Les grands éditeurs du marché français et mondial s’articulent autour des sociétés esri, autodesk, Geoconcept. fondée en californie en 1969 par Jack dangermond, esri était à l’origine un institut de recherche sur les systèmes d’environnement. cet organisme à but non lucratif visait à organiser et analyser l’information géographique. devenue une société privée, esri fournit une gamme très complète de logiciels depuis une suite bureautique jusqu’au serveur siG. autodesk, connu des dessinateurs pour son produit autocad, est passé d’une offre très spécialisée à une offre logicielle complète. en particulier, elle s’est ouverte au siG avec son produit desktop map pour la gestion des données tandis que sur la publication, elle a une approche très originale qui mixte une offre payante mapguide enterprise et sa version open source mapguide. en effet, le phénomène open source existe aussi sur le siG, et d’importantes communautés map server et Geo server

tirent partie de la réalisation des spécifications de l’open Gis consortium pour évoluer rapidement. elles arrivent aujourd’hui à maturité et permettent de répondre à une palette de besoin orientée sur la consommation de services web cartographiques.

Quelques exemples d’utilisation professionnelle

dans le monde professionnel, plusieurs types d’usage existent : un usage opérationnel (repérage d’une flotte de véhicule et optimisation des parcours), un usage de « géomarketing » (zone de chalandise, couverture de zones par les services publics), un usage de communication auprès du public (carte du trafic routier et autoroutier, ou carte des nuisances sonores) ou un usage métier spécifique.

Le système d’information géographique permet de manipuler et d’utiliser plus facilement des données géolocalisées.

pour gérer une forêt ou une zone en cours de reforestation, l’utilisation combinée du siG avec l’implantation de puces rfid permet de manipuler et communiquer la carte de l’état de la reforestation. il devient alors possible de repérer chaque arbre, de corréler sa localisation lors d’actions à mener, et ainsi définir des plans d’intervention qui optimisent les interventions dans la forêt.

Page 40: Infrastructures SAP : enjeux et solutions envisagées par les ...

40 IT-expert n°73 - mai/juin 2008

dans une ville, le siG facilite la gestion de propreté, en particulier celle des façades. un agent passe dans la ville et note l’état des façades, avec photos à l’appui si nécessaire. stockés dans un siG, ces éléments vont être complétés d’une notation et permettent de gérer des incitations au ravalement, mais aussi de représenter sur des cartes les zones selon leur salubrité avec des couleurs différentes suivant le degré de problème rencontré.

enfin, dans un autre registre, les antennes relais de téléphonie et leur zone d’influence comme la bio-diversité des espaces verts d’une ville peuvent être géo-référencées et représentées.

Une normalisation progressive au service d’une maturité avérée

Le siG connaît une normalisation importante portée par l’open Geospatial consortium (oGc), organisme à but non lucratif opérant sur la normalisation et la standardisation et dont le principal objectif est l’interopérabilité des systèmes et des données dans le domaine de l’information géographique.

il regroupe des organismes publics, mais également toute la gamme des sociétés privées concernées : producteurs de données, éditeurs de logiciel, constructeurs de matériel, sociétés de services informatiques, société utilisatrices, laboratoires de recherche. Les normes openGis sont le fruit de ce travail. Les spécifications validées et pour beaucoup implémentées à ce jour sont au nombre de 24.

Le SIG : pourquoi et dans quelles perspectives ?

L’adopter d’une approche siG s’effectue rarement dans le cadre d’un projet global, et plutôt selon une approche progressive. dans un premier temps, l’utilisation de la cartographie est identifiée dans le cadre d’un projet ciblé, où le siG apporte une plus-value vérifiée et tangible. suite à ce premier projet, le besoin émerge de corréler des éléments à un système d’information classique pour tirer profit des informations de l’un, et du potentiel de représentation de l’autre. puis ce rapprochement technologique apprécié va générer un besoin de généralisation de l’approche. cette démarche par étape, très pragmatique, touche un grand nombre de systèmes d’informations dès lors que les informa-tions manipulées sont géolocalisables. en effet, la navigation cartographique se fait, pour un grand nombre d’utilisateurs particuliers et professionnels, de façon très intuitive.

dès aujourd’hui, le siG s’affiche comme une technologie riche, et ouverte sur beaucoup d’autres possibilités. de plus, l’indépendance entre la donnée manipulée et l’outil de gestion s’amplifie, que ce soit par une normalisation de leur format, l’intégration de connecteurs pour des formats concurrents, ou l’ouverture vers des bases de données variées (payantes ou gratuites).

Les éditeurs siG vont encore plus loin avec leur gamme. ainsi, pour permettre une diffusion étendue de leur logiciel, ils proposent des solutions internet avec parfois une version open source et des outils pour créer des services Web. en effet, le siG a parfaitement pris le virage du Web 2.0 et des évolutions technologiques associées. il faut retenir également dans ses évolutions que le siG peut désormais parfaitement être couplée avec les technologies de mashup (application composite) ou au style architectural soa.

autre fait remarquable et très intéressant, il peut également tirer toute la puissance de dispositifs matériels novateurs que sont les balises rfid et Gps. enfin, il peut être approché en complément de solutions de portails, et demain décisionnelles. en effet, quoi de plus confortable que de remplacer une représentation de tableau de bord en colonne avec des axes géographiques par des représentations graphiques dont forme et couleurs permettent de visualiser les indicateurs clés.

La révolution siG est en route, le succès d’applications telles que Google earth et Géoportail, ou encore le déploiement du système satellite européen Galiléo en sont l’illustration. néanmoins, pour les applications à venir, il va falloir tenir compte d’une contrainte forte, la protection de la vie privée. n

Philippe Benmoussa, chef de projet et animateur du centre de compétences siG

Christophe Chalas, chef de projet - expert siG

Philippe Benmoussa anime le centre de compétences SIG au sein de Sopra Group.

Avec Christophe Chalas, ce sont deux experts SIG qui depuis plusieurs années,

interviennent sur des projets SIG tant en accompagnement des clients pour exprimer

un besoin, choisir une solution que pour piloter des projets.

Page 41: Infrastructures SAP : enjeux et solutions envisagées par les ...

Livres

41IT-expert n°73 - mai/juin 2008

Manager avec les ERP - Architecture Orientée Services (SOA)

Forcément structurant, l’ERP joue rapidement et pour longtemps un rôle essentiel au sein du système

d’information et de l’organisation de l’entreprise. Dans cette troisième édition, Jean-Louis Lequeux

aborde tous les aspects techniques, organisationnels et humains, sans oublier le point de vue de

l’utilisateur. Une approche terrain qui tempère la rigidité inhérente à toute volonté méthodologique

structurée. Le lecteur fera la part des choses, sans oublier que s’enfermer aveuglément dans une

méthodologie devient rapidement invivable.

Ce livre de référence aborde de multiples aspects pour se familiariser avec les ERP et leur déploiement :

technologies,utilisateurs/éditeur/intégrateurs,ladémarchedeprojet,l’architectureERP-Centric…

Très pratique, le chapitre 5 (Les chantiers du projet ERP) se penche sur des aspects très concrets :

la constitution d’une équipe de projet, un cahier des charges en 10 points standards, les actions,

l’utilisationopérationnelle…Demultiplesexemplesetétudesdecasillustrel’ouvrage,quitraite

aussi les évolutions comme la conformité aux contraintes réglementaires. En revanche, le concept

SOA du titre est un peu survendu par rapport au nombre de pages qui lui sont consacrées.

Manager avec les ERPJean-Louis Lequeux Éditions d’organisation380 pages - environ 42 euros

Project 2007 - La gestion de projetÉtude d’un cas concret : Planifier la construction de maisons

Après une vingtaine de pages sur le déroulement d’un projet, indiquant des pistes pour le définir

et le délimiter clairement, l’auteur explique le fonctionnement du logiciel vedette de la gestion de

projet par Microsoft, et sa configuration. Alexandre Faulx-Briole fait profiter le lecteur de ses 20 ans

d’expérience de formateur, de consultant en informatique et de développeur. Il l’accompagne dans

l’utilisation de Project 2007, en s’appuyant sur l’exemple de la construction d’un lotissement de

maisons individuelles : la planification (par les délais ou par les ressources), la gestion et le calcul

descoûts.Côtéreporting,lelivreabordelesmisesenforme(typediagrammedeGantt),lestableaux

et les visuels, mais aussi la communication avec les autres logiciels (import/export, liens OLE avec

Excel et Word). Des actions primordiales pour partager les informations utiles selon les interlocuteurs

du projet. Enfin, l’auteur s’est attaché à recenser toutes les informations et techniques dont le lecteur

aura besoin pour gérer ses propres projets. Un ouvrage pédagogique et simple à appréhender

qu’apprécieront chefs de projet et planificateurs.

Project 2007 - La gestion de projetalexandre faulx-Briole Éditions eni256 pages - environ 20 euros

Page 42: Infrastructures SAP : enjeux et solutions envisagées par les ...