Comment réussir avec ITIL ?

48
IT LA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE n°84 Bimestriel - mars/avril 2010 Une entreprise peut-elle survivre sans qualité de données globale ? PAGE 6 Anatomie de trois ESB Open Source : PAGE 34 Comment réussir avec ITIL ? PAGE 16 ALM et agilité au cœur des processus métiers PAGE 28 Le respect des licences libres : les juridictions veillent PAGE 46

Transcript of Comment réussir avec ITIL ?

Page 1: Comment réussir avec ITIL ?

ITLA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUE

n°84

Bim

estr

iel -

mar

s/av

ril 2

010

Une entreprise peut-elle survivre sans qualité de données globale ? PAGE 6

Anatomie de trois ESB Open Source :

PAGE 34

Comment réussir avec ITIL ?PAGE 16

ALM et agilité au cœur des processus métiersPAGE 28

Le respect des licences libres : les juridictions veillent PAGE 46

Page 2: Comment réussir avec ITIL ?

ZOOM OUTSOURCING

L’avis des directions informatiques

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application Intelligence CAST nous aident à obtenir une meilleure visibilité de notre parc applicatif au travers de tableaux de bord composés d’indicateurs techniques objectifs afin de faciliter le dialogue avec les équipes et avec nos maîtrises d’ouvrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le système de pilotage mis en place par SFR-Cegetel sur ses TMA. Nous avons constaté une attention plus particulière apportée par les SSII à la qualité des livrables et à la fiabilité des chiffrages depuis qu’ils savent que nous pouvons facilement les auditer. »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appréciation dans le dialogue parfois difficile avec le sous-traitant ainsi que des indicateurs nécessaires au suivi de l’évolution des applications et constitue au sein de Framatome un outil de progrès partagé. »

en savoir pLus

demandez le Livre Blanc rédigé par le Gartner Group et cast sur ce thème :« information series on application management » :www.castsoftware.com/outsourcing

découvrez l’expérience de plusieurs sociétés utilisatrices de solutionsd’application intelligence :www.castsoftware.com/customers

Page 3: Comment réussir avec ITIL ?

de la valeur ajoutée de l’applicationintelligence pour piloter efficacementun parc applicatif sous-traité

La maîtrise des applications et des prestataires dansune opération d’outsourcing

Les entreprises, devenues plus mûres vis-à-vis de l’outsourcing, sont désormais capables d’opérer

des externalisations plus stratégiques. on l’a récemment observé dans l’automobile avec renault ou dans la grande distribution avec carrefour.

dans l’externalisation des applications métier, c’est surtout la volonté d’accroître l’efficacité opérationnelle de l’informatique qui est motrice : pouvoir fournir plus rapidement un service à valeur ajoutée aux utilisateurs et aux clients dans un contexte en perpétuelle évolution.

comme dans n’importe quelle opération d’outsourcing, le contrat l iant le fournisseur est capital, en particulier les sLas. néanmoins, les applications métier étant par nature soumises à de fréquents changements en cours de contrat, les seuls sLas se révèlent vite insuffisants pour garantir la qualité de service et éviter les dérives de coûts.

c’est là que le bât blesse : l’externalisation des applications métier occasionne un risque de perte rapide de savoir-faire technologique et par conséquent critique. vigilance et suivi sont de mise pour garder le contrôle de la qualité de service et éviter les dépendances par nature dangereuses.

L’externalisation réussie d’applications métier est donc le fruit d’une vision anticipatrice partagée avec le prestataire. sont ainsi apparues des solutions dites d’application intelligence, basées sur

une technologie avancée d’analyse de code source.en fournissant des indicateurs techniques aux donneurs d’ordre, ces solutions permettent de piloter un parc applicatif sous-traité en temps réel, tant en terme de qualité, que de maintenabilité et de coût. résultat : le donneur d’ordre conserve la maîtrise intellectuelle de ses applications métier et le contrôle de la relation avec son sous-traitant.

La valeur ajoutée de ce type de solutions d’application intelligence est visible à chaque étape d’une opération d’outsourcing, comme décrit ci-après.

audit de l’existant et préparation des appels d’offres• Déterminer les caractéristiques

techniques du portefeuille applicatif existant avant de le sous-traiter

• Disposerd’informationsderéférencepour évaluer les propositions des sous-traitants

• Obteniruneimageàl’instanttdesapplications pour permettre un suivi dans le temps

transfert vers le prestataire• Réduirelaphased’acquisitiondela

connaissance pour entreprendre plus vite des tâches productives

• Diminuerlecoûtliéàlaproductiond’une documentation exploitable et maintenable par le prestataire

contrôle de la qualité et des coûts en cours de projet• Suivrel’évolutiondelamaintenabilitéet

de la qualité pour éviter toute dérive• Etrecapabledevaliderlaquantitéet

la qualité du travail facturé• Etre en mesure de challenger le

sous-traitant lors des négociations d’avenants

• Industrialiserlesrecettestechniques

renouvellement de contrat, transfert ou ré-internalisation• Détermineretqualifierlesécartsentre

la prestation prévue et les livrables recettés

• Disposerdesinformationstechniquescaractéristiques du portefeuille applicatif en fin de prestation

Le leader mondial de ce type de solutions est d’ailleurs un éditeur français, cast. reconnu par les analystes informatiques comme précurseur du marché, cast compte plus 500 comptes utilisateurs de sa plate-forme d’application intelligence dans le monde.

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

Publi-Reportage

www.castsoftware.com

Page 4: Comment réussir avec ITIL ?

Editeurpress & communication franceune filiale du groupe cast3, rue marcel allégot92190 meudon - francetél. : 01 46 90 21 21fax. : 01 46 90 21 20http://www.it-expertise.comemail : [email protected]

Rédacteur en chefJosé dizemail : [email protected]

Directeur de publicationaurélie magniezemail : [email protected]

Abonnements/Publicitéemail : [email protected]

Conception Graphiquenicolas Herlememail : [email protected]

Parutionit-expert - (issn 1961-9855) est un journal édité 6 fois par an, par p&c france, sarl de presse au capital de 60 976,61 e.

Avertissementtous droits réservés. toute reproduction intégrale ou partielle des pages publiées dans la présente publication sans l’autori-sation écrite de l’éditeur est interdite, sauf dans les cas prévus par les articles 40 et 41 de la loi du 11 mars 1957. © 1996 p&c france. toutes les marques citées sont des marques déposées.Les vues et opinions présentées dans cette publication sont exprimées par les auteurs à titre personnel et sont sous leur entière et unique responsabilité. toute opinion, conseil, autre renseignement ou contenu exprimés n’engagent pas la responsabilité de press & communication.

Abonnements01 46 90 21 21

vous pouvez vous abonner gratuitement sur http://www.it-expertise.com/

ITLA RÉFÉRENCE TECHNIQUE ON-LINE DES PROFESSIONNELS DE L'INFORMATIQUELa vague Cloud ou le n’importe-quoi-tenant

voilà donc le cloud porté aux nues !après avoir été raillées, les salesforce, amazon, Google et autres peuvent sourire. et comment ! tout devient cloud, même et surtout ce qui ne l’est pas ! chez l’un le « cloud privé » (aberration sémantique) a remplacé le datacenter, ou l’application hébergée sans rien changer, si ce n’est l’étiquette… chez cet autre, le marketing, désolé de ne pas répondre

au critère multitenant, invente le cloud « mega-tenant », tout comme on pourrait évoquer un lac sans eau et sans profondeur…

Bref : la nébuleuse prend des formes plus que fantaisiste : sans cloud point de salut ! pourtant, le datacenter, l’infogérance, l’hébergement… et même les applications traditionnelles (on-premise) restent des solutions pertinentes. et cette situation risque de perdurer pendant quelques longues années.

Le peuple aime détruire ses idoles. Les systèmes ouverts devaient anéantir les mainframes, qui se sont modernisés à marche forcée. Le Web 2.0 incarnerait le futur des applications alors que la virtualisation… Bref, les technologies les plus porteuses seraient sensées prendre la place de solutions en place. pourtant dans un monde hétérogène, les informaticiens savent qu’aujourd’hui mieux vaut miser sur une cohabitation bien orchestrer que sur des ruptures. L’exemple des services Web n’est-il pas là pour en témoigner ?

José Dizrédacteur en chef

édito

4 IT-expert n°84 - mars/avril 2010

Page 5: Comment réussir avec ITIL ?

5IT-expert n°84 - mars/avril 2010

IT-expert n°84 - mars/avril 2010

6 DossierUne entreprise peut-elle survivre sans qualité de données globale ?La multiplication des risques et des réglementations oblige à se poser la question de la

qualité de données. directeur technique chez informatica, Bruno Labidoire expose une

démarche complète permettant d’implémenter une telle politique. dense et utile.

16 TechniqueComment réussir avec ITIL ?itiL par-ci, itiL par-là… de quoi parle-t-on ? sur un ton pédagogique et avec des

explications détaillées, ce dossier montre ce qu’est itiL et ce qu’il n’est pas, pourquoi

il peut amener à des impasses, mais aussi comment il peut apporter beaucoup à

l’entreprise. a lire sans modération.

22 Actualités InternationalesLes informations marquantes d’éditeurs, de marchés, d’organisme de standardisation, de débats en cours et de tendances.

28 Quoi de neuf docteur ?ALM et agilité au cœur des processus métiersce dossier apporte un éclairage de l’évolution de la gestion du cycle de vie des

applications (aLm pour application Lifecycle management) : des tâches séparant it

et utilisateurs, aux ide ajoutant tests et architecture, jusqu’au collaboratif qui posent

sur le même pont utilisateurs et it.

34 Comment ça marche ?Anatomie de trois ESB Open Source : JBoss ESB, serviceMix et OpenESBvoyage au cœur du middleware, avec un exposé complet et sans concession sur

les esB open source, et leurs versions commerciales. schémas, explications… un

panorama très détaillé.

45 LivresConduite de projets informatiques par Brice-arnaud Guérin et Le management de

la performance par les processus par dominique thiault.

46 Rubrique à brac Le respect des licences libres : les juridictions veillentun avocat spécialisé fait un point sur des décisions juridiques liées au logiciel libre,

qui ne dédouane pas les prestataires de leurs responsabilités. ce spécialiste revient

sur des idées reçues : distinguer commercial et open source, vide juridique, etc. très

instructif.

Sommaire

Page 6: Comment réussir avec ITIL ?

6 IT-expert n°84 - mars/avril 2010

Dans le climat économique actuel, disposer des données de bonne qualité est une condition de survie pour les

entreprises. Pourtant, dans tous les secteurs, nombre d’organisations considèrent encore le manque de qualité des

données comme un problème mineur qu’elles traitent au coup par coup, et souvent dans l’urgence. Pour compenser

les défauts de leurs données, ces organisations inventent des moyens de contournement simples ou complexes.

Résultat : elles fondent la plupart de leurs décisions sur des informations peu fiables et incohérentes. Si l’on ajoute à

cela la multiplication des obligations de conformité réglementaire, les données apparaissent plus que jamais comme

un actif majeur de l’entreprise et la question de la qualité de données ne peut tout simplement plus être écartée.

Une entreprise peut-elle survivre sans qualité de données globale ?

Page 7: Comment réussir avec ITIL ?

Dossier

7IT-expert n°84 - mars/avril 2010

Le risque rôde à tous les étagesen effet, il y existe un lien direct entre la qualité des données de l’entreprise et ses performances. des données de bonne qualité permettent à l’entreprise de rester compétitive et de continuer à avancer dans un contexte économique perturbé. pour opérer au maximum de son efficacité, être en conformité avec le nombre croissant de règlementations, mieux gérer le risque, l’entreprise a besoin de données de bonne qualité. et ce, pas uniquement dans un département, mais partout et à tous les niveaux de l’organisation, à l’intérieur et à l’extérieur des firewalls. dans un tel contexte, la mise en œuvre d’une véritable politique de qualité des données s’avère être un élément déterminant pour l’entreprise. La direction générale et ses directions métiers pourront ainsi disposer d’une vision unifiée et exploitable des informations, afin de prendre les bonnes décisions au moment opportun.

Les dangers de l’utilisation de données incorrectes

dans le domaine des technologies de l’information, l’intégration et la réconciliation de données comptent parmi les projets les plus inquiétants. en fait, il faut reformuler ce constat : ces projets deviennent vraiment critiques lorsque l’intégration de données se passe mal. parfois les données sont fausses dès le départ, à cause d’erreurs faites par les utilisateurs dès la saisie, de façon accidentelle ou délibérée. il arrive aussi que les données soient bonnes au départ, mais qu’ensuite, déplacées d’une base de données ou d’un système vers un autre, elles dérivent, qu’elles soient tronquées ou encore altérées. Les données peuvent devenir obsolètes, ou encore faire l’objet de conflits internes, au sein d’une organisation – chacun se cramponnant aux données le concernant, personne ne voulant partager, sans parler des risques de fraude encourus lorsque l’on perd la visibilité sur ces données. de plus, le volume phénoménal de données que l’entreprise produit chaque jour n’arrange rien. Les projets concernant les données peuvent mal tourner de bien des façons.

Les dirigeants se méfient de leurs données

une étude menée par pricewaterhousecoopers (interviews réalisées auprès de dirigeants de grands groupes internationaux pour le baromètre de gestion pricewaterhousecoopers en 2008) révèle un décalage important entre la compréhension claire de la valeur des données et l’utilisation réelle de celle-ci pour générer de la valeur. plus de 70 % des cadres interrogés estiment que les données constituent l’un des actifs les plus précieux, mais seuls 40 % d’entre eux estiment les utiliser efficacement. cela peut laisser penser qu’il existe un décalage entre la valeur perçue des données et la valeur obtenue par l’utilisation de ces dernières. L’entreprise n’a pas confiance dans les données au moment de leur utilisation. en comblant le fossé entre perception de la valeur et valeur réelle des données, les entreprises peuvent générer davantage de valeur à partir des données et remplir leurs objectifs en matière de gouvernance, de risque et de conformité.

Multiplication des risques et des réglementations

La complexité du marché et des enjeux actuels ajoute de nouveaux risques que les entreprises doivent identifier. par exemple, à lui seul, le gouvernement américain a introduit 114 000 nouvelles règles et réglementations pour les entreprises depuis 1981. cette croissance exponentielle du risque et des réglementations a atteint un point de rupture qui nécessite la mise en place de rapports réglementaires s’appuyant sur des données fiables, pertinentes et de qualité.

De l’urgence d’une harmonisation globale

au cours de leur analyse de la gestion des risques et de la conformité, les cadres dirigeants sont confrontés à des incohérences et à des silos organisationnels en termes d’informations et de processus. cela est dû à l’absence d’une stratégie de gestion des données et à un manque d’information dans l’entreprise. il en résulte une duplication des technologies, une fragmentation des règles et des normes de qualité, ainsi qu’un manque de cohérence pour accéder et fournir les données aux décideurs responsables.

Page 8: Comment réussir avec ITIL ?

8 IT-expert n°84 - mars/avril 2010

Avez-vous les moyens de la non-qualité ?

depuis de nombreuses années, les dsi reconnaissent l’importance de la qualité des données comme un élément fondamental de leur stratégie de gestion de l’information. toutefois, il leur est difficile de mettre en place les procédures et les programmes adéquats. une étude (accenture cio survey – 2007) montre qu’à ce jour seulement 16 % des entreprises ont mis en place un programme de qualité des données. cette dernière représente pourtant un enjeu critique pour l’entreprise dans les trois étapes du cycle de vie des informations : lors de la saisie, au cours de transformations et des agrégations et pendant l’analyse et la présentation des résultats. une qualité de données insuffisante coûte très cher à l’entreprise. en outre, elle conduit à une altération de la relation client, à des ruptures dans la chaine logistique, à des décisions métiers moins pertinentes, voire pénalisantes. des données défectueuses invalident aussi les efforts de l’entreprise en matière de conformité réglementaire. autant de handicaps lourds de conséquences !

Cap sur la gestion de la qualité des données globale

pour exploiter au mieux son capital de données, l’entreprise doit lancer une initiative de « qualité des données ». stratégique pour l’entreprise, ce programme doit être permanent et ne pas rester une mesure isolée dans le temps. La qualité des données concerne de nombreuses fonctions métiers et informatiques au sein de toute l’organisation. elle nécessite de définir des processus formels de qualité des données appliqués par la direction, qui permettent d’agir sur l’ensemble des projets : de la standardisation des données, au profilage, en passant par le nettoyage, jusqu’à l’enrichissement. il faut définir des règles de gestion des données de l’entreprise, édictées pour garantir la complétude, la conformité, la cohérence, l’exactitude, la non-duplication et l’intégrité des données. Bref : un programme de gouvernance des données. pour garantir son efficacité, ce programme doit inclure un comité, un ensemble de procédures et leur plan d’exécution. autour des données, le programme doit mettre en pratique les contrôles de qualité des données et diffuser les bonnes pratiques. il est articulé autour de deux approches : • Une approche proactive incluant les bonnes pratiques à appliquer. quand de nouvelles données

sont générées, de nouveaux projets affectant les données sont lancés ou des actions de qualité sont effectuées.

• Une approche réactive incluant les actions de correction de non-qualité, les actions de mise en conformité suite à des nouveaux règlements, les actions d’intégration suite à la mise en œuvre des nouvelles architectures orientées-services (soa).

Les cinq étapes d’implémentation

La mise en œuvre d’une initiative de qualité de données fait intervenir des personnes, des processus et des technologies. en s’appuyant sur une plate-forme de qualité de données et sur une méthodologie d’implémentation, les entreprises peuvent construire des solutions de qualité de données de bout en bout conformes aux réglementations en vigueur, réduire les ruptures de chaîne d’approvisionnement et améliorer la pertinence des décisions prises par les équipes métiers. en mettant en place dès le début des processus de gestion de la qualité de données bien définis, les entreprises exploitent d’autant plus efficacement la solution de qualité de données que les divers services chargés de l’implémentation et du contrôle de cette qualité le font dans le cadre des règles et des procédures définis pour l’ensemble de l’entreprise.

Page 9: Comment réussir avec ITIL ?

Dossier

9IT-expert n°84 - mars/avril 2010

La figure ci-dessous présente les cinq étapes à considérer lors du lancement d’une initiative de gestion de la qualité de données :

Les entreprises ont besoin de produits et de pratiques optimisés pour soutenir un processus de qualité des données de bout en bout

Identification et mesure de la qualité des données - première étape décisive, car la compréhension du niveau initial de qualité des données constitue la base des règles et des processus que vous mettrez en place. Le cadre des dimensions de la qualité de données est utilisé pour générer les paramètres de mesure et les objectifs. sans évaluation préalable, la capacité à mettre en œuvre une stratégie de qualité de données efficace est sérieusement compromise. À plus long terme, l’évaluation permet à l’entreprise de mesurer combien ces procédures à améliorer les informations et les résultats. Les mesures et audits de qualité de données peuvent être appliqués à tous les domaines (données clients, fournisseurs, produits, actifs, données financières, etc.), tant sur un champ particulier que sur la totalité des bases utilisées dans l’entreprise et pour les échanges inter-entreprises.

Définition des règles métiers et des objectifs de qualité des données - La mesure de la qualité de données repose essentiellement sur des règles métiers et sur des normes de données internes ou externes. La phase suivante consiste donc pour l’entreprise à spécifier des règles métiers basées sur les normes et les données de référence préalablement arrêtées. Le cadre des dimensions de la qualité de données est utilisé pour générer les mesures et les objectifs des critères de réussite.

Conception de processus d’amélioration de la qualité - cette phase concerne la configuration des processus de nettoyage et d’amélioration des données (c’est-à-dire les processus d’analyse, de nettoyage, de normalisation, de rapprochement, de déduplication et de contrôle). Les plans d’amélioration de la qualité de données sont le plus souvent créés par les équipes métiers, dans la mesure où ce sont elles qui connaissent et comprennent le mieux ces informations.

Implémentation des processus d’amélioration de la qualité - une fois les règles métiers de qualité de données configurées, elles sont généralement déployées dans le cadre d’une stratégie d’intégration de données plus large. ces règles de qualité peuvent être activées au moment où les données entrent dans une application ou lorsqu’elles sont déplacées entre des applications. Le déploiement et l’optimisation des processus incombent aux équipes informatiques.

Analyser

Améliorer

2. Dé�nir des règles et des objectifs de qualité des données

3. Concevoir des processus d'amélioration de la qualité

5. Contrôler la qualité des données par rapports aux objectifs

1. Identi�er et mesurer la qualité des données

Page 10: Comment réussir avec ITIL ?

10 IT-expert n°84 - mars/avril 2010

Surveillance de la qualité des données par rapport aux objectifs - s’inscrivant dans le long terme, cette phase implique la production et la diffusion de tableaux de bord et de rapports de tendances. Les rapports permettent souvent aux utilisateurs d’explorer en détail les enregistrements de qualité insuffisante. chaque gestionnaire de données doit périodiquement examiner les enregistrements de qualité insuffisante et lancer les actions correctives appropriées, celles-ci pouvant être manuelles ou automatisées. La présence conjointe d’outils de reporting et de traitement des exceptions est indispensable dans une solution globale destinée à supporter des programmes de conformité et de gouvernance de données.

Cadre de la dimension de la qualité des données

Vers une gouvernance des données

dans l’initiative de qualité des données, l’entreprise définit son modèle de gouvernance, c’est-à-dire son modèle de pilotage formalisé des personnes, processus et techniques pour faciliter la capacité à s’appuyer sur les données comme un atout majeur de l’entreprise.

Implication de la direction générale et des directions opérationnelles pour lancer cette démarche, deux garanties de succès doivent être réunies : le sponsoring de la direction générale, et l’implication de tous les acteurs. il faut, pour convaincre la direction générale, prendre le temps de mesurer l’impact de la non-qualité et surtout démontrer que la qualité est source de compétitivité pour l’entreprise. reste ensuite à faire preuve de pédagogie auprès des directions opérationnelles. Le directeur général ou le directeur des opérations, propriétaire des données, ne s’implique pas au quotidien dans la qualité des données. cependant, il doit s’assurer que l’initiative est lancée, et créer un comité de « qualité des données ».

Exhaustivité Quelles sont les données manquantes ou inutilisables ?

Conformité Quelles sont les données enregistrées sous un format non standard ?

Cohérence Quelles sont les valeurs de données qui donnent des informations conflictuelles ?

Exactitude Quelles sont les données incorrectes ou obsolètes ?

Duplication Quels sont les enregistrements ou les attributs de données qui se répètent ?

Intégrité Quelles sont les données manquantes ou non référencées ?

Page 11: Comment réussir avec ITIL ?

Dossier

11IT-expert n°84 - mars/avril 2010

Le comité de « qualité des données » Le modèle de gouvernance doit comprendre une structure organisationnelle chargée de l’amélioration de la qualité des données dans l’entreprise. Le comité de « qualité des données » est sous la responsabilité d’un sponsor, généralement nommé par un membre de la direction générale qui gère l’initiative. Le sponsor doit avoir une influence sur l’ensemble des directions métiers, et ce comité a la responsabilité de la qualité des données de toute l’entreprise. il définit objectifs et priorités, et s’assure que tous les projets incorporent la gestion de la qualité des données dans leurs processus de saisie, de transformation ou de restitution. il s’assure également de la disponibilité des financements nécessaires à l’initiative. il se réunit régulièrement pour assurer le suivi sur la qualité, faire le point sur les actions d’amélioration, et décider des nouvelles priorités.

Comité Qualité des Données

ce comité est constitué d’experts issus des principales directions de l’entreprise, les data stewards. ils sont responsables de la définition et de la surveillance des mesures et des indicateurs de qualité des données de leur domaine, et coordonnent les plans d’action d’amélioration des indicateurs. L’analyste qualité des données est un professionnel de la dsi. il met en application les règles métiers définies par les stewards dans les outils de profiling et de nettoyage.

Le socle technologique le plus adapté

après avoir convaincu la direction générale et les directions métiers de l’importance de la qualité des données et mis en place la structure organisationnelle pour supporter l’initiative, il est temps d’évaluer les solutions technologiques. Le choix de la plate-forme s’effectuera selon plusieurs critères comme la puissance des fonctionnalités de profiling, de nettoyage, de rapprochement et de contrôle de la qualité de données. une plate-forme complète, ouverte, unifiée et économique, permettra d’accéder, de découvrir, de nettoyer et d’intégrer des données de tous types. en outre, elle saura distribuer, dans l’ensemble de l’organisation, des données fiables et pertinentes, partout et à tout moment. Étendre la qualité de données au-delà d’un seul département, et à l’ensemble de l’entreprise, améliorera l’efficacité opérationnelle ainsi que les performances de toute l’organisation.

Synchroniser les équipes métiers et informatiques

malgré des investissements croissants dans les technologies de l’information, un nombre significatif de projets informatiques n’apportent pas la valeur ajoutée attendue faute de fournir aux utilisateurs les données les plus pertinentes.

SponsorQualité

des Données

StewardDonnéesVentes

StewardDonnées

Marketing

AnalysteQualité

des Données

OpérationsQualité

des Données

Page 12: Comment réussir avec ITIL ?

12 IT-expert n°84 - mars/avril 2010

Jusqu’ici, trois problèmes compromettaient souvent la valeur des départements informatiques et faisaient obstacle à la mise en œuvre d’initiatives pourtant critiques pour l’entreprise : • desutilisateursmétiersdépendantsdeséquipesinformatiquespourobtenirlesinformationspertinentes

nécessaires à leur travail ;• desutilisateursmétiersjugeantquelesdonnéesqu’onleurfournitnesontpasdignesdeconfiance

pour ce qu’ils souhaitent en faire ;• desutilisateursmétiersn’ayantpasaccèsauxdonnéesentempsvouluetsouslaformeappropriée.

Un grand zeste de SOA et de référentielor, certaines solutions facilitent l’alignement entre les équipes métiers et informatiques en procurant aux utilisateurs métiers les moyens de s’impliquer directement dans le processus de développement informatique. des plates-formes d’intégration et de qualité des données avancées aident les entreprises à dépasser ces trois défis grâce à la collaboration entre l’informatique et les métiers, à la prise en compte continue de la qualité de données et à des services de données basés sur une architecture orientée-services (soa).par exemple, certaines solutions du marché proposent des outils basés sur un navigateur pour les analystes pour gérer la qualité des données à partir de l’interface familière d’un navigateur Web. Les analystes peuvent ainsi directement spécifier leurs besoins métiers. La production automatique des détails d’implémentation en générant automatiquement les règles et consignes d’implémentation à partir des spécifications métiers permettent ensuite d’éviter les écarts résultant d’une mauvaise traduction technique des besoins métiers. en implémentant un référentiel de métadonnées commun sur lequel on s’appuie pour toutes les spécifications et objets, les analystes métiers et les développeurs informatiques peuvent plus facilement communiquer et partager leurs travaux.

Des règles pour prendre les bonnes mesuresil est désormais possible de spécifier des règles de qualité pour pratiquement toutes les données clients, produits, actifs et données financières. une fois définies, ces règles peuvent être réutilisées autant que nécessaire, ce qui garantit la cohérence des informations entre les différentes applications. des outils unifiés à base de rôles des différentes parties prenantes attribuent à chacun la prise en charge de la qualité des données qu’il connaît le mieux. Les tableaux de bord de qualité de données, les outils simples destinés aux analystes et les outils de productivité mis à disposition des développeurs permettent aux utilisateurs et analystes métiers, aux gestionnaires de données et aux développeurs d’être directement impliqués dans la mesure et l’amélioration de la qualité de données. une gouvernance à base de règles réduit considérablement les coûts d’administration de systèmes en permettant une gestion centralisée de toutes les règles de données.

Une collaboration en bonne intelligenceau lieu de relever exclusivement de la compétence des départements informatiques, la qualité de données peut ainsi être gérée conjointement avec les départements métiers. Les entreprises privilégieront des solutions de qualité de données bénéficiant d’un socle technologique et d’une méthodologie qui permettent aux équipes it et métiers de travailler efficacement ensemble, de gérer les processus de qualité de données dans toute l’entreprise et, ainsi, de garantir aux utilisateurs que toutes les données sont complètes, cohérentes, exactes et actualisées, où qu’elles se trouvent dans l’entreprise.

Enjeu d’un centre de compétences en intégration de données

sans la technologie appropriée, le coût prohibitif de la production de données pertinentes et fiables peut avoir une incidence notable sur la capacité d’une organisation à atteindre ses objectifs. en adoptant une approche de centre de compétences en intégration, les entreprises peuvent réduire davantage leurs coûts d’acquisition, d’intégration et de nettoyage des données. ce dernier (faisant parfois référence au centre d’excellence en intégration) est un service partagé d’une entreprise, qui permet de réaliser une intégration méthodique de données parmi les applications et les systèmes.

Page 13: Comment réussir avec ITIL ?

GfK : 1 700 fichiers sur 80 pays traités chaque mois

nº 1 mondial du suivi et de l’analyse des biens techniques et technologiques, GfK retail and technology s’appuie sur les informations de milliers de points de vente de détaillants, de revendeurs et de distributeurs répartis dans plus de 80 pays, pour proposer des études de marché et un suivi des ventes de biens durables et culturels. L’exactitude des données est une priorité. intégrant seulement 50 fichiers par mois il y a presque dix ans, GfK retail and technology france en traite aujourd’hui 1 700. avec l’augmentation des données complexes, l’analyse de la cohérence d’un fichier et de son contenu deviennent un challenge. en déployant une solution d’intégration et de qualité des données, cette société peut consulter, nettoyer, intégrer et distribuer rapidement des données fiables à la fois en interne (dans les bases de données et applications de l’entreprise utilisées par environ 3 000 employés) et vers les systèmes des clients. des données de tous fichiers, documents ou messages (quels que soient leur format, leur complexité et leurs tailles) peuvent êtres extraits, puis transformés dans un format exploitable. Le tout, en réduisant les délais d’agrégation de l’ensemble des données de façon spectaculaire.

Les bénéfices sont multiples avec le lancement accéléré de nouveaux services d’étude de marché, l’augmentation du chiffre d’affaires, l’accélération des délais d’agrégation de données (+ 400 %), la réduction de 75 % des ressources de développement, la réduction de 80 % du nombre d’erreurs et l’amélioration continue de la qualité des données globale. L’automatisation de la résolution d’incidents a réduit considérablement les erreurs devenues rares. Les gains de productivité sont considérables. Grâce à la simplicité de l’environnement fourni par la plate-forme d’intégration et de qualité de données et ses fonctions de profiling de données, les délais d’intégration ont en moyenne été divisés par deux chaque année. ce qui prenait auparavant 8 heures est désormais réalisé en seulement 20 minutes. La plate-forme d’intégration et de qualité des données permet de traiter des données particulièrement difficiles à catégoriser et à comparer. en consolidant plus rapidement un volume croissant de sources de données plus complexes, GfK retail and technology france est ainsi en mesure d’accélérer le lancement de nouveaux services et donc d’accroître ses revenus.

Printemps

afin de mieux contrôler sa chaîne d’approvisionnement, sa relation avec les fournisseurs et la gestion de ses magasins, le groupe printemps a choisi de standardiser son erp. de nombreuses solutions propriétaires et hétérogènes coexistaient ce qui entraînait des difficultés pour le pilotage de ses activités. Les magasins rencontraient également des difficultés pour assurer la bonne intégrité des données entre les différents systèmes. une simple erreur de codes-barres ean, par exemple, a un impact direct sur la reconnaissance des produits en entrepôt et donc sur les délais de réapprovisionnement et la qualité des services pour ses clients. La chaîne de grands magasins a donc choisi de profiter d’un projet de migration de données pour améliorer la qualité des données relatives à ses 3,5 millions de références. La migration s’effectuera de son erp « maison » sésames vers l’erp de sap d’une manière progressive afin de nettoyer systématiquement les données qui seront injectées dans sap.

dès le début du projet de migration, une solution améliorant la qualité des données est implémentée. L’une des fonctionnalités a suscité un vif intérêt : un module facilitant l’implication des équipes métiers. première phase : la reprise des données pour la migration sap. seconde phase : le maintien d’une cellule de qualité des données, afin de pérenniser l’effort pour maintenir une qualité de haut niveau. un jeu d’indicateurs très concrets progressivement enrichis a été défini d’emblée, afin d’évaluer la performance en termes de qualité des données.

en automatisant autant que possible la résolution d’incidents avec des interfaces web de résolution générées en cas de rejet de données pour non-conformité ou ambiguïté, le groupe printemps réduit les risques liés à ce type de projets. effet immédiat : l’accélération de la standardisation des processus. avec un erp et une plate-forme d’intégration et de qualité de données standards, printemps pourra désormais mieux contrôler sa chaîne d’approvisionnement et sera en mesure d’assurer une meilleure traçabilité des produits commercialisés. au final, printemps offre un meilleur service à ses clients, atout fondamental dans le secteur de la distribution.

Dossier

13IT-expert n°84 - mars/avril 2010

un centre de compétences en intégration optimise les ressources rares, en combinant dans un même groupe l’intégration de données, les compétences en qualité de données, les ressources et les processus. cela contribue à réduire les délais de livraison, ainsi que les coûts de maintenance et de développement, tout en améliorant le retour sur investissement par la réutilisation de sources, d’interfaces d’applications et de règles métiers codifiées. Les centres de compétences en intégration aident également à réduire le nombre d’opérations redondantes au cours de l’intégration de données et du contrôle de la qualité des données, en s’appuyant sur les réussites passées, plutôt que de recommencer intégralement à chaque nouveau projet.

Page 14: Comment réussir avec ITIL ?

14 IT-expert n°84 - mars/avril 2010

Le problème de qualité des données peut devenir un atout

Le monde des affaires se caractérise par des changements continuels et par des tendances fortes telles que la mondialisation, les fusions et acquisitions et l’externalisation des processus métiers. alors que le temps ne joue pas en faveur de l’entreprise, ces facteurs compliquent davantage la gestion des risques. certains aspects de la gestion des risques, tels que la détection des fraudes et les mesures contre le blanchiment d’argent, ne tolèrent aucun retard dans l’extraction des données ni de s’appuyer sur des données obsolètes. pour y faire face, les personnes chargées de prendre de mesures immédiates doivent pouvoir accéder et diffuser plus rapidement les données métiers critiques, afin de protéger les employés et les actionnaires. Les entreprises peuvent disposer aujourd’hui de données fiables grâce à l’omniprésence des services de qualité de données. Jusqu’ici, les initiatives de qualité de données relevaient de la seule responsabilité des départements informatiques. désormais, toutes les parties prenantes ont les moyens de gérer la qualité des données en fonction de leurs propres besoins métiers. ainsi, en s’appuyant sur des avancées technologiques et des méthodologies éprouvées, les entreprises peuvent gagner en efficacité opérationnelle et réduire les risques.

Une fois mise place, l’opération doit devenir un réflexe continu

L’amélioration de la qualité des données de l’entreprise passe par la mise en place d’une initiative continue et globale. cet article a évoqué les concepts de qualité des données ainsi que son importance dans les entreprises. une mauvaise qualité des données coûte cher et conduit à des ruptures dans les processus, à des décisions métiers moins pertinentes et à une gestion médiocre de la relation client. de plus, elle peut invalider les efforts de l’entreprise en matière de conformité réglementaire. il est recommandé de s’adosser à un grand projet stratégique dans l’entreprise pour lancer une initiative autour de la qualité des données. mais cette initiative peut également être menée de façon indépendante. L’idée de démarche de pérennité est essentielle et caractéristique de l’approche qualité. elle va à l’encontre d’une opération unique et isolée qui ne permet de nettoyer et d’améliorer les données que ponctuellement. cela signifie que les objectifs, mesures et indicateurs associés doivent être portés par l’ensemble des acteurs concernés département informatique et directions métiers, doublés d’une implication forte de la hiérarchie. La qualité des données concerne tout autant les métiers que l’informatique. La réussite passe désormais par une approche de qualité de données globale. plus elle sera incorporée aux habitudes et à la culture de l’entreprise, plus la démarche qualité progressera. paradoxalement, son succès résidera dans sa banalisation. n

Bruno Labidoire directeur technique

Bruno Labidoire est Directeur Technique chez Informatica pour l’Europe du Sud. Avant de rejoindre Informatica en 2002, il occupait

auparavant le poste de Directeur Avant-Vente pour l’Europe du Sud de l’offre CRM de Clarify. Il était chargé d’une équipe avant-vente

répartie sur la France, l’Espagne, et l’Italie. Avant de rejoindre Clarify, Bruno Labidoire a occupé différentes responsabilités dans les

domaines des serveurs Multimédia, CRM, et centres d’appels et, entre autres, responsable de projets chez Cap Gemini Telecom. Bruno

Labidoire est diplômé de l’Ecole Commerciale de la Chambre de Commerce et d’industrie de Paris.

Informatica Corporation (NASDAQ : INFA) est le leader mondial des fournisseurs indépendants de logiciels d’intégration de données.

La plate-forme Informatica constitue une offre complète, unifiée et ouverte pour les organisations. En intégrant toutes leurs sources

de données (applications traditionnelles, sources tierces, locales, distantes ou issues du Cloud computing), celles-ci tirent davantage

de valeur de leurs informations et renforcent leurs avantages concurrentiels. Plus de 3 900 entreprises dans le monde s’appuient sur

les solutions Informatica pour réduire les coûts et les délais de réponse à leurs besoins d’intégration et de qualité de données, quelles

qu’en soient l’échelle et la complexité. Pour plus d’informations, veuillez consulter le site www.informatica.com/fr

Page 15: Comment réussir avec ITIL ?

Réduisez vos coûts télécoms, gagnez en productivité et

bénéficiez de toutes les applications sur IP !

Intranet 2.0 : découvrez toutes les solutions de partage d’information et de collaboration.

pour visiter et vous inscrire aux conférences :

EXPOSITION - CONFÉRENCES - ATELIERS

www.groupesolutions.fr

5 et 6 mai 2010CNIT - PARIS LA DEFENSE

5e édition

En parallèle : Avec :

Page 16: Comment réussir avec ITIL ?

16 IT-expert n°84 - mars/avril 2010

On assiste depuis 10 ans à une montée en puissance d’ITIL. En 2004, moins de 30 % des DSI interrogées avaient

entendu parler d’ITIL, en 2007 la notoriété était de 87 % dans les DSI, et aujourd’hui toutes les DSI en ont entendu

parler, sans que cette notoriété ait toujours débouché sur des actions concrètes de mise en œuvre. De multiples

opinions se font entendre à propos d’ITIL, on entend parler d’échecs coûteux où des démarches ITIL se sont enlisées,

où des projets se sont avérés lourds, complexes, mal acceptés dans les DSI, et finalement inefficaces.

Cet article tentera de montrer comment des incompréhensions à propos de la véritable nature d’ITIL peuvent amener

à des utilisations inappropriées, des actions infructueuses, ressenties comme des échecs, quand elles contrarient la

qualité et la richesse d’ITIL par un usage inadéquat. Avant tout, il s’avère indispensable d’expliquer concrètement ce

qu’est ITIL, et surtout ce qu’ITIL n’est pas. Quelques recommandations seront détaillées pour favoriser des mises en

œuvre réussies.

Comment réussir avec ITIL ?

Page 17: Comment réussir avec ITIL ?

Technique

17IT-expert n°84 - mars/avril 2010

Ce qu’est ITIL et ce qu’il n’est pas

au-delà d’une présentation de ce qu’est itiL, il est également important de préciser, en quelque sorte « en creux », ce qu’itiL n’a jamais prétendu être.

ITIL s’appuie sur les processus

itiL traite les questions d’organisation par l’angle des processus. points communs aux approches processus, elles recherchent traditionnellement à identifier les « clients » de chaque processus (qui dit « client », dit qu’il a des objectifs, des attentes, des besoins), ces approches raisonnent en processus et sous-processus, activités et tâches (avec des vocabulaires variables selon les différentes approches).

en conséquence, itiL ne traite pas les questions d’organisation par l’angle des structures organisationnelles (services, départements, organigrammes…). itiL ne traite pas non plus (jamais, nulle part dans la bibliothèque itiL) la question de trancher quel « acteur » doit être en charge de telles activités ou opérations ou tâches. comme toutes les approches processus, itiL est transverse aux organisations. il ne faut pas s’attendre à une aide d’itiL sur la question de décider sur ces points. La réponse à ces questions doit être prise en charge par l’entreprise elle-même. en effet, les réponses ne tomberont pas toutes faites de la lecture de cette bibliothèque itiL des bonnes pratiques. un des intérêts majeurs du raisonnement par processus (plutôt que par organisations) tient dans la possibilité d’aller au-delà des problèmes liés à l’organisation en place, et de donner envie aux opérationnels de travailler ensemble à la réussite d’un processus pour lequel chacun trouvera une motivation à son bon fonctionnement. en conséquence, dans le cours de toute méthodologie de mise en place d’itiL, il s’avère indispensable de disposer des points d’appui, des structures et des espaces nécessaires (comités pour validation des décisions…) pour progresser sur le traitement de ces questions, dont itiL fait le choix (pertinent) que la réponse ne soit pas toute faite.

Un recueil des meilleures pratiques, pas une norme

itiL recense et décrit de façon détaillée la compilation des meilleures pratiques, afin qu’elles soient réutilisables, pour éviter de réinventer les éléments qui sont présents dans la bibliothèque. a contrario, itiL ne prétend pas normaliser des fonctionnements, interdire de procéder d’une manière ou d’une autre. itiL ne fixe pas de fonctionnement figé, il se cantonne au rôle de collection (bibliothèque) d’éléments. ces éléments découlent de l’expérience accumulée et reflètent des pratiques collégialement jugées bonnes par des promoteurs d’itiL. et qu’il est donc bon de partager pour ne pas les réinventer, surtout lorsqu’ils sont éprouvés depuis des années dans de nombreux organismes.

ITIL, kesako ?

itiL signifie « information technology infrastructure Library », il s’agit d’une « bibliothèque » des métiers de l’infrastructure it. Bibliothèque s’entend au sens de « conservation de la documentation sur les métiers de l’infrastructure ». Les objectifs d’itiL visent à documenter certaines des « meilleures pratiques » en matière de gestion des services informatiques, afin de constituer un standard de fait. itiL concerne les activités liées au support, à la production et à la maintenance. il permet aux dsi de contractualiser avec les métiers sur le « bon » service (efficace, rentable, aligné sur les objectifs business…) et de le réaliser. itiL a pour ambition d’apporter une forte valeur ajoutée à la dsi et à l’entreprise.

Historique et acteurs autour d’ITIL

itiL a été créé dans les années 80, en Grande-Bretagne, par la central computer & telecommunications agency, une agence du gouvernement britannique, avec pour objectif de recenser les bonnes pratiques en matière de gestion des infrastructures it. aujourd’hui, itiL est devenu la propriété de l’oGc (office Government of commerce). dans les années 90, itiL s’est répandu et consolidé, principalement en Grande-Bretagne, avec constitution du forum utilisateur itsmf (it service management forum), développements sous l’impulsion de la mise en concurrence systématique des services internes de l’administration britannique. en 2007, des mises à jour ont amené la sortie de la v3 d’itiL.

Les principaux acteurs sont : l’oGc (office Government of commerce), l’office public britannique du commerce, qui vise à travailler avec le secteur public comme catalyseur pour améliorer l’efficacité dans la livraison des programmes et des projets. itiL® et it infrastructure Library® sont des marques déposées de l’oGc.

itsmf est un groupe d’utilisateurs, indépendant, et à but non lucratif. itsmf est le seul forum reconnu autour d’itiL. il appartient et est animé par ses membres.

eXin aux pays-Bas, et iseB (information systems examination Board) en Grande-Bretagne sont des contributeurs officiels, en charge de travaux de certification itiL, organismes accrédités pour délivrer, après examen, les certifications.

des acteurs privés (éditeurs, ssii, sociétés de conseil) fournissent des logiciels, des services de conseil, et de formation.

Page 18: Comment réussir avec ITIL ?

18 IT-expert n°84 - mars/avril 2010

dans l’entreprise. et, pendant certaines phases de réflexion ou durant au cours de la transformation, l’entreprise adoptera les concepts induits par le vocabulaire, et parfois le vocabulaire induit par itiL. Ce vocabulaire commun est un facteur facilitant l’intégration de contributeurs qui proviennent de différents horizons. itiL induit des concepts précis, pas toujours en phase avec le vocabulaire employé au jour le jour dans une entreprise. par exemple, itiL distingue clairement la notion d’incident de la notion de problème. dans certains cas, il faut faire rejoindre les concepts d’itiL et les concepts de l’entreprise. Les concepts d’itiL résultent d’une manière de voir les processus de service, vision partagée de façon consensuelle par de multiples organisations, et dans laquelle la vision du service est fermement implantée. Les concepts employés dans une entreprise proviennent souvent de processus résultant de l’empilement au fil des années de modes de fonctionnement. cela peut aider à se poser plusieurs questions. par exemple aujourd’hui une entreprise a utilise 3 notions, celles de « dossiers client », « dossiers back-office » et « dossiers correctifs ». alors, laquelle correspond réellement à la notion d’incident, ou à la notion de problème ? Laquelle est à cheval entre les deux ? quelles modifications trouvera l’entreprise a pour clarifier et fluidifier sa manière de prendre en charge les incidents et problèmes ? etc.

Pas une démarche uniforme, ni une méthodologie toute faite

il ne suffit pas de décréter que l’on va mettre en œuvre itiL, pour se doter d’une méthode ou une démarche. avant de mettre en œuvre itiL dans une organisation, il lui faut définir proprement quels objectifs concrets elle cherche à atteindre (cela peut être de réparer un processus qui semble « cassé », d’améliorer tel niveau de service, de mobiliser les équipes autour de la résolution de difficultés liées à un processus, de gagner en efficacité sur un sujet…). ensuite, il convient de déterminer les meilleures démarches à mettre en place (ampleur des moyens, délais…) pour atteindre ces objectifs. certains passages d’itiL abordent ces questions, mais on observe souvent que les opérationnels survolent ces passages d’itiL qui ne leur sont pas forcément destinés, mais intéressent plutôt les décideurs. malgré leur pertinence, les lignes générales de ces chapitres ne sont pas toujours applicables. elles mélangent du bon sens (fixer des objectifs, mettre en place les moyens de mesurer leur atteinte…) des notions un peu abstraites (créer une vision...), et des éléments qui résultent de l’effet collection ou bibliothèque (Business case, métriques, Balanced score card, techniques pour la conduite du changement…). Bien qu’intéressants, ces éléments ne sont pas toujours pertinents. inutile donc de « dérouler un rouleau compresseur itiL ». comment réussir l’implémentation d’itiL ? en prenant du temps et du recul pour décrire ses propres objectifs, atteignables compte tenu de sa situation de départ, et d’en déduire le meilleur chemin. Le facteur clé de succès pour un décideur réside dans cette préparation.

itiL n’est pas exhaustif, loin de là ! dans des expériences réussies de mise en place de principes itiL on observe fréquemment des actions qui vont au-delà de ce que la bibliothèque commune propose. cela ne retire aucun mérite à cette bibliothèque qui n’a pas pour vocation d’imposer son contenu , mais d’éviter de réinventer de multiples éléments qui y sont déjà présents.

Fournir des services en soulignant les relations avec les clients

La bibliothèque itiL est décomposée selon des processus. La philosophie de la présentation consiste à toujours repartir des notions de service au client, d’aligner les processus par rapport aux résultats attendus, aux attentes, aux besoins et objectifs des clients du processus. À titre d’illustration, dans chaque chapitre itiL on trouve des listes d’indicateurs clés de performance (Key performance indicators Kpi), dont la liste s’avère souvent précieuse. parmi la liste de Kpi dans la bibliothèque, plusieurs indicateurs sont déjà identifiés à l’intérieur de l’entreprise. souvent, ils sont déjà mesurés ou bien déjà identifiés comme importants à calculer (par ex. pour une entreprise X le pourcentage d’incidents résolus dans les temps contractuels), les voir dans la liste des Kpi itiL conforte l’entreprise X sur la réalité de leur importance pour de nombreuses entreprises de tous les pays. pour d’autres indicateurs, l’entreprise X n’avait pas imaginé les calculer : pour un indicateur qui ne semble pas avoir d’intérêt (par ex. coût moyen de traitement d’un incident), l’entreprise X en trouve un autre qui résulte d’un angle de vue particulier, auquel elle n’avait pas pensé auparavant (par ex. pourcentage d’incidents fermés par le centre de services sans support extérieur), et dont la mesure va lui permettre de mieux perfectionner son service rendu.

ITIL contribue à une démarche qualité

itiL est en phase avec les démarches qualité, avec les représentations processus telles qu’on les trouve dans six sigma (par exemple, la bibliothèque itiL reprend à son compte un schéma très proche de celui du sipoc de six sigma pour supplier-input-processus-output-client). comme ces démarches qualité en général, itiL contient également les processus d’amélioration continue. À l’opposé d’autres démarches qualité et d’amélioration continue, qui sont volontairement conçues pour être adaptables dans de très nombreux cas de figure et qui héritent d’emblée, par construction, d’un fort niveau d’abstraction. itiL est centré sur les services de l’infrastructure de l’it, et la bibliothèque fourmille d’exemples dont l’application concrète se révèle pragmatique et immédiate.

Mieux communiquer avec un langage commun

itiL apporte de nombreux éléments concrets dans sa bibliothèque et les nomme, ce qui induit un vocabulaire cohérent pour tous

Page 19: Comment réussir avec ITIL ?

Technique

19IT-expert n°84 - mars/avril 2010

Comment se présente ITIL ?

itiL v2 était constitué de 8 ouvrages pour décrire les processus alignant les services fournis avec le besoin du business. depuis la v3 des modifications ont été apportées et concernent : la structure générale, l’introduction de nouveaux outils pour aider à l’implémentation et à la mesure des gains, et l’introduction de nouveaux outils au niveau stratégique pour aider à promouvoir itiL auprès des responsables métiers en terme d’apport à la chaîne de valeur.

Les 5 ouvrages « cœur » du noyau itiL v3 sont : stratégie des services (service strategy), conception des services (service design); transition des services (service transition); exploitation des services (service operation); amélioration continue des services (continual service improvement). ces cinq manuels de référence présentant les constituants de base de l’itsm, selon l’approche du cycle de vie des services. une documentation complémentaire propose des cas particuliers ou des exemples, des produits à valeur ajoutée, tels que des modèles et des schémas de flux de production.

objectif : inscrire itiL v3 dans la dynamique d’amélioration continue et surtout énoncer des conseils pertinents pour des cas bien particuliers. de plus, l’efficacité opérationnelle se trouve au cœur de cette nouvelle version. dans ce sens, itiL v3 fournit nombre d’éléments avisés : des conseils pour être en conformité avec les diverses normes et réglementations en vigueur, des directives par secteur d’activité et rubrique, de nouvelles rubriques concernant les stratégies de gestion des services (services partagés, cosourcing et externalisation), un système de connaissance très développé favorisant la gestion proactive des services.

ITIL contient 23 processus (dont 3 sont en cours de description) dans ITIL V3 : • Stratégiedesservices:Gestiondelademande,Gestionfinancière,Gestionduportefeuilledes

services• Conceptiondesservices:Gestionducatalogue,Gestiondesniveauxdeservices,Gestiondes

fournisseurs, Gestion de la disponibilité, Gestion de la continuité, Gestion de la capacité, Gestion de la sécurité de l’information

• Transitiondesservices:Gestiondesactifsetdesconfigurations,Gestiondeschangements,Gestiondes mises en production et des déploiements, Gestion de la connaissance, Gestion de l’évaluation (non décrit) , Gestion des tests et validations (non décrit)

• Exploitationdesservices:Gestiondesévénements,Gestiondesincidents,Gestiondesproblèmes,Gestion de l’exécution des requêtes, Gestion des accès

• Améliorationcontinuedesservices:Gestiondel’améliorationcontinuedesservices,Gestiondureporting.

Le sommaire type des données rassemblées à propos d’un processus, à l’intérieur de la bibliothèque itiL, rassemble les éléments suivants : objectifs ; périmètre ; concepts de base ; Bénéfices/difficultés, coûts ; activités ; rôle/responsabilités ; métrologie, indicateurs et tableaux de bord ; outils ; synthèse et préconisations.

Les objectifs du processus permettent de cadrer le processus, le cadrage est précisé avec l’aide du périmètre. Le paragraphe sur le périmètre fixe les limites du processus tels que vu par itiL, et précise les concepts, et fait la correspondance entre itiL et la manière de s’y prendre au jour le jour dans telle ou telle organisation. Les concepts de base permettent de clarifier des notions et du vocabulaire. Les Bénéfices / difficultés coûts servent à fournir une liste très opérationnelle d’axes de réflexion sur les enjeux objectifs et résultats du processus tel qu’il a été cerné, et peuvent donner lieu à implantation concrète parmi les indicateurs. Les activités permettent de suivre une décomposition logique (plutôt que normative ou organisationnelle), telle que vue par la bibliothèque itiL, des différentes activités à exercer à l’intérieur du processus. Les rôles et responsabilités sont identifiés de manière générique, sans jamais qu’itiL se mêle de normaliser et de fixer à quel acteur au sein de l’entreprise devrait revenir telle ou telle responsabilité. Le paragraphe sur la métrologie, les indicateurs et les tableaux de bord est rempli d’outils dans lesquels l’entreprise peut piocher pour sa propre utilisation ; les outils sont un catalogue d’idées d’outils dont l’implantation de certains peut se révéler astucieuse ; la synthèse et les préconisations permettent de redonner plus de sens à la lecture des différents éléments épars du chapitre.

itiL indique : les bénéfices et les problèmes possibles, le «comment faire en cible», mais pas le «comment implémenter».

Page 20: Comment réussir avec ITIL ?

20 IT-expert n°84 - mars/avril 2010

Les quick wins autour d’ITIL

itiL permet des quick wins. des exemples de gains rapides sont nombreux, liés de façon très directe ou indirecte à itiL. toutefois, ces gains rapides n’apparaissent souvent qu’après une mise en place de quelques semaines dans une grande organisation. en effet, l’organisation doit généralement amender un outil informatique existant (validation de spécifications, mise en production…) ou modifier ses processus opérationnels (planifier, communiquer sur le changement…).

parmi des gains rapides constatés sur le terrain : • travaillersurl’attributionautomatiséedesincidents.Une

matrice d’assignation peut être mise au point, de façon plus ou moins automatisée. certaines entreprises ont poussé très loin cette automatisation, au risque de répartir certains incidents de façon erronée. pour d’autres, la matrice a un rôle d’appui, d’indicateur. avancer dans cette voie est utile dans le cas où l’analyse des processus révèle des difficultés liées à l’étape d’assignation ;

• mettreenplaceunematricedepriorisationdesincidents.cette matrice peut déterminer la priorité en combinant l’impact attendu, l’urgence… ;

• simplifieretregrouperlesprocessusdeGestiondeConfi-guration et de Gestion des mises en production (Gmep) ;

• souleversystématiquementcertainesquestionsavantchaque mise en production, comme clarifier la nature de l’indisponibilité, clarifier la procédure de retour arrière, identifier les jalons dans le cours de la mep pour décider des retours-arrière... ;

• séparerplusnettementlesmodalitésdegestiondesincidentset des problèmes (Gi et Gp) et octroyer du temps sur des tâches de résolution des problèmes ;

• allégertouteslesgestionsdedemandestrèsrégulières(réinitialisation des mots de passe, changements d’habilitations…) et le cas échéant les sortir des circuits de gestion des incidents ;

• avisersystématiquementleséquipesdelahotlinedechacunedes mises en production à venir ;

• …

d’autres quick wins ont été identifiés dans différentes situations d’aide à la mise en œuvre d’itiL. ceux évoqués ci-dessus ne résultent pas tous de la simple lecture et application des informations qui se trouvent dans la bibliothèque itiL. et ne sont pas forcément pertinents pour toutes les situations. il est important d’impliquer les opérationnels pour identifier ces actions de modifications. mettre en avant les quick wins ne doit pas faire perdre de vue des actions de fond, mais dont la mise en œuvre est également parfois la seule de nature à apporter de profondes modifications indispensables.

Écueils fréquents dans la mise en œuvre d’ITIL

La mise en place d’itiL n’est pas toujours aisée. contrairement aux opinions parfois entendues, il ne suffit pas de s’en remettre à des « experts itiL » pour résoudre les problèmes de l’entreprise : itiL n’impose ni démarche claire, ni objectifs, ni phasage, ni instances d’étude et de décision. au mieux, il rappelle des recommandations, comme cadrer, phaser, étudier… L’entreprise qui utilise itiL ne doit pas attendre qu’il prenne des décisions à sa place. il lui reste à être au clair sur les objectifs qu’elle attache à la mise en œuvre d’itiL, à identifier les structures qui vont devoir travailler sur la mise en œuvre, et à prendre les décisions appropriées. itiL reste un instrument, propose des éléments pour éviter de tout réinventer et fournit de la matière pour aider l’entreprise à résoudre ses problèmes. cependant, cette bibliothèque n’identifie pas les problèmes, et ne les résout pas.

Conclusion

itL présente de nombreux apports bénéfiques : il s’agit d’un vivier de bonnes pratiques avec des concepts de bon sens, il présente une organisation claire des processus de production et des relations entre ces processus, il facilite le dialogue en établissant un langage commun (interne dsi, métier, fournisseurs, éditeurs d’outils pour la dsi), c’est une source d’améliorations à la fois à court terme et à long terme.

Les éditeurs et le marché des outils ITIL

De nombreux outils progiciels sont présents sur le marché ITIL. Ces outils se sont bâtis pour apporter des solutions « d’informatisation » de différents processus de l’entreprise, sur le domaine fonctionnel des services de la gestion des infrastructures : gestion du patrimoine informatique et des inventaires, gestion des incidents et problèmes, gestion actions (interventions…) etc. Ces outils font état d’une conformité avec ITIL. Celle-ci apporte une certaine garantie que des grands concepts issus du consensus sur la manière de voir et la manière de faire sont pris en compte, et aussi une certaine garantie que les éléments présents dans la bibliothèque initialement générée par ITIL sont présents.

En revanche, l’entreprise qui s’en remet au choix d’un outil informatique dit « ITIL » ne doit pas oublier que, comme dans tout projet, même progiciel, l’adoption d’un outil même « ITIL compliant » ne résout pas à lui seul des questions d’organisation. L’entreprise doit participer activement aux spécifications de paramétrage, qui l’obligent à répondre à des questions qu’il faut avoir clarifiées, et comme pour tout projet informatique, l’outil est au service du processus et non le contraire. L’entreprise doit apporter sa participation à la recette de l’outil paramétré, et vérifier que les données inventoriées sont accessibles, que les processus peuvent être suivis comme prévu

Page 21: Comment réussir avec ITIL ?

Technique

21IT-expert n°84 - mars/avril 2010

itiL présente aussi quelques limites, qui découlent pour partie de la construction de l’approche : son contenu relativement dense et détaillé est plutôt destiné aux opérationnels. néanmoins, un apprentissage est nécessaire pour « entrer » dans cette documentation. Les préconisations ne sont pas toujours très claires, et restent souvent à décliner par l’entreprise qui définira ses priorités de mise en œuvre.

il est utile de passer par des quick wins adaptés de manière fine et pertinente à l’entreprise, « découverts » et adoptés par les opérationnels eux-mêmes. Les quick wins peuvent découler d’emprunts directs à la bibliothèque itiL dans le texte, ou en découler plus ou moins indirectement. dans les deux cas, l’entreprise tâchera de les relier à itiL. La démarche mène au succès lorsque les quick wins mis en œuvre sont associés à itiL, et lorsqu’on en attribue la paternité aux opérationnels de la production. cela favorise leur intérêt et leur appropriation du contenu. une manière aussi de convaincre les opérationnels du bon usage et du caractère pragmatique, concret, et utilisable d’itiL. par la suite, ils seront alors disposés à poursuivre sur d’autres chantiers d’évolution ou d’autres procédures de fonctionnement, dans le même état d’esprit…

parmi les recommandations concrètes pour une méthode de mise en place, il faut veiller à rester pragmatique, à procéder par étapes, avec des objectifs d’amélioration bien définis et bien délimités, à partir des problèmes réellement posés sur le terrain et à résoudre. L’entreprise doit agir en priorité là où « ça fait mal », là où il y aura des gains, pour assurer le succès par l’adhésion des opérationnels. enfin, mieux vaut déployer un savoir-faire soutenu par un outil. sans pour autant attendre que l’outil soit seul porteur du savoir-faire de l’entreprise. un projet itiL réussi est porté et mené par les opérationnels.

pour éviter déconvenues et déceptions, mieux vaut éviter d’utiliser itiL comme une norme. au contraire, les décisions de management appartiennent aux opérateurs de l’entreprise, elles ne seront pas dictées par une norme plaquée de l’extérieur.

mieux vaut aussi éviter d’appliquer la totalité d’itiL comme un rouleau compresseur, et -au contraire- délimiter des objectifs et un périmètre atteignables, et piocher dans la bibliothèque ce qui est applicable et pertinent.

itiL est un outil qui ne dicte pas les objectifs, ni les choix d’organisation cible, et qui n’impose pas strictement la démarche d’implémentation. il nécessite de mobiliser les acteurs nécessaires, internes ou externes, qui ont suffisamment de connaissances sur itiL pour savoir en exploiter sa matière avec un bon état d’esprit pour réussir. n

Hugues Dieuzeide directeur associé

Hugues DIEUZEIDE intervient notamment auprès de DSI pour aider à mettre en

œuvre des transformations. Il s’est appuyé à plusieurs reprises sur la bibliothèque

ITIL lors de ces opérations de transformation de processus de la DSI.

ORESYS est une société de conseil en organisation et en S.I., de 250 consultants,

à Paris, Lyon et Bruxelles, spécialisée dans les projets de transformation. ORESYS

aide ses clients à piloter leurs activités, améliorer leur performance et mettre en

œuvre leurs projets de transformation. ORESYS intervient sur toutes les dimensions :

métiers, organisation, processus, système d’information, accompagnement du

changement. ORESYS intervient de manière soutenue pour aider les DSI à transformer

leur organisation et leurs processus, ou à transformer l’entreprise.

Site web : www.oresys.eu

Page 22: Comment réussir avec ITIL ?

22 IT-expert n°84 - mars/avril 2010

Actualitésinternationales

Google prépare une version entreprise de Chrome OS

À l’occasion de la dernière rsa conference en mars 2010, Google a présenté les fonctionnalités de sécurité implémentées dans chrome os et les netbooks vendus avec l’os. et une version entreprise de netbook chrome os serait planifiée pour 2011, selon le site networkworld.com. Les premiers netbooks équipés du nouvel os devraient arriver au second semestre 2010. mais Google envisagerait une version plus musclée en fonctions d’administration pour les entreprises.

au-delà de l’utilisation de technologies de type sandbox et de mise à jour automatique, Google proposera chrome os sur des modèles dotés de puces

tpm (trusted platform module), cryptographie pour chiffrer les clés secrètes, mais aussi pour contrôler le comportement des applications sur le système. Bien que des

démonstrations aient été réalisées pour en révéler certaines failles, les puces tpm restent efficaces et très complexes à attaquer. par ailleurs, un « mode programmeur » serait accessible sur simple pression d’un bouton des netbooks équipés de chrome os. une facilité qui nécessiterait encore quelques mesures de sécurité complémentaires de l’aveu même des spécialistes de Google.

quoi qu’il en soit, l’intérêt semble évident pour ce futur et encore mystérieux os. cela suffira-t-il ?… n

IBM lance et relance des solutions de tests, soi-disant Cloud…

iBm ne veut pas se faire semer sur la route du cloud. mi-mars, Big Blue a donc présenté une série d’outils et de ressources estampillés « cloud de test et de développement ». destinées à ses partenaires et à ses clients, ces solutions en ligne devraient aider à réduire les dépenses des entreprises consacrées aux tests et développements, qui représenteraient une grande partie des ressources matérielles, utilisées à seulement 10-15 % de leurs capacités. une réduction évaluée à 50 % par iBm.

cette offre « smart Business development & test on the iBm cloud », sensée compléter les datacenters des entreprises et partenaires, aurait déjà séduit quelques clients comme paypal, et de multiples partenaires. en outre, on retrouve des extensions de type « rational software delivery services for cloud computing », un espace dédié « cloud computing » sur iBm developperWorks (8 millions de développeurs, informaticiens et étudiants), etc. L’offre présentée se décompose en trois volets :• «IBMSmartBusinessDevelopment&TestCloud»fonctionnecommeun«cloudprivé»derrièrelepare-feuetrepose

sur « rational software delivery services for cloud computing ». Bref, on cherche encore le cloud…• «IBMSmartBusinessDevelopment&TestontheIBMCloud»incarneraituneréelleoffre,modeCloud.• «IBMCloudBurst»,l’appliancepréexistanteregroupantmatériel,logicielsetapplicationsvientcompléterletriopour

donner l’impression dune suite « cohérente ».

chaque offre peut effectivement présenter des intérêts spécifiques. pourquoi absolument tenter de teinter en cloud ? Bientôt, on ne dira plus surfer sur le Web, mais « vagabonder sur le cloud global ». Le marketing amène parfois à des postures bien ridicules… n

IBM

Sm

ar

t B

us

ine

ss

De

ve

lop

me

nt

& T

es

t C

lou

d -

IB

M S

ma

rt

Bu

sin

es

s D

ev

elo

pm

en

t &

Te

st

Page 23: Comment réussir avec ITIL ?

23IT-expert n°84 - mars/avril 2010

L’ex-dirigeant de Sun règle quelques comptes avec Apple et Microsoft

après rachat par oracle, le dirigeant de sun – Jonathan schwartz – a « logiquement » été remercié. il profite donc de son temps libre pour s’activer sur son blog personnel avec un post intitulé « ce que je ne pouvais pas dire.» il défend Google indirectement visé par apple dans son attaque contre le téléphone nexus one d’Htc sous Google android (http://jonathanischwartz.wordpress.com/2010/03/09/good-artists-copy-great-artists-steal/ : « les bons artistes copient, les grands artistes volent »).

il dévoile au passage que steve Jobs l’avait menacé de poursuites judiciaires pour utilisation de brevets apple dans une interface graphique que développait sun. finalement, ce type d’argument a été abandonné lorsque Jonathan schwartz lui fait remarquer que son produit ressemblait fort à un logiciel acquis par sun lors du rachat de la société Lighthouse design. et surtout, Jobs abandonne quand schwartz met en avant des brevets sur unix détenus par sun, et menace d’attaquer mac os si apple décide de poursuivre sun !

avec scott mc neally (ex-dirigeant de sun), il rencontre Bill Gates et steve Ballmer à propos d’open office. toujours selon lui, Gates attaque bille en tête : « microsoft détient le marché des suites bureautiques, et nos brevets sont partout dans openoffice. » objectif : faire payer sun pour chaque téléchargement d’open office ! intéressant… répondant au duo que .net reprenait bien des choses de Java, microsoft devrait alors reverser des royalties pour chaque copie de Windows…

une lecture très enrichissante. n

123people rejoint le groupe Pages Jaunes

selon le groupe français pagesJaunes, la recherche de renseignements sur des individus représenterait « 30% du volume total des recherches sur internet. » d’où son intérêt pour la société 123people. en effet, ce moteur de recherche rassemble en une seule page toutes les informations qu’il glane sur d’autres sites Web comme Google, myspace, Youtube, Wikipedia, pagesjaunes, facebook, Bing, Linkedin, etc.

en rachetant 123people pour un montant non révélé, le groupe pagesJaunes enrichit ses services pagesjaunes.fr. outre son annuaire, et l’application iphone, 123people rejoint un service de cartographie et de géolocalisation (ex-mappy) et un service de petites annonces.

si pagesjaunes.fr n’a pas à rougir de sa fréquentation avec plus de 80 millions de visites par mois, il se muscle dans la course à la page affichée. Les multiples sites (11 pays, dont la france et les États-unis) totalisaient environ 43 millions de visiteurs uniques début 2010. n

Actualités internationales

Page 24: Comment réussir avec ITIL ?

24 IT-expert n°84 - mars/avril 2010

Plus de 30 000 applications Android, majoritairement gratuites

courant mars, Google pouvait se vanter de comptabiliser 30 000 applications pour sa plate-forme mobile android, selon le site mobilecrunch, qui précisait que 61 % de ces logiciels seraient gratuits. une belle prouesse pour ce système d’exploitation âgé seulement de quelques mois ! et les nouveaux outils de conception d’applications 3d devraient stimuler encore ces développements.

si l’iphone peut pavaner avec ses quelques 140 000 applications, le désamour entre apple et les développeurs pourrait bien profiter à Google. La société à la pomme a tout de même une fâcheuse tendance à cadenasser ses modèles économiques. L’avènement d’android est donc forcément une excellente nouvelle, et une réponse tranquille à une arrogance de plus en plus évidente.

en effet, nokia tente bien, lui aussi, un retour. cependant, le fleuron européen des années 90 et 2000 saura-t-il redevenir attractif avec son environnement symbian ? en tout état de cause, symbian reste la plate-forme la plus installée des trois…

Lors du mobile World congress il y a quelques semaines, Éric schmitt (dirigeant de Google) dévoilait que ses partenaires écoulaient 60 000 terminaux android par jour ! n

Deux brevets coûtent près de 400 millions à Microsoft

Le 17 mars, un tribunal texan a confirmé la condamnation de microsoft pour violation de brevets en faveur de la société canadienne i4i, à laquelle l’éditeur d’office devra verser 290 millions de dollars.

en mai 2009, cet éditeur spécialisé – qui portait plainte contre microsoft pour avoir utilisé son procédé d’encodage

XmL dans Word 2003 et 2007– avait déjà emporté une victoire avec une amende de 200 millions de dollars infligée à l’éditeur de

redmond, avec suspension de la vente de Word au 10 janvier. après plusieurs recours, une suspension de la vente est annulée, et la fonction XmL liée au litige est retirée des logiciels Word aux États-unis. mais l’amende est portée à 290 millions en janvier 2010. un appel fait suite à cette décision. Là encore, un tribunal vient confirmer la décision d’infliger une amende de 290 millions de dollars.

autre affaire judiciaire d’utilisation illégale de brevets, la société américaine virnetX (spécialiste de la sécurisation des communications ip) accuse microsoft d’utiliser ses technologies de création et de gestion de vpn (virtual private network, ou réseau virtuel privé) dans office communications server et dans Windows. Le 18 mars, une cour fédérale du texas condamnait le géant de redmond à verser 105,8 millions de dollars de dommages et intérêts à virnetX. cependant, microsoft devrait interjeter appel de la décision.

décidément, le texas ne réussit pas à microsoft ! n

Page 25: Comment réussir avec ITIL ?

25IT-expert n°84 - mars/avril 2010

Actualités internationales

Une distribution Linux signée « Corée du Nord »

La république populaire démocratique de corée opte pour le Libre ! en effet, ses dirigeants ont décidé de développer leur propre Linux. des détails ont été fournis par un jeune étudiant russe de l’université de Kim il-sung qui a posté son article depuis l’ambassade de russie. en 2009, pyongyang a pris la décision de concevoir ce système d’exploitation Linux baptisé red star. deux versions seraient disponibles : red star classique et server. des distributions qui incluent les logiciels traditionnels : firefox rebaptisé naenara, open office et un gestionnaire d’e-mails. peu gourmand, red star se contente d’un pentium iii à 800 mHz, 256 mo de mémoire vive et 3 Go d’espace disque.

en revanche, tandis que les distributions Linux sont généralement gratuites, red star os est commercialisé pour environ 5 dollars, et seul le coréen est disponible pour l’installation. L’étudiant russe confie que les coréens ont encore du travail pour parvenir à concurrencer Windows (Xp, vista/7). objectif déclaré par les autorités au départ du projet.

on peut légitimement se demander si les développeurs n’ont pas installé quelques backdoors ou autres espions dans l’os gouvernemental. c’est pourquoi microsoft continue à enregistrer un succès sans équivalent ! n

Firefox 3.6 : 200 millions de téléchargements et une grosse faille colmatée !

deux mois après sa sortie le 21 janvier 2010, firefox 3.6 dépassait les 208 000 téléchargements. en outre, il a fallu attendre ce délai pour qu’une faille de sécurité soit corrigée.

Les résultats de statcounter Global stats créditent firefox de 30,96 % de part de marché contre 57.94 % pour internet explorer, des chiffres qui passent respectivement

à 39,25 % et 46,43 % en europe (sur un échantillon de millions de sites Web, au 10 mars 2010). toutefois, la france reste un peu plus en retrait avec 33,97 % pour firefox et 55,84 % pour

internet explorer. toutefois, si l’on examine les résultats en détail pour la france, on constate l’avance d’internet explorer 7 à 32,55 % contre devant ie 8 à 16,86 %, talonné par firefox 3.0 à 15,8 % et la version 3.5 à 13,56 %... mais très loin devant firefox 3.6 à 2.92 %.

La faille de sécurité critique concernant le support du format Woff a monopolisé l’attention de la fondation mozilla (Web open font format) qui a très vite publié une mise à jour. certes, la possibilité de prise en main à distance d’un ordinateur par un pirate n’est pas de nature à favoriser l’adoption d’un navigateur…

téléchargez donc la version 3.6.2 qui au passage apporte d’autres petites corrections mineures ! n

Page 26: Comment réussir avec ITIL ?

26 IT-expert n°84 - mars/avril 2010

Free table sur 5 millions d’abonnés en 2011

Le 23 mars, le groupe iliad (maison mère de free) annonçait ses résultats 2009 : un chiffre d’affaires de 1,995 milliard d’euros en hausse de 25 % (contre +29,1 % l’an passé), et 389 000 nouveaux abonnés pour un total de 4,456 millions fin 2009. iliad se montre optimiste et annonce un objectif de 5 millions d’abonnés en haut débit en 2011 ! côté mobilité, l’opérateur utilisera sa licence pour lancer son offre en 2012, avec une couverture de 27 % de la population en janvier 2012.

plus surprenant, le trublion d’internet, qui s’est fait connaître sur la guerre des prix, a expliqué qu’il pourrait bien faire passer son abonnement tout-compris (internet-téléphone-tv) de 30 à 35 euros par mois… Le co fondateur Xavier niel a clairement montré du doigt les coupables de cet état de fait : l’ufc/que choisir « qui, au travers d’un travail délibéré, cherche à faire monter les prix de ce marché… » et les pouvoirs

publics qui cumulent sans cesse les taxes sur les revenus des opérateurs. L’ufc dénonce en effet le non-respect de loi chatel par l’opérateur qui utilise un chemin détourné afin de facturer sa hotline à ses abonnés. ne serait-ce pas plutôt pour financer la nouvelle politique d’intervention de proximité par des techniciens proches de ses abonnés dans la journée ? dans ce cas, les abonnés ne seraient-ils pas prêts à payer pour ce confort à réelle valeur ajoutée ? n

Un plafond bloquant pour les factures d’Internet mobile

Les trop nombreuses mauvaises surprises, et factures délirantes, provoquées par l’internet mobile ont apparemment ému la commission européenne. cette dernière a émis une directive obligeant depuis le 1er mars 2010 les opérateurs de téléphonie mobile à plafonner les factures mobiles dans le cadre du roaming, c’est-à-dire dans le cadre de la surfacturation d’un abonné par un opérateur mobile étranger.

un peu brutale, la mesure prévoit de couper l’accès internet mobile aux utilisateurs qui dépasseraient le seuil, après avertissement (à 80 % du maximum). Le plafond par défaut sera fixé à 50 euros.

certes, la mesure semble radicale. toutefois, de nombreux abonnés européens avaient porté plainte après avoir reçu des factures de plusieurs dizaines de milliers d’euros, malgré des « forfaits illimités ».

de même, le volume de données échangées est lui plafonné à 1 euro le mégaoctet. ces mesures restent dans la logique de ce qui existe pour la téléphonie vocale et les sms dans l’espace européen.

apparemment ces tarifs devraient encore être revus à la baisse. on souhaiterait que des accords au-delà de l’europe permettent d’utiliser plus franchement la téléphonie mobile lors de déplacements ou de vacances. encore que… pour les vacances… n

Page 27: Comment réussir avec ITIL ?

CONFÉRENCE “BUS INESS INTELL IGENCE”

L’informatique décisionnelle dans un contexte de reprise et d’incertitude

mercredi 2 juin 2010 (9h-15h), à Paris

INSCRIVEZ-VOUS GRATUITEMENT

>> SUR LE SITE : http://www.idc.fr/bi10

code invitation « ITX »

>> OU CONTACTEZ EDITH TRICHEUX

tel. : 01.56.26.26.91 [email protected]

Au programme :

▪ Vision IDC : évolution des besoins et des usages, enjeux et perspectives des solutions d’informatique décisionnelle 2010 -2013, en France et en Europe.

▪ La BI accessible : 2009-2010, une période charnière entre maturité et démocratisation

▪ L’analyse prédictive, pour une meilleure anticipation dans le monde de l’après crise

▪ Rationalisation des systèmes d’information décisionnels : jusqu’où dans les entreprises ?

▪ Exploiter plus efficacement l’information d’entreprise pour dégager le potentiel d’intelligence des données

▪ Les prochaines étapes ? Quelle BI à l’horizon 2013 ? BI et web 2.0, BI et mobilité, BI et temps réel, BI et SBA

▪ Avec le grand témoignage de Eric HOBEIN, Business Intelligence Manager chez EUROPAGES

Conférence organisée par

Cabinet leader de conseil et d’études, dans les technologies de l’information

CFF11S_AV1_ITexpert_A4.indd 1 24/03/2010 12:09:25

Page 28: Comment réussir avec ITIL ?

28 IT-expert n°84 - mars/avril 2010

10 années ! C’est ce qu’il aura fallu pour faire entrer dans le vocabulaire commun de l’informatique l’acronyme ALM

pour Application Lifecycle Management, ou gestion du cycle de vie des applications. Les années 1999 et 2000 ayant

consommé une bonne partie des ressources et moyens informatiques pour pallier les éventuels « bugs de l’an 2000 »,

c’est à partir de 2000/2001 que le monde du développement logiciel a pris en compte de nombreux chantiers sensés

innover ou améliorer les techniques de développement traditionnelles. Et ce, à une échelle industrielle.

ALM et agilité au cœur des processus métiers

Page 29: Comment réussir avec ITIL ?

Quoi de neuf Docteur ?

29IT-expert n°84 - mars/avril 2010

Stratégies métier et IT : de l’importance d’être différent

L’un des premiers objectifs de la stratégie métier de l’entreprise vise à créer puis valoriser un avantage compétitif sur le marché : l’entreprise cherche à être différente. d’autre part, toutes les stratégies métiers embarquent virtuellement une composante it qui s’appuie généralement sur des applications et développements spécifiques. on comprend donc aisément que disposer d’une informatique supportant les visées stratégiques s’avère primordial pour toute entreprise désirant innover. elle cherche alors à se doter d’une informatique stratégique, à même de comprendre les enjeux métiers, mais aussi capable d’anticiper les tendances à venir du marché.

IT stratégique et avantage compétitif

La fenêtre de différenciation durant laquelle l’entreprise dispose d’un avantage compétitif est courte et très en amont du cycle de vie de ses produits ou services. d’où la nécessité de disposer d’une informatique stratégique, à même d’accompagner et même d’anticiper les innovations que va proposer l’entreprise. développer rapidement et efficacement des logiciels ou services répondants à ces besoins et s’assurer qu’ils seront aisément gérables et modifiables, voilà les principaux challenges du développement des applications. toujours cette même quête de l’agilité…

De la stratégie métier à l’ALM

La stratégie métier impose d’être différent de ses concurrents. cela se traduit par des investissements it stratégiques, et souvent par des développements spécifiques. et c’est précisément ici que l’aLm entre en jeu. disposer d’une vraie filière aLm est essentiel pour créer de la valeur stratégique.

Les différentes plateformes applicatives du marché et leurs offres respectives en outils de développement s’étoffent désormais de concepts ou principes assez clairement définis, visant à couvrir des thèmes tels que : productivité, qualité, collaboration, intégration, coûts, flexibilité… cette liste non exhaustive prouve combien la notion d’aLm se positionne à un niveau élevé dans les fondamentaux de l’entreprise, et combien la frontière dépasse largement les seuls critères de développement des applications. tout projet informatique (ou autre) nait d’une idée… sensée répondre à un besoin. Le cycle de vie des applications couvre toute la période durant laquelle une entreprise ou organisation

2000-2010 : vers l’ALM collaboratif

Le monde informatique vit donc depuis à un rythme soutenu, ponctué d’avancées technologiques, aussi bien du côté infrastructures que du côté solutions de développement : 2002 marque la percée des méthodologies de développement, 2004 impose les principes de gouvernance du s.i. en 2005, les principes de l’aLm sont plus largement acceptés par le marché. À la fin de cette même année, un changement durable s’installe dans les entreprises : le métier s’approprie l’it, propulsant sur le devant de la scène des métiers moins connus jusqu’alors tels que celui d’architecte. même si les avancées technologiques continuent (la virtualisation par exemple), le point le plus marquant des années 2008 et 2009 aura été le grand changement de l’it, sa modification en profondeur pour se mettre enfin au service des métiers de l’entreprise.

2010 marque l’entrée de l’it dans une phase collaborative, dans des entreprises maitrisant de mieux en mieux leurs processus métiers et pour lesquelles les logiciels pilotent de plus en plus le « business ». pressions métiers et pressions technologiques : le système d’information est mis à rude épreuve et impose donc à l’industrie du développement logiciel de constantes mutations et améliorations.

Collaboration métier & IT : l’ALM au cœur des processus

L’aLm est-il pour autant un processus métier fondamental de l’entreprise ? quelles connexions existe-t-il entre aLm et stratégie métier ?

Page 30: Comment réussir avec ITIL ?

30 IT-expert n°84 - mars/avril 2010

engage des moyens et des ressources, que ces moyens soient financiers ou humains, de cette idée de départ jusqu’à la fin de vie de l’application associée.

Les 3 piliers de l’ALM

on distingue trois grands piliers dans l’aLm:• la«Gouvernance » qui couvre l’ensemble de la période ;• le«SDLC ou software Development LifeCycle » (cycle de vie

du développement de logiciel), qui commence en général un peu après la période précédente, et se répète au cours du temps, lors des mises à jour (nouvelle version, correctifs, etc.) ;

• etl’«exploitation », qui débute en général avant la fin du cycle sdLc, avec le déploiement, et qui couvre toute la période de vie de l’application dans le s.i.

La partie sdLc est la mieux identifiée à ce jour : elle regroupe toutes les phases qui ponctuent le développement du logiciel (gestion de projet, gestion des tests et plan de test, modélisation, gestion des exigences, intégration continue, etc.). son objectif consistant à optimiser le processus de bout en bout (on parle souvent d’industrialisation du développement). par ailleurs, l’évolution des outils de développement a aussi subi de profondes mutations. L’industrie est passée des compilateurs et éditeurs des années 70/80, aux ide (integrated development environment) des années 80/90, pour arriver aux plateformes de développement en équipes contemporaines.

en fait, l’aLm est elle-même un processus métier critique de l’entreprise, un de ceux qui supporte les nombreux autres processus métiers. toute organisation développant des logiciels devrait considérer l’aLm comme un processus métier aussi important que ses autres processus métiers critiques. en effet, être meilleur dans son processus de création logiciel procure forcément un avantage compétitif.

Le succès de vos projets de développement

La mise en place d’une démarche aLm au sein des équipes doit se faire de façon pragmatique et mesurée. pragmatique, car la démarche en elle-même implique trois composantes essentielles :1. L’humain (les équipes) sur lequel repose la gestion du projet

au quotidien, mais auquel il faut aussi poser des contraintes de productivité. Les objectifs à travers le pilotage et la transparence des projets, sont simples : favoriser l’excellence, responsabiliser, mesurer et améliorer la qualité.

2. Un ensemble de technologies, auxquelles on demandera d’être performantes, outillées, interopérables, sécurisées et administrables. L’objectif de qualité logicielle sera atteint en utilisant des outils productifs, très intégrés, mais aussi extensible et possédant une courbe d’apprentissage réduite.

3. Des processus, souvent assimilés aux méthodologies de développement, impliquant la mise en place de guides, de procédures de gestion des risques et des exigences. Les objectifs ici sont la mise en place d’un accompagnement méthodologique, personnalisable et non intrusif, et ce, dans un souci de collaboration.

ces trois composantes sont intimement liées et « condamnées » à vivre et à évoluer ensemble. rien ne sert de « faire de la méthode » pour la méthode si cette dernière n’est pas aisément acceptée par les équipes, et si elle n’est pas facilement « injectable » dans l’environnement de développement.

L’histoire des outils et environnements de développement est encore une fois riche d’enseignement sur l’évolution de ce triptyque « humains-technologies-méthodes ». elle se découpe en trois grandes étapes placées sous le signe de la convergence :

Page 31: Comment réussir avec ITIL ?

Quoi de neuf Docteur ?

31IT-expert n°84 - mars/avril 2010

1ère étape (années 90) : convergence des développeurs qui utilisent un éditeur de code source et un compilateur adapté à leur langage de développement. L’objectif consiste alors à briser les murs séparant les développeurs pour les embarquer tous sur un même pont. La convergence se fera à travers des outils tels que les référentiels de code source, les moteurs de builds ou les premiers outils de tests unitaires (des outils orientés « tâche » pour l’essentiel).

Années 90 : des outils orientés « tâche »

2ème étape (années 2000) : convergence des équipes projets, incluant toutes les personnes techniques travaillant sur un même projet (chef de projet, architectes, administrateur de bases de données, etc.). cette fois, l’objectif vise à réunir sur le pont l’ensemble de ces personnes en favorisant la transparence et la communication entre les membres de l’équipe. La convergence se fait à cette époque au travers d’ide ou environnement de développement intégré, regroupant tous les outils utiles aux profils techniques dans une même solution.

Années 2000 : l’essor des IDE

3ème étape (2010), que nous sommes en train de vivre et qui illustre bien les principes fondamentaux de l’aLm : l’ensemble des équipes impliquées dans un projet embarque sur un même pont, les équipes techniques, mais aussi métiers. qualité et agilité sont au cœur des processus de développement, la convergence s’effectuant via des environnements de développement collaboratifs (sorte de HuB) associés à des serveurs de développements.

2010 : l’ALM collaboratif

ces serveurs permettent à chacun des acteurs du projet de se connecter avec leurs outils familiers. en retour, ils permettent de centraliser et consolider tous les éléments et évènements qui rythment la vie du projet. alors, il devient plus simple et rapide d’utiliser ces données pour piloter les projets en temps réel, tout en analysant et en anticipant grâce aux indicateurs clés d’avancement.

L’agilité au cœur des projets

un des points clés de l’agilité réside dans l’idée d’amélioration continue, qui s’applique à tout type de projet, et à toute démarche itérative. dans le processus agile, généralement découpé en étape de courte durée, la première action à entreprendre à la fin d’un cycle (que l’on appelle « sprint ») consiste à dresser un état sur le déroulement du sprint qui vient de se terminer et d’analyser simplement et rapidement l’ensemble, afin d’améliorer le fonctionnement de l’équipe, des outils et de l’organisation pour la prochaine étape.

L’agilité a pour vocation l’amélioration continue et l’efficacité, en passant par de petites étapes successives, de façon pragmatique et adaptée aux équipes et ressources en place. ce dernier point est très important : il ne sert à rien de chercher à atteindre un niveau d’agilité sur une grille de mesure quelconque, ou par rapport à un niveau de maturité global. en revanche, il est pertinent, une fois identifiée votre situation vis-à-vis de l’agilité, de déterminer quels leviers activer, et quelles solutions mettre en place pour progresser et -in fine- franchir une étape. si cela se traduit par une progression sur un niveau de maturité, tant mieux, mais là n’est pas l’essentiel.

Page 32: Comment réussir avec ITIL ?

32 IT-expert n°84 - mars/avril 2010

L’agilité incarne en fait une nouvelle approche du développement, basée sur un modèle itératif, en constante évolution, mais aussi sur une approche empirique au niveau processus, communication et documentation. ce qui est bien éloigné de l’approche classique, inspirée par les processus industriels en cascade, avec des exigences figées dès le début du projet, avec une planification inscrite dans le marbre et des étapes prédéfinies… pour, au final, ne pas être suivie ni respectée…

À l’opposé, les équipes agiles font un peu de tout, tout le temps, évitant ainsi « l’effet tunnel » :

cette approche permet de découvrir le ou les résultats du projet de façon permanente, et elle autorise donc une très grande souplesse en termes de réaction et de correction. La mise en place d’un processus de livraisons itératives (en lieu et place des livraisons incrémentales) permet de réagir de façon plus souple, d’anticiper les modifications à apporter, sans pour autant tout remettre en cause.

Décider le plus tard possible

Les méthodes agiles bousculent de nombreuses pratiques établies : • Figerlesbonnespratiquesestdangereux:mieuxvautadapter

ces pratiques en fonction des objectifs de la prochaine itération, de la composition de l’équipe, des contraintes de l’environnement.

• Définiretmettreenplaceunprocessusprévisibleetplanifié:tentant, mais au final risqué. il est préférable de se concentrer sur les tâches à réaliser. on évite ainsi la perte de vue globale.

La solution : mettre en place une équipe autoorganisée, qui définit elle-même ses pratiques pour chaque itération. Les critères de succès s’en trouvent radicalement modifiés. en effet, les changements, inévitables dans la vie d’un projet, doivent être considérés comme naturels. Les équipes de petite taille n’ont pas de leader et surtout pas de relation hiérarchique affichée : on cherchera à désigner des « facilitateurs » ou « supporteurs » plutôt que des experts ou des autorités.

attention toutefois à ne pas confondre agilité et « bazar organisé » ! cette simplicité apparente, cette absence de hiérarchie stricte, impose une rigueur quotidienne de tous les acteurs. de même, la documentation et la gestion des exigences doivent être extrêmement bien définies et suivies.

La démarche, souple, n’en reste pas moins rigoureuse. il existe sur le marché de nombreuses offres disponibles, à l’exemple de visual studio 2010 et team foundation server de microsoft, ainsi que des compétences rompues à ce type de mise en œuvre chez de nombreux partenaires. n

François Merand platform & aLm advisor division plateforme et ecosystème

Page 33: Comment réussir avec ITIL ?

“L’ ENTREPR ISE COLLABORAT IVE”

Web 2.0 et outils collaboratifs : quels bénéfices pour vos salariés et vos clients ?

IDC, filiale française du leader mondial des études dans le domaine des nouvelles technologies de l’information et des communications vous invite

mardi 18 mai 2010 (9h-15h30), à Paris, à la conférence

Pour découvrir les mutations en cours, en comprendre les enjeux, usages et opportunités,

INSCRIVEZ-VOUS GRATUITEMENT

>> SUR LE SITE : http://www.idc.fr/entreprise20

code invitation « ITX »

>> OU CONTACTEZ EDITH TRICHEUX

tel. : 01.56.26.26.91 [email protected]

Conférence organisée par

Au programme :

▪ Vision IDC : état de l’art du marché, enjeux et perspectives 2013 des solutions de communication et de collaboration

▪ Les réseaux sociaux d’entreprise : place à l’intelligence et la créativité collective▪ L’entreprise 2.0 et ses clients :

- De nouveaux véhicules de communication et de commerce se développent. Comment accompagner ce développement et en tirer parti ?

▪ Les apports technologiques pour soutenir l’essor de l’entreprise 2.0 : - Le Cloud Computing pour optimiser la communication et la collaboration au sein des équipes et à

l’extérieur- Quelles solutions de gestion des contenus web 2.0 ?

▪ Discours de clôture : les nouveaux et futurs usages de l’Internet en entreprise. Rupture Internet et monde virtuelSerge SOUDOPLATOFF, fondateur et président d’Almatropie, association vouée à la promotion des usages d’Internet

▪ De nombreux retours d’expérience en matière d’usage du web 2.0 : RATP, Suez environnement-Lyonnaise des Eaux, l’APEC, 2xmoinscher

CFF10S_AV1_ITexpert_A4.indd 1 10/03/2010 16:48:25

Page 34: Comment réussir avec ITIL ?

34 IT-expert n°84 - mars/avril 2010

Anatomie de trois ESB Open SourceJBoss ESB, serviceMix et OpenESB

Historiquement, les outils d’intégrations (EAI) ont été les premiers

permettant de créer un « bus » d’entreprise, ou – du moins – de créer

un passage obligé d’interconnexion entre différents systèmes.

Page 35: Comment réussir avec ITIL ?

Comment ça marche ?

35IT-expert n°84 - mars/avril 2010

Se libérer des chaînes du tout propriétaire

Les avantages de cette architecture sont assez évidents : découplage des applications entre elles, création de formats pivots dans l’entreprise… en outre, changer une application impacte uniquement la modification des connecteurs eai.

Intégration d’un EAI

une question se pose alors : quelles sont les principales différences entre les esB (enterprise service Bus) et les eai ? • LesEAIonteninterneuneapprochequiobligelepassageparunpointcentralisé.L’intégrationpoint

à point se retrouve entièrement dans l’eai lui-même. au contraire, les esB ont une architecture dite distribuée : le bus est implémenté dans différents systèmes et sur différentes machines.

• LesEAIn’utilisentpasoupeudestandardsouverts.ChaqueEAIfaituneimplémentationpropriétairede la gestion des messages. ce qui limite les possibilités d’évolutions et pénalise la flexibilité dans des systèmes hétérogènes. au contraire, les esB sont conçus à partir de standards tels que la gestion des messages en java (Jms), XmL, Jca (architecture de composant standard J2ee), etc.

cette approche de standards ouverts (open-standard) est une réponse de l’industrie du logiciel à une double contrainte : • celledesclientsn’appréciantpaslasensationd’enfermementdansunesolutionpropriétaire,etqui

refusait de l’adopter.• celledumondedulogiciellibrequiapousséverscetyped’approchepourdesraisonsphilosophiques,

liées à au choix des standards ouverts favorisant l’interopérabilité.

L’open source fait jaillir l’ESB

pour permettre d’optimiser et de mettre en commun les meilleures pratiques (design pattern), des initiatives ont été prises autour de modèles : les eip ou enterprise integation pattern (1). Le projet apache camel est l’un des premiers projets open source à avoir intégré des composants standards (2).en réaction à l’évolution du marché et à l’émergence d’offres basées sur des solutions open source, tous les acteurs historiques de l’intégration disposent désormais de leurs offres « esB ».

L’étude de trois solutions open source destinées aux entreprises (avec des offres de service et de support) permet de comprendre les fonctions-clés d’un esB. cet article va donc détailler : • lasolutionOpenESB(JCAPS6)deSun/Oracle,• lasolutionServiceMix(FuseESB)deProgressSoftware,• lasolutionJBossESBdeJBoss/Redhat.

Application A

Application B

Application C

Application DApplication E

Application A

Application B

EAI :Processus

métier

Application C

Application DApplication E

1) http://www.eaipatterns.com 2) http://camel.apache.org/

Page 36: Comment réussir avec ITIL ?

36 IT-expert n°84 - mars/avril 2010

Au cœur d’un ESB

Découplage des applications

Les applications du système d’informations ne doivent pas avoir connaissance les unes des autres. de ce fait, lorsqu’une application appelle un service métier du type « passer une commande », cela passe par l’esB qui dirige l’appel vers la bonne application.

Conversion de protocole

toutes les applications ne disposent pas d’une technologie qui leur permet aisément d’utiliser tous les types de protocole de communication. par ailleurs, le programmeur peut souhaiter utiliser le service métier tel qu’il existe. Justement, l’esB fournit une liste riche en protocoles supportés : webservice, ftp, fichier, soap, Jms, edi, HL7, edifact, swift, etc.

Transformation du message

Entreprise Service Bus

Registry(LDAP)Base

de données

CRM

Comptabilité

ApplicationHot-line Fichier

configurationXML

Entreprise Service Bus

Application LegacyApplication

Adapteurjms

Adepteurfichier

Entreprise Service Bus

ApplicationLegacy

Application

Transformation Message

Page 37: Comment réussir avec ITIL ?

Comment ça marche ?

37IT-expert n°84 - mars/avril 2010

chaque application possède son format de données. pour interconnecter plusieurs applications, l’esB effectue des transformations de format de message. L’une des bonnes pratiques consiste à développer un format pivot à travers toute l’entreprise et à créer des transformations pour chaque application vers et depuis ce format pivot. ceci évite de transporter un format propriétaire à travers tout le système d’information.

Routage des messages

suivant le contenu d’un message, le système destinataire peut changer. c’est pourquoi l’esB propose des composants de routage basé uniquement sur le contenu du message ou suite à l’appel d’une application tierce pour identifier le destinataire. ceci permet de faire évoluer le système d’information (suivant le rythme des fusions/acquisitions des entreprises, par exemple) sans impacter toutes les interfaces des différentes applications.

Enrichissement des messages

dans de nombreux si, l’information autour d’une même donnée est souvent présente dans plusieurs applications. sur un appel de service, l’esB peut puiser des informations dans divers systèmes afin d’enrichir la donnée dont l’application cible à besoin.

ainsi (voir plus loin), dans openesB, associer un mdm (master data management) permet de faciliter le rapprochement des données en provenance de plusieurs systèmes.

Entreprise Service Bus

ApplicationInternet

ComptabilitéGrand Compte

ComptabilitéStandard

Routage basésur du contenu

Entreprise Service Bus

CRM

Lecture d’information sur le client

Marketing directApplicationCommande

Commande client Commande clientAvec le détailsur le client

Enrichissement Message

Page 38: Comment réussir avec ITIL ?

38 IT-expert n°84 - mars/avril 2010

Ouverture en toute sécurité

Lorsque le système d’information est connecté à des systèmes externes, des authentifications/cryptages de données sont nécessaires ainsi que de la transmission d’identification (type sso). Les esB permettent nativement d’intégrer tous ces mécanismes dans toutes les étapes d’un flux.

Surveillance et supervision

pour combler cette fonctionnalité, qui incarne une de leurs faiblesses, les esB open source offrent tous les outils nécessaires pour se connecter à des solutions externes.

Sun éclaire le chemin avec OpenESB

version open source de l’esB de sun, openesB 2.2 utilise un serveur glassfish 2.2 et la technologie netbeans 6.7.1.il succède au produit ican 5, acquis par sun lors du rachat de la société seeBeyond. du fait du rachat de sun par oracle, openesB se trouve de facto concurrencé par l’offre soa-esB de ce dernier. par ailleurs, oracle travaille également à la convergence de ses outils internes et de ceux de la suite soa de Bea, après son rachat.

openesB est composé de plusieurs briques: • unESBtelquenousl’avonsdécritprécédemment,• unoutild’orchestrationdeservice(BPEL),• unoutild’IEP(IntelligentEventProcessing),quipermetd’agréger,d’ordonnancer…desmessages

dans le temps,• unoutildeMDM,quiestunoutilcourammentutilisédanslessuiteslogiciellesdécisionnelles.Ilest

ici utilisé pour gérer des données de référence autour de l’interconnexion de briques du système d’information,

• unoutild’administration(ditconsoleESB)quin’estprésentquesiOpenESBestdéployésurleserveur d’application Glassfish (car il est un composant d’extension de la console d’administration Glassfish).

Portail

MDM

Business Process ManagementOrchestration BPEL

Entreprise Service busMediation - Adapters - Routing - Transformation

Administration

Console ESB

Open ESB

Message Server - Application ServerDirectory Server - SSO

IEPComplex Event Processing

BAMBusiness Dashboards

Page 39: Comment réussir avec ITIL ?

Comment ça marche ?

39IT-expert n°84 - mars/avril 2010

Un IDE central pour déployer simplement

au cœur de la solution : le nmr (normalized message router), bénéficie de l’approche JBi (Java Business integration) avec sa notion de composant pour les outils d’intégration. La spécification standardisée JBi est implémentée par plusieurs esB dont servicemix et openesB.

comme l’indique le schéma, ce bus permet d’interconnecter tous les composants JBi, qu’ils soient fournisseurs ou consommateurs de messages. une description type WsdL (Web service description Language) est utilisée pour décrire l’interface du composant JBi.

une des particularités de l’offre autour d’openesB tient dans la richesse des outils de développement et de supervision.

côté développement, les principaux composants graphiques n’ont rien à envier aux outils propriétaires. de plus, tout se déploie depuis l’ide vers un serveur d’application J2ee : local pour tous les serveurs, et sur un serveur à distance s’il s’agit de Glassfish esB (qui est un serveur Glassfish standard contenant tous les composants d’exécution esB).• l’éditeurBPELtrèsrichepermetdedéfinirgraphiquementlesétapesainsiquelesmappings

d’affectation simple • unéditeurdetransformationXSLT(nongraphique).• unéditeurIEP(graphique)• unéditeurd’applicationcompositeCASA

Un ESB très abouti…

La solution GlassfishesB (openesB déployé sur un serveur d’application Glassfish) est la plus aboutie dans le monde open-source, autant pour sa robustesse et sa fiabilité que pour ses fonctions d’administration.openesB profite de toutes les fonctionnalités d’entreprise de glassfish : • performance:nserveurJ2EEtrèsperformantetpeugourmandenmémoire;• fiabilitéetrobustesse:enmodehaute-disponibilité(HA),Glassfishgèrelui-mêmelesréplications

de sessions et parmi celles-ci, il gère nativement la reprise sur incident (sur un cluster) ;• enadministration,laconsoledite«gwt-console»estétenduepardescomposantsdel’ESBpour

ajouter des capacités d’administration et de supervision spécifiques aux composants déployés. par exemple, en mode console, le BpeL a le même mode de visualisation que sous netbeans. il permet ainsi facilement de faire communiquer les équipes de production avec les équipes de développement sur les mêmes visuels.

Orchestration(BPEL)WSDL

WSDL

WS-I BasicSOAP

AS2

JBICore

Services

J2EE Platform

Normalized Message Router

Syst

em M

anag

emen

t

JMS

WSDL WSDL

WSDL WSDL

Transformation(XSLT)

J2EE Platform

Protocole Bindings

Service EngineComponents register

the service they provide

Page 40: Comment réussir avec ITIL ?

40 IT-expert n°84 - mars/avril 2010

… plutôt pour les projets complexes

openesB met en avant une approche à base de service d’orchestration BpeL. tous les exemples sont basés dessus et la communication faite par sun/oracle porte principalement sur cette approche. certes, cette approche se justifie pour des processus d’orchestration complexes qui peuvent éventuellement déboucher sur des interactions humaines. toutefois, pour des flux plus simples avec des patterns standards, il n’existe pas dans l’offre de solution concurrente à apache camel. on trouve bien un composant JBi camel avec son éditeur sous netbeans, mais il n’est pas graphique et il faut coder en fichier XmL les flux réalisés avec apache camel.

Le futur d’openesB s’appelle fuji. celui-ci reposera sur des composants osGi - open services Gateway initiatives (comme la version 3 de Glassfish) et sur maven pour la partie développement. il sera possible de créer et de déployer des composants fuji à partir de commandes maven. cela permettra d’utiliser d’autres outils de développement que netbeans.

De nombreux composants de qualité inégale

openesB est un bon esB, basé sur une architecture solide (JBi-nmr, Glassfish, gwt-console) et sur un environnement de développement convivial (netbeans) pour quelques composants standards (BpeL, iep). malheureusement, les nombreux composants n’affichent pas tous le même niveau de qualité et de fonctionnalité. Les deux principaux qui distinguent cette solution sont le composant de transformation XsLt et le composant apache camel.

malheureusement, sun n’a jamais été très à l’aise avec les communautés open-source et peu apte à réellement les animer. de nombreux composants existent, mais la communauté n’est pas très active en dehors des salariés de sun.

ServiceMix : l’ESB qui fuse avec Progress

projet open source de la fondation apache, servicemix bénéficie de plusieurs sponsors dont l’un des principaux est la société progress software. cette société propose un packaging (support) autour des projets esB de la fondation apache : • FuseESBpourserviceMix;• FuseMessageBrokerpourActiveMQ,leserveurJMS;• FuseSevicesFrameworkpourApacheCXF(webserviceetSOAP);• FuseMediationRouterpourApacheCamel.

Un complément Progress appréciable

Les principaux contributeurs (développeurs) de ces projets open source sont salariés de progress software. dans la version supportée, progress software a ajouté deux autres produits : • leplug-inEclipseFuseIntegrationDesignerpourdéfinirgraphiquementdéfinirdesfluxpourApache

camel • etFuseHQquipermetd’ajouterdesfonctionsdesupervisionetd’administrationauserveurHyperic

Hq enterprise.

Page 41: Comment réussir avec ITIL ?

Comment ça marche ?

41IT-expert n°84 - mars/avril 2010

Encore plus loin vers les standards

une démarche a été initiée afin d’étendre les normes osGi (open services Gateway initiatives), qui viennent de l’industrie, au monde des serveurs J2ee. L’implémentation de référence de ces normes est le serveur dmserver édité par la société springsource (il est à noter que cette dernière salarie également une grande partie des contributeurs au projet apache tomcat). dmserver vient d’être cédé à la fondation eclipse sous le nom « virgo ». Le projet apache Karaf est une autre implémentation de ces normes osGi pour J2ee.

dans sa version 4, servicemix repose sur l’approche composant osGi. il se déploie donc sur un serveur osGi type apache Karaf.

dans cette illustration, chaque élément de la configuration est un composant osGi et l’ordre d’empilement représente leur interdépendance.

ainsi, vous développez un flux basé :• surCameldansuneversiondonnée;• desinterfacesHTTPversdifférentesapplications(dansuneversiondonnéeàchaquefois);• desprotocoles(JBI)selonleurversion…

Simplifier le développement et les migrations

un des grands avantages de cette approche à base de composants osGi tient dans la capacité à déployer deux versions d’un même composant dans un même serveur. il n’est ainsi plus nécessaire de réaliser des migrations massives ou de lancer une instance de serveurs d’application pour chaque version de composants.

de plus, l’approche de fuse esB diffère radicalement de celle retenue pour openesB. en effet, les outils de développement sont basés sur apache camel, donc sur les patterns d’intégration d’entreprise. approche opportune puisque la plupart des flux d’intégration ne nécessitent pas de processus d’orchestration comme BpeL, moins performant, car ils mettent en œuvre des mécanismes techniques complexes comme la persistance. il est toujours possible d’intégrer un moteur d’exécution BpeL de la fondation apache comme apache ode.

L’outillage de développement est basé sur l’offre autour d’eclipse (pour la partie BpeL, Webservice, etc.) et sur l’offre fuse intégration designer. cette panoplie correspond bien à l’outillage de tout développeur java/J2ee.

Votrecomposant JBI

ServiceMixComponents

JBICompatibility layer

CXFNMR

CamelNMR

NMR

Apache Felix Karaf

web ActiveMQ

Page 42: Comment réussir avec ITIL ?

42 IT-expert n°84 - mars/avril 2010

Un succès d’estime, mais « peut mieux faire » !

L’offre autour des outils de la fondation apache est très active et est de plus en plus plébiscitée par les entreprises, autant pour sa pertinence technique et fonctionnelle que pour ses performances : • leschoixtechniquesautourdescomposantsOSGIetJBI;• leschoixd’outillagededéveloppementbasésuruneapprocheEIPetnontoutsurleBPEL;• performance:ProgressSoftwareaffichequelquesréférencestrèsimpressionnantesauprès

d’entreprises qui gèrent plus de 20 000 transactions métiers par seconde avec la suite fuse.

Le seul manque de cette offre est l’absence totale d’un moteur iep/cep. de son côté, la fondation eclipse développe un projet nommé swordfish (don de la société sopera) qui se base sur servicemix. ce projet vise à proposer améliorer et à simplifier les possibilités de déploiement, de supervision, etc. un projet malheureusement peu actif à ce jour…

JBoss ESB : encore du travail, mais…

pour se pencher sur l’offre JBoss autour de JBoss esB 4.7, il convient d’y ajouter JBoss JBpm 4 et JBoss soa (portefeuille JBoss/redhat).

Riche en événements…

JBoss esB permet de réaliser toutes les transformations décrites pour les deux précédents esB : transformation de protocole et de message, sécurité…

L’approche de JBoss esB est assez proche de celle d’apache camel. il s’agit d’une suite d’actions qui sont déclenchées suite à la réception d’un événement. La richesse des événements fournis en standard est satisfaisante, et il est très simple de l’étendre. de plus, avec JBoss JBpm, il est possible de déployer une l’orchestration de service ainsi que la gestion des corbeilles utilisateurs.

Page 43: Comment réussir avec ITIL ?

Comment ça marche ?

43IT-expert n°84 - mars/avril 2010

en couplant JBoss esB et JBoss JBpm, il est possible d’orchestrer des processus métiers complexes. JBoss JBpm gère la logique métier tandis que JBoss esB fournit toute la pile technique pour se connecter facilement en entrée ou en sortie aux applications externes.

Hormis l’éditeur JBpm très pratique, le développement s’effectue via fichier de paramétrage, et il n’existe pas de designer graphique. ce qui ne favorise pas la prise en main.

… mais pauvre en interface

une des lacunes importantes JBoss esB est son manque d’intégration avec JBoss rules. actuellement, l’intégration se fait uniquement sur l’appel du moteur de règles pour réaliser des choix. or, JBoss rules dispose de trois autres composantes qui pourraient être exploitées : • LemoteurfullBPMN2avecsondesignergraphiquesousEclipse.Etil

s’agit de la seule offre open source (ou presque) sur ce sujet. ceci permet d’avoir des processus métiers très complexes avec des interactions nombreuses, et dans un langage de description métier (Bpmn2 fait partie de la normalisation de l’omG qui normalise également umL). de plus, exécuté dans le moteur de règles, un processus peut-être interrompu à tout moment. cela permet une gestion élégante des exceptions métiers.

• UnmoteurIEP/CEPquipermetdemélangerdesrèglesmétiersd’unemanière temporelle. cette fonctionnalité iep/cep est aussi présente dans openesB. L’utilisation de JBoss rules permet d’obtenir les mêmes fonctionnalités, mais plus évoluées, car elles bénéficient de la richesse d’un moteur de règles.

• Unoutildegouvernanceetderéférentieldesrègles:Guvnor.Ilpermetdestocker l’ensemble des artefacts (règles, iep/cep et processus Bpmn2) et ceci d’une manière versionnée. il serait alors également possible de stocker les autres artefacts de JBoss esB et JBoss JBpm pour disposer d’un réel référentiel d’entreprise.

dans l’état actuel, JBoss esB est une offre classique qui ne se distingue pas. une bonne solution dont l’approche trop classique ne favorise pas l’adoption. en revanche, l’ajout à cette offre de JBoss rules permet de concevoir une offre unique sur le marché.

Page 44: Comment réussir avec ITIL ?

44 IT-expert n°84 - mars/avril 2010

Autant de projets, autant d’aventures

dans le monde du logiciel libre d’entreprise, il existe deux grands types de projets : • Ceuxentièrementpilotésparlaoulessociétésàl’origineduprojet,commeOpenESB,leframework

spring, maven, etc.• Ceuxpilotésparlacommunautéetdontlaoulessociétésproposentdesoffresdesupportàdisposition

quelques « core » développeurs et d’un « project leader ». ceux qui payent le support sont traités en priorité, et le reste doit être développé par des personnes externes, soit comme contributeur (avec des droits d’écritures sur le code source) soit sous la forme de patch (modification) qu’un contributeur doit appliquer au code source. même si l’impulsion reste du domaine des « project leader », la vitesse d’implémentation dépend alors en grande partie de la communauté. or, les ressources des entreprises ne suffisent généralement pas.

openesB fait partie de la première catégorie et servicemix/JBoss esB de la seconde. c’est pourquoi openesB bénéficie d’une belle plate-forme qui se rapproche d’une offre commerciale classique avec la maturité attendue d’un tel outil. Les deux autres sont à l’image de leurs communautés et de leur niveau de maturité sur le sujet de l’esB. servicemix comme JBoss esB sont très utilisés dans leurs versions communautaires, mais beaucoup moins dans leurs versions supportées, en france. ces projets attendent des contributions pour grandir.

Une variété de choix selon ses attentes

il convient de choisir l’outil le plus adapté à son approche du si, à sa démarche et aux outils attendus : • Lesoutilsrestentdesoutils.Lesfonctionnalitéssontplusimportantes.Ilimportedeprivilégierune

solution qui saura évoluer dans le temps. openesB se trouve dans cette catégorie : bons choix technologiques, et fonctionnalités très correctes.

• Lesoutilsdoiventrépondreauxbesoinssurdessujetsextrêmescommelavolumétrie,l’évolutionpermanente des flux (ce qui va imposer de déployer plusieurs versions d’un même flux), etc. en un mot, l’approche par composant comme osGi est la solution à la modularité nécessaire. servicemix avec tous les autres composants de la fondation apache correspond alors parfaitement. Bien que plus complexe à mettre en œuvre, la solution apporte la flexibilité indispensable.

• Pourunegrandemodularitédanslesfluxsansnécessitédel’approcheparcomposantetpeud’intérêt pour les standards, JBoss esB incarne une bonne solution.

Quel avenir pour ces 3 solutions ?

• L’ESBdelafondationApacheaunavenirclairementtracéversdespratiquesfidèlesàl’avenirdel’informatique.

• OpenESBsuitlespasdeServiceMix.D’ailleurs,lesmêmeschoixdespécificationsontétéeffectuéslesdeux outils : JBi, osGi et nmr ne sont que quelques exemples. openesB va rencontrer le problème de stratégie qu’oracle voudra adopter sur cet esB. il est probable qu’oracle maintiendra une équipe « core » developpeur. une communauté sera à créer pour permettre à cet outil d’évoluer.

• L’ESBdeJBoss/Redhataccusecertainementleplusderetardsurl’implémentationdecesspécifications. cela va même plus loin, car JBoss ne souhaite pas passer par les standards JBi et nmr (osGi sera implémenté dans la version 6 du serveur d’application JBoss). en revanche, JBoss profite de la forte culture de ses communautés et possède quelques outils autour de son esB qui peuvent lui permettre d’innover vers des fonctions dont les autres solutions open source ne disposent pas, comme le référentiel d’entreprise (avec Guvnor de JBoss rules). cela passera tout de même par le respect de standard d’implémentation comme JBi et nmr pour faciliter l’écriture de composant portable d’un esB à l’autre. n

Nicolas Héron architecte J2ee, soa et moteur de règle au sein du groupe adéo, contributeur au projet drools

Page 45: Comment réussir avec ITIL ?

Livres

45IT-expert n°84 - mars/avril 2010

Conduite de projets informatiques Développement, analyse et pilotage

Un livre de plus sur la conduite de projet ? Oui et non ! En effet, très pratique, cet ouvrage se veut plutôt

un manuel d’accompagnement complet et opérationnel. Les auteurs restent précis et concrets et nous

épargnent leurs opinions et réflexions, trop souvent exposées sans aucun intérêt pour le lecteur dans

ce type de manuel.

Destiné aux informaticiens et chefs de projets, le livre présente de façon utile toutes les étapes d’un

projet en laissant chacun effectuer ses choix en connaissance de cause. Le lecteur appréciera l’approche

pragmatique et la description des outils conçus pour la conduite des projets. Assez logique lorsque l’on

sait que Brice-Arnaud Guérin est responsable des développements logiciels chez LexisNexis.

Schémas, tableaux détaillés, cas expliqué… le ton didactique est renforcé par la présentation de méthodes

de chiffrage, de planification, de gestion des risques, d’organisation fonctionnelle, etc. Les multiples outils

proposés peuvent être enrichis par des exemples à télécharger sur le site de l’éditeur. D’ailleurs, l’ouvrage

est disponible au format électronique sur le site d’ENI.

Conduite de projets informatiquesBrice-arnaud GuérinÉditeur : eni collection datapro298 pages - environ 43 E ou 36 E en version numérique

Le management de la performance par les processus

En période de crise, réductions budgétaires et augmentation de la productivité ramènent la performance sur

le devant de la scène. Après l’avènement de l’ERP, des services Web et de l’approche SOA, la sensibilisation

autour de l’amélioration des processus devient une préoccupation majeure. Et justement, cet ouvrage

apporte sa pierre à l’édifice. Ce guide pratique du pilotage de processus s’adresse à tous les acteurs de

l’entreprise et de son environnement, autour de trois thèmes : le pilotage des processus, leur gouvernance

et la mise en place d’une démarche processus.

Le sous-titre donne le ton : « du BPM à la pratique du pilotage de processus ». S’appuyant sur des exemples

concrets, de nombreuses illustrations, des fiches pratiques et des recommandations de mise en œuvre, le

livre évite de tomber dans le piège de l’intellectualisation qui rend souvent le propos inintelligible et peu

opérationnel. L’auteur propose aussi des méthodes, des règles, des modèles et des supports pratiques

facilement réutilisables et adaptables.

Le management de la performance par les processus dominique thiaultÉditeur : Lavoisier298 pages - environ 59 E

Page 46: Comment réussir avec ITIL ?

46 IT-expert n°84 - mars/avril 2010

Les logiciels libres constituent un mouvement structurant de l’industrie informatique et, bien qu’étant

massivement utilisés, ils restent encore parfois mal connus, spécialement du point de vue juridique.

De plus, leur mode de production, qui mêle de manière composite des communautés bénévoles et des

entreprises, est parfois mal compris.

Le respect des licences libres : les juridictions veillent

Page 47: Comment réussir avec ITIL ?

Rubrique à brac

47IT-expert n°84 - mars/avril 2010

Distinguer commercial et propriétaire

parmi les exemples les plus célèbres, on cite souvent le navigateur web firefox de la fondation mozilla, la suite bureautique openoffice.org de l’entreprise commerciale sun (maintenant oracle), et bien sûr le système d’exploitation Gnu/Linux soutenu à la fois par une large communauté bénévole et par les plus grandes entreprises du monde informatique.

La particularité de tous ces logiciels est de préserver les libertés des utilisateurs. ces derniers bénéficient de quatre libertés fondamentales, formalisées par la free software foundation fondée en 1985 par richard stallman. ils doivent pouvoir exécuter, étudier, redistribuer et améliorer le programme sous licence libre. or, le seul moyen informatique de garantir ces libertés revient à assurer l’accès au code source du programme et pas seulement à son binaire, comme le font les éditeurs de logiciels propriétaires.

il est fondamental de comprendre que les logiciels libres s’opposent conceptuellement aux logiciels propriétaires, qui restreignent les libertés de l’utilisateur, et non pas aux logiciels commerciaux. d’ailleurs, de nombreux logiciels libres sont – de fait – des logiciels commerciaux.

L’open-source encadré par des licences

il existe deux catégories principales de licences libres ou open source. d’une part, les licences « permissives » telles que les licences Bsd ou X11 (aussi appelée mit) qui n’imposent pas ou peu d’obligations aux utilisateurs. Les logiciels qu’elles régissent peuvent notamment être incorporés dans des logiciels propriétaires. d’autre part, les licences fondées sur la notion de « copyleft » exigent que toute redistribution du logiciel concerné soit faite sous la même licence ou une licence compatible, à l’exclusion de toute licence propriétaire. La plus célèbre des licences libres est la licence Gnu/GpL de la free software foundation, qui régit par exemple le système Gnu/Linux.

cette notion de copyleft est centrale car c’est cette construction juridique qui permet de garantir la pérennité des quatre libertés précitées que l’auteur initial a souhaité accorder à l’ensemble des utilisateurs.

ainsi, un logiciel régi par une licence copyleft ne peut pas devenir propriétaire. il se crée alors un cercle vertueux de partage du code source informatique : si une personne profite du travail de tiers, la contrepartie est que son travail sera ensuite utilisable par tous.outre l’accès au code source et au maintien de ce dernier sous une licence libre, il faut, pour respecter pleinement les termes de la licence, fournir une copie du texte complet et respecter les notices de copyright des auteurs précédents. ces obligations s’appliquent immédiatement dès la distribution du logiciel, et envers tout tiers, quel que soit son statut juridique ou économique (entreprise, particulier, client payant, utilisateur à titre gratuit, etc.).

Les juridictions, gardiennes de ces libertés

dans un arrêt en date du 16 septembre 2009, la cour d’appel de paris a justement fait respecter ces exigences de la licence Gnu/GpL. ce litige opposait la société edu 4 à l’association nationale pour la formation professionnelle des adultes (afpa).

sans rentrer dans chaque détail de cette affaire, rappelons simplement que le 13 novembre 2000, la société edu 4 était déclarée attributaire du marché correspondant à l’appel d’offre de l’afpa portant sur le déploiement « d’espaces ouverts de formation » (eof) à travers la france, intégrant un matériel informatique multimédia, un réseau informatique associé, des logiciels de communication, de télétutorat et de pilotage ainsi que les ressources de produits pédagogiques. au cours de l’exécution de ce marché, diverses difficultés se sont révélées et l’afpa, qui s’estimait trompée, a sollicité la résolution du marché.

aucun accord amiable n’ayant pu être trouvé entre les parties, l’afpa a introduit une instance devant le tribunal de Grande instance de Bobigny afin de faire résilier le contrat aux torts de la société edu 4. Bien que le tribunal n’ait pas fait droit aux demandes de l’afpa et n’ait pas prononcé la résiliation du marché, il n’a pas accordé à la société edu 4 l’intégralité des dommages-intérêts sollicités et cette dernière a, en conséquence, interjeté appel du jugement.

contre toute attente, la cour d’appel de paris a infirmé le jugement dans son intégralité et prononcé la résolution du marché aux torts de la société edu 4.

L’afpa sollicitait la résolution du marché au motif que le produit livré par la société edu 4 ne faisait pas mention de la présence du logiciel libre vnc, publié sous licence Gnu/GpLv2, lequel avait été modifié, que les mentions relatives aux droits des auteurs de vnc avaient été supprimées pour être remplacées par celles d’edu 4, que le texte de la licence Gnu/GpLv2 avait également été supprimé, et que le mécanisme de protection de vnc avait été modifié en introduisant un mot de passe connu uniquement de edu 4 et non modifiable.

La société edu 4 contestait les allégations de l’afpa, notamment au motif que les corrections nécessaires devaient être réalisées dans la version définitive de la solution devant être livrée.

La cour a prononcé la résolution du marché au motif que la société edu 4 avait manqué à ses obligations contractuelles en livrant un produit « d’une part qui présentait pour les utilisateurs des EOF des risques d’atteinte à la vie privée, et d’autre part qui ne satisfaisait pas aux termes de la licence GNU GPL puisque la société EDU 4 avait fait disparaître les copyrights d’origine de VNC sur les propriétés de deux fichiers en les remplaçant par les siens et avait supprimé le texte de la licence. » La cour a également relevé que le code source n’était pas fourni, ce qui constitue une autre violation de la licence.

Page 48: Comment réussir avec ITIL ?

48 IT-expert n°84 - mars/avril 2010

Pas de vide juridique français sur les licences open source

d’une part, et contrairement à ce que l’on a pu lire sous la plume de certains juristes, les juridictions françaises peuvent et doivent faire sanctionner toute violation des licences libres dont elles sont saisies. d’ailleurs, à aucun moment la société edu 4 n’a contesté devoir respecter les termes de la licence Gnu/GpLv2.

d’autre part, il est clair à la lecture de l’arrêt que la cour d’appel a, à juste titre, appliqué les obligations de la licence Gnu/GpLv2 comme elle l’aurait fait avec n’importe quelle licence, que celle-ci soit « libre », « open source », ou « propriétaire ». ceci démontre, si nécessaire, que les licences libres s’intègrent parfaitement dans le droit positif français.

enfin, cet arrêt est encore plus original, car la violation de la licence Gnu/GpLv2 a été constatée par la cour d’appel à la demande de l’afpa, qui n’a jamais contribué à ce logiciel, aucun auteur du logiciel vnc ne s’étant constitué partie lors de l’instance. en d’autres termes, si les auteurs de logiciels libres peuvent exiger que toute personne respecte la licence sous laquelle ils ont publié leur logiciel, les utilisateurs de logiciels libres peuvent également exiger le respect de ces licences par ceux qui diffusent des logiciels libres. Les utilisateurs de logiciels libres constituent des « tiers bénéficiaires » qui doivent être informés de leur utilisation de logiciels libres et doivent pouvoir exercer les quatre libertés.

en effet, la cour d’appel relève comme violation de la licence Gnu/GpLv2 le remplacement des mentions de droits d’auteurs ainsi que la suppression du texte de la licence. en l’absence de ces informations, il est impossible (sauf avec une expertise technique) d’avoir conscience que l’on utilise des logiciels libres.

il est vrai que l’afpa était un client de développements infor-matiques de la société edu 4 et non un simple « utilisateur ». cependant, cette distinction n’est pas pertinente en l’espèce. d’une part, juridiquement, la licence ne distingue pas selon la qualité de l’utilisateur du logiciel, les obligations du distributeur s’appliquent en tout état de cause, et à l’extrême, même en l’absence totale d’utilisateurs. d’autre part, les licences libres garantissent que les libertés accordées par l’auteur originel du logiciel perdurent avec chaque redistribution, au bénéfice de l’ensemble de la communauté des utilisateurs. il est important de conserver à l’esprit que l’auteur d’un logiciel libre peut également devenir un membre de la communauté d’utilisateurs, et que toute violation d’une licence libre le préjudicie également pour cette raison.

il convient de rappeler que conformément à l’article 4 de la Gnu/GpLv2, toute distribution violant la licence entraînera automatiquement la résiliation de cette dernière. ainsi, toute personne ne respectant pas les obligations de la licence devra stopper immédiatement toute utilisation du logiciel concerné, mais les tiers utilisant ce logiciel conformément à sa licence pourront librement continuer de le faire. dans le cas contraire, elle pourra être sanctionnée judiciairement.

Quelques précautions à prendre pour les entreprises

toute entreprise est, ou sera à court terme, confrontée à des problématiques liées à l’utilisation de logiciels libres, tant ces derniers sont devenus inévitables dans le paysage informatique. c’est pourquoi une attention particulière doit être portée à une bonne compréhension des licences libres, qui bien que tout à fait accessibles, contiennent quelques particularités juridiques qu’il faut prendre le temps d’appréhender.

compte tenu de l’architecture actuelle des services informa-tiques, et notamment du recours massif à la sous-traitance, parfois sur plusieurs niveaux, il est nécessaire d’anticiper les problèmes éventuels en négociant des contrats adaptés. À titre d’exemple, il conviendra d’obtenir des garanties quant à la présence de logiciels libres dans la solution commandée et d’exiger du sous-traitant que lui-même respecte les obligations de ces licences, notamment en fournissant le code et la licence associée. en outre, il conviendra de comprendre comment les différentes briques logicielles utilisées interagissent entre elles et faire valider juridiquement leur compatibilité.

ces quelques précautions sont indispensables tant elles permettent au client de faire respecter ses propres droits garantis par les licences libres tout en lui donnant les moyens de ne pas, lui-même, un jour porter atteinte aux droits des auteurs. n

Olivier Hugot avocat

HUGOTAVOCATS est un cabinet d’affaires réactif dédié aux sociétés et aux personnes

des secteurs de la communication, des médias, de l’art et des nouvelles technologies.

Il conseille notamment des entreprises et des auteurs dans le cadre du respect

des licences libres. www.hugot.fr