SOA,l’état de l’art SOA - it-expertise.com · applications métier occasionne un risque de...

52
LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE n°67 Bimestriel - mai/juin 2007 - 16SOA : Architectures & outils PAGE 16 SOA, l’état de l’art PAGE 6 Qualité interne de ses logiciels : mythes et réalités PAGE 35 L’univers étrange des unités d’œuvre PAGE 46 Imprimez moins, maîtrisez vos coûts ! PAGE 29

Transcript of SOA,l’état de l’art SOA - it-expertise.com · applications métier occasionne un risque de...

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

n°67

Bim

estr

iel -

mai

/jui

n20

07 -

16€

SOA : Architectures& outilsPAGE 16

SOA, l’état de l’art PAGE 6

Qualité interne de ses logiciels : mythes et réalitésPAGE 35

L’univers étrangedes unités d’œuvrePAGE 46

Imprimez moins,maîtrisez vos coûts !PAGE 29

EN SAVOIR PLUS

Demandez le Livre Blanc rédigé par leGartner Group et CAST sur ce thème :« Information Series on ApplicationManagement » :www.castsoftware.com/outsourcing

Découvrez l’expérience de plusieurssociétés utilisatrices de solutionsd’Application Intelligence :www.castsoftware.com/customers

ZOOM OUTSOURCING

L’AVIS DES DIRECTIONS INFORMATIQUES

Ministère des FinancesDirection Générale des ImpôtsNadine ChauvièreSous-Directrice des SI de la DGI

« Les solutions d’Application IntelligenceCAST nous aident à obtenir une meilleure visi-bilité de notre parc applicatif au travers detableaux de bord composés d’indicateurstechniques objectifs afin de faciliter le dialogueavec les équipes et avec nos maîtrises d’ou-vrage. »

Groupe SFR CegetelEric EteveDirecteur InformatiqueCentre Ingénierie Mobilité

« La solution CAST de gestion de la sous-traitance est un élément clé dans le systèmede pilotage mis en place par SFR-Cegetelsur ses TMA. Nous avons constaté uneattention plus particulière apportée par lesSSII à la qualité des livrables et à la fiabilitédes chiffrages depuis qu’ils savent que nouspouvons facilement les auditer »

Framatome - Groupe AREVAMichel FondevioleDSI de Framatome-ANP

« CAST fournit des critères objectifs d’appré-ciation dans le dialogue parfois difficile avecle sous-traitant ainsi que des indicateursnécessaires au suivi de l’évolution des appli-cations et constitue au sein de Framatomeun outil de progrès partagé. »

Les entreprises, devenues plus mûres

vis-à-vis de l’outsourcing, sont désor-

mais capables d’opérer des externali-

sations plus stratégiques. On l’a récemment

observé dans l’automobile avec Renault ou dans

la grande distribution avec Carrefour.

Dans l’externalisation des applications métier,

c’est surtout la volonté d’accroître l’efficacité

opérationnelle de l’informatique qui est motrice :

pouvoir fournir plus rapidement un service à

valeur ajoutée aux utilisateurs et aux clients dans

un contexte en perpétuelle évolution.

Comme dans n’importe quelle opération d’out-

sourcing, le contrat liant le fournisseur est capi-

tal, en particulier les SLAs. Néanmoins, les

applications métier étant par nature soumises à

de fréquents changements en cours de contrat,

les seuls SLAs se révèlent vite insuffisants pour

garantir la qualité de service et éviter les dérives

de coûts.

C’est là que le bât blesse : l’externalisation des

applications métier occasionne un risque de

perte rapide de savoir-faire technologique et

par conséquent critique. Vigilance et suivi sont

de mise pour garder le contrôle de la qualité

de service et éviter les dépendances par nature

dangereuses.

L’externalisation réussie d’applications métier

est donc le fruit d’une vision anticipatrice parta-

gée avec le prestataire. Sont ainsi apparues

des solutions dites d’Application Intelligence,

basées sur une technologie avancée d’analyse

de code source.

En fournissant des indicateurs techniques aux

donneurs d’ordre, ces solutions permettent de

piloter un parc applicatif sous-traité en temps

réel, tant en terme de qualité, que de maintena-

bilité et de coût. Résultat : le donneur d’ordre

conserve la maîtrise intellectuelle de ses appli-

cations métier et le contrôle de la relation avec

son sous-traitant.

La valeur ajoutée de ce type de solutions d’Ap-

plication Intelligence est visible à chaque étape

d’une opération d’outsourcing, comme décrit

ci-après.

Audit de l’existant et préparation des appels

d’offres

• Déterminer les caractéristiques techniques

du portefeuille applicatif existant avant de le

sous-traiter

• Disposer d’informations de référence pour

évaluer les propositions des sous-traitants

• Obtenir une image à l’instant t des applica-

tions pour permettre un suivi dans le temps

Transfert vers le prestataire

• Réduire la phase d’acquisition de la

connaissance pour entreprendre plus vite

des tâches productives

• Diminuer le coût lié à la production d’une

documentation exploitable et maintenable

par le prestataire

Contrôle de la qualité et des coûts en cours de

projet

• Suivre l’évolution de la maintenabilité et de

la qualité pour éviter toute dérive

• Etre capable de valider la quantité et la qualité

du travail facturé

• Etre en mesure de challenger le sous-trai-

tant lors des négociations d’avenants

• Industrialiser les recettes techniques

Renouvellement de contrat, transfert ou ré-inter-

nalisation

• Déterminer et qualifier les écarts entre la

prestation prévue et les livrables recettés

• Disposer des informations techniques

caractéristiques du portefeuille applicatif en

fin de prestation

Le leader mondial de ce type de solutions est

d’ailleurs un éditeur français, CAST. Reconnu

par les analystes informatiques comme pré-

curseur du marché, CAST compte plus 500

comptes utilisateurs de sa plate-forme d’Appli-

cation Intelligence dans le monde.

La maîtrise des applicationset des prestataires dansune opération d’outsourcing

Cycle de vied'une opération d'Outsourcing

Suivi de proje

t Contrôle des coûts

Transfert de connaissances

Fin de

contrat Appels d'offres

Rece

tte te

chni

que

www.castsoftware.com

Publi-Reportage

De la valeur ajoutée de l’ApplicationIntelligence pour piloter efficacementun parc applicatif sous-traité

Edito

4 IT-expert n°67 - mai/juin 2007

Jusqu’où ira la détermination de Microsoft dansson combat contre le logiciel libre de droits etgratuit ? La question se pose après l’annoncepar le géant du logiciel que l’ensemble des logi-ciels libres violent au moins 235 brevets qu’ildétient, dont 42 pour le seul noyau Linux. Sansprésupposer de la réalité ni de l’ampleur decette assertion que Microsoft se refuse à détail-

ler plus avant, reconnaissons cependant qu’il s’agit d’une escaladesignificative de l’affrontement. L’objectif en est clair : accroître lerevenu de ses ventes de licences. La stratégie relève quant à elle duclassique : diviser pour mieux régner. Dans un premier temps, il s’agitde jouer sur l’aversion au risque des plus grandes entreprises, enten-dez par là celles du Fortune 1000. En échange d’une promesse d’im-munité elles sont priées de verser leur écot. Une fois que celles-ci seseront rendues aux arguments du géant, les nombreux petits artisansdu logiciel libre tomberont comme des fruits mûrs. Les plus craintivesdes premières ont d’ores et déjà passé des accords directs avecMicrosoft. Pour les autres un premier pas a déjà été effectué par l’in-termédiaire du tour de passe-passe juridique que représente l’accordavec Novell (26 % des distributions Linux payantes) rendu public à lafin de l’année dernière. Des discussions similaires avec Red Hat (65 %)ont également eu lieu et sont aujourd’hui au point mort. L’accordconclu a bien évidemment déclenché une levée de boucliers de la partdes chantres du logiciel libre qui perçoivent fort justement le risquevital que leur fait courir une telle évolution.

Reste à savoir si Microsoft passera à l’étape suivante consistant àentamer des poursuites devant les tribunaux pour violation de licence.L’Open Invention Network, association émanant de grandes entrepri-ses de l’informatique, qui a acquis un ensemble de brevets pouvantposer problème à Microsoft pourrait alors entrer en jeu. PourMicrosoft, s’attaquer à Red Hat ou à tout autre membre de l’associa-tion pour violation de brevet reviendrait automatiquement à déclencher

des poursuites de l’OIN sur la base des propresbrevets qu’elle détient. Toutes proportions gar-dées l’escalade actuelle n’est pas sans rappelercelle de 1962 à Cuba, avec Richard Stallmanprésident de la Free Software Foundation dansle rôle de leader de la révolution (notez la res-semblance) et dont la GNU Public Licencejouera un rôle essentiel dans l’histoire.

Jean-Pierre FORESTIERRédacteur en Chef

édito

EditeurPress & Communication FranceUne filiale du groupe CAST3, rue Marcel Allégot92190 Meudon - FRANCETél. : 01 46 90 21 21Fax. : 01 46 90 21 20http ://www.it-expertise.comEmail : [email protected]

Rédacteur en chefJean-Pierre ForestierEmail : [email protected]

Directeur de publicationAurélie MagniezEmail : [email protected]

Abonnements/PublicitéEmail : [email protected]

Conception GraphiqueC. GrandeEmail : [email protected]

ImprimeurMoutot Imprimeurs

ParutionIT-expert - (ISSN 1270-4881) est un jour-nal édité 6 fois par an, par P & C France,sarl de presse au capital de 60 976,61 €.

AvertissementTous droits réservés. Toute reproductionintégrale ou partielle des pages publiéesdans la présente publication sans l’auto-risation écrite de l’éditeur est interdite,sauf dans les cas prévus par les arti-cles 40 et 41 de la loi du 11 mars 1957.© 1996 P&C France. Toutes les marquescitées sont des marques déposées.Les vues et opinions présentées danscette publication sont exprimées par lesauteurs à titre personnel et sont sous leurentière et unique responsabilité. Touteopinion, conseil, autre renseignement oucontenu exprimés n’engagent pas la res-ponsabilité de Press & Communication.

Abonnements01 46 90 21 21Prix pour 6 numéros (1 an)France ; U.E. : 89 € TTCDom TOM, Autres Pays : 128 € TTC

Un bulletin d’abonnement se trouveen page 33/34 de ce numéro.

Vous pouvez vous abonner surhttp://www.it-expertise.com/Abonnements/Default.aspxou nous écrire à[email protected]

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

IT-expert n°67 - mai/juin 2007

5IT-expert n°67 - mai/juin 2007

SommaireDossierSOA, l’état de l’artNous entendons tous parler depuis plusieurs mois de SOA, mais que se cache-t-il derrière

cet acronyme. Ce dossier vous présente le concept, l’impact et l’avenir de SOA. Vous

découvrirez également les témoignages de James Odell, expert du sujet et d’Emmanuel

Gonon, PDG d’Oslo.

TechniqueSOA : Architectures & outilsCet article traite de façon pragmatique et technique de SOA, comment structurer SOA ?

comment mettre en œuvre les patterns architecturaux ?

Actualités InternationalesActualités internationales et annonces produits chez les éditeurs…

Quoi de Neuf Docteur ?Imprimez moins, maîtrisez vos coûts !Les grands acteurs du monde de l’impression surfent sur la prise de conscience écolo-

gique. Sont-ils devenus les nouveaux défenseurs de la planète ou ont-ils « juste » trouvé

de nouveaux arguments marketing ? Cet article tente de faire un point sur les nouvelles

technologies et produits proposés par les fabricants d’imprimantes.

Comment ça Marche ?Qualité interne de ses logiciels : mythes et réalitésLa qualité du code est souvent perçue comme trop coûteuse, pourtant elle est source

d’économies, rend l’informatique plus réactive et protège l’entreprise de nombreux maux.

Fenêtre sur courInterview de Philippe VIALLETELLE et Franck DUPONT de la sociétéSTMicroelectronics, site de CrollesSTMicroelectronics avait besoin de modéliser puis rationaliser les processus de gestion

des ressources opérationnelles directes pour donner de la visibilité et de la souplesse à

leur organisation. L’entreprise a, pour cela, mis en œuvre un projet SOA et nous fait par-

tager son expérience sur le sujet.

Rubrique à bracL’univers étrange des unités d’œuvreLes unités d’œuvre, à présent utilisées par les sociétés privées, sont directement inspi-

rées de l’administration. Cet article explique leur fonctionnement au travers d’exemples

et d’une présentation synthétique des évolutions du code des marchés publics.

6

16

25

29

35

42

46

Dossier & Interviews

6 IT-expert n°67 - mai/juin 2007

SOA, l’état de l’art

Toute personne qui s’intéresse à l’informatique d’entreprise a entendu parler des SOA ou

Architectures Orientées Services (AOS), présentes dans la plupart des discours marketing

des fournisseurs de technologies.

Mais quelle est la réalité derrière cet acronyme et où en sommes-nous dans leur mise en

place ? Que peuvent en attendre les entreprises et quelle sera la prochaine vague concep-

tuelle et technologique ?

Les SOA sont la couche informatique et métier qui rend possible le e-business, sept ans

après que le concept eut été présenté. Après avoir défini le concept de SOA et vu les rai-

sons qui ont déclenché son émergence, nous analyserons son impact sur les entreprises,

puis nous présenterons les technologies qui constitueront la deuxième vague du SOA.

7IT-expert n°67 - mai/juin 2007

ration très forte entre les métiers et l’informatique. Le principedu SOA est finalement assez proche de celui adopté avec succèspar Dell : faire du sur-mesure de manière moins coûteuse et plusindustrialisées, en s’appuyant sur des composants normalisés etstandardisés. C’est le principe du « Légo » logiciel.

Le SOA permet la fusion des approches « construire » ou « build »et « acheter » ou « buy » de la constitution des systèmes d’informa-tion. Cette approche consiste en un assemblage plus ou moinslâche de composants logiciels (progiciels ou pas) autour de proces-sus métiers. Ces « systèmiers SOA » se rapprochent des modèlesindustriels d’un Renault ou d’un Thales qui sont des assembleurs decomposants, développés en interne ou en externe à l’entreprise. Ledéveloppement logiciel rejoint ainsi de ce qui se fait dans les autresindustries. On bâtit à la demande des applications spécifiques selonles processus changeants de l’entreprise.

La valeur de l’applicatif s’est déplacée du composant applicatif àl’assemblage des composants et à la pertinence du processusmétier par rapport aux besoins toujours en évolution de l’entre-prise. Dans ce contexte, le chef d’orchestre est celui qui maîtriseles processus de l’entreprise et les réseaux qui permettent deconstituer ce système d’information composite. L’innovationréside de plus en plus sur ces capacités.

� L’alignement des métiers et de l’IT

L’informatique s’étend à toutes les activités de l’entreprise, à lafois horizontalement et verticalement. Elle évolue vers toujours

Les SOA :le concept qui change l’informatique

� Définition et concept

Les SOA sont la manière par laquelle on conçoit, définit etconstruit des applications en utilisant des blocs applicatifs réuti-lisables appelés Services. Les Services sont des fonctions claire-ment définies, indépendantes de la plateforme technique et del’état des autres services. Cette collection de services hétérogè-nes, interopérables et faiblement couplés permet de créer etd’exécuter des applications composites selon les processusmétiers de l’entreprise.

Pour PAC, un projet SOA inclut forcément la gestion des pro-cessus métiers (BPM pour Business Process Management), leurpilotage (BAM pour Business Activity Monitoring), un outil d’inté-gration (ESB), la gestion des données et le respect des standardsles plus couramment admis : SOAP, UDDI, WSDL, BPEL…

Le concept de SOA peut être comparé à un « embrayage », entreles besoins métier et les ressources informatiques, qui lie les ser-vices fonctionnels et les services techniques. Cette liaison est laforce du SOA mais aussi la source de sa complexité. Elle néces-site une nouvelle approche, qui implique fortement les métiersdans la conception du système d’information. De ce fait les SOAsont des projets qui peuvent être dirigés soit par les métiers (parle « haut ») soit par l’informatique (par le « bas »), ou, ce qui est lecas le plus fréquent et souvent le plus productif, par une collabo-

Portefeuille de servicesde líentreprise

Composants RessourcesESBPortefeuille d’activités de l’entreprise

ObjectifsMétiers

RèglesMétiers

Approche orientée métier

Approche orientée informatique

ApprocheMixte

Orchestrations

Processus Métiers

!?

F

F

F

F

F

F

ServicesMétiers

ServicesTechniques

Les différentes approches SOA

8 IT-expert n°67 - mai/juin 2007

plus d’automatisation, de collaboration, de standardisation, dedistribution et de virtualisation. Elle devient plutôt un élémentcréateur de valeur ajoutée, qu’un centre de coûts. C’est devenuun élément si vital pour l’entreprise que les problèmes du SI peu-vent avoir des effets redoutables sur l’économie « réelle ».

Ainsi les systèmes d’information ont toujours suivi l’organisationet les besoins des entreprises depuis qu’ils existent. Au fur et àmesure de l’évolution des entreprises et des systèmes d’informa-tions, métier et informatique se sont rapprochés et intégrés.

L’informatique est devenue indispensable à l’heure de l’entre-prise organisée en réseau et pilotée par l’innovation. L’avène-ment des SOA est lié à ces besoins.

� Technologiquement, une évolutionplus qu’une révolution

Les SOA sont une évolution de l’informatique qui reprend etmodernise plusieurs concepts déjà existants.

C’est le cas des technologies issues des environnements main-frames (RPC qui deviennent Web RPC puis Web Services), del’objet (idée du composant logiciel) et du client/serveur (distribu-tion), qui ont posé les fondements du SOA.

L’émergence des technologies Internet (TCP/IP, standards Web,serveurs d’applications, portail…) a été le catalyseur de la vagueSOA en permettant une distribution et une intermédiation gran-

Organisation matricielle Orientée client

Pilotée par la demande

Organisation en réseau Orientée réactivité

Pilotée par l’innovation

Organisation en silos Orientée production

Pilotée par l’offre

1950 1980 2000 2007 2010 2020

Produire

Mainframe

Vendre

Client Serveur

Síadapter

SOA

MATÉRIEL LOGICIEL RÉSEAUX SERVICE

Compta. Paie Logistique, etc.Processus métiers

ERP

Portails

EAI

Services

Mainframe(1970…)

Client/serveur(1985…)

Composants(1995…)

SOA(2005…)

• Processus clés• Collaboration• Automatisation• Agilité

• Automatisation des processus• Intégration des processus• Collaboration• Automatisation• Agilité

• Applications composites (CRM, SCM, extended ERP)

• Automatisation des processus clés• Collaboration• Automatisation• Agilité

• Intermédiation• Entreprise virtuelle• Collaboration• Automatisation• Agilité

• Corba, EAI, serveur d’applications

• Distribué• 3 - N-tiers

• Internet• Ethernet• Terminal passif• SNA

• Internet V2

• Centralisé• 1 - 2-tiers

• Distribué• 2 - 3-tiers

• Distribué• N-tiers

• BPM, BAM, ESB, EDA… & Intergiciel Integré

• Bases de données, MOM, moniteur transactionnel

• OS

• Orchestration de services• Modélisation d’applications

• Progiciel de Gestion Intégré (PGI)

• Développement spécifique• Applications financières

VagueTechnologique

Besoin Métier

Applications

Intergiciel clé

Topologie

Réseau

9IT-expert n°67 - mai/juin 2007

dissante. L’EAI est le précurseur de nombreuses technologiesSOA : le bus de messages, le BPM, le BAM…

Cette vague technologique majeure peut être comparée à larévolution industrielle qu’ont connue un bon nombre d’autresindustries. Le SOA, la gouvernance IT, le logiciel libre, les externa-lisations et les délocalisations sont les symptômes d’une activitéqui passe de l’artisanat à l’époque industrielle.

� Qu’attendre des SOA ?

Les SOA virtualisent et standardisent de plus en plus les soclesapplicatifs et intergiciels permettant aux équipes informatiques(internes ou externes) de mieux se concentrer sur les parties lesplus porteuses de valeur ajoutée pour la société, imbriquant l’in-formatique et les fonctions de l’entreprise. C’est un alignementcréateur de valeur.

L’ensemble du SI sera ainsi aligné sur les processus métiers del’entreprise. Technologies de l’information, processus et utilisa-teurs seront de plus en plus intégrés et interdépendants. Cecientraîne une meilleure automatisation et une plus grande réacti-vité du système dans son ensemble. Les SOA sont un des cata-lyseurs de l’informatique « omniprésente », où l’informatique, lesprocessus et les utilisateurs sont de plus en plus intégrés.

Cependant, il faut se garder de voir les SOA comme la panacée.La mise en place de ces architectures est un processus long,lourd et structurant pour l’entreprise puisque l’on répertorie,audite, crée une sémantique commune. On modifie ensuite l’ar-chitecture du système, des applications et des interactions enson sein tout en limitant au maximum les adhérences dans lesystème. C’est d’autant plus structurant que l’on touche à la foisles processus informatiques et métiers de l’entreprise. Cette

montée vers la valeur ajoutée, en dépit de la standardisation quien résulte, a un coût important car elle reposera beaucoup surdes investissements importants (conseil, intégration, logiciels…).

Impact des SOA

� Le S de SOA

Le S de SOA ne désigne pas seulement un modèle technique decomposition d’applications en services, il désigne aussi la pré-pondérance de la notion de services avec des notions telles queservices informatiques ou niveau de services.

Automatisation, standardisation, remontée vers les processusmétiers, architecture, urbanisme, gouvernance, complexité… Ondevine rapidement que les SOA sont une vague technologiquequi est très orientée services informatiques.

Cette expansion des services est due à la haute valeur ajoutéedes prestations qui sont réalisées et à la banalisation croissantedes outils logiciels associés. Face au besoin de ces profils, cen-trés sur les processus avec des compétences mixtes informati-ques et fonctionnelles, les SSII doivent évoluer vers desstructures fusionnant de plus en plus conseil IT, conseil en pro-cessus, conseil en organisation et intégration de systèmes pourdevenir des prestataires globaux de services à forte valeur ajou-tée. Cependant, nombre de ces compétences sont rares sur lemarché français, ce qui renchérit d’autant leurs coûts.

Les clients finaux vont aussi fortement se développer dans leurscompétences SOA car à mesure que leur activité deviendra deplus en plus dépendante de l’informatique, il leur faudra aussimaîtriser les technologies SOA pour pouvoir s’assurer de leurscapacités d’innovation sur leurs processus, le contrôle de leursprestataires, l’alignement MOE/MOA…

Processus

Utilisateurs

IT

Utilisateurs

IT

Processus

10 IT-expert n°67 - mai/juin 2007

De nouveaux postes tels que « composeur » logiciel ou respon-sable des processus vont émerger au sein des DSI pour faireface à la nouvelle manière de développer et d’aligner son SI surces métiers.

Les SSII et les clients finaux, qui développent des composantslogiciels, pourront aussi devenir, dans cette optique SOA, enquelque sorte des éditeurs de logiciel. Car avec cette vague SOA,la question est maintenant de savoir qui connaît le mieux les pro-cessus d’un secteur économique, les SSII, clients finaux ou leséditeurs de logiciels ? Ainsi, éditeurs, SSII et clients pourront êtreconcurrents et vont devoir plus collaborer et partager leurs com-posants au sein de communautés d‘intérêts.

Cet avènement d’une industrie informatique de plus en plus cen-trée sur le service, le réseau et fortement standardisée risque debouleverser le marché d’ici à 2010 ; d’autant plus qu’il faut ajou-ter à cela l’impact démographique dû au vieillissement et la mon-tée en puissance des délocalisations de services informatiques.

Le S désigne aussi les niveaux de services qu’un client est endroit d’exiger de ses applications et processus métiers informa-tisés. C’est un point crucial des SOA d’autant plus que la techno-logie nous permet maintenant de mesurer et de quantifier cesniveaux de services. Les niveaux de services ou SLA sont déjàbien connus des exploitants et des infogérants, mais moins desentités qui travaillent en mode projet, ce qui peut être un frein.

Les départements projets doivent travailler la main dans la mainavec les exploitants pour justement définir ces Services et lesSLA associés. Il faut mettre en place des paramètres et desméthodes communs d’évaluation et d’amélioration. Les SOAsont donc aussi un catalyseur pour l’amélioration de la gouver-nance et de la collaboration au sein de la DSI.

Avec ces SLA, on peut mesurer les performances de son proces-sus métiers, de son application, par rapport ses prestataires. Onpeut aussi le faire en interne pour facturer ses services et l’utiliseren externe en mode B2B.

� Le A de SOA

Le A de SOA est souvent « oublié » des discours marketing maisc’est la partie la plus structurante et la plus créatrice de valeurajoutée d’une démarche SOA. Le SOA ne se conçoit pas sansintégration forte avec les métiers. Il nécessite une réflexion etune refonte architecturale IT et fonctionnelle puisque l’onconstruit différemment les applications de son système d’infor-mation.

L’importance de la phase d’urbanisation et d’architecture dansun projet SOA ne doit pas être sous-estimée, au risque de ren-contrer les problèmes qu’ont connus ces grands déploiementsde PGI qui n’avaient pas été assez préparés. Les projets SOAstratégiques sont des projets qui peuvent impacter de grandspans de l’entreprise à l’instar des grands projets PGI. Les SOAamènent les entreprises à redéfinir et réévaluer la pertinence deleurs processus métiers et de la traduction informatique de cesprocessus, pour pouvoir tirer pleinement parti des avantages destechnologies SOA.

Avec la « modularisation » et la flexibilité héritée des fonctionstransformées en services, on peut assembler à la volée des ser-vices logiciels qui peuvent déjà être des progiciels, des parties deprogiciels ou des développements spécifiques, pour créer unenouvelle application.

La réutilisation est forte, la maintenance réduite et on s’approchedu degré de personnalisation que l’on peut avoir avec un déve-loppement spécifique « classique ».

La conception des services est lente au début, mais elle s’accé-lère au fur et à mesure que le nombre de services augmente etque l’on profite au maximum des capacités de réutilisation offer-tes par les services déjà existants. Ce développement compositecombinant les approches « Build » et « Buy » génère toutefoisd’une importante complexité, qu’il faudra savoir gérer. La mise enplace de ces systèmes nécessite aussi d’importantes étudespréalables autour de la notion de services, de sémantique, de

11IT-expert n°67 - mai/juin 2007

gouvernance, d’urbanisme et d’architecture des systèmesconcernés par le projet SOA.

Cette conception composite, a priori entropique, doit être forte-ment pilotée et encadrée, d’où le renouveau actuel des notionsde gouvernance et de gestion des projets informatiques. Ce sontcertes des points cruciaux pour la réussite de tout projet informa-tique, mais leurs apports sont encore plus évidents dans le casdes projets SOA.

Les processus codés en « dur » au sein des applications progi-cielles sont maintenant trop rigides. L’avenir appartient à desapplications composites alignées au mieux sur les processus del’entreprise et qui sont développées, exécutées et pilotées ausein des plates-formes intergicielles (middlewares).

Les processus métiers sont de plus en plus définis et intégrés auniveau de la couche intergicielle, qui de ce fait, s’accapare unepart importante de la valeur ajoutée et de l’intelligence du système.Les acteurs traditionnels de l’intergiciel ont déjà saisi l’opportunitédes SOA et sont en avance par rapport aux géants du progicielapplicatif qui ont dû développer une plate-forme intergicielle et re-développer leur patrimoine applicatif. Ils doivent « désintégrer »leurs progiciels, découpler applications, bases de données et pro-cessus, modulariser et ensuite réintégrer mais au niveau des pro-cessus tout en respectant au maximum les standards.

Le SOA permet aux éditeurs applicatifs d’ouvrir leurs progiciels,de gagner en agilité au niveau des processus, bien qu’ils perdentune partie de la maîtrise qu’ils avaient sur ce marché ; la concep-tion d’applications en mode SOA, d’une manière composite est,elle aussi, un changement culturel et méthodologique majeur

ProcessusModules applicatifs

Données

SOA

PGI

M o d u l e s a p p l i c a t i f s

Référentieldonnées

Processus

James Odell est l’un des spécialistes les plusreconnus pour le SOA, le BPM, l’EDA, les sys-tèmes complexes et les systèmes à based’agents. Il a une chaire à l’OMG et à l’IEEE etest un membre actif du Cutter Consortium.www.jamesodell.com

Qu’entendez-vouspar SOA ?

James Odell : LesSOA ne concernentpas seulement lesservices, les pointsclés sont la notiond’architecture, degestion des proces-

sus métiers, de ges-tion des événements et de MDA/MDD(développement orienté modèle). Les SOA, cen-trées sur les processus, rapprochent la visionmétier de son exécution informatique. Les SOAflexibilisent le SI et le cachent le plus possible auxyeux des métiers.

Qu’est-ce qui empêche une adoption pluslarge des SOA ?

James Odell : La bonne compréhension de la liai-son entre architecture métier et architecture infor-matique reste difficile dans les entreprises ainsique l’intégration nécessaire entre les équipesmétiers et informatiques. De plus la complexitéinhérente et croissante des systèmes d’informa-tion freine l’adoption des SOA.

Avez-vous une idée de ce que sera la pro-chaine étape du SOA ?

James Odell : C’est la technologie agents. Cettetechnologie apporte une valeur ajoutée indéniableaux plateformes SOA en les flexibilisant et en leurpermettant de gérer la complexité croissante desmodèles métiers et des systèmes d’information.Ce sont des systèmes logiciels fortement distri-bués et automatisés, hautement flexibles, intrin-sèquement liés au métier puisqu’ils sont baséssur du développement orienté objectifs.

L’entreprise

proactive, le SOA 2.0

Interview de James Odell

12 IT-expert n°67 - mai/juin 2007

pour eux. C’est aussi une nécessité pour faire face aux change-ments impulsés par les SOA, pour rester la plateforme surlaquelle leurs principaux clients définissent leurs processus criti-ques et pour pouvoir pénétrer fortement les bastions du dévelop-pement spécifique.

Plateforme SOA orientée agents

Interview d’Emmanuel GONON - PDG Fondateur d’Oslo

Ces plateformes intergicielles, issues des serveurs d’applica-tions, sont en train de s’étoffer pour devenir la plateforme unique(J2E ou .Net) sur laquelle on bâti et intègre ses applications selonses processus métiers.

Parlez-nous un peu d’Oslo, premier éditeur d’une plateforme SOA orientéeagents.

Emmanuel GONON : Oslo est un éditeur de logiciels permettant d’informatiser des opéra-tions qui ne l’étaient pas complètement avec les solutions existantes (par exemple, la syn-chronisation des activités d’un aéroport pour réduire les retards des avions). Ces opérationssont aujourd’hui difficilement informatisables car elles sont trop complexes et longues àprogrammer, elles évoluent très rapidement, et elles s’appuient sur un grand nombre desources de données et d’événements.Grâce à notre offre, OSLO Suite, nous pouvons modéliser facilement les objectifs et règlesmétier, déclencher les processus métier correspondant au contexte de l’entreprise et les

adapter automatiquement aux événements auxquels elle est confrontée. Nous pouvons enfinintégrer rapidement ces opérations avec les systèmes existants et tous les capteurs de données.OSLO Suite s’inscrit parfaitement dans le monde SOA en accroissant ses capacités vers l’EDA.

Quelle est votre stratégie ?

Emmanuel GONON : Nous visons d’ici deux ans à être le champion du « Dynamic Business », en nous appuyant sur :• une offre de rupture nous permettant d’être considéré comme le leader des plateformes proactives, la prochaine étape

du SOA ;• des partenaires technologiques (Oracle, Cisco, BEA…) et intégrateurs (Cap Gemini, ITC, Infosys, Steria, Unilog…) de

renom ;• une implantation d’ores et déjà internationale (US).

Quels sont les avantages de votre plateforme ?

Emmanuel GONON : Ils sont nombreux, et ont pour objectif d’accroître l’agilité de la société, en la rendant dynamique.OSLO Suite permet d’informatiser les opérations business les plus complexes, dans des temps de développementdivisés par 5.

• Modélisation proche du métier permettant de développer des applications en ligne avec les objectifs business,• Offre intégrée et orientée modèle facilitant l’évolutivité et réduisant les coûts de maintenance,• Alignement parfait entre les acteurs du projet (utilisateur métier, business analystes, architecte, développeurs IT).

13IT-expert n°67 - mai/juin 2007

Après le SOA, le SOA 2.0.

� Évolutions socio-économiqueset son impact sur l’IT

En même temps que les entreprises évoluent vers le SOA, l’éco-nomie continue à se transformer et à évoluer à une vitesse sanscesse croissante. L’environnement des entreprises se complexi-fie de plus en plus (papy-boom, mondialisation, délocalisations,réglementations, nouvelles organisations…), et les entreprisesse doivent de rester guidées par l’innovation et d’accroître leurflexibilité possible.

Le système d‘information, crucial dans la création de valeur desentreprises modernes, se doit de pouvoir suivre ces change-ments et les demandes de plus en plus complexes des métiersde l’entreprise. Les contraintes sur les systèmes d’informations’accroissent elles aussi : masse des informations à gérer,besoins transactionnels, interdépendance des entreprises,nécessité de l’innovation et d’aligner business et IT, superpositiondes couches technologiques…

Le paradigme temporel a lui aussi changé, l’entreprise est de plusen plus en temps réel et elle tente maintenant d’être proactive.La réponse est la prochaine étape du SOA, symbolisé par l’entre-prise proactive.

� L’entreprise proactive, le SOA 2.0.

Les outils informatiques vont toujours plus loin et après avoir per-mis à l’entreprise de travailler et de réagir en temps réel, ils lui per-mettent maintenant de devenir proactive.

L’entreprise proactive utilise déjà les technologies SOA, tout enayant besoin de plus pour faire face la complexité croissante deson environnement et réagir au plus vite et au plus juste. Ceconcept va plus loin que le stade de l’information temps réel. Ilpermet aux entreprises :• De réagir immédiatement et d’anticiper les besoins de leurs

clients, fournisseurs, et de leur environnement en général pourcréer des opportunités et éviter les problèmes potentiels.

• De gérer des niveaux de complexité que la technologie et/oul’humain n‘arrivaient pas à maîtriser auparavant.

• De construire un système d’information adaptif, de plus enplus automatisé et capable de délivrer une valeur ajoutéesupérieure.

Les plateformes capables de délivrer ce concept combinent plu-sieurs outils aujourd’hui distincts que sont : les moteurs de règlesmétier, le BPM, les plateformes SOA, les outils EDA, outils déci-sionnels… L’intégration de ces plateformes permet de corrélerles événements et les objectifs de l’entreprise. De cette conjonc-tion, et conformément aux règles métiers édictées par l’entre-prise, le SI peut déclencher des actions automatiques et/ouhumaines de manière à ce que l’entreprise puisse anticiper lesmenaces et les opportunités qui s’offrent à elle et réagir au plusvite. Cette complexité est difficilement prévisible et il est quasi-ment impossible de prévoir toutes les exceptions. Il faut des sys-

tèmes autonomes, proactifs mais qui restent gérables et alignéssur les objectifs du métier.

La technologie la plus porteuse autour de l’approche d’entrepriseproactive est le concept de systèmes multi-agents (voir interviewsde James Odell et d’Emmanuel Gonon). Le concept agent est l’op-timum actuel dans les technologies distribuées et dans l’intermé-diation logicielle.

Il se base sur le développement orienté objectifs, il est donc natu-rellement aligné avec les besoins métiers. Chaque agent se voitassigner un ou plusieurs objectifs métiers selon les règles et lesprocessus de l’entreprise. Il exécute ses objectifs en conjonctionavec les objectifs des autres agents avec qui il est en interaction,créant une sorte d’intelligence collective. Chaque agent peut sevoir attribuer de nouveaux objectifs selon les besoins de l’entre-prise et comme les agents et le système sont orientés objectifs,ils sont capables de faire face aux exceptions non prévues. Laflexibilité et la réactivité sont donc optimales.

Ce sont des systèmes capables de gérer en temps réel des évé-nements complexes que l’homme ou d’autres systèmes informa-tiques n’arrivent pas à gérer. Par son approche innovante, leconcept de systèmes multi-agents supplée aux limitationsactuelles des approches SOA classiques, encore trop rigides etlimitées dans la gestion de la complexité et d’événements impré-vus, dans la « proactivité » face à un environnement de plus enplus imprévu et changeant.

Les applications de ce concept d’entreprise proactive sont nom-breuses : détection de fraudes dans la finance et les télécoms,sécurité et contre-terrorisme, gestion temps réel d’unité militairessur le terrain, gestion dynamique de portefeuilles d’investisse-ments, gestion proactive de la relation client, pilotage des ano-malies sur la chaîne logistique, e-business…

L’entreprise proactive totalement en réseau, guidée par l’innova-tion et basée sur un système d’information SOA 2.0. est en trainde devenir une réalité. �

PAC est la principale société européenne spécialisée dans les études et le conseil

marketing et stratégique à destination des acteurs des technologies de l’information.

Mathieu PoujolConsultant SéniorPierre Audoin Consultants

Pour compléter votre bibliothèquede référence technique,commandez vite les anciens numéros*d’IT-expert à tarif préférentiel !

IT-expert n°53Janvier/février 2005

DOSSIER : La gouvernance du système d’in-formation• Le projet LDAP• Firefox votre prochain navigateur ?• JSF versus Webforms• Interview Intermarché• L’entreprise sous le feu de la guerre

de l’information

IT-expert n°59 Janvier/février 2006

DOSSIER : Vers un standard pour le pilotagedes coûts informatiques - Un levierde performance économique : AB C/ABM• Contrôle des développements externalisés

& solutions de gouvernance• K9a : une nouvelle grille de lecture pour la conduite

agile de projets de systèmes d’information• Interview de Jérôme Dupont, Directeur

Conventions & Projets du GIP-MDS• La guerre des processeurs aura-t-elle lieu ?

IT-expert n°58Novembre/décembre 2005

DOSSIER : L’intégration de contenu,un problème bien réel• Les JavaServer Faces face à Struts• Sybase Adaptive Server Enterprise 15• Interview de Nicolas Maquaire,

Président de l’éditeur Français EntropySoftZoom client SAINT-GOBAIN

• Informatique et téléphonie :à quand la convergence ?

IT-expert n°57Septembre/Octobre 2005

DOSSIER : Equiper les forces de terraind’une solution mobile• La gestion des utilisateurs centralisée ou le

provisioning• Les alternatives à la suite bureautique

Microsoft• Les Tags RFID : révolution technologique ou

cauchemar• Les solutions Linux

IT-expert n°60Mars/avril 2006

DOSSIER : La qualité des applications développées en technologies objet• L’industrialisation des développements au secours

des échecs projets• Environnements de Développement Intégrés• Urbanisme des Systèmes d’Information versus

Architecture d’Entreprise• Interview de Monsieur SAINT-ALME,

Responsable NTIC chez AG2R• Contrôle d’accès au réseau

IT-expert n°64Novembre/décembre 2006

DOSSIER : Capital Immateriel• Windows Vista : le nouveau système

d’exploitation de Microsoft• Les curseurs sous SQL Server• Interview de Mme Seigneur, Directeur

Informatique du Conseil Général de Vendée• Wimax

IT-expert n°63Septembre/octobre 2006

DOSSIER : La géolocalisation• Géolocalisation, les techniques alternatives

au GPS• Le positionnement par GPS• Géolocalisation, tout n’est pas permis…• Interview de Me Gérard HAAS, Docteur en droit• Recyclage des e-déchets

IT-expert n°62Juillet/août 2006

DOSSIER : Panorama sur les techniquesAgiles• PHP5, une alternative à .NET et J2EE ?• Eclipse : le Big Bang Callisto• Test Driven Development• Interview d’Elisabeth Le Boité, Responsable

Qualité et Système d’Information du SIBSyndicat Interhospitalier de Bretagne

• Qui arrêtera Google ?

IT-expert n°65Janvier/Février 2007

DOSSIER : Web 2.0 entreprise, quelles réalités ?• ITIL et ISO20000• Logiciel libre :Qu’exiger de son prestataire informatique ?• Les wikis : définitions fonctionnelles et techniques• Interview de Monsieur Kabla, DSI de Dassault

Systèmes Ventes France• Une approche structurée de la certification du réseau :

l’audit automatique du réseau et la validation deschangements des configurations

* D

ans

la li

mite

des

sto

cks

dis

pon

ible

s

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

www.it-expertise.com

Je souhaite acheter les numéros suivants

Adresse d’expédition & de facturation

IT-expert n°61Mai/juin 2006

DOSSIER : Optimiser innovations ettransformations en gérant le portefeuille deprojets et d’applications• Subversion : le grand départ ?• L’accessibilité numérique• Wi-Fi

IT-expert n°66Mars/Avril 2007

DOSSIER : Sécurité : Les applications,le talon d’Achille des entreprises• RIA (Rich Internet Application) : définitions et

panorama des solutions• Gestion des droits numériques en entreprise

avec RMS• Un observatoire pour mesurer l’urba• Interview d’Hubert Tournier, Senior Manager

chez Deloitte Consulting & Risk Services • Les DRM : une introduction

IT-expert n°56Juillet/août 2005

DOSSIER : La veille et ses outils• L’interopérabilité des systèmes d’informations :

fantasme ou perspective ?• SQL Server 2005• Les clés du succès en gestion desmétadonnées• Interview SCOR• Consolidation de messagerie, dimensionnement du

réseau : Le juste équilibre

Année 2005� N° 53� N° 56� N° 57� N° 58

Année 2006� N° 59� N° 60� N° 61� N° 62� N° 63� N° 64

Pour commander les anciens numéros d’IT-expert, il vous suffitde nous renvoyer ce document à l’adresse suivante :

IT-Expert3, rue Marcel Allégot - 92190 Meudon - France

Tel : +33 (0)1 46 90 21 21 - Fax : +33 (0)1 46 90 21 20

� Mme � Mlle � M.

Nom

Prénom

Société

Fonction

Adresse

CP

Ville

E-mail

Tél

Fax

� Chèque joint à l’ordre de Press & Communication France

� Règlement à réception de facture

Date :Signature obligatoire :

Offre Spéciale

Tarifs TTC (TVA : 5,5 %)� 1 exemplaire : 8€ � 10 exemplaires : 60€

� 5 exemplaires : 35€ � Autre quantité :

Année 2007� N°65� N°66

Technique

16 IT-expert n°67 - mai/juin 2007

SOA :architectures& outils

Position du problème

Le modèle présenté dans la figure 1 part du principe qu’un sys-tème d’information (SI) doit aider l’entreprise à traiter les événe-ments métier qu’elle reçoit. Un SI moderne doit aider l’entrepriseà traiter ces événements en temps réel ou quasi réel. Le modèleproposé distingue donc plusieurs couches :• La couche de récupération des événements métier ;• La couche processus métier ;• La couche service métier ;• La couche service technique ;• La couche bases de données & référentiels.

Dans chacune des couches, SOA peut apporter des éléments demodularité et de flexibilité, voire permettre la mise en place denouveaux types d’application.

Remarquons cependant que ce modèle ne suffit pas nécessaire-ment pour représenter un SI très hétérogène, organisé en silos,ce qui est souvent le cas des très grandes entreprises. Il estnécessaire de prévoir alors une couche de communication entreces silos, afin de faciliter la mise en place de processus transver-ses, comme l’illustre la figure 2.

Quel modèle pour un SI modernisé ? Quelle est

l’utilité de SOA dans ce cadre ? Y a-t-il plusieurs

sortes de SOA ? Quelle approche technique :

REST versus WS-* : encore une nouvelle guerre

dont les informaticiens sont friands ?

Tels sont les thèmes abordés dans cet article, qui

souhaite mettre en évidence une approche prag-

matique de SOA, bien distincte d’une approche

purement Web Service.

17IT-expert n°67 - mai/juin 2007

� La couche de gestion des événementsentrants

Quel que soit le canal d’arrivée de ces événements (fichier plat,message XML, formulaire rempli sur le portail Internet, etc.), cettecouche a pour objectif de router l’événement métier reçu vers leprocessus métier qui devra traiter l’événement. Elle peut bienévidemment assurer d’autres tâches, telle que la validation syn-taxique des événements entrants ou la sauvegarde systématiquede ces événements à des fins de robustesse (aucun événementne doit être perdu) ou d’audit (quels types d’événement sontreçus via quel canal d’entrée ?). Elle s’appuiera pour ce faire surdes services techniques (log…) ou métier (service de validation,service de routage).

Rôle de SOA : cette couche peut offrir comme canal privilégiéd’interaction des (web) services accessibles directement par lessystèmes d’information des partenaires et clients de l’entreprise.

� La couche des processus métier

Cette couche a pour objectif de traiter les événements qui luisont adressés. Un processus métier peut revêtir plusieurs for-mes. Dans un contexte SOA, ce sera un processus automatisé,orchestrant l’appel aux services métier (un processus étant décritvia le langage BPEL). Un processus BPEL est lui-même un ser-vice, accessible par la couche de gestion des événementsentrants. Cette approche est la seule qui permette d’assurer quetous les événements seront traités en temps et en heure.Mais dans certains cas, un événement peut/doit être routé versun acteur humain, cet acteur utilisera alors une application inter-active pour traiter l’événement. L’application interactive sera elleaussi cliente des services métier.

Enfin, il ne faut oublier les batchs, qui peuvent traiter un lot d’évé-nement entrant lorsque c’est pertinent (ensemble de comman-des émises par la même entreprise, lots de chèque, etc.).

Application interactivede type portail

Serveur de réception de message

Web service (faÁade)d'accès au SIGESTION DES

EVENEMENTS ENTRANT

Traitement automatisé, asynchrone

Application interactive

PROCESSUSMETIER

SERVICESMETIER

Service applicatif

Service fonctionnel

Service entité

Services techniques divers (mapping O/R, log…)

Serveur d'envoi de message

Infos non structurées Bases de données

Structurer le SILes clients :

les processus métierService allégé :

Spring/EJB3Ouverture du web 2.0 sur Internet

Les clients : Mashps, Widgets

(uwa), Web DesktopService simplifié orienté données : approche REST

Ouvrir le SI aux partenaires

Les clients : les SI de ces partenaires

(clients, fournisseurs…)Service normalisé,

robuste & sécurisé : normes WS-* (WSDL/SOAP)

SERVICES

GESTION DES EVENEMENTS ENTRANT

Bus d'entreprise (ESB)

Web service d'accès au silo Web service d'accès au silo Web service d'accès au silo

PROCESSUS TRANSVERSES

18 IT-expert n°67 - mai/juin 2007

� La couche des services métier

Cœur de l’approche SOA, chaque service métier doit offrir unensemble cohérent de traitements métier : cela peut concernerpar exemple l’accès à la « vision client » (obtenir un ensemblesynthétique d’information sur le client, l’état de ses comptes,l’historique de ses relations avec l’entreprise…), ou la simulationd’un crédit immobilier, ou le calcul d’impôts et de taxes diverses,etc. Un service métier peut être soit un service d’accès à desinformations, soit un service de calcul et de vérification de règlesmétier, soit une composition des deux. La composition de servicedevrait jouer un grand rôle dans nos futures pratiques de déve-loppement, nous y revenons un peu plus loin.

� La couche des services techniques

Le rôle d’un service technique est de donner accès à une res-source technique donnée : on citera par exemple l’accès auxbases de données relationnelles, au CICS d’un mainframe, à unsystème de GED, à un outil de log, à un ESB, etc.

Un service métier peut s’appuyer sur un ou plusieurs servicestechniques pour exécuter ses traitements. Par exemple, un ser-vice métier dont le rôle est de donner accès aux objets métier« client » aura besoin de s’appuyer sur un service technique d’ac-cès au mainframe (via CICS) ou à SAP.

Ensuite structurer : les patterns SOA

On retrouve donc SOA à trois endroits dans le modèle précé-dent, comme la figure 1 le met en évidence. On distinguera donc3 patterns architecturaux de mise en œuvre de l’approche SOA,en abrégé « patterns SOA ». Chaque pattern a pour objectif laconception et le déploiement de services. Ces patterns sont pré-sentés dans le tableau comparatif suivant.

Mettre en œuvre SOA, c’est donc dans un premier temps déter-miner le type de Pattern Architectural à appliquer. Certains projetsne nécessiteront qu’un seul de ces patterns. D’autres au contraireen nécessiteront deux voire trois.

19IT-expert n°67 - mai/juin 2007

Mettre en œuvre les patternsarchitecturaux : quels outils ?

� Outils pour le pattern « ouvrir le SI »

Les services à mettre en place pour cette ouverture ont troiscaractéristiques :• Ils sont naturellement distribués : c’est-à-dire que les clients

de ces services sont distants, et accèdent aux services viaInternet (cas de la figure 1) ou via un réseau interne (cas de lafigure 2). Cette contrainte incontournable implique de prendredes précautions en terme de performance ;

• Ils doivent dialoguer avec leur client indépendamment de latechnologie respective d’implémentation du service commedu client : l’interopérabilité est une condition sine qua non dusuccès.

• Enfin, ils doivent offrir un minimum (voire un maximum !) derobustesse et de sécurité : la robustesse comme la sécurité nesont pas des contraintes purement techniques ! Elles compor-tent un enjeu business fort. En effet, l’accès à ces servicespeut être payant : un partenaire ne paiera pas pour un servicenon robuste ! Par ailleurs un service non sécurisé peutconduire à des dégâts dont on connaît l’impact économiquepotentiel.

La nécessité de rendre interopérable les mondes Java, .Net, PHP,mainframe etc. ont conduit à l’éclosion des normes WS-*.

Afin d’offrir des garanties en terme de robustesse, un serviceexposé sur Internet doit publier ses engagements de service(Service Level Agreement de 99 % par exemple) et se donner lesmoyens de les respecter.

Client díun service conçu via le pattern

Design Pattern de conception détaillée du service

Caractéristique du service

Modalité d’accès au service

Format de description du service et des opérations qu’il offre

Format des informations échangées entre client et service

Protocole de communication réseau

Container de service

Exemple d’utilisation du pattern architectural

Système d’information des partenaires de l’entreprise

Façade

Service « gros grain », distribué, avec une garantie de sécurité et de robustesse, et éventuelle-ment de performance

Synchrone lorsque le service est accédé via Internet.Asynchrone lorsque le service ouvre un silo (cf. figure 2).

Norme WSDL

Document XML (respectant un schéma de référence) associé à des informations structurées (objets métier)

SOAP sur HTTP ou autre

Axis, Xfire

Relation automatisée entre le SI d’une banque distribuant des produits d’assurance, et le SI de l’assureur assurant la gestion back office.

Application composite (processus BPEL, application interactive MVC, batch)

-Injection de dépendance-Façade lorsque le service encapsule l’accès à un existant (mainframe, SAP…)

Service « gros grain » et « grain moyen ». La distribution doit être possible mais elle n’est pas nécessaire pour les services métier.La sécurisation n’est pas indispensable (dialogue client / service interne au SI)

Synchrone lorsqu’il s’agit d’un service métier ou d’un service technique.Asynchrone lorsqu’il s’agit d’un processus.

Interfaces JAVA ou C#

Objets (éventuellement sérialisés)

Les services sont colocalisés : pas de distribution a priori. En cas de nécessité on utilise RMI (via des EJB Session) ou JMS (via des Message Driven Bean)

Spring…Container EJB 3 (avec ou sans distribution)

Toute nouvelle application « orientée objet » peut être structurée ainsi : ce pattern est une évolution des architectures objet n tiers.

Internaute, via des applications de type Mashup ou Widgets

CRUD (Create Research Update Delete)

Service de type « flux d’information » (RSS, Atom)

Synchrone

Standard de fait REST (formalisé via ATOM par exemple)

Document XML, associé à des informations non structurées : pages XHTML, document PDF…

HTTP « de base »

Toute application sachant répondre à des requêtes REST (gestionnaire de blog respectant ATOM par exemple)

Un service est accédé via une petite application dédiée, installée dans un « container » dédié : Widget de Netvibes (UWA), Gadgets de Google Desktop…

Pattern ´ ouvrir le SI(lo) » P attern « modulariser le SI » Pattern « Web 2.0 »

L’exemple ci-dessus présente le cas d’un Web Service acceptantune authentification par certificat X509 ou par ticket Kerberos,avec une préférence pour les certificats.

WS-Policy et WS-SecurityPolicy sont des normes intéressantes cartrès structurantes, mais elles ne sont pas encore beaucoup utiliséesdans la pratique. Par contre, WS-Security est une norme aboutieimplémentée dans les grands serveurs d’applications du marché.

� Outils pour le pattern Web 2.0

L’approche REST (Representational State Transfer ) repose surdeux principes :• un service REST est un service d’accès à une ressource infor-

mationnelle identifiée par une adresse Internet (URL). Exem-ples de ressource : news d’un site web, entrée d’un blog, paged’un Wiki, etc.

• invoquer un service REST, c’est-à-dire accéder à la ressource,c’est utiliser directement le protocole HTTP

HTTP permet d’envoyer à un serveur web des requêtes définiespar des mots clefs : GET, POST, PUT, DELETE, TRACE… Appli-quer le pattern REST consiste essentiellement à définir pour cha-cun des mots clefs HTTP une sémantique spéciale.

Illustrons cela en montrant comment un serveur de contenu sup-portant ATOM, protocole couramment utilisé dans le monde de lagestion de contenu web, définit les services qu’il offre à sesclients. ATOM manipule deux entités de base, les entrées (ATO-MEntry) et les flux (ATOMFeed). Une entrée décrit une informa-tion, un flux est associé à l’ensemble des informationsrassemblées sous un même toit.

20 IT-expert n°67 - mai/juin 2007

Les engagements que prend un fournisseur de service en matièrede disponibilité sont décrits dans ses conditions générales devente, et éventuellement dans un fichier au format WS-Policy.Cette norme a en effet été créée pour permettre d’expliciter lapolitique d’un fournisseur de service.

Pour pouvoir respecter sa SLA, un fournisseur de service doitmonitorer ses accès. Ce monitoring lui permet de surveiller sesperformances et d’anticiper une augmentation de la demande. Ilexiste plusieurs façons de mettre en place un tel monitoring :dans le monde Java, si on ne veut pas recourir d’emblée à dessolutions complètes mais coûteuses (par exemple dans le cadred’un projet pilote), le recours à JMX et à la programmation orien-tée aspect peuvent être des outils intéressants.

Il doit aussi réguler ses accès en authentifiant les consommateursdu service. L’authentification permet de réguler les utilisateurssimultanés, mais aussi d’assurer un accès restreint à des don-nées protégées. Elle peut se faire simplement par identifiant/motde passe ou avec des systèmes plus sophistiqués (certificatsnumériques, tickets Kerberos, etc.).

Par ailleurs, pour assurer la confidentialité des flux échangés, lefournisseur de service pourra utiliser SSL, ou bien des méthodesplus sophistiquées avec WS-Security.

Cette norme décrit comment crypter et signer des documentsXML transportés via SOAP. Plus généralement, il est possible dedécrire l’ensemble de la politique de sécurité appliquée (règlessur l’authentification et la confidentialité) dans un fichier au formatWS-SecurityPolicy.

Service ATOM

Créer une information

Editer une information

Rechercher des informations

Mot clef http

POST

GETPUTDELETE

GET

Sémantique

Permet de créer une nouvelle information en utilisant une requête POST contenant une ATOMEntry

Rechercher l’informationMettre à jour l’informationSupprimer l’information

Interroge le serveur pour récupérer les dernières informations créées.

Résultat

Une URL sur l’information nouvelle créée sur le serveur

Un ATOMFeed, contenant les informations demandées en particulier les x derniers documents créés, plus un lien vers les y derniers documents créés

<wsp:Policy><wsp:ExactlyOne><wsse:SecurityToken TokenType=” wsse:x509v3” wsp:Usage=” wsp:Required”

wsp:Preference=”50”/><wsse:SecurityToken TokenType=” wsse:Kerberosv5TGT” wsp:Usage=” wsp:Required”

wsp:Preference=”10”/>a</wsp:ExactlyOne></wsp:Policy>

21IT-expert n°67 - mai/juin 2007

Un exemple d’ATOMEntry

<entry><title>Un exemple d’entree</title><summary>trop simple…</summary>

<author><name>Martin Dupont</name><url>http://martinDupont.fr/</url>

</author>

<issued>2007-02-05T12:29:29</issued><created>2007-02-05T14:10:58Z</created><modified>2007-02-05T14:10:58Z</modified>

<id>identite de l’entree</id>

<content type="application/xhtml+xml" xml:lang="en-us">< !-- le contenu de l’entree. Alternative : il est possible de remplacer par une URL vers le contenu-

-></content>

</entry>

Et un exemple d’ATOMFeed

<feed>

< !-- le lien vers les 20 dernieres entrees--><link rel="prev" type='application/x.atom+xml'

title="les 20 Entrees precedentes" href="http://.."/>

< !-- le lien vers le service permettant de creer une entree --><link rel='service.post' type='application/x.atom+xml"

title="créer une nouvelle information" href="xxx.atomapi "/>

< !—les 2 dernières entrees, avec leur contenu -->

<entry><id>http://example.org/blog/1630.atom</id>

< !-- le lien vers le service permettant d’éditer l’entree --> <link rel= "service.edit" type='application/x.atom+xml"

href="/yyy/zzz.atomapi"/>

<title> mon entree…</title>

<content><!-- ici, on trouve en general un resume ou les premieres lignes du blog-->

</content>

<issued>2007-10-29T20:52:57-05:00</issued><modified>2007-10-29T20:52:57-05:00</modified>

</entry>

<entry>…

</entry>

</feed>

La notion de SOA (Service Oriented Architecture ou architecture orientée service) s’applique à une nouvelle

manière d’intégrer et de manipuler les différentes briques logicielles d’un système d’information et de gérer les

liens entre elles. Comme son nom l’indique cette approche repose sur la réorganisation des logiciels en ensem-

bles fonctionnels appelés services (ou web services). Les auteurs listent les questions à se poser pour mettre

en place une SOA, et proposent une méthodologie qui recouvre les aspects architecture et les aspects orga-

nisationnels. Un modèle d’implémentation technique est présenté dans les deux principaux environnements :

J2EE et .Net. Enfin les auteurs décrivent les solutions logicielles disponibles qui ont déjà intégré SOA.

SOA : Le guide de l’architecte

Edition : Dunod/SQLI - 320 pages - Prix : 29 € € ISBN : 9782100499724

22 IT-expert n°67 - mai/juin 2007

� WS-* vs REST : une conclusion possible(mais provisoire) ?

L’avantage de l’approche REST est sa (relative) simplicité. Lesuccès de la blogosphère, qui repose en partie sur ATOM, a d’ail-leurs propulsé cette approche comme un concurrent potentieldes Web Services. Mais ce n’est pas si simple… Il ne faut pasoublier que ce type de protocole manipule avant tout des infor-mations pas ou peu structurées. Dans le monde des SI de ges-tion, manipulant des informations plus structurées, cela peutposer des problèmes :• Comment récupérer non seulement une commande, mais

également les lignes de cette commande, la description duproduit commandé par ligne, le ou les bons de livraison, etc. ?Avec REST, il faudra faire autant de demande qu’il y aura deressource concernée, et de plus il faudra utiliser les ATOM-Feed dans un contexte non prévu au départ.

• Comment rechercher non pas les « x dernières commandes »,mais les commandes « reçues entre telle et telle date et nonencore livrées » : autrement dit, comment utiliser (simplement)des critères de recherche ?

• Comment demander un devis, c’est-à-dire la valorisationd’une commande ? L’approche REST est orientée « Don-nées » et non pas « Traitement », or les services SOA ne sontpas uniquement orientés Données.

• Comment garantir sécurité, robustesse et performance ?

Conclusion

En conclusion, quel est le futur de SOA ? En ce qui concernel’ouverture du SI (les patterns 1 et 3), on pariera sur un rapproche-ment des approches WS-* et REST/ATOM pour répondre à cer-tains besoins précis.

Quand à l’approche « les services sans les web services » illustréepar le pattern 2, le combat entre SPRING 2.x et les EJB 3 estencore indécis à long terme. Mais l’approche SPRING par sasimplicité est en tout cas à court et moyen terme un cheval debataille pragmatique et désormais éprouvé. �

A propos du Groupe SQLI : Le Groupe SQLI est une société de services et solutions e-

business à forte valeur ajoutée. Il est un des acteurs majeurs français avec ses 10

implantations régionales (Paris, Lyon, Toulouse, Montpellier, Aix-en-Provence, Bor-

deaux, Dijon, Strasbourg, Nantes et Poitiers).

La société est également présente en Suisse (Lausanne et Genève), au Luxembourg,

au Maroc (Rabat, Casablanca et Oujda) et au Canada (Montréal).

Le Groupe SQLI regroupe aujourd’hui

1400 collaborateurs,et a réalisé un chif-

fre d’affaires de 91,1 M€ en 2006 ; il

prévoit de réaliser un chiffre d’affaires

de 120 M€ en 2007. SQLI est coté au

Nouveau Marché depuis le 21 juillet

2000 (code SICOVAM : 7547).

Pascal GROJEANDirecteur de SQLI Consulting

Et toujours des informations sur nos partenaires,sur les sommaires des numéros d’IT-expert

http://www.it-expertise.com :un complément d’informationsà la version papier que vous receveztous les 2 mois !

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

www.it-expertise.com

Et retrouvez de nouveaux services :• un moteur de recherche pour trouver les informations techniques qui vous intéressent• une nouvelle offre d’abonnement qui vous permet d’accéder aux anciens numéros

d’IT-expert en format pdf• les livres blancs techniques d’éditeurs de logiciels, de SSII, de nos partenaires…

dans une rubrique "téléchargements" ouverte à tous !

Actualités internationales

24 IT-expert n°67 - mai/juin 2007

Actualitésinternationales

La transition de WindowsXP vers Vista n’est pas unemince affaire pour lesentreprises. Microsoft en abien pris conscience qui alivré fin février un nouvelensemble d’outils gratuitspour le déploiement deVista. Parmi les élémentsqu’il contient, un vérifica-teur de conformité maté-rielle qui permet de stopperla mise à jour si la machinene répond pas aux exigen-ces minimales et un kit devérification de compatibilitédes applications et deconseil pour leur mise enconformité.

Le W3C a annoncé le mois dernier unchangement des méthodes de travaildes groupes en charge de l’évolutionde HTML et de XHTML 2.0. Un premierbrouillon de la future spécificationHTML devrait être disponible dès le mois de juin afin de permettreles commentaires des différents acteurs des technologies de l’infor-mation. La spécification finale n’est pas prévue avant 2010 ! Cetteouverture s’inscrit comme une réponse aux critiques qui avaientprésidé à l’établissement du HTML 4.01. Elle ne suffira sans doutepas à faire taire les inquiétudes de ceux qui voient d’un mauvais œilque le groupe de travail soit conduit par un représentant de Micro-soft. Le cas du XHTML semble plus compliqué. La version 2.0s’avère ne pas assurer une totale compatibilité ascendante avec laversion actuelle de HTML. Le W3C prend d’ailleurs en considéra-tion cette divergence et pourrait la formaliser en modifiant l’appel-lation XHTML afin d’affirmer son indépendance vis-à-vis du HTML.A terme une telle décision aboutirait probablement à la cohabitationde deux approches dans les développements de sites web.

Depuis la mi-mars, la version 5 du Linux Enterprise de Red Hat est dispo-nible pour les utilisateurs. Cette nouvelle version s’appuie sur la version 2.6.18 dunoyau Linux. Elle porte un intérêt tout particulier aux problèmes de virtualisation etinclut à ce titre les outils Xen qui constituent la solution « officielle » de virtuali-sation. La solution VMware d’EMC, bien que fonctionnant sur la nouvelleplate-forme nécessite donc une installation séparée. Parmi les nouveautésde cette version, on notera également une amélioration du support despartages réseau et imprimantes de Microsoft ainsi qu’une intégration amé-liorée avec Active Directory. Une nouvelle version de Linux pour les postesde travail est également disponible chez Red Hat. Elle vise cependant lemarché BRIC (Brésil, Russie, Inde, Chine) et ne devrait donc pas beaucoupfaire parler d’elle ni aux Etats-Unis, ni en Europe. Enfin, notons que lescraintes concernant Red Hat engendrées par l’annonce d’Oracle en octobredernier qui lançait des services de support autour du Linux Red Hat ne sesont pas concrétisées. Le titre Red Hat qui avait chuté après l’annonce est revenuà son cours antérieur 3 mois plus tard lorsque Red Hat a annoncé un accroissementde ses revenus dans les activités de support.

Actualités internationales

25IT-expert n°67 - mai/juin 2007

Mono, le runtime .Net en source librede Novell devrait se voir doter de nombreusesnouvelles fonctionnalités cette année. La premièred’entre elle est l’adjonction d’un compilateur VB.Net. Un tel composant est essentiel pour la prise encharge des sites ASP .Net puisque ceux-ci fontappel à la compilation des pages lors de l’exécu-tion. Jusqu’à présent, les sites rédigés en VB .Netétaient donc de facto hors du périmètre d’action duruntime Mono. Au programme de cette année figu-rent également la compatibilité ASP.Net 2.0,ADO.Net 2.0 et Windows Forms 2.0. Il reste quel’avenir de Mono à moyen terme semble douteux.L’incertitude n’est pas liée aux problèmes de pro-priété intellectuelle détenue par Microsoft dont laquestion semble réglée depuis l’accord passé avecNovell dans le cadre du projet OpenSUSE. Elle tientplutôt à la pertinence de la plate-forme elle-même.Les parts de marché qu’elle a su conquérir n’ontjamais été auprès des entreprises qui ont fait unchoix Microsoft, mais plutôt auprès de celles quis’intéressent intrinsèquement au logiciel libre et ontvu jusqu’ici le couple Linux/Mono comme une alter-native crédible à Java et surtout entièrement bâtiesur du logiciel libre. L’arrivée annoncée de Java dansla sphère du logiciel libre pourrait bien faire disparaî-tre cet unique avantage.

Orcas est le futur environnement dedéveloppement pour Windows Vista etOffice 2007. Il comprendra notamment la version3.5 du framework .Net, le support d’Ajax et le nouveauLanguage Integrated Query (LINQ) pour la manipulationet le requêtage de données par l’application. Les plusoptimistes estiment qu’il sera disponible d’ici la fin del’année. Viendra ensuite un an après, Rosario, la pro-chaine version majeure de Visual Studio Team System.Les améliorations de cette future version porteront sur lagestion de projet, la gestion du changement, la gestionde sources, la création et l’automatisation des tests ainsique l’accès à distance aux éléments d’un projet. J# enfin,qui ne fait plus partie d’Orcas devrait enfin faire l’objetd’un nouvel ensemble redistribuable supportant les pla-tes-formes 64 bits. Pour autant, il n’est toujours pasquestion de continuer les développements de ce lan-gage dont l’utilisation est en fort déclin.

Le Java Com-patibi l i ty Kitconstitue le sujet defriction du momententre la fondationApache et Sun

Microsystems. Cet ensemble de logiciels estdestiné à vérifier la conformité d’une implémen-tation de la JSR 176 qui couvre la version 1.5 deJava 2. La licence qui accompagne le JCK estau coeur du débat. Certes, elle offre une immu-nité pour les violations des droits à la propriétéintellectuelle ou des brevets détenus par Sun,lorsque celles-ci sont nécessaires à l’implémen-tation de la JSR 176. En revanche, elle préciseégalement un champ d’utilisation autorisé desoutils que la fondation considère comme troprestrictif. Concrètement, l’usage autorisé est« une utilisation d’ordre général sur des serveurs,des stations de travail ou des ordinateurs porta-bles ». Sont donc exclus entre autres les équipe-ments industriels ou encore les terminaux enenvironnement urbain… Or, la fondation estprête à faire certifier sa propre implémentationde la JSR 176 : Harmony. A supposer que cettecertification soit obtenue, Harmony ne pourraitcependant pas être utilisé dans des environne-ments autres que ceux constituant le champd’utilisation de la licence. Cet antagonisme n’estpas sans rappeler celui qui avait déjà opposéles deux acteurs en 2002 à propos du coût deslicences proposées par le JCP pour la fourniturede son kit de compatibilité.

Le mois d’avril aura vu la finalisation du BasicSecurity Profile (BSP) de la Web Servi-ces Interoperability Organization. Basé surla version 1.1 du WS-Basic Profile, le BSP prend encharge le messaging SOAP et la sécurisation du trans-port. Il définit également les règles à respecter pour met-tre en œuvre des services web interopérables etsécurisés. Une première révision inclura le standard WS-Security 1.1 ainsi que les éventuelles corrections deserreurs de la version qui vient d’être publiée. Uneseconde révision, elle aussi attendue d’ici la fin de l’an-née, intégrera le standard WS-Adressing et un bindingSOAP 1.1 pour le Message Transmission OptimizationMechanism (MTOM) du W3C.

Actualités internationales

26 IT-expert n°67 - mai/juin 2007

Mi-avril, Oracle a dévoilé sa nouvelleArchitecture d’Intégration d’Applica-tion (AIA) qui constitue une des premières éta-pes vers Fusion, le nouveau modèle d’applicationsde l’éditeur. AIA vise à constituer un standard pourla gestion des processus métiers (BPM). S’ap-puyant sur un modèle objet et l’utilisation du Busi-ness Process Execution Language (BPEL) pouraccéder à l’ensemble des middlewares de Fusionen utilisant une architecture orientée service(SOA).

L’affrontement entre Google etMicrosoft est en train de se déplacer sur le frontde la publicité en ligne. DoubleClick, société lea-der de la publicité en ligne avec 250 millions de dol-lars de revenus annuels ayant été acquise pour3,2 milliards de dollars par Google, Microsoft a main-tenant jeté son dévolu sur aQuantive pour lecoût faramineux de 6 milliards de dollars, ce qui enferait l’acquisition la plus chère à ce jour de Microsoftet représente un bonus de 85 % sur le prix de l’ac-tion à la veille du lancement de l’OPA. L’affrontemententre les deux géants est caractéristique d’un mou-vement plus général qui voit les grands acteurs dumarché internet tendre à tenter de maîtriser la tota-lité de la chaîne publicitaire : technologie d’affichageet de distribution de publicité en ligne, réseaud’échanges publicitaires, agence de création etd’achat d’espace. Dans ce domaine les investisse-ments de Yahoo et AOL bien que plus modestessont également notables.

Microsoft soutenu devant la Cour Suprême des Etats-Unis par les avocats du logiciellibre, Yahoo et le Ministère de la Justice Américain ! Voila l’image inhabituelle à laquelle a donné lieu leprocès intenté au géant du logiciel par ATT. La procédure remonte à 2001. Elle porte sur l’utilisation dans les systèmes Win-dows d’une technologie brevetée pour l’encodage et la compression de la voix. Microsoft ayant reconnu les faits était par-venu à un accord avec ATT. Ce dernier avait par la suite dénoncé l’accord au prétexte que l’OS contenant le code incriminéavait également été vendu en dehors du territoire américain et avait obtenu gain de cause en première instance et en appel.La loi prévoit en effet qu’une société américaine ne peut pas exporter les constituants d’une technologie brevetée pour lesfaire assembler à l’étranger. En revanche, il est parfaitement autorisé d’exporter les instructions permettant de procéder à l’as-semblage. Tout le procès consistait donc à déterminer si le master disk de Windows expédié à l’étranger afin d’être produiten masse constituait un composant ou devait être assimilé à des instructions de montage. La Cour Suprême a retenu laseconde solution, relaxant ainsi Microsoft et mettant un point final au litige.

Silverlight, la nou-velle plate-forme deMicrosoft pour laconstruction d’applicationsinternet à base de graphi-ques vectoriels est-elle unemenace pour la plate-formeFlash d’Adobe ? Certains le

pensent, un peu vite peut-être. Ce plug-in multi-navigateurs reprend une partie de la technologiegraphique présente dans Windows Vista, mais pasles graphiques 3D. Interopérable avec des applica-tions Ajax, il reçoit ses ordres sous forme de docu-ments XAML (eXtensible Application MarkupLanguage). Disponible sur Windows et Macintosh,le plug-in est compatible avec Firefox, InternetExplorer et Safari. On notera pour l’instant l’ab-sence de Linux. Silverlight et Flash sont clairementantagonistes, ne serait-ce que par le langage dedescription qui diffère. Cependant les deux pro-duits adressent des segments de marché diffé-rents. La où Adobe s’intéresse avant tout auxdesigners graphiques, Microsoft cible les dévelop-peurs Visual Studio. Si les territoires sont doncaujourd’hui assez clairement délimités, il n’en serapas forcément toujours ainsi.

L’institut SANS, l’une des organisationsmondialement reconnues en matière de sécu-rité, est sur le point de définir un examen d’éva-luation et un autre de certification portant sur laprogrammation sécurisée. Ces examens dontaucun équivalent n’existe actuellement ontpour objet d’attester les capacités d’un pro-grammeur à rédiger un programme difficile-ment « crackable ». Une série d’examenspilotes devraient être proposée aux Etats-Uniscet été, avant d’être étendue au niveau mon-dial. Les langages de programmation couvertssont le C, le C++, Java/J2EE, Perl, PHP etASP.Net.

Actualités internationales

27IT-expert n°67 - mai/juin 2007

Google s’apprête à donner naissanceà un service de recherche universel quiagrégerait l’ensemble de ses outils de recherche (textes,images, vidéos, sons…) en un seul service. Ce nouveauservice pourrait annoncer l’arrivée sur le portail de publi-cités vidéos, en plus des liens sponsorisés qui existentactuellement.

En Bref

La décision d’Oracle d’apporter à la communauté Eclipse son moteur de persistance TopLink a été unanime-ment saluée comme une contribution importante de la part d’une société dont les relations avec le monde du logiciel libre ont été par-fois chaotiques.

Les 330000 employés d’IBM peuvent désormais opterpour l’installation d’une version SUSE ou Red Hat deLinux sur leur poste de travail. Selon IBM, plus de 5 % desemployés auraient déjà opté pour cette option. Loin d’être un œuvre philan-thropique, cette opération est clairement positionnée par IBM comme unmoyen de renforcer son expérience dans le domaine du support de ces confi-gurations et dans les tactiques de migration à appliquer.

La version 4 du SDK Visual Studio 2005 disponible depuis marsdevrait sans doute être la dernière. Les prochaines versions de SDK devraient doncexclusivement cibler la version Orca de Visual Studio. La dernière version vise semble t’ilun public plus large que précédemment. Elle est en effet disponible en téléchargementgratuit sans qu’il soit nécessaire de s’enregistrer au préalable.

Visual Studio 2005 fonctionne (enfin) sur Windows Vista. Le service packpour Visual Studio 2005 publié en décembre dernier étant sorti avant Vista n’était donc pascompatible avec la nouvelle mouture du système d’exploitation. Voila qui est désormais réparéavec une version spécifique du service pack pour Windows Vista. Celui-ci règle exclusivementdes problèmes de compatibilité et ne comprend pas de nouvelles fonctionnalités. Sur ce plan,l’avenir est clairement à Orca. La prochaine version de l’IDE devrait être disponible d’ici la finde l’année.

Apple serait sur le point de mettreà jour sa gamme iMac fin juin. Lesécrans 17 pouces disparaîtraient, ne laissantsubsister que les 20 et 24 pouces. Des proces-seurs et des disques plus rapides devraientégalement être au menu de ce lifting.

La version 5.0 du Java Enterprise System deSun est désormais disponible. Elle est également lapremière à supporter Java Enterprise Edition 5. Elle se caracté-rise par ailleurs par une nouvelle approche modulaire de la pileapplicative Java. La configuration de celle-ci permet désormaisde définir pour chaque niveau les éléments du serveur d’applica-tions qui la compose et les versions de ceux-ci.

29IT-expert n°67 - mai/juin 2007

Quoi de neuf Docteur ?

IMPRIMEZ MOINS,maîtrisez vos coûts !

Le tout EDI (Echange de données informatisées ou Electronic

Data Interchange) qui devait conduire au « zéro papier » n’est

pas pour demain si l’on en juge par la santé florissante des

acteurs du domaine de l’impression.

Ainsi, le directeur général du groupe Imagerie et Impression

de HP pour la région EMEA annonce pour le premier trimes-

tre 2007 une augmentation des ventes de 21 % des impri-

mantes laser et de 15 % des imprimantes à jet d’encre. Selon

Gartner, les 3 prochaines années devraient voir une augmen-

tation sensible des dépenses dans ce domaine.

Une autre étude révèle qu’un employé produit en moyenne

près de 32 pages imprimées par jour, pas loin d’un quart

d’entre elles partant à la poubelle le jour même. Si 61 % des

personnes interrogées sont conscientes du gaspillage, seu-

les 34 % admettent y participer.

Qu’à cela ne tienne, les constructeurs d’imprimantes se char-

gent de nous le rappeler en chatouillant notre fibre écologique

et notre portefeuille. Ainsi Canon UK a-t-il diligenté à Gartner

une étude qui met en exergue le gâchis énorme de papier et

de cartouches produites par les sociétés Britanniques. Le site

Web du constructeur propose un calculateur de pages gaspil-

lées : http://www.canon.co.uk/smallsteps_calculator/et incite

les entreprises au régime. Canon France enjoint ses utilisa-

teurs à ne plus laisser la couleur dévorer leur budget. Lexmark

nous indique comment accroître notre productivité tout en

préservant la planète, et va jusqu’à conseiller aux entreprises

d’imprimer moins http://www.imprimezmoins.fr. Le site Web

de ces leaders du marché de l’impression fait la part belle à

l’environnement à grands renforts de photos de forêts et de

paysages splendides.

Sont-ils tous tombés sur la tête ? Que nenni, car tous ont la

solution qu’il faut pour faire de nous des éco-citoyens qui

dépensent moins d’argent. Que n’y ont-ils pensé plus tôt.

30 IT-expert n°67 - mai/juin 2007

La technologie

Laser ou jet d’encre ? A ce jour, la question ne se pose quasimentjamais. A l’exception de secteurs très spécifiques utilisant desimprimantes à jet d’encre pour des impressions en couleur sur degrands formats, ou des supports particuliers, la très grande majo-rité des imprimantes achetées par les entreprises mettent enœuvre la technologie laser.Les coûts d’acquisition, même s’ils sont nettement supérieurs àceux des imprimantes à jet d’encre, ont significativement baissé.Le coût à la page d’une impression en noir est assez bas, et lesvitesses d’impression sont de plus en plus élevées.D’autre part, la technologie laser, assez proche de celle mise enœuvre sur les photocopieurs, est maintenant éprouvée et labaisse des coûts de production a permis aux constructeurs d’in-tégrer aux consommables des pièces d’usure à l’instar du tam-bour, permettant de diminuer sensiblement les coûts demaintenance.

Enfin, les désagréments des premiers modèles (dégagementd’ozone dû au corona, ce fil conducteur utilisé pour charger élec-triquement le papier) appartiennent à l’histoire ancienne.

Si le domaine de l’impression professionnelle en noir est acquisau laser, il en est tout autrement de l’impression couleur. En effet,les avantages du laser ne sont plus aussi évidents dès qu’il s’agitd’impression couleur et deviennent même parfois des inconvé-nients. Une des forces du laser comparé au jet d’encre vient dufait que l’impression se fait en mode page : l’image est « impri-mée » sur le tambour par le laser puis l’encre est transférée sur lapage en une seule passe. Pour la couleur, c’est plus compliqué :sur les modèles dits à carrousel, l’impression est faite en quatrepassages (un par couleur primaire), ce qui ralentit d’autant lavitesse d’impression. Les modèles tandem déposent toutes lescouleurs en une seule passe, les toners étant disposés parallèle-ment. Si cette technologie permet de ne pas perdre en vitesse,elle est plus complexe et donc plus chère à l’achat, mais égale-ment en maintenance.Et quelque soit la technologie de transfert mise en œuvre, lesimprimantes laser couleur coûtent cher à l’usage, ne serait-ceque parce que le taux de remplissage d’une page couleur estbeaucoup plus important que celui d’une impression en noir, cequi augmente énormément la fréquence de remplacement desconsommables.

Les imprimantes à jet d’encre, en raison de leur faible coût d’ac-quisition, ont trouvé leur place sur le marché de l’impression fami-liale, marché en pleine explosion avec l’avènement de laphotographie numérique. Très économiques à l’achat, elles four-nissent une haute qualité d’impression en noir comme en couleur.L’impression se faisant par ligne, et non par page comme lesimprimantes laser, la vitesse d’impression est limitée. Celle-ci estégalement contrainte par le grand nombre de pièces mobilesmises en œuvre. Les têtes d’impressions se déplacent sur unaxe, le papier sur un autre, la garantie de la qualité ne permet pasde grandes vitesses d’impression. Ces limitations, si elles sontrédhibitoires dans le monde professionnel sont largement accep-tables pour des imprimantes à usage familial. Le gros problèmedes imprimantes à jet d’encre, et un des principaux freins à une

31IT-expert n°67 - mai/juin 2007

utilisation plus accrue dans le domaine professionnel réside dansle coût de ses consommables.

L’encre est un produit de luxe

2000 € c’est le prix moyen d’un litre d’encre couleur. A ce prix, onest en droit d’hésiter à imprimer les 500 photos de ses vacancesou des premiers pas du dernier-né.Inutile de chercher parmi les leaders du marché celui qui pro-pose les prix les plus avantageux, ce sont les mêmes. Le marché,oh combien lucratif, est parfaitement verrouillé.Cartouches spécifiques par constructeur, voire par modèle, dis-positifs intégrés aux cartouches évitant l’utilisation de cartou-ches concurrentes qui sont refusées par l’imprimante, ou arrêtantl’impression après un certain nombre de feuilles imprimées ou deniveau d’encre restant. Le dispositif est parfaitement huilé.Restent les systèmes de remplissage des cartouches usagées aumoyen d’une seringue et d’un flacon d’encre. Celui ou celle qui autilisé ce système plus d’une fois sans le jeter par la fenêtre est unhéros. Ce système est évidemment inenvisageable en entreprise(les pauvres stagiaires).La dépense est encore plus douloureuse lorsque les cartouchescontiennent toutes les couleurs et doivent être remplacées dèsqu’une couleur a été consommée.

L’espoir vient des récentes annonces de quelques constructeursqui bousculent l’ordre établi. Kodak tout d’abord. Le roi de la pelli-cule et du papier photo était condamné à se reconvertir. Leconstructeur propose des imprimantes dont le coût avoisine celuide ses concurrents, mais des consommables bien moins chers. Ilest allé jusqu’à mettre en ligne un site Web satirique comparant leprix de l’encre à des produits de luxe (http://www.inkisit.com/).Kodak se défend par ailleurs d’utiliser des produits bas de gammeet certifie une durée de vie de 100 ans aux photos imprimées.Comment fait-il ? Les profits encaissés sur la vente des consom-mables sont tels que la marge de manœuvre était grande. Kodakdiminue le coût de fabrication de ses cartouches en n’y intégrantpas la tête d’impression, et fait un peu moins de marge sur leurvente. Il convient de noter que qualité et économie d’encre nesont assurées qu’en utilisant le papier Kodak (il faut bien écoulerles stocks). La démarche mérite toutefois d’être saluée car celane manquera pas de faire bouger les concurrents.C’est ce qu’a déjà fait HP, leader incontesté du marché de l’im-pression, et qui n’aime pas qu’on vienne marcher sur ses plates-bandes. Le constructeur propose sur ses modèles jet d’encre àvenir des cartouches de grande capacité, associées à un dispo-sitif plus poussé de contrôle de la diffusion de l’encre, dispositifsqui permettent de diminuer très sensiblement le coût à la page del’impression jet d’encre.

Les nouveautés

HP ne vise pas seulement le marché des particuliers avec sesnouveaux modèles à jet d’encre, mais cherche à fournir une alter-native aux problèmes de l’impression laser couleur.Celle-ci viendra peut-être de ce qui apparaît comme une révolu-tion dans le domaine de l’impression et qui constitue une nouvelletechnologie. A l’heure où l’hybride est très à la mode dans ledomaine de l’énergie et de l’écologie, deux annonces font grandbruit dans le monde de l’impression.EdgeLine et MemJet. Il s’agit de la matérialisation par HP d’uncôté et Kia Silverbrook d’un autre d’une technologie utilisant lemeilleur des deux mondes laser et jet d’encre. Le directeur géné-ral du groupe imagerie et impression d’HP France compare l’in-troduction d’HP Edgeline à « l’arrivée des monospaces il y aquelques années sur le marché de l’automobile ».Il n’y a plus de toner, ni de four et évidemment pas de laser, ce quicontribue à rendre les coûts beaucoup moins élevés. Des têtes

Epson17,1%

Canon16,8%

Lexmark7,8%

Brother6,2%

Autres11,9%

HP40,2%

2e semestre 2006

Epson21%

Canon17,3%

Lexmark8,9%

Brother5,4%

Autres12,3%

HP34,1%

2e semestre 2005

Evolution des parts de marché en France

Source: Gartner Dataquest

32 IT-expert n°67 - mai/juin 2007

Frédéric HOURMANTConsultant Senior. Plus de 15 ansd’expérience sur les basesde données et les architecturesdistribuées.

d’impression fixes couvrent la largeur de la feuille de papier,réglant le problème mécanique qui limite la vitesse d’impressiondes modèles à jet d’encre. L’impression est à jet d’encre, la tech-nologie permettant une qualité accrue pour une consommationd’encre maîtrisée et donc moindre.HP a racheté il y a quelques années la société Indigo et sa tech-nologie, puis a investi quelques milliards de dollars avant de sor-tir ses deux premiers modèles dans les semaines qui viennent.SilverBrook, son challenger, n’est pas inconnu dans le mondede l’impression et est à l’origine de quelques technologiesaujourd’hui largement utilisées. Son point faible principal face augéant HP, est que même si sa technologie est performante etefficace, il faut convaincre les concurrents d’HP de l’intégrer àleurs modèles. Visiblement, pour ces derniers, il est urgent d’at-tendre, d’autant plus qu’HP va d’abord attaquer le marché desimprimantes haut de gamme ainsi que celui, nouveau pour leconstructeur, des photocopieurs.Ainsi ses deux modèles à venir, sont des imprimantes multifonc-tions. Affichant des vitesses élevées, de l’ordre de 40 à 60 pagespar minute selon le modèle et le type d’impression (couleur ounoire), elles visent clairement le marché haut de gamme à volu-métrie importante. Le constructeur emprunte d’ailleurs aux ven-deurs de photocopieurs leur modèle économique puisque cesimprimantes ne seront commercialisées que dans le cadre d’uneoffre de service associée pendant trois ans ou plus et intégrant lamaintenance et les consommables pour un coût entre 20 000 et30 000 euros.

Les multifonctions

Très largement répandues dans le domaine de l’impression fami-liale, les imprimantes multifonctions n’ont jusqu’à un passé assezrécent pas trouvé grâce aux yeux des entreprises. C’est assezcompréhensible, peu cher, car utilisant la technologie à jet d’en-cre, couleur, l’imprimante multifonctions remplit les usages d’im-primante, de photocopieur, de scanner voire de fax.A contrario, elle est trop lente pour être utilisée dans l’entrepriseoù les fonctions de fax et de photocopie sont d’autre part assu-rées par des équipements distincts et dédiés.A l’instar de Xerox ou de Canon, ce sont les leaders du marchédes photocopieurs qui se sont intéressés les premiers au marchédes imprimantes en commençant à fournir de modèles connec-tables au réseau de l’entreprise, pouvant imprimer des docu-ments soumis depuis les ordinateurs et leur permettre d’ysauvegarder des documents qu’ils auraient scannés. Des multi-fonctions en somme. Là où le bât blesse, c’est que si l’on acceptesans sourciller de faire 50 mètres pour photocopier un docu-ment, on le fait rarement sans bougonner pour aller chercher undocument imprimé. Si tout le monde n’imprime pas un bilan

confidentiel, rares sont également ceux qui ont envie que le pre-mier quidam venu découvre sur l’imprimante, la publicité de l’hô-tel où ils vont aller passer le week-end.Les grosses imprimantes multifonctions sont pourtant une desréponses proposées par les principaux constructeurs au coûtélevé du budget des imprimantes dans les entreprises. Les argu-ments percutants sont destinés à sensibiliser l’acheteur aux inté-rêts d’une telle acquisition :• Regroupement des imprimantes individuelles en unités plus

importantes. Plus chères, elles sont cependant plus adaptéesà l’impression de gros volumes et offrent des coûts à la pageet de maintenance moindres,

• Gestion intelligente des impressions : impression automati-que en recto/verso et noir,

• Répercussion des coûts par service et sensibilisation desemployés,

• Limitation de l’usage de la couleur,• Sécurisation des documents sensibles en conditionnant leur

impression à la saisie d’un code ou la présentation d’unbadge.

Pour ceux qui ne sont pas prêts à remplacer leur parc d’impri-mantes mais souhaitent maîtriser leurs budgets d’impression,des solutions logicielles offrent des fonctionnalités équivalentes.Assurant les fonctions de spooler d’impression pour l’ensembledes imprimantes de la société, elles assurent une gestion intelli-gente et maîtrisée des impressions de l’entreprise.

Conclusion

« Imprimez mieux, écologique et pour moins cher ». Cette propo-sition n’est pas sans faire penser aux lessives qui « lavent plusblanc que blanc ». Il est d’autre part quelque peu dérangeant devoir ces constructeurs mettre en avant avec tant d’insistance leursouci de préservation de l’environnement.Mais ne faisons pas la fine bouche, toute initiative visant à écono-miser les arbres est bonne à prendre, quelles que soient les moti-vations réelles de ceux qui les prônent…

IT-expert, la référence techniquedes professionnels de l’informatique

Bimestriel de conseil et d’expertise technique,

IT-expert vous offre l’information essentielle pour

vous former et décider.

IT-expert, soudain tout est clair…

www.it-expertise.com

Pour tous renseignements : IT-expert - 3, rue Marcel Allégot - 92190 MEUDON - FRANCE

Tél. : +33 (0)1 46 90 21 21 - e-mail : [email protected]

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

Bon d’abonnement à faxer au+33 (0)1 46 90 21 20

ou renvoyer au Service Abonnements3, rue Marcel Allégot

92190 MeudonFrance

LA RÉFÉRENCE TECHNIQUE DES PROFESSIONNELS DE L'INFORMATIQUE

� Mme � Mlle � M.

Nom

Prénom

Société

Fonction

Adresse

CP

Ville

E-mail

Tél

Fax

�Je m’abonne 1 an au bimestriel IT-expert. Je recevrai 6 numéros pour 89 € TTC

�Je m’abonne 1 an à IT-expert version papier + accès au pdf en ligne* pour 120 € TTC

� Chèque joint à l’ordre de Press & Communication France

� Règlement à réception de facture

Date :Signature obligatoire :

Abonnez-vous à IT-expert

Abonnez-vous sur www.it-expertise.com/Abonnement

* Vous recevez dès sa parution un exemplaire d’IT-expert par la poste à l’adresse de votre choix et vous aurez accès à l’ensemble des anciens numéros d’IT-expert en version PDF sur le site webd’IT-expert : http://www.it-expertise.com

35IT-expert n°67 - mai/juin 2007

Comment ça marche ?

Tout responsable des études et développements, tout

chef de projet et toute personne en charge d’applica-

tions d’entreprise stratégiques se doivent de livrer cel-

les-ci dans les limites de coûts et de délais qui lui sont

imparties, tout en respectant les fonctionnalités exi-

gées par les utilisateurs. Les applications elles-mêmes

doivent faire preuve d’un niveau de qualité accepta-

ble, ce qui bien souvent n’apparaît pourtant pas

comme une évidence. Pourquoi donc la qualité interne

des applications est-elle si souvent sacrifiée ?

Tout d’abord, parce qu’il est crucial de livrer le produit

dans les délais. Certains chefs de projet ont les yeux

rivés sur les exigences de livraison à court terme sans

considérer les avantages à long terme que la qualité

interne apporterait à leur travail. Dans de nombreux

cas, ils estiment qu’une série de tests classiques suffit

amplement. L’application à l’air de marcher, alors,

allons-y ! Ensuite, les chefs de projet qu’ils soient tech-

niques ou fonctionnels sous-estiment les avantages

concrets et stratégiques qu’apportent à moyen et long

terme de bonnes pratiques de qualité interne des appli-

cations. Il est vrai qu’ils sont surtout payés pour livrer à

temps et par tous les moyens. L’expression « ce pro-

blème sera réglé dans la prochaine version» est proba-

blement la plus couramment employée dans l’univers

du génie logiciel. En réalité, les bonnes intentions initia-

les des meilleurs responsables sont souvent balayées

par la nécessité de devoir livrer dans le délai imparti,

tandis que seuls les cadres dirigeants (ceux qui se sou-

cient vraiment de ce qui arrivera l’année suivante et qui

mesurent le poids réel d’un avantage stratégique) peu-

vent exercer une influence positive et protéger l’entre-

prise de risques majeurs sur la sécurité, d’un manque

de réactivité ou de l’augmentation exponentielle des

coûts de maintenance au fil du temps.

L’objectif de cet article est de montrer, au travers

d’exemples concrets, qu’un code interne de bonne

qualité associé à la mise en place d’une véritable poli-

tique de qualité architecturale peuvent avoir des effets

immédiats et positifs sur l’entreprise et sur la producti-

vité des équipes de développement alors qu’a contra-

rio, une mauvaise qualité interne peut immédiatement

et gravement la compromettre. Cet article dresse éga-

lement la liste des avantages, à moyen et à long terme,

d’une stratégie appropriée de gestion de la qualité du

code pour in fine économiser sur les budgets de main-

tenance, rendre l’informatique plus réactive et protéger

l’entreprise contre des risques majeurs tels que la cor-

ruption des données, la fraude ou la dépendance vis-à-

vis de fournisseurs stratégiques.

Qualité interne de ses logiciels :

mythes et réalités

36 IT-expert n°67 - mai/juin 2007

Le vrai coût d’une bonne qualité interneen génie logiciel et son impact positifsur la productivité

Dans de nombreux domaines liés à l’ingénierie, « meilleure qualitéinterne » est irrémédiablement lié à « surcoût ». En génie mécani-que, par exemple, il est très difficile d’améliorer la qualité tout enréduisant les coûts. Seul un talent exceptionnel peut réussir cepari : W Edwards Deming a aidé Toyota à fabriquer de meilleursvéhicules tout en réduisant les coûts de 20 % en mesurant la tota-lité des processus de production et en imaginant des améliorationspermanentes à partir de données vérifiables et régulières. Maiscela reste très difficile, tout simplement parce que l’on touche ici àdu matériel, c’est-à-dire aussi des matériaux, et que chaque élé-ment reste prisonnier de son coût global. Deming aurait fait desmiracles dans l’univers du logiciel.

Curieusement, les responsables du développement d’applications,faisant inconsciemment le parallèle avec d’autres secteurs, évi-tent souvent de s’attaquer à la qualité interne, croyant fermementqu’elle ralentira le développement et hypothéquera leur capacité àlivrer leurs produits à temps. Ces craintes sont parfois renforcéespar l’équipe de développement elle-même, dont les membresconsidèrent que « qualité du code », respect des normes et stan-dards ou autre prise en compte de « frameworks » sont pour euxautant d’épines dans le pied, bridant leur liberté d’auteurs, leurcréativité et leur talent intrinsèque.

La réalité est toute autre. Au cours des 15 dernières années, sousl’influence de la mondialisation des ressources informatiques etd’une pression économique croissante exigeant en premier lieudes résultats plus immédiats à des coûts inférieurs, le développe-ment applicatif est passé d’un monde jusqu’alors essentiellementlibertaire voire artistique, à une profession bien plus mature. Tech-niquement, le fait que la qualité interne des applications puisseêtre source de productivité se démontre sur deux aspects : moinsde rework * et davantage de réutilisation.

� Réduire les rework inutiles

D’après M. E. Fagan dans « Design and code inspections toreduce errors in program development », « Éliminer une erreurdès les premiers stades de développement coûte 10 à 100fois moins cher que de devoir la corriger si l’on attend laphase des tests fonctionnels ».Par « rework », nous désignons l’ensemble des efforts nécessairespour régler des problèmes qui auraient pu être détectés plus tôt.Quelques faits : selon des organismes tels que l’IEEE, le SEI, leCSE et d’autres, environ 40 % du travail réalisé dans le cadre des

projets logiciels actuels consiste en des rework inutiles. Or…80 % de ce travail redondant est causé par seulement 20 % desdéfauts, ce qui n’a rien de vraiment surprenant. Et environ 90 %des pannes sont provoquées par une très faible proportion deces défauts, inférieure à 10 %.De même, on sait parfaitement, et Barry Boehm l’a très bien mon-tré dans « Industrial Metrics » (IEEE Software), que la détection etla correction d’un problème une fois le produit livré coûtent 10fois plus cher que si ce problème est traité au cours du processusde développement. Il est également bien établi que l’essentieldes économies générées par une meilleure maturité des proces-sus logiciels provient d’une réduction des rework inutiles. Ledéveloppement applicatif est probablement le dernier secteurindustriel dans lequel on attend que le produit parvienne en boutde chaîne de production pour en contrôler la qualité interne et oùl’on demande au client de le tester lui-même… Au bout ducompte, s’il était possible de détecter dès les premières phasesles défauts les plus graves (les 20 % cités plus haut), on pourraitconsacrer bien plus d’efforts à améliorer la productivité (aux alen-tours de 30 %) et à diminuer considérablement les temps d’inter-ruption de service.

Pour ceux qui regardent encore avec scepticisme les statisti-ques et les experts de l’IEEE, qu’ils jettent un bref coup d’œil autravail quotidien d’un service help desk ou au journal d’un sys-tème de gestion de la configuration logicielle (SCM). L’analysedes bogues sera pour eux éminemment instructive. Ils constate-ront que des centaines, voire des milliers, de bogues pourraientêtre évités grâce à une détection précoce, directement au niveaudu code ou à la mise en place de l’architecture. Des centaines dedéfauts tardifs perturbent considérablement les équipes de déve-loppement et leurs procédures, les obligeant à « remonter letemps », souvent en mode « catastrophe » et presque toujours auprix fort. La détection précoce des défauts représente donc indé-niablement un gain sensible.

En outre, dans le cas de grands projets de développement oùdes dizaines de développeurs travaillent sur un même projetet/ou sur le même programme, le risque que plusieurs dévelop-peurs modifient simultanément le code source et le rendent inco-hérent augmente terriblement. Si les tests de cohérence ne sontexécutés qu’une fois achevé le cycle de développement d’uneversion, les risques d’incohérence et le coût de leur correctionsont souvent très élevés. Les développeurs devront modifier uncode écrit des semaines plus tôt, provoquant des bogues et desretards de livraison significatifs. Tout cela peut être évité en met-tant en place un processus simple consistant à créer des procé-dures de vérification automatique associées à une relecture ducode stricte et exhaustive. Ce système permet aux responsa-bles d’équipe de déclencher des alertes critiques chaque fois

* Le terme anglais "rework" désigne le fait de s’y reprendre à plusieurs fois avant de délivrer un résultat satisfaisant. En ingénie-rie logicielle, cela se traduit par les bugs enfouis dans des applications mises en production et qui nécessitent des allers/retoursincessants entre le développement, l’assurance qualité et/ou les utilisateurs. Ces bugs et ses reprises d’erreurs vont donc occa-sionner un effort supplémentaire pour être corrigés, effort qui pourrait être économisé si le développement était fait correctementdès la première itération.

37IT-expert n°67 - mai/juin 2007

que le processus d’élaboration échoue ou que la relecture ducode source fait apparaître une dérive de la qualité, la violation denormes, etc. Cela conduit à terme à supprimer une part significa-tive du travail de rework.

Ce type de stratégie de relecture du code existe depuis déjà 30ans dans le monde des logiciels scientifiques ou des logicielsintégrés en temps réel, qui ne peuvent se permettre aucuneerreur de production.

� La réutilisation

« Les gains de productivité les plus importants viennent de laréutilisation des logiciels » - Boehm, 1984.1984… « La réutilisation » dans le monde du génie logicielremonte déjà à loin et l’objet de cet article n’est certes pas de jus-tifier telle ou telle approche ou technique de développement parcomposants ou encore une nouvelle méthode de conception engénie logiciel. Je dis très simplement ceci : si les développeursfaisaient tous de leur mieux pour réutiliser leur travail chaque foisque cela est possible ou qu’ils en ont l’occasion, leurs responsa-bles constateraient immédiatement un gain fantastique de pro-ductivité ! Le terme de « réutilisation » peut ici s’appliquer trèslargement : depuis les passages de code fonctionnel les plusvolumineux et les plus sophistiqués jusqu’aux paragraphes lesplus minimes, mais validés et testés de nombreuses fois. Mal-heureusement, l’histoire relativement courte du génie logiciel enfait une science encore immature. Les développeurs continuentà réinventer la roue plutôt que de réutiliser ce qui a été pro-grammé et testé 50 fois auparavant.

Les exemples sont innombrables dans de nombreux domainesde développement :• Architecture (usage correct des infrastructures logicielles, de

la gestion des données, des composants ou des couchespersistantes, etc.)

• Technique (bibliothèque offrant des services fiables tels que lagestion des exceptions, les mécanismes de journalisation etde traçabilité, ou des fonctions destinées à l’utilisateur final,par exemple, « undo »)

• Fonctionnel (bibliothèques fonctionnelles, composants, règlesprofessionnelles, etc.)

La réutilisation peut faire littéralement exploser la productivité.Cependant, bien que la conception architecturale, les normes etla définition des standards soient évidemment importantes, lesecret est le contrôle du comportement des acteurs, c’est-à-direl’équipe de développement. Et au-delà des gains de productivitéimmédiats obtenus en phase de développement, la qualité estégalement en jeu. D’une part, on peut espérer une réductionsignificative des tests unitaires. D’autre part, réutiliser une biblio-thèque déjà en production depuis un certain temps offre évidem-ment davantage de sécurité. En outre, observer des pratiquescommunes tout au long du cycle de développement permetd’établir une base de compréhension commune, qui permet àson tour de transférer plus facilement les connaissances et lesressources.

Les pratiques actuelles de gestion du développement applicatifsont caractérisées par une absence totale de surveillance et demesures tout au long du cycle de développement, ce qui permetaux développeurs de travailler, pour l’essentiel, exactementcomme ils l’entendent. Même les ingénieurs les plus talentueuxsont attirés par les technologies dernier cri, confondant ainsifabrication industrielle et recherche. Mieux encadrés, ils serontplus enclins à :• observer les règles, les standards et les normes du secteur en

général et de l’entreprise en particulier,• réutiliser des « morceaux de code » logiciel existants,• utiliser plus correctement les infrastructures mises en place

par l’équipe d’architecture.

� Au-delà de la réutilisation

Au-delà de la réduction des rework et de l’encouragement à laréutilisation, certaines règles de programmation peuvent paraîtrequelque peu coûteuses, mais valent indéniablement que l’on yinvestisse :• les conventions de dénomination,• la lisibilité du code,• la mise en ordre des éléments et les règles d’intégrité.

Tout cela est souvent écarté par les développeurs, qui n’y voientque des obstacles à leur productivité. C’est là une réaction toutsimplement humaine. Comme dans tous les secteurs, les déve-loppeurs contractent des habitudes et refusent de devoir se plierà des règles et à des structures. Dans le cas du génie logiciel, denombreux responsables ne relisent pas le code source lui-même,ou se contentent de n’en relire que de courts passages. La situa-tion est donc très confortable pour l’équipe de développement.Il s’agit véritablement d’une perte pour l’entreprise car ces quel-ques minutes supplémentaires investies lors du développementseraient rentabilisées 10 fois dès la version en cours d’élabora-tion…

Nous venons de démontrer qu’une meilleure qualité du code necoûtait en réalité pas cher à mettre en œuvre. « Une meilleure dis-cipline personnelle peut réduire les taux de défauts de 75 % »,estime le Centre de génie logiciel de l’Université de Californie duSud. En supposant que nous puissions à faible coût contrôler lasituation et être certains à 100 % que nos équipes de développe-ment travaillent de la manière dont nous le souhaitons et non dela manière dont elles le souhaitent, « une qualité supérieure pourun moindre coût » peut devenir immédiatement une réalité.

Une mauvaise qualité interne du code peutimmédiatement et gravement compromettrel’entreprise

Comme nous l’avons signalé en introduction, certains responsa-bles du développement des applications persistent à croire quela qualité du code peut attendre et que l’entreprise est suffisam-ment protégée par les outils et les procédures de tests mis enplace au cours des dernières années, puis appliqués aux applica-

38 IT-expert n°67 - mai/juin 2007

tions à l’exécution. Bien que la plupart de ces responsablesreconnaissent les avantages à moyen ou long terme pour l’entre-prise d’une bonne qualité interne, une poignée seulement voitclairement qu’une fraction importante des incidents de produc-tion trouve leur origine réelle dans le code source lui-même etpourrait être évité grâce à la mise en place de procédures adé-quates de validation de qualité interne au cours du processus dedéveloppement.

Examinons les relations directes et immédiates entre des inci-dents survenant en production et la qualité interne du code, àl’aide d’exemples concrets.

� Problèmes de performances

• Scénario 1 : interruption d’une application de commerce élec-troniqueUne application de commerce électronique flambant neuve,d’un coût de plusieurs millions d’euros, passe avec succèsune batterie de tests intensifs avant de voir lentement et pro-gressivement se détériorer ses temps de réponse jusqu’àdevenir inutilisable. Les systèmes doivent être arrêtés, l’entre-prise ne peut plus assurer ses services comme prévu et lecoût de la panne représente pour elle des millions d’euros enclients perdus, ceux-ci s’adressant à une concurrence quioffre des services comparables de façon plus rapide et plusfiable.Recherches : les architectes et les experts soulèvent à nou-veau le capot… Les plates-formes applicatives d’aujourd’huimettent en commun les ressources et les connexions auxbases de données (.NET, serveurs d’applications Java…).C’est pourquoi les éditeurs de logiciels tels que MicrosoftVisual Studio recommandent la méthode « open late, closeearly » pour utiliser les connexions aux bases de données demanière que celles-ci restent ouvertes le moins longtempspossible. Les développeurs qui ne ferment pas suffisammenttôt une connexion ou qui oublient de la refermer compromet-tent l’objet même des pools de connexion. Ils ralentissent ainsil’application, qui finit par ne plus fonctionner du tout ! Une desfaçons d’appliquer cette stratégie « open late, close early »consiste à obliger tous les développeurs à écrire le code d’ou-verture et de fermeture de la connexion avec la mêmeméthode afin d’éviter l’apparition de ce phénomène deconnexion ralentie.Dilemme : lors de la relecture du code, ce type d’informationn’a pas été recherché : trop cher, trop vaste, pas assez detemps. Lors des séances d’intégration et des tests définitifs,l’équipe qualité a bien lancé des simulations à l’aide des outilsappropriés mais sur quelques jours d’utilisation intensive seu-lement, au lieu de plusieurs mois. Ce problème, qui n’apparaîtqu’au bout d’un certain temps, leur a échappé, masquant unedégradation lente et progressive de la situation.

• Scénario 2 : effet « bombe à retardement »Même situation que ci-dessus, mais avec un effet plus tardifde « bombe à retardement ». Au bout de quelques mois d’uti-lisation sans problème, une transaction devient extrêmement

lente et les utilisateurs se plaignent qu’elle « ne s’est pas ache-vée à temps ».Recherches : les recherches sur le serveur de production mon-trent que la transaction pénètre dans une boucle contenant uneconcaténation de chaîne. Lors de la phase de tests et en débutde vie de l’application, la plupart du temps, la boucle de conca-ténation de chaîne ne s’exécutait qu’un nombre limité de fois ettout allait bien. Comme il n’est plus question de faire appel ausous-traitant, déjà intégralement payé, l’entreprise doit identi-fier le problème et le résoudre elle-même. Sous certaines condi-tions spécifiques, la concaténation de chaînes s’exécuteplusieurs milliers de fois, compromettant gravement les perfor-mances. Dans l’environnement Java, la concaténation de chaî-nes exige la création en mémoire d’au moins deux objets,lesquels sont rendus disponibles pour un processus qui s’exé-cute de temps à autre en tâche de fond afin de récupérer et viderla mémoire inutilisée. Lorsqu’une boucle contenant une conca-ténation de chaîne s’exécute un millier de fois, elle ralentit consi-dérablement le fonctionnement puisqu’elle aboutit à la créationde 2 000 objets chaînes qui ne sont plus utilisés et attendentd’être nettoyés.Dilemme : les architectes Java avaient bien recommandéd’utiliser StringBuffers au lieu de Strings mais personne nes’en est soucié. D’ailleurs, les développeurs étaient-ils seule-ment au courant ?

� Application en panne

Un soudain manque de ressources disponibles dans le pool deconnexion et l’application devient inutilisable. Certaines excep-tions, lorsqu’elles sont détectées, exigent un traitement de récu-pération spécifique (classes OO, techniques de programmationcapables de gérer automatiquement des erreurs potentielles défi-nies par type de problème…). Cela est particulièrement vrai dansle cas d’exceptions liées à l’utilisation de ressources attribuées :fichiers, sockets, connexions à la base de données devant êtrerefermées après usage. Pour gérer les exceptions (clausesTry/Catch), il est déconseillé de capturer directement la classed’exception : celle-ci est en effet la « mère » de toutes les excep-tions. Son interception directe signifie que l’opération try/catchtraitera toutes les exceptions de la même manière, empêchantainsi l’application de procéder aux traitements de récupérationspécifiques requis. Chaque exception avec allocation de res-sources soumise à un catch ne libérant pas explicitement la res-source crée une « fuite de ressources ». Lorsque ces fuites seproduisent sur un jeu limité de ressources disponibles, tellequ’une connexion de base de données, l’application devient rapi-dement inutilisable. La conclusion sera qu’un développeur sta-giaire, a commis une erreur indétectable.

� Corruption ou perte de données

Brusquement, alors qu’un système de traitement des comman-des semble parfaitement fonctionner, des commandes d’achatse perdent et l’application doit être arrêtée, puis redémarrée àpartir de sa dernière sauvegarde valide. Le traitement des don-

39IT-expert n°67 - mai/juin 2007

nées intervenu depuis la dernière sauvegarde est tout simple-ment perdu.

Il s’agit d’un cas plutôt extrême, mais qui peut se produire. Dansles langages modernes, tels que Java ou C#, on a introduit lagestion des exceptions pour obliger les développeurs à gérer leserreurs de façon distincte du code traitant l’activité de l’entre-prise et du code régulier (via une clause catch). Toutefois, lesdéveloppeurs, bien que contraints par le compilateur de créer unbloc catch, le laissent régulièrement vide (conformément à la tac-tique de programmation bien connue : « je ferai ça plus tard »). Laconséquence est que cela réduit l’exception au silence (soyonsdiscrets, personne ne verra jamais s’afficher de message d’erreurnulle part) et que celle-ci reste non traitée. Si l’exception concernela gestion de la base de données, par exemple, cela entraîne laperte de précieuses données clients.

La cause aurait aussi pu être la suivante : pour les systèmes d’in-formation complexes, l’actualisation des données est une ques-tion très sensible où s’entremêlent des aspects techniques(performances, sécurité et robustesse) et des aspects de logiquecommerciale. Les architectes et les DBA définissent en généralun jeu de procédures d’actualisation, à utiliser obligatoirementpar les développeurs qui doivent écrire du code modifiant desdonnées existantes. Cependant, si personne ne vérifie que cesrègles d’accession aux données sont respectées, le risque existeque les développeurs contournent ces procédures d’actualisa-tion et créent des procédures inadaptées entraînant la corruptiondes données. Personne ne peut garantir que ces couches degestion des données sont correctement utilisées, sauf s’il estprocédé à un examen soigneux du code, ce qui n’est pas tou-jours perçu comme financièrement réalisable.

� Sécurité

Dans un système de banque en ligne, M. Dupont accède auxdonnées personnelles de M. Durand. Dans cette histoire (tout àfait véridique), en dépit de règles de programmation spécifiquesparfaitement limpides, les développeurs ont partagé des objetsentre des sessions Web dans lesquelles ils stockaient des don-nées liées aux sessions. Les développeurs doivent vérifier queces objets ne possèdent pas de variables d’instance, afin d’évi-ter qu’elles ne contiennent des données appartenant à une ses-sion et pouvant être utilisées dans une autre session. Ce travaildoit-il revenir aux développeurs eux-mêmes ? Cela est un autredébat.

Il existe également des accès non autorisés à des données confi-dentielles à travers une « backdoor » codée en dur dans l’appli-cation. Il arrive que les développeurs introduisent des« backdoor » à des fins de débogage. Il est essentiel de s’assu-rer que le code allant en production soit débarrassé de ce typed’accès qui peut devenir dangereux s’il reste ouvert aux pirates.Les équipes qualité doivent vérifier qu’il ne reste dans l’applica-tion aucun élément de code capable d’ouvrir des connexionsréseau. Facile à dire, mais économiquement impossible à réaliserà la main.

40 IT-expert n°67 - mai/juin 2007

De nombreux problèmes provoqués par les logiciels pourraientêtre évités aux entreprises grâce à la mise en place de procédu-res de validation de la qualité interne au cours du processus dedéveloppement. À la vérité, une brève enquête auprès des édi-teurs de logiciels (y compris les éditeurs de très grande taille pourqui la production se traduit par un chiffre d’affaires direct) a mon-tré de façon stupéfiante mais persistante que chaque groupe de10 développeurs « générait » en moyenne 1 000 bogues par an etque plus de la moitié de ces bogues s’expliquaient par de mau-vaises pratiques de programmation et des erreurs de program-mation grossières.

Les bénéfices à long terme d’une gestion de laqualité du code interne des applications

Les DAF et les DSI devraient se soucier du contrôle qualitéinterne. La dérive des coûts de maintenance de portefeuillesapplicatifs entiers peut se traduire au bout du compte pour lesgrandes entreprises par des centaines de millions d’euros toutsimplement gaspillés. Lutter en permanence contre les tendan-ces à la complexité et travailler à allonger la durée de vie desapplications peut diminuer les coûts de maintenance globauxd’au moins 20 %. Cela n’est certainement pas négligeable lors-que l’on sait que les entreprises du classement Global 2000dépensent deux tiers de leur budget informatique à maintenirdes systèmes dont la gestion est devenue incroyablement diffi-cile au fil du temps.

Les DSI et les conseils d’administration auraient également toutintérêt à soutenir ce type d’initiative sous peine de voir le dangers’enraciner dans le code source de leurs systèmes informatiquesstratégiques :• Risques de se retrouver dépendant de fournisseurs (sous-

traitants) ou de ressources internes stratégiques,• Risques de fraude et risques pesant sur la sécurité des don-

nées,• Risques de corruption des données,• Risques d’introduction de bombes à retardement dans le

code par des personnes malveillantes, soit en interne, soitchez les sous-traitants.

Tous ces risques peuvent éventuellement mener, dans le pire desscénarios, à des faiblesses structurelles de contrôle décrites auxsections 302 et 404 de la loi Sarbanes Oxley (SOX). C’est ce quiest arrivé à un très petit nombre de grandes entreprises américai-nes, finalement contraintes de reformuler leurs rapports annuels.

Conclusion

Comme nous l’avons vu dans les pages précédentes, le respectet la bonne utilisation des infrastructures de développement, desconventions de dénomination et des meilleures pratiques de pro-grammation existantes ont pour résultat la création d’applica-tions bien plus faciles à entretenir et mieux comprises par lesnouveaux venus dans l’équipe.

Les décideurs ne s’en rendent pas pleinement compte, mais letemps et les efforts nécessaires pour lire en entier et bien com-prendre un logiciel de programmation obscur et mal documentépeuvent varier de 1 à 3… En outre, si une mauvaise conceptionest probablement le pire des handicaps pouvant empêcher uneapplication d’évoluer, la mauvaise implémentation d’une applica-tion bien conçue nuira tout autant à sa capacité d’évolution.Au fil du temps, au fur et à mesure que les équipes de dévelop-pement empilent les nouvelles fonctions et corrigent bogue surbogue, les applications peuvent devenir fortement « couplées »,ce qui signifie que leurs structures internes entretiennent entreelles de multiples liens. Elles deviennent alors particulièrementimprévisibles, retardant systématiquement les livraisons, et serévèlent extrêmement difficiles à tester et à stabiliser à chaquemodification, jusqu’au moment où les responsables informati-ques décident de tout redévelopper plutôt que de continuer àentretenir des systèmes devenus des « usines à gaz »…

Enfin, l’indépendance que la qualité interne confère à l’entrepriseest également à porter au nombre de ses avantages à long terme.Cette indépendance est de même essentielle pour assurer auxservices de développement applicatif et de livraison d’aujourd’huila souplesse dont ils ont besoin. La mobilité des ressources infor-matiques entre différents projets et applications est la meilleuregarantie de flexibilité et de réactivité face à l’augmentationconstante des exigences des utilisateurs. Elle est égalementcapitale dans les cas de sous-traitance si le client a opté pour unestratégie d’indépendance vis-à-vis de ses fournisseurs.

En termes de coûts de maintenance, qui, on le rappelle, repré-sentent plus de 50 % des budgets informatiques, il est bien éta-bli qu’au fur et à mesure que s’accumulent les changementsapportés à la partie du code source la plus complexe, la facilité demaintenance de l’application s’amenuise, entraînant l’envol deces coûts. Les trois principaux facteurs à l’origine de cette dérivesont la complexité initiale des applications, l’intensité des chan-gements au fil du temps et la qualité d’implémentation de ceschangements.

Il est donc vital de pouvoir identifier et surveiller durablement lesparties du code source très complexes ou très fortement cou-plées susceptibles d’entraîner de graves dérives de maintenance.Il est aussi impératif de pouvoir prendre des décisions précocessi l’on veut éviter une dérive incontrôlée de la maintenabilité.

Enfin, du point de vue de la sécurité, les entreprises dépensantdes millions d’euros pour protéger leurs systèmes et leursréseaux ne pensent pas toujours que le risque peut provenir del’intérieur des applications elles-mêmes. Et pourtant, celles-ciont probablement été développées par des programmeursinconnus à Bangalore, en Europe de l’Est ou en Chine. Protégerles applications et les données critiques contre l’éventualité debombes à retardement ou de « backdoor » n’est pas chose àprendre à la légère par les DAF ou les DSI dirigeant des entrepri-ses sensibles. Cela est également vrai pour les risques de corrup-tion ou de perte de données critiques, malgré les millions d’eurosdéjà investis dans les infrastructures.

41IT-expert n°67 - mai/juin 2007

Les dirigeants d’entreprises pourraient rétorquer que ce qui sepasse « sous le capot » n’est qu’une question technique et que cen’est donc « pas leur problème ». Pourtant, s’ils veulent que leurslogiciels stratégiques puissent évoluer au fil du temps et êtreentretenus par leurs services informatiques aussi vite que possi-ble pour un minimum de coûts et de risques, ils devraient s’inté-resser à la question et au moins soutenir l’idée selon laquelle il estbon d’entretenir la qualité interne de ces systèmes complexes surlesquels reposent tous leurs processus d’entreprise.

Perte de souplesse des applications professionnelles du fil dutemps, dérive de maintenabilité et risques stratégiques… Lacause profonde de tous ces problèmes ? Les logiciels qui calcu-lent et manipulent les données. Quelle que soit la nature ou l’am-pleur des problèmes, leurs effets négatifs à long terme, directs ouindirects, coûtent toujours plus cher que si les problèmes étaientdétectés plus tôt. �

En résumé

Une bonne qualité interne des applications stratégi-ques constitue un élément stratégique dont les bénéfi-ces pour l’entreprise sont indéniables et qui peut éviterl’apparition de graves nuisances risquant de coûter desmillions d’euros. Les avantages immédiats sont parexemple une réduction considérable du nombre dedéfauts en production. À long terme, ils se traduisentpar :• des applications plus flexibles,• des services informatiques plus réactifs,• des économies importantes sur les budgets de

maintenance,• des applications critiques beaucoup plus sûres,• une moindre dépendance vis-à-vis de personnes

ou de fournisseurs.

Dans le domaine du génie logiciel, la qualité n’est passynonyme de surcoût ni de ralentissement dans lalivraison des produits. Bien au contraire, elle est à l’ori-gine d’une meilleure productivité pour un coût inférieurgrâce à des pratiques de réutilisation et de suppressiondes rework.

La seule façon pour que des équipes de développe-ment de grande taille respectent les contraintes dequalité interne des logiciels est de procéder à un exa-men fiable du code et de l’architecture, couvrant 100 %de la structure interne, de l’interface utilisateur, de lalogique et des couches de données de l’application.Chaque développeur doit savoir que les parties les plusinfimes du code source seront soigneusement analy-sées et comprises, et que tout ce qui pourrait se révé-ler non conforme aux règles de programmation etd’architecture, tant celles du secteur que de l’entre-prise elle-même, sera détectée et signalé.

Si une telle tâche devait être menée à bien manuelle-ment, cela reviendrait beaucoup trop cher et se révéle-rait beaucoup trop lourd du point de vue économique.Il est évident que l’intervention d’un robot (remplaçantdes dizaines de programmeurs) capable de prendreentièrement en charge ce travail abaisserait les coûtsde mise en place et d’exécution. L’équation économi-que deviendrait immédiatement très séduisante etferait faire au développement applicatif un nouveau pasvers la maturité, transformant ce qui reste encore un jeuobscur et dangereux en une activité industrielle soute-nue et encadrée par des mesures.

A propos de la société CASTCAST, pionnier et leader mondial des logiciels de gestion dela performance des développements applicatifs (ApplicationDevelopment Performance Management), fournit les métri-ques et l’information dont les managers IT ont besoin pourmieux mesurer, contrôler et améliorer la qualité des applica-tions métiers et la performance des équipes de développe-ment de par le monde. Fondée en 1990, CAST a aidé plus de600 grands comptes internationaux à accélérer le processusde delivery, à réduire les risques en production, ainsi que lecoût total d’acquisition des applications, enfin à améliorer lasatisfaction clients. CAST est cotée sur le compartiment C d’Eurolist Paris (Euronext : CAS) et a équipé de nombreu-ses sociétés des Fortune 2000, au travers de 11 bureaux enEurope et aux USA.Pour plus d’information : www.castsoftware.com.

Vincent DELAROCHEChairman & CEO de la Société CAST

Fenêtre sur cour

42 IT-expert n°67 - mai/juin 2007

Interview de Philippe VIALLETELLEet Franck DUPONT de la sociétéSTMicroelectronics, site de Crolles

STMicroelectronics a été créé en 1987 par la fusion de SGS Microelettronica (Italie) avec Thomson Semiconducteurs(France) dans l’objectif de devenir un leader mondial de la microélectronique. La nouvelle société, qui a pris le nom deSTMicroelectronics en 1998, a poursuivi une stratégie de croissance agressive, fondée sur un effort massif de recher-che et développement, la création d’alliances avec de grands clients et universités, l’établissement d’une présence inté-grée dans les principales régions économiques et la consolidation d’une des activités de fabrication les plus efficacesdu monde. Aujourd’hui, ST occupe la cinquième place en tant que fabricant mondial de semiconducteurs et la premièreau niveau européen.Au total, le groupe emploie aujourd’hui plus de 51 000 personnes, dispose de 16 unités de R&D avancées, de 39 centresde conception, de 17 sites de production et de 78 bureaux de vente dans 36 pays. En 2006, le chiffre d’affaires net étaitde 9,85 milliards de dollars.ST fabrique des circuits intégrés et composants discrets sur silicium pour les entreprises réalisant des systèmes élec-troniques dans les domaines des communications (38 % du marché), des périphériques pour ordinateur (17 %), du grandpublic (16 %), de l’automobile (15 %) et des applications industrielles (14 %).Dans le cadre de la mise en œuvre d’un projet SOA au sein de ST, Messieurs VIALLETELLE et DUPONT ont accepté derépondre à nos questions afin de nous faire partager leurs expériences.

Vous êtes installés sur l’agréable site de Crolles, quel est sonapport spécifique ?Philippe VIALLETELLE : Le site de Crolles est un des leadersmondiaux dans le domaine de la recherche technologique pourles fonctions logiques. Ouvert en 1992, Crolles1 fabrique les cir-cuits sur des galettes de 200 mm, contre 300 mm pour Crolles2,opérationnel depuis 2002. Fort de ses 4 000 employés ST, le siteassocie recherche et fabrication de façon très imbriquée, etbénéficie de la recherche prospective menée par des chercheursdu CEA-LETI et du CNRS. Enfin, des investissements cumulésde 3,3 milliards de dollars à fin 2006 sur le site, en ont fait un outilde recherche et de développement de tout premier plan.

Avec 500 millions de transistors au cm2, la R &D technologiquevise à développer et à contrôler les procédés afin d’éliminer tout

défaut de fabrication, diminuer la taille des transistors, ceci afind’améliorer leurs performances tout en diminuant les coûts defabrication. Concrètement, par exemple, cela permet de fournirdes circuits toujours plus denses et moins chers pour les appa-reils photos et téléphones portables. Actuellement, nous pas-sons des dimensions de 65 nanomètres à celles de 45nanomètres ; en cours d’installation, cette nouvelle filière de pro-duction devrait être opérationnelle dès 2008 chez ST.

Le site de crolles est un site de production avec une capacité ins-tallée plus de 7 000 tranches par semaine de silicium de diamè-tre 200 mm et de plus de 2 500 tranches de 300 mm par semaine.Les ateliers de fabrication sont opérationnels 24 h sur 24 h, etc’est plus de 2000 techniciens de fabrication qui se relaient 365jours par an pour mener a bien l’activité de production.

Crédit photos : Artechnique

43IT-expert n°67 - mai/juin 2007

Pourriez-vous nous présenter vos services respectifs et vosfonctions au sein de ceux-ci ?Philippe VIALLETELLE : L’équipe « Industrial Engineering » (Etu-des Industrielles) est chargée de la modélisation et de l’améliora-tion des processus industriels. C’est un service transverse et sesactivités vont de la modélisation des capacités de productionjusqu’à définition et la mise en place physique des postes de tra-vail. Au sein de ce service je suis notamment responsable de ladéfinition, de la validation et du déploiement des nouveaux outilset méthodes informatiques pour la production. C’est dans cecadre que je suis intervenu sur le projet qui nous intéresseaujourd’hui.

Franck DUPONT : Au sein du groupe informatique central de lasociété, le service informatique Manufacturing de Crolles estorganisé de manière classique avec deux groupes : infrastructureet support applicatif. La mission du groupe support applicatifdont je suis responsable, est d’assurer le support, la mainte-nance et la performance des outils IT utilisés par la production.

Dans quel environnement technique travaillez-vous ?Philippe VIALLETELLE :La fabrication d’une tranche de silicium requiert entre 500 et 1000opérations élémentaires, réalisées en série (on « empile » lesniveaux) sur des machines très sophistiquées et donc chères.La particularité de la microélectronique, du point de vue fabrica-tion, tient aux flux ré-entrants : la même machine verra passerplusieurs fois la même tranche de silicium à différentes étapes defabrication. Si on ajoute à cela l’importance des temps de cycle(on parle en semaines), la précision des processus physiques àutiliser et le nombre de contrôles à mettre en œuvre, on compren-dra qu’on parle ici de systèmes informatiques très complexes etdonc très lourds.Les investissements pour la production de gros volume sont énor-mes et nous nous plaçons sur un autre terrain. Il nous faut donc soitcibler les technologies les plus avancées avec des produits pourapplications émergentes soit, à l’inverse, essayer d’utiliser au maxi-mum notre capacité avec des produits peut-être moins avancésmais « non standard » et que nous pouvons fournir dans de meil-leurs délais (et avec une meilleure qualité) que nos concurrents.Nous devons nous organiser afin d’être les premiers à répondreà une demande sur les marchés "à forte valeur ajoutée". Il nousfaut donc faire évoluer nos organisations vers plus de réactivité etde flexibilité, elles doivent savoir s’adapter en permanence, deve-nir agiles.Les systèmes d’informations centralisés dont nous disposonsactuellement, pour performants qu’ils soient, ne sont pas suffi-samment flexibles pour évoluer dans cet environnement incertainet s’adapter suffisamment rapidement aux changements del’écosystème…

Vous avez mis en œuvre un projet SOA, pourquoi un tel projet ?Philippe VIALLETELLE : A l’écoute des solutions innovantes,flexibles et évolutives pour la gestion des encours, j’avais rencon-tré deux représentants de la société OSLO en phase d’étude demarché. L’idée du projet « agile staffing » est ensuite née lorsd’une réunion de préparation de la période des congés de Noël.L’usine devait continuer à tourner à plein régime pendant cette

période, il était vital de s’assurer que toutes les compétencesseraient disponibles et ce principalement sur les machines criti-ques. Le fait est que cette réunion était très loin de l’efficacitérecherchée : un temps trop long était consacré par un nombretrop important de managers et d’ingénieurs à analyser desfichiers Excel très détaillés et plus ou moins à jour. Le problèmevenait en fait de la multiplicité des sources de données et de lacomplexité des contraintes à respecter : règles de prise et dereport des congés, plan de charge par type de machine, disponi-bilité des opérateurs ayant la formation requise, congés planifiéspour chacun, évolutions de qualification prévues, « remontes »nécessaires d’une équipe à l’autre, etc. Le temps de collectertoutes ces données dans cinq ou six applications différentes, à lafois locales et centrales, pour chacun des 1100 opérateurs, lefichier était déjà obsolète… Sans compter que la plupart des« règles » (contraintes) devaient être évaluées « à la main ».Multiplicité des sources de données, complexité des interac-tions, ajouté à un retour sur investissement facilement tangiblepour chacun des managers ayant assisté au meeting : l’opportu-nité était trop belle !Enfin, la plupart des règles évoluant au cours du temps, il étaitévident que la solution devait être évolutive et ne pouvait enaucun cas venir d’un « gros système intégré ».Ensuite, comme Monsieur Jourdain, nous avons fait du SOA,sans le savoir…

Quels étaient vos objectifs sur ce projet ?Philippe VIALLETELLE : L’objectif principal du projet « agile staf-fing » était simple : pouvoir faire en quelques clics ce que nousn’avions pas su faire en plusieurs heures avec une assembléed’ingénieurs ! Notre cahier des charges de départ tenait en unephrase : « quand un opérateur vient demander la validation d’uneabsence, son manager a immédiatement connaissance de l’im-pact sur le fonctionnement du service et peut répondre avec deséléments quasi certains ».Il s’agissait en fait d’identifier chacune des parties prenantes duprocessus, de modéliser le fonctionnement, les objectifs de cha-cun ainsi que ses interactions avec tous. En résumé, il nous fal-lait modéliser puis rationaliser nos processus de gestion desressources opérationnelles directes, pour donner de la visibilité etde la souplesse à l’organisation.

A quelles technologies s’adosse votre architecture SOA ?Quels outils avez-vous utilisé ?Franck DUPONT : Suite à la montée en puissance des applica-tions clients légers, le groupe informatique de Crolles s’est rapi-dement trouvé confronté à la multiplication des technologies Webutilisées pour répondre aux besoins de ses clients.

Dès 2004, le groupe informatique Manufacturing du site de Crol-les a mené un audit dont la principale recommandation fut d’har-moniser les pratiques et de se recentrer sur un environnementtechnique unique pour l’ensemble de ses réalisations.Le choix s’est porté sur l’environnement JAVA/J2EE et le serveurd’application JBOSS. L’objectif était d’avoir un environnement dedéveloppement basé sur les standards du marché et une plate-forme de production simple et robuste dans un environnementindustriel nécessitant une disponibilité des applications 24h sur 24h.

44 IT-expert n°67 - mai/juin 2007

Franck DUPONTResponsable « IT support manufacturing »

Philippe VIALLETELLEResponsable « Fab Modeling »

Il a ainsi été défini un « cadre de cohérence WEB » incluant unenvironnement, des normes et des « template » de développe-ment, une procédure stricte de mise en production et une plate-forme de production haute disponibilité, standardisée, pourl’ensemble des applications Manufacturing.L’architecture SOA s’inscrit dans le « cadre de cohérence WEB »défini sur le site de Crolles et a été fourni au prestataire en tempsque pré-requis technique. Les IHM WEB Java et les « servicesmétier » ont ainsi été intégrés dans le package de livraison del’application afin de faciliter sa mise en œuvre au sein de la plate-forme de production.

Comment se sont passées les relations entre la direction infor-matique et les directions fonctionnelles ?Franck DUPONT : Le projet a été lancé conjointement entre lesDirections Opérationnelles, Industrial Engineering et Production,la Direction des Ressources Humaines et la Direction Informati-que.L’équipe de projet fut composée d’un chef de projet fonctionnelde l’Industrial Engineering et d’un chef de projet informatique dela société partenaire. Les périmètres, les rôles et les responsabi-lités de chacun des intervenants - fonctionnels, IT interne et ITprestataire – furent très rapidement définis.Dès lors, les principales difficultés ont été de valider en interne STet avec la société partenaire, l’ensemble des données nécessai-res à la mise en œuvre de l’architecture de services, sachantqu’une bonne partie des informations n’étaient pas disponibledans le système d’information existant.Dans un projet de type « définition et validation des règlesmétiers », la direction fonctionnelle travaille principalement avecle prestataire externe qui fournit chaque « business case » unitaireavant d’intégrer l’ensemble des « services métiers » et de validerleurs interactions.Il n’est donc pas nécessaire d’avoir une ressource de l’IT localdédiée à 100 % au projet.Par contre, il est nécessaire de pouvoir dégager rapidement uneressource IT afin d’installer les nombreux patchs lors de la phasede validation.Pour cela, une organisation formelle a été mise en place, enaccord avec les directions fonctionnelles et IT, avec un engage-ment de résultat de la part de l’équipe informatique locale, pourpermettre l’installation de chaque patch en moins de 2 joursouvrés.

Comment s’est passée la mise en œuvre du projet ?Philippe VIALLETELLE : L’approche orientée métier d’Oslonous a permis d’appréhender la modélisation de nos processusd’une façon naturelle : nos responsables parlaient leur langage eton se serait souvent plutôt cru dans un meeting typique« ISO/TS » de description de processus que dans une réunion despécification de projet informatique !La plus large partie du projet a en fait été consacrée à des discus-sions internes : identification des acteurs principaux, modélisa-tion de leurs objectifs propres (un opérateur veut prendre descongés et évoluer en qualification) et enfin identification des sys-tèmes sources de référence.Connaissant un peu la mise en œuvre de projets informatiques,je dirais que la principale différence entre le projet « agile staffing »

et les autres, fut sans doute la rapidité de mise en œuvre, l’appro-che adoptée par OSLO nous ayant permis de supprimer les bar-rières entre les personnes métier et les personnes dudépartement IT.

Quelles sont les difficultés que vous avez rencontrées ?Philippe VIALLETELLE : Convaincre des services, par traditionréticents à la transparence d’ouvrir leurs bases de données àdes outils qu’ils ne contrôleraient pas entièrement, n’a pas étéimmédiat : il a fallu du temps pour automatiser les extractionscorrespondantes.L’autre difficulté majeure a sans doute été de rassembler lesacteurs de différents services ou équipes travaillant en horairesdécalés pour les faire s’accorder sur la modélisation de proces-sus complexes, plusieurs fois présentés comme « très simples »en première approche, puis de plus en plus compliqués au fil desdiscussions.

Etes-vous satisfait des résultats obtenus ?Philippe VIALLETELLE : L’outil est aujourd’hui en phase d’éva-luation et il semble donner les résultats attendus !

Pour conclure, que conseilleriez-vous à nos lecteurs sur lepoint de démarrer un tel projet ?Philippe VIALLETELLE : S’assurer que le problème est adaptéà la solution ! Une des conditions clé pour le succès d’un projetSOA est la complexité du problème à résoudre : plus il y a d’ac-teurs différents, d’interactions, de « négociations », de zonesd’incertitude, de « flou artistique » ou de besoins d’évolution,plus grandes sont les chances de succès par rapport à un projet« intégré » classique. �

www.oresys.com

ORESYS,ENSEMBLE POUR LA RÉUSSITE

DE VOS PROJETS

Des

ign

> w

ww

.eno

la-c

reat

ion.

fr

_Notre savoir-faireNotre savoir-faire s’étend de la définition d’une stratégie à sa mise en ouvre opérationnelle,en intégrant les dimensions organisation, accompagnement du changement et systèmesd’information. Oresys dispose des compétences et des outils pour assister ses clients surtous les aspects de la conduite de grands projets de transformation.

Acteur majeur du conseil en management et organisation, ORESYS s’engage auprès des

grandes entreprises pour accompagner leurs projets de transformation et l’amélioration

de leurs performances. Nos 200 consultants experts s’engagent en synergie avec les

équipes internes. Leur originalité tient dans une multi compétence tant sur les volets

métiers, fonctionnels que technologiques.

Rubrique à brac

46 IT-expert n°67 - mai/juin 2007

C’est simple, il fallait y penser

L’origine des unités d’œuvre est simple. Le code des marchéspublic a plusieurs objectifs dont l’un est que l’administration soitirréprochable dans la gestion du marché. Pour cela il décrit dansle détail les procédures d’appels d’offres, les règles et lescontraintes que l’administration doit respecter.

L’une d’elles nécessite pour l’administration de connaître le prixd’un service avant de s’engager contractuellement avec un pres-tataire. C’est légitime, mais c’est compliqué quand il s’agit deprestations dont on ne connaît ni le contour, ni le volume. Deuxexemples de prestations classiquement difficiles à estimer sont :• la maintenance d’application : quelles seront les évolutions

réglementaires qui vont nous être imposées dans 3 ans ?• les tests : comment savoir si j’aurais un peu, beaucoup, plus

encore d’anomalies nécessitant une, deux ou dix campagnesde test…

La réponse offerte par la réglementation est le recours aux unitésd’œuvre. Une unité d’œuvre décrit une prestation élémentairecaractérisée par différents critères. Dès que l’administration aune vision claire des travaux à faire, elle en déduit les critèrescaractérisant ces travaux et donc l’unité d’œuvre ou la combinai-son d’unités d’œuvre nécessaire pour réaliser ces travaux.

Le dispositif de marchés publics comporte alors trois temps.

• Premier temps : la description du besoin par des prestationsgénériques : les unités d’œuvre. C’est un ensemble de presta-tions théoriques qui pourront être combinées et doivent per-mettre de couvrir tous les besoins à venir. Ces prestationssont caractérisées par des paramètres qui doivent permettreaux soumissionnaires de faire une estimation financière del’unité d’œuvre. Ces critères concernent la complexité destravaux, les livrables, quelques fois les délais… Cette des-cription est faite dans le dossier d’appel d’offres.

• Second temps : l’estimation faite par les soumissionnaires.Chaque soumissionnaire fait une estimation des différentesunités d’œuvre. Ces estimations correspondent à un montantfinancier pour chaque unité d’œuvre et, selon le cahier descharges, sont accompagnées d’autres informations enga-geant les soumissionnaires (délai, profil d’équipe…). Pour faireses estimations, au-delà des critères définissant les unitésd’œuvre, les soumissionnaires s’appuient sur toutes les infor-mations dont ils ont connaissance : mini/maxi du marché, cri-tère de sélections des offres, marché actuellement en cours…Les estimations (et souvent une explication de celles-ci) figu-rent dans la réponse des soumissionnaires.

Dans le cadre de la sous-traitance l’administration a inspiré à plusieurs reprises les modes de fonctionnement des services

achats des sociétés privés. Les termes Vérification de Service Régulier (VSR), Vérification d’Aptitude (VA) sont directement héri-

tés du code des marchés public et couramment rencontrés dans les contrats privés. De même, la bonne pratique qui consiste

à rédiger un contrat en amont de la procédure de choix est une règle obligatoire dans les appels d’offres publics moins usités

dans les marchés privés, elle est néanmoins mise en œuvre de plus en plus souvent.

Du fait de la professionnalisation des services achats et le recours grandissant à des appels d’offres concernant des presta-

tions dont la nature est définie mais pas les volumes, on rencontre souvent une autre spécificité des marchés publics dans les

appels d’offres privés : les unités d’œuvre. Pratiques, quelques fois présentées comme la solution idéale, ces dernières peu-

vent se retourner contre l’objectif recherché.

47IT-expert n°67 - mai/juin 2007

• Après le choix du prestataire, troisième temps la commandepar unités d’œuvre faite par l’administration. Le besoin réelest identifié et sur cette base, l’administration, sans le presta-taire, en déduit les paramètres qui caractérisent la prestation,puis l’unité d’œuvre ou la combinaison d’unités d’œuvrenécessaire et ainsi le coût de la prestation.

La grande illusion

Lorsque les travaux à venir sont prévisibles et qu’il est aisé dedécomposer ces travaux en prestations élémentaires facilementcaractérisables (cf. exemple), les unités d’œuvre sont uneréponse idéale.

La réalité est très différente. Les travaux à faire ne sont pas faci-lement prévisibles. Même dans notre exemple simpliste si lebesoin est essentiellement de multiples commandes de 90copies en 10 jours les unités d’œuvres définies ne sont pas per-formantes : soit on commande 90 copies en moins de trois jourspour être sûr de les avoir en dix mais on paie un service inutile,

soit on commande 90 copies en moins de quinze jours et on ris-que d’avoir les copies en retard.

Mais la vraie difficulté est sur la définition des unités d’œuvres.

Quelques exemples tirés d’appels d’offres de TMA (Tierce Main-tenance Applicative) suffisent à comprendre (voir ci contre).

Une complexification des unités d’œuvre

Au fil du temps (et de l’expérience croissante ou des contrôlesdes responsables des marchés) les unités d’œuvre se sont com-plexifiées cherchant à coller à une réalité difficile à mettre enéquation.

Quelles que soient les unités d’œuvre définies elles peuvent êtreinterprétées de différentes façons et les conséquences sont sou-vent les mêmes. Pour élaborer leurs réponses, les soumissionnai-res accordent plus d’importance aux autres informations (minimaxi du marché, nombre UE envisagé d’être commandées…)

Exemple :

Un service doit contractualiser les travaux suivants : réaliser des photocopies en couleur ou noir blanc, avec un délai variable.Premier temps : Les unités d’œuvre définies par le responsable technique et le service des marchés sont :

Chaque UE (unité d’œuvre) correspond au prix d’une copie.

Second temps : Plusieurs réponses dont celle de la société ReproPlus

La société ReproPlus est retenue.

Troisième tempsLe temps des commandes• Besoin de faire 70 copies en noir et blanc en 3 jours => l’administration commande 70 UE1.• Besoin de faire 200 copies en couleur en 20 jours => l’administration commande 200 UE8.• Besoin de faire 20 copies en noir et blanc en 4 jours et 120 copies en couleur en 10 jours => l’administration commande 20

UE1 et 120 UE4.

Délais

En 3 jours maximum

En 15 jours maximum

Un lot de 100 copies ou moins

UE 1 (en noir et blanc)

UE 2 (en couleur)

UE 5 (en noir et blanc)

UE 6 (en couleur)

Un lot de plus de 100 copies

UE 3 (en noir et blanc)

UE 4 (en couleur)

UE 7 (en noir et blanc)

UE 8 (en couleur)

Un lot 100 copies ou moins - Prix

UE 1 (en noir et blanc) 0,10 €

UE 2 (en couleur) 0,50 €

UE 5 (en noir et blanc) 0,05 €

UE 6 (en couleur) 0,25 €

Un lot de plus de 100 copies - Prix

UE 3 (en noir et blanc) 0,07 €

UE 4 (en couleur) 0,30 €

UE 7 (en noir et blanc) 0,01 €

UE 8 (en couleur) 0,05 €

48 IT-expert n°67 - mai/juin 2007

Modification d’un programme simple

UE1

Modification d’un programme moyen

UE2

Modification d’un programme complexe

UE3

Modification d’un programme très complexe

UE4

UE1

UE2

UE3

UE4

un écran ou un état modifié (ajout, suppression ou modification de 3 champs au plus)

un écran ou un état modifié (ajout, suppression ou modification de plus de 3 champs) ou ajout d’un écran ou d’un état simple (écran en consultation utilisant les données de 2 fichiers ou 3 tables au plus ou état utilisant les données de 2 fichiers ou 3 tables au plus)

ajout d'au plus 3 écrans ou de 3 états simples ou ajout d'au plus 2 écrans ou de 2 états complexes (état ou écran complexe : écran en mise à jour utilisant les données de plus de 2 fichiers ou de 3 tables ou état utilisant les données de plus de 2 fichiers ou de 3 tables)

ajout de plus de 3 écrans ou de 3 états simples ou ajout de plus de 2 écrans ou de 2 états complexes

ajout, suppression ou modification de 3 contrôles ou de 5 calculs

3 contrôles > ajout, suppression ou modification < 10 ou 5 calculs > ajout, suppression ou modification < 20

10 contrôles > ajout, suppression ou modification < 20 ou 20 calculs > ajout, suppression ou modification < 40

ajout, suppression ou modification < 20 contrôles ou ajout, suppression ou modification > 40 calculs

ALGORITHMEECRAN OU ETAT

Création ou modification d’un programme

Simple

Moyen

Complexe

Très complexe

Poids compris entre 0 et 10

Poids compris entre 11 et 44

Poids compris entre 45 et 85

Supérieure à 85

Nombre de champs

Moins de 10

De 11 à 20

De 21 à 30

Plus de 30

Par fichier ou table

Nombre de règles de gestion

Moins de 10

De 11 à 20

De 21 à 30

Plus de 30

TOTAL

Ecran

1

3

8

9

2

1

2

8

10

Programme

0

0

0

0

3

2

3

15

16

Principes de calcul du poids

Edition

1

2

5

7

1

1

2

9

14

Exemple 1

Exemple 2

Exemple 3

Ne sont pas présentés

ici des exemples explicitant

des charges en jour

hommes quelques fois

(mais pas systématique-

ment) refusés

par les services de

marchés publics.

49IT-expert n°67 - mai/juin 2007

Les marchés publics sont les contrats conclus à titre onéreuxentre les pouvoirs adjudicateurs (l’Etat, les Collectivités Ter-ritoriales et leurs établissements) et des opérateurs économi-ques publics ou privés, pour répondre à leurs besoins enmatière de travaux, de fournitures ou de services.Le code des marchés publics définit les règles régissant lapassation (publicité et procédure de passation) des marchéspublics et notamment leurs seuils d’application.

Les seuils sont dépendants• du montant estimé du marché ou accord-cadre• de la nature du marché (fournitures et services, ou tra-

vaux)• du pouvoir adjudicateur (Etat/Collectivités Territoriales)

Les procédures formalisées maintenues et modifiées(Art 26)

• Appel d’offres ouvert ou restreint (Art 33) (maintenus)- Le pouvoir adjudicateur choisit l’attributaire, sans

négociation, sur la base de critères objectifs préala-blement portés à la connaissance des candidats.

- Appel d’offres ouvert : tout opérateur économiquepeut remettre une offre.

- Appel d’offres restreint : les opérateurs économiquesqui y ont été autorisés après sélection peuvent remet-tre des offres.

- Le choix entre les deux formes d’appel d’offres estlibre.

• Procédure négociée (Art 35) (modifiée)- Le pouvoir adjudicateur négocie les conditions du mar-

ché avec un ou plusieurs opérateurs économiques,uniquement dans les cas définis par l’article 35 duCode des Marchés Publics (marchés complémentai-res, réalisation de prestations similaires à celles d’unmarché précédent, urgence impérieuse, marchésn’ayant fait l’objet d’aucune offre…).Contrairement à l’ancien code, les marchés négo-ciés ne peuvent être passés que selon deux types deprocédures : soit après publicité et mise en concur-rence, soit sans publicité et sans mise en concurrence(l’ancien code prévoyait également une procéduresans publicité et avec mise en concurrence).

• Dialogue compétitif (Art 36) (modifié)- Le pouvoir adjudicateur conduit un dialogue avec les

candidats admis à y participer en vue de définir ou dedévelopper une ou plusieurs solutions de nature àrépondre à ses besoins et sur la base de laquelle oudesquelles les participants au dialogue seront invités àremettre une offre.

- La rédaction d’un cahier des charges à l’issue du dia-logue devient facultative dans le nouveau code. De

plus la procédure est modifiée pour préserver la confi-dentialité des offres.

- Le recours à la procédure de dialogue compétitif estpossible lorsqu’un marché public est considérécomme complexe.

• Concours (Art 38) (maintenu) : Le pouvoir adjudicateurchoisit, après mise en concurrence et avis du jury deconcours (cf. art 25) un plan ou un projet, notammentdans le domaine de l’aménagement du territoire, de l’ur-banisme, de l’architecture et de l’ingénierie ou des trai-tements de données, un plan ou un projet, avantd’attribuer à l’un des lauréats du concours un marché.

Au-delà des seuils plusieurs évolutions et innovations sontapparues dans le nouveau code.

Deux nouvelles procédures formalisées sont introduites(décret du 1er août 2006). D’origine communautaire, ellesdéfinissent un cadre pour faciliter les passations de mar-chés au sein d’un cadre ainsi prédéfini.• Accord cadre (Art 76) : C’est un accord « ayant pour objet

d’établir les termes régissant les marchés à passer aucours d’une période donnée, notamment en ce quiconcerne les prix et le cas échéant les quantités envisa-gées ». Il permet à un ou plusieurs pouvoirs adjudicateursde sélectionner un « portefeuille » de candidats sur la based’un besoin préalablement défini, pour une durée de 4 ansau plus. Il établit ainsi les termes régissant des marchés àpasser ultérieurement.

• Système d’acquisition dynamique (Art 78) : Processusd’acquisition entièrement électronique pour des achatsd’usage courant. Il s’agit d’une forme dématérialisée del’accord cadre.

Simplifications : Disparition de la personne responsable dumarché au profit de la notion de pouvoir adjudicateur et d’en-tité adjudicatrice, issues du droit communautaires et introdui-tes dans le droit français.

Mesures favorisant l’accès des PME à la commandepublique, notamment :• Allotissement systématique pour tous les marchés (sauf

inconvénient technique, financier ou économique)• Non élimination sur critère de réalisation d’un marché de

même nature• Estimation des commandes passées aux PME.

Développement durable : Parmi les spécifications techni-ques, les caractéristiques environnementales (éco-labels parexemple) peuvent être prises en compte.

Code des marchés public :synthèse et évolutions (nouveau code 2006)

50 IT-expert n°67 - mai/juin 2007

qu’aux unités d’œuvre. Quand ils en ont la possibilité, la connais-sance du compte et parfois la valorisation des unités d’œuvre dumarché précédent sont des sources d’information précieuses.Mais cela fait partie des règles du jeu.

Un usage pas très « catholique »

En revanche, une fois le prestataire sélectionné, dans la majoritédes cas le système des unités d’œuvre est utilisé à l’envers.Quand un besoin est identifié, une description du besoin est faitepar le responsable technique du marché, celle-ci est communi-quée au prestataire qui chiffre en jour/homme et en déduit labonne combinaison d’unités d’œuvre correspondant à sa charge.Cette combinaison est communiquée voire discutée par le res-ponsable technique du marché qui ensuite passe commandedes unités d’œuvre.Si cette pratique est courante (mais pas systématique) ellecontourne l’objectif fixé initialement aux unités d’œuvre. Bien sûrsi le prestataire exagère dans son chiffrage initial, il y a toujoursmoyen de discuter, mais ce n’est pas facile. D’une part le presta-taire est dans une position de monopole sur le marché, d’autrepart, même si le client a des moyens de pression (autres mar-chés, renouvellement du marché en cours…) on s’éloigne desprincipes définis par le code. Ce mode de fonctionnement n’estpas la conséquence d’une volonté délibérée de contourner lesrègles. Non, c’est simplement que dans bien des cas on n’a pasinventé le moyen d’estimer une charge de travail à partir de para-mètres objectifs (autre qu’un cahier des charges réalisé dans cetype de marché après la contractualisation).

Lorsque les travaux peuvent être répartis sur plusieurs prestatai-res (ce qui est difficilement réalisable pour de la TMA, mais seconçoit pour des travaux d’études, d’audit…), plutôt que se lan-cer dans la description d’unité d’œuvre, qui, qu'elle que soit leurcomplexité, resteront discutables, le nouveau code offre la pos-sibilité de mettre en œuvre un accord cadre (cf. Code des mar-chés public : synthèse et évolutions). Cet accord permet deconsulter plusieurs prestataires déjà sélectionnés et d’organiserle jeu de la concurrence au travers d’un dispositif simplifié (cetaccord cadre rappelle le dispositif de marché non exclusif à bonsde commandes qui existait dans une ancienne version du codedes marchés publics). Aussi ce dispositif, parce qu’il permet demaintenir une certaine pression sur les prestataires, est à l’originede relations plus saines entre l’administration et ses fournisseurs.

Dans le cas de marché où un accord cadre ne semble pas perti-nent, et si la définition d’unité d’œuvre n’est pas satisfaisante, ilfaudrait que le législateur autorise un mécanisme de marché avecun fonctionnement par devis encadrés (dans les faits, on l’a vuplus haut, c’est ce qui est mis en œuvre dans de nombreux mar-chés de TMA).

Au-delà de l’encadrement des devis c’est probablement la faci-lité de résilier le contrat et de relancer un appel d’offres qui per-mettrait d’avoir des relations plus efficaces. Au lieu de cela, du faitde la lourdeur des procédures et donc pour faire le moins demarchés possible, on voit des marchés sur des durées les plus

longues possibles avec un spectre le plus large possible, parconséquent une impossibilité de prévoir ce qui va se passer etdonc une définition des besoins et des unités d’œuvre particulièrement hasardeuse. Espérons que les prochaines ver-sions du code des marchés publics apporteront la souplessenécessaire. �

Oresys

• 30 M€, 200 consultants

• Paris, Lyon, Bruxelles

• Membre fondateur d’Highland : 31 bureaux dans le monde

• Conseil en organisation et en management

Vocation :aider les entreprises à piloter leurs activités d’une part,à définir et conduire

leurs projets de transformation et d’amélioration de la performance,d’autre part. Ore-

sys intervient sur toutes les dimensions : métier, organisation, processus, système

d’information, ressources humaines.

Bertrand FAVIERDirecteur Associé d’ORESYS,en charge de l’activité« Gouvernance Informatiqueet Management des DSI »