Fin Projet 2

126
Mission en entreprise En vue de la validation de la 1 ère année du Master Européen En INFORMATIQUE Les enjeux économiques du Cloud Computing Présenté par: M. «MOHAMED Najem» M. «AMINE Soulimani» Encadré par: M. «MOUHMOUH» «Date de soutenance: 06/10/2011» Année universitaire: 2010-2011

Transcript of Fin Projet 2

Page 1: Fin Projet 2

Mission en entrepriseEn vue de la validation de la 1ère année du

Master EuropéenEn INFORMATIQUE

Les enjeux économiques du Cloud Computing

Présenté par:M. «MOHAMED Najem»M. «AMINE Soulimani»

Encadré par: M. «MOUHMOUH»

«Date de soutenance: 06/10/2011»

Année universitaire: 2010-2011

Page 2: Fin Projet 2

Chapitre 1tude général sur leÉ

Cloud Computing.

1. Présentation & Description du Cloud Computing.................................... 1.1. Généralité Définition.................................................................................... 1.2. Description................................................................................................... 1.3. Historique......................................................................................................

L'informatique Utilitaire de John McCarthy..................................... Les services Bureau.......................................................................... Les Applications Service Providers.................................................. La Virtualisation...............................................................................

2. Les Différentes couches du Cloud.............................................................. 2.1. Cloud computing......................................................................................... 2.2. SaaS............................................................................................................. 2.3. PaaS............................................................................................................. 2.4. IaaS..............................................................................................................

3. L'architecture du Cloud.............................................................................. 3.1. Cloud Privé................................................................................................... 3.2. Cloud Public................................................................................................. 3.3. Cloud Hybride.............................................................................................

4. Résumé...................................................................................................................5. Avantages & Inconvénients.........................................................................

5.1. Avantages..................................................................................................... 5.2. Inconvénients................................................................................................

6. L'avenir du Cloud Computing.................................................................... 6.1. Défis à relever............................................................................................... 6.2. Avenir du marché..........................................................................................

7. Conclusion générale......................................................................................

Page 3: Fin Projet 2

Chapitre 2

tat des lieux du CloudÉComputing en entreprise.

1 Introduction Par où commencer…..................................................................................

2 Innovations métiers en vue du cloud computing. 1.1 Test et vérification de l’utilisation « sauvage » de services cloud.............. 1.2 Renforcement des savoir faires technologiques......................................... 1.3 Réévaluation des pratiques budgétaires...................................................... 1.4 Autres activités.….......................................................................................

3 Amélioration de l’interaction entre les opérations et le service informatique. 3.1 Découvrez ensemble les bienfaits du travail de groupe.............................. 3.2 Étude de faisabilité….................................................................................. 3.3 À chacun ses points d’entrée, à chacun ses potentiels de gains rapides..... 3.4 Un processus d’innovation continu............................................................ 3.5 L’Architecture d’Entreprise, premier maillon de la chaîne........................

4 Préparation du service informatique en vue de l’adoption du cloud.............. 4.1 Transformations sur les processus informatiques....................................... 4.2 Intégrer l’Architecture d’Entreprise dans les attributions du service

informatique.…................................................................................................ 4.3 Définir et faire admettre la fonction de facilitateur.................................... 4.4 Commencer à utiliser un portfolio de services........................................... 4.5 Affiner l’allocation des coûts..................................................................... 4.6 Renouveler la gestion des services pour contrôler leur livraison.............. 4.7 Transformations technologiques............................................................... 4.8 Experimentez !…....................................................................................... 4.9 Virtualiser votre centre de données............................................................ 4.10 Automatiser les processus informatiques manuels..................................... 4.11 Migrer des applications existantes.............................................................. 4.12 Se préparer aux défis d’intégration.............................................................

5 De l’intérieur vers l’extérieur ou de l’extérieur vers l’intérieur...................... 5.1 Approche outside-in.….............................................................................. 5.2 Approche inside-out.…..............................................................................

6 Pour en savoir plus sur le cloud et son impact.................................................. 7 Le cloud computing au sein de votre organisation........................................... 8 Surfer sur le nuage….…......................................................................................

Page 4: Fin Projet 2

Chapitre 3tude général sur laÉ

virtualisation. 1 Présentation...................................................................................................... 2 Description de la virtualisation......................................................................

2.1 Définition............................................................................................... 2.2 Description............................................................................................. 2.3 Historique...............................................................................................

3 Techniques et technologies de la virtualisation.............................................. 3.1 Isolateur………………………………………………………………… 3.2 Noyau en espace utilisateur…………………………………………… 3.3 Machine virtuelle (superviseur)……………………………………… 3.4 Para-virtualisation ou hyperviseur……………………………………… 3.5 Virtualisation Matérielle…………………………………………………

4 Les différents domaines de la virtualisation……............................................ 5 Les acteurs majeurs de la virtualisation……………...................................... 6 Virtualisation et sécurité………………………................................................

6.1 Les bénéfices de la Virtualisation des serveurs en termes de sécurité….. 6.2 Les risques potentiels de la virtualisation…………………….................

6.2.1 L’exploitation des failles………………………………………… 6.2.2 La répartition de machines (grille de consolidation)…………… 6.2.3 La sécurité des accès et la formation du personnel……………… 6.2.4 Le suivi des performances et du service………………………….

7 Avantages & inconvénients de la virtualisation................................................. 7.1 Les avantages de la virtualisation................................................................ 7.2 Les contraintes de la virtualisation..............................................................

8 Présentation d'Hyperviseur.................................................................................. 8.1 C’est quoi un Hyperviseur.......................................................................... 8.2 Les avantages de l'Hyperviseur...................................................................

9 Produits d'Hyperviseur....................................................................................... 9.1 Xen............................................................................................................... 9.2 Vmware ESX............................................................................................... 9.3 Microsoft HyperV...............................................................................

10 Conclusion.............................................................................................................

Page 5: Fin Projet 2

Chapitre 4a

tat des lieux de la virtualisation É en entreprise.

1 la problématique économique.................................................................. 2 Les différentes versions de la virtualisation...........................................

2.1 Microsoft HyperV..................................................................................... 2.1.1 Hyper-V Server 2008 …............................................................................. 2.1.2 Le rôle Hyper-V sur un Windows Server 2008 Standard ............. 2.1.3 Le rôle Hyper-V sur un Windows Server 2008 Enterprise ........... 2.1.4 Le rôle Hyper-V sur un Windows Server 2008 Datacenter.......... 2.1.5 Installation sur un Windows Server 2008 Core Edition.................. 2.1.6 Pré-requis..........................................................................................................

2.2 CITRIX...................................................................................................... 2.2.1 XenServer........................................................................................................... 2.2.2 XenApp................................................................................................................ 2.2.3 XenDesktop........................................................................................................ 2.2.4 Pré-requis...........................................................................................................

2.3 Vmware...................................................................................................... 2.3.1 Présentation de vSphere 4............................................................................. 2.3.2 L'architecture de vSphere 4.......................................................................... 2.3.3 Pre-requis:...........................................................................................................

3 Comparaison des caractéristiques des différentes versions de Virtualisation 3.1 Configuration de l’hôte................................................................................................. 3.2 Systèmes d’exploitation invité.................................................................................... 3.3 Réseau.................................................................................................................................. 3.4 Stockage en réseau.......................................................................................................... 3.5 Stockage des disques virtuels...................................................................................... 3.6 Haute disponibilité......................................................................................................... 3.7 Coté Argent....................................................................................................................... 3.8 Conclusion.........................................................................................................................

Page 6: Fin Projet 2

4 Retour d’expérience sur la virtualisation................................................... 4.1 Cas INSA Rennes................................................................................................................. 4.2 Cas Cisco IT........................................................................................................................... 4.3 volution et avenir.............................................................................................................É

5 Analyse globale du contexte économique de la virtualisation......................... 5.1 Tendance actuelle du marché de la virtualisation.............................................. 5.2 Consolidation de la sécurité grâce à la virtualisation........................................ 5.3 Modèle économique …................................................................................................. 5.4 Virtualisation et stratégie…………………………………………............... 5.5 Virtualisation et administrateurs…………………………………............... 5.6 Avenir et évolution de la virtualisation en milieu professionnel…............. 5.7 Actions recommandées pour la mise en place de la virtualisation..............

Fixer les objectifs................................................................................ Réaliser un état des lieux................................................................ Calculer le retour sur investissement........................................ La formation....................................................................................... Mener la migration.......................................................................... Supervision et contrôle d’accès................................................... CONCLUSION :.................................................................................

6 A la nouvelle Architecture, qu’est-ce qui a changé ?....................................... 7 Les nouveaux outils et les anciennes tâches............................................ 8 Respect des standards............................................................................... 9 Sécurité.................................................................................................................

9.1 la priorité pour la sécurité de la virtualisation 9.2 Gestion de la consolidation des ressources ............................................... 9.3 Contrôle de l’exposition aux risques ................................... …................. 9.4 Les images de machines virtuelles sont aussi des données........................ 9.5 L’impact de l’administration......................................................................

10 Relever le défi........................................................................................... 10.1 Commencer par une stratégie ................................................................... 10.2 Planifier : conception d’une configuration appropriée ............................. 10.3 Exécuter : sécurité administrative des opérations...................................... 10.4 Vérifier : contrôle des actions administratives.......................................... 10.5 Agir : importance critique de la réponse …...............................................

Page 7: Fin Projet 2

Avant-proposLa pérennité de toute entreprise passe, entre autre, par une disponibilité permanente de

son système d’information. L’information nécessaire au bon fonctionnement de l’entreprise englobe aussi bien les données stratégiques que les données de tous les jours. Le système d’information doit donc être vu comme un ensemble, qui inclut aussi bien l’information elle-même que les systèmes et réseaux nécessaires à sa mise en œuvre.

La continuité de l’activité de l’entreprise appelle celle de son système d’information. Cette continuité ne peut être assurée que par la mise en place d'une vrai stratégie, apportant un niveau de disponibilité adapté aux enjeux spécifiques de l’entreprise. Ces derniers peuvent varier d’une entreprise à une autre, mais la mise en place d'un système d’information répond à des critères communs.

Reliant toutes les ressources de l’entreprise, le système d’information doit être régie a l'une des références ou normes pour avoir les meilleurs pratique dans le domaine de la production informatique et garder devant lui des règles et assurer les domaines suivante:

La gestion de la configuration. La gestion des incidents. La gestion des problèmes. La gestion des changements. La gestion des mise en production. La gestion financière des services informatique. La gestion de la disponibilité. La gestion de continuité de service. La gestion de sécurité. La gestion des infrastructures TIC.

Les conséquence de l'application des ces normes engendre et garantie le bon fonctionnement et on devra parler de:

Les apports bénéfiques. Les conséquences néfastes. Les surcoûts liés. Le retour sur investissement.

De ce principe l'informatique, le service informatique ou le système d'information ne peut rester attacher à des règles d'installation d'un service ou la mise en place d'une solution informatique. Le système est devenu plus complexe que l'on imagine c'est une étude stratégiques ou la société est obligé de gérer cette ressources au même titre que ces autres activités ou même plus. Faut comprendre à quel point les entreprises dépendent de leurs infrastructures informatique et de leurs télécommunication. L’intérêt n'est plus aujourd'hui le même la direction informatique doit avoir une vison de manager le système et d'avoir un plan a l'avant pour atteindre ses objectifs et contribuer a la croissance de l'entreprise afin de créer de la valeur.

Page 8: Fin Projet 2

PréfaceNous remercions toutes les personnes qui ont contribué de loin ou de prêt a ce modeste

travaille afin de développé nos compétences dans le domaine des infrastructures du cloud computing.

Nous avons souhaité que ce travaille nous serve de guide aussi bien dans la conception de nos infrastructure que dans la mise en œuvre ou l'implémentation étape par étape de cette nouvelle technologie. Pour cela ce rapport ce basera sur l'étude et la mise en situation d'une société en offshore qui nous servira de guide a l'exploit des avantages et fonctionnalités et démontrer toute l’étendue des possibilités de la solution choisie.

Même si nous avons souhaité nous concentrer uniquement sur l'étude et la mise en place de notre solution, nous avons aussi voulu donner une dimension bien réelle aux problématiques que connais les entreprises en offshore, en montrant que le solution du cloud réserve a l'entreprise plus de possibilité a la réussite plus de flexibilité et que la satisfaction de l’utilisateur final passe par un savant équilibre entre les techniques du système d'information et la gestion et l'étude avant la mise en place de ce dernier. A titre d'exemple une nouvelle version d'un nouveau système d'exploitation chasse l’ancienne immédiatement ou presque et donc peut impacté tous le parc informatique. La règle s'applique pour les systèmes d'exploitation client et serveur.

En raison de la masse d’informations que cela nous représente, la rapport sera composée de deux partie.

La partie I développe les thèmes suivants :

les problématiques d’entreprise. la conception, l’implémentation, l’administration des services réseau l’administration centralisée de l’infrastructure. la sécurité des serveurs, des stations de travail, du réseau et des données.La II développe les thèmes suivants : l’installation, le déploiement et les généralités des systèmes d’exploitation. la conception, l’implémentation, la maintenance et la sécurité. la sécurité des serveurs, des stations de travail, du réseau et des données.

Nous espérons ainsi avec notre étude donner une nouvelle vision sur le système d'information de l'entreprise.

Bonne lecture à tous!

Page 9: Fin Projet 2

Chapitre 1

tude sur le Cloud É Computing.

Page 10: Fin Projet 2

Le contexte : Dossier du cloud computing

e Cloud Computing ou l'informatique dans les nuages, en voilà un nouveau terme qu'on entend trop parler aujourd'hui dans les forums, journaux spécialisés et les

annonces de nouvelles solutions chez les grandes acteur informatique: Microsoft, Google, Amazon, IBM, Dell, Oracle …. Alors que ce terme vient de faire son apparition au grand public d'autres en tirent profit.

L

En effet le cloud computing n'est pas une naissance d'aujourd'hui, il date de 2008. Ce mouvement et en réalité plus profond que l'on imagine, certains le voient comme une évolution de la gérance de l'informatique les autres, comme un simple terme Marketing, une manière d'utiliser l'informatique dans laquelle tout est dynamiquement couplé et évolutif et dans laquelle les ressources sont fournies sous forme de services.

La maturité de certaines applications, la manière d'appréhender la consommation des applications, son déploiement, ainsi l’arrivée de nouvelles solutions technologiques comme celles utilisées pour le web 2.0 ou la virtualisation, et la généralisation de l’accès haut-débit à l’Internet ont multiplié les offres de service et ont contribué au développement du cloud computing.

Qu’est-ce que le cloud computing? Et il une évolution ou révolution? Pourquoi, quand, comment et surtout faut-il prendre le risque? Le sujet et tellement vaste, nous espérons être a la hauteur des intentions pour le déployer adéquatement.

1 Présentation & Description du cloud computing. 1.1 Généralité & Définition.

Selon Wikipedia, l’informatique dans le nuage « cloud computing » ou l'informatique dématérialisée est un système basé sur Internet qui envoie sur demande des informations, des ressources et des logiciels partagés à des ordinateurs, ainsi qu’à d’autres dispositifs, d’une manière qui rappelle le réseau de distribution électrique.

Par rapport à la commission générale de terminologie et de néologie elle précise que l'informatique en nuage est une forme particulière de gérance de l'informatique, puisque l'emplacement des données dans le nuage n'est pas porté à la connaissance des clients.

Pour Nicholas Carr, l'émergence du Cloud Computing est un processus comparable à celui qui a conduit les industries, au début du siècle dernier, à abandonner la production onéreuse de leur électricité au profit d'une connexion au réseau de distribution électrique.

Nicholas Carr, The Big Switch, Rewiring the World, from Edisson to Google, Norton, 2008. Voir également son interview sur YouTube: http://www.youtube.com/watch?v=Fb362AtseSA

Page 11: Fin Projet 2

Chapitre 1 cloud computing

Partant de ces principes le Cloud Computing ambitionne que les entreprises cessent de se ruiner à maintenir un système d’information interne alimentant les rouages de leur métier. Une fois raccordées, les entreprises paient les ressources informatiques en fonction de la consommation qu'elles en font. Il n’est plus nécessaire de dépenser de l'argent dans des investissements et des frais de maintenance, les budgets ce rattache simplement à d'autres services pour une meilleur croissance de la société.

Pour répondre à ces attentes d'exigences de continuité et de qualité, toutes les efforts ont été déployé à sorte de trouver des méthodes a tous les niveaux afin d’établir une relation entre le client final et le fournisseur de service.

Le Cloud Computing a pour but d’offrir des services qui vont au-delà de ces offres classiques et que nous pouvons tenter de définir avec les caractéristiques suivantes :

Il s’agit d’une informatique distribuée où les échanges sont gérés et centralisés par

des serveurs distants, les applications étant stockées non plus sur le poste de travail, mais sur un "nuage" (cloud) de serveurs, accédées par une connexion Internet et un navigateur web.

Les applications, plateformes et infrastructures nécessaires sont louées en fonction de l'usage qui en est fait, que ce soit pendant le développement de ces applications ou pendant leurs utilisations en production.

Les applications, plateformes et infrastructures sont facilement extensibles. Les ressources peuvent être allouées dynamiquement en fonction du besoin. Les applications, plateformes et infrastructures restent disponibles en cas de panne

d’une ressource.

Plus précisément, nous distinguons trois formes de service inclus au Cloud Computing:

Les infrastructures en tant que service (Infrastructure as a Service ou IAAS). les plateformes en tant que service (Platform as a Service ou PAAS). les applicatifs en tant que service (Software as a Service ou SAAS).

Cloud Computing

Page 12: Fin Projet 2

Le contexte : Dossier du cloud computing

1.2 Description.

Comme décrit précédemment, le cloud computing correspond au développement et à l'utilisation d'applications accessibles uniquement via Internet. Les utilisateurs dépendent ainsi uniquement d'Internet pour utiliser leurs logiciels, ils ont la possibilité d'accéder à des services sans installer quoi que ce soit d'autre qu'un simple navigateur Internet. Avec le cloud computing, les informations sont stockées de façon permanente sur Internet, au sein de puissants et/ou nombreux serveurs dédiés.

Actuellement, la frénésie autour du cloud computing a atteint son paroxysme en raison de la démocratisation des connexions Internet dites « haut débit » ainsi que de l'accroissement de la capacité et de la puissance des disques durs, des puces et des centres de traitement de données (« Datacenter »), en même temps que le décroissement de leur prix. Les utilisateurs ne font que louer ce matériel auprès de fournisseurs de service qui peuvent alors servir des millions de clients avec quelques centaines ou milliers de machines.

Architecture de l’informatique dématérialisée.

Cette puissance phénoménale est fournie par des architectures distribuées constituées d'ordinateurs « low-cost » (peu coûteux) qui s'échangent et se distribuent le travail en permanence. Elle est désormais à disposition de n'importe qui au travers d'Internet, que ce soit pour des utilisations financières (analyses), scientifiques (climat, statistiques) ou même médicales.

Page 13: Fin Projet 2

Chapitre 1 cloud computing

Aujourd'hui, le cloud computing est exploité par la quasi-totalité des grandes entreprises car il fournit une analyse sophistiquée des données de la manière la plus rapide possible. De ce fait, les entreprises classifie le cloud computing en trois formes:

Les clouds Interne: c’est le déploiement en interne d’un service géré par l’entreprise.

Les clouds publics: gérés par des entreprises spécialisées qui louent leur services à des entreprises.

Les clouds privés (ou hybride): c’est le déploiement en interne d'une version "privatisée" du service (mais toujours gérée à distance par le fournisseur) ou la mise à disposition d’un Datacenter privé exploité spécifiquement pour l'entreprise par un fournisseur tiers.

1.3 Historique.

Il n'y a pas de date-clé à laquelle nous puissions dire que le Cloud Computing est né ! La notion de Cloud fait référence à un nuage, tel que l'on a l'habitude de l'utiliser dans

des schémas techniques lorsque l’on veut représenter Internet. Un réseau comme Internet est constitué d'une multitude de systèmes fournissant des services et des informations. Le Cloud Computing est dans cette lignée : un ensemble de services et de données consommables.

Page 14: Fin Projet 2

Le contexte : Dossier du cloud computing

L'informatique Utilitaire de John McCarthy

Cette notion de consommation a été proposée en 1961, lors d'une conférence au MIT (Massachusetts Institute of Technology), par John McCarthy aussi connu comme l'un des pionniers de l'intelligence artificielle (dont il proposa le nom en 1955) et pour avoir inventé du LISP en 1958.

Lors de ce discours, John McCarthy suggéra que la technologie informatique partagée («

time-sharing ») pouvait construire un bel avenir dans lequel la puissance de calcul et même les applications spécifiques pouvaient être vendues comme un service public.

Cette idée, très populaire dans les années 60, disparu au milieu des années 70 : à l'époque, les technologies matérielles, logicielles et réseaux n'étaient tout simplement pas prêtes.

Les services Bureau

C'est dans cette philosophie, que depuis les années70, on inventa la notion de «service bureau» pour qualifier une entreprise louant des lignes téléphoniques, répondeurs, services informatiques etc.

Généralement, les clients des « services bureau » n'ont ni l'ampleur ni l'expertise pour intégrer en interne ces services, c’est pourquoi ils passent par un prestataire. La combinaison de technologies, processus et expertise dans le domaine des entreprises est la valeur ajoutée des « services bureau », comme modèle économique basé sur leur capacité à produire des services et à les déployer en volume. IBM lui-même était un « service bureau » en proposant la notion de « On-demand ».

À l'époque, le coût d'achat et d'exploitation de Mainframes IBM était hors de prix. C’est

pourquoi, des solutions permettant aux entreprises de pouvoir exploiter ces technologies à moindre frais avec la notion de « paiement à la consommation » furent proposées.

Le Cloud Computing met en œuvre l'idée d'informatique utilitaire du type service public, proposée par John McCarthy. Il peut aussi être comparé au Cluster de calcul dans lequel un groupe d'ordinateurs se relient pour former un ordinateur virtuel unique permettant le calcul de haute performance (HPC), mais aussi à l'informatique en grille (Grid Computing) où des ordinateurs reliés et répartis géographiquement permettent la résolution d’un problème commun.

Page 15: Fin Projet 2

Chapitre 1 cloud computing

Les Applications Service Providers.

Les ASP, « Application Service Provider » ont aussi leur part dans l'historique du Cloud Computing. Une ASP désigne une application fournie comme un service, c'est ce que l'on nomme maintenant SaaS pour « Software as a Service » dans la terminologie actuelle du Cloud Computing. Plutôt que d'installer le logiciel sur le poste client en ayant à assurer les phases d'installations et de maintenance sur chaque poste, les applications ASP sont hébergées et centralisées sur un serveur unique et accessible par les clients au travers de protocole standard. C'est par exemple le cas avec des applications Web accessibles par http : il n'y a alors plus de déploiement ou de maintenance à effectuer sur le poste utilisateur, celui-ci n'a alors besoin que d'un simple navigateur Internet. Le déploiement, la configuration, la maintenance, la sauvegarde, etc. sont désormais de la responsabilité du fournisseur du service, le client est alors consommateur.

La Virtualisation.

Comme nous le verrons dans la suite, la virtualisation a été la première pierre vers l'ère du Cloud Computing. En effet, cette notion permet une gestion optimisée des ressources matérielles dans le but de pouvoir y exécuter plusieurs systèmes « virtuels » sur une seule ressource physique et fournir une couche supplémentaire d’abstraction du matériel.

Les premiers travaux peuvent être attribués à IBM, qui dans les années 60, travaillait déjà sur les mécanismes de virtualisation en développant dans les centres de recherche de Cambridge et de Grenoble, CMS (Conversation Monitor System), le tout premier hyperviseur.

C'est donc depuis presque 50 ans que l'idée d'une informatique à la demande est présente dans les esprits même si les technologies n'étaient jusqu'alors pas au rendez-vous pour pouvoir concrétiser cette idée.

Avec les différents progrès technologiques réalisés durant ces 50 dernières années, tant

sur le plan matériel, logiciel et conceptuel, aux avancées des mécanismes de sécurité, à l'élaboration de réseaux complexes mais standardisés comme Internet, et à l'expérience dans l'édition et la gestion de logiciels, services, infrastructures et stockage de données, nous sommes maintenant prêts à entrer dans l’ère du Cloud Computing, telle que rêvait par John McCarthy en 1961.

Page 16: Fin Projet 2

Le contexte : Dossier du cloud computing

2 Les Différentes couches du Cloud:

Le monde de l'informatique est parsemé (pour ne pas dire gangrené) par des centaines de milliers d'abréviations et d'acronymes tous plus obscurs les uns que les autres, et le cloud computing n'échappe pas à la règle. Le monde du cloud computing est littéralement noyé sous les abréviations et acronymes dont certains ont même plusieurs sens. En l'occurrence.

Ceux qui nous intéressent actuellement sont les acronymes en –AAS. J'en ai personnellement recensé une vingtaine dont je vais décrire les plus importants ci-dessous. Après avoir apporté des précisions sur le mot « cloud computing » lui même.

2.1 Cloud Computing.

Tout comme le Web 2.0, le Cloud Computing a du mal a avoir une définition unique. Certains analystes et vendeurs le décrivent de façon très précise comme étant une version améliorée de l'« utility computing », en pratique, des serveurs virtuels disséminés sur Internet d'autres considèrent que tout ce qui se trouve derrière le pare-feu est « in the cloud »,incluant l'externalisation conventionnelle.

Il n'existe donc pas de signification précise du terme, et par convention, on considère comme du cloud computing tout traitement et/ou stockage d'informations personnelles et/ou professionnelles réalisé hors de la structure intéressée (hors de l'entreprise).

La raison est à imputer au fait que le Cloud Computing est avant tout un modèle englobant tant des principes métiers que technologiques. Chaque acteur du marché définit donc le Cloud en fonction de sa compréhension du modèle et comment il s'adapte par rapport à son offre de marché.

Mais on doit s'attendre à ce que les organismes de définition de standards prennent le relais pour donner une base saine du modèle et acceptée par le plus grand nombre.

Sans chercher à proposer notre définition du Cloud, nous pouvons toutefois poser les principales idées:

Le Cloud Computing est un modèle :

Permettant d'offrir au travers du réseau un ensemble de ressources matérielles et logicielles configurables exposées sous forme de services.

Garantissant une très grande disponibilité de ces services. Minimisant l’effort de gestion du côté de l’utilisateur pour accéder à ces

services.

Page 17: Fin Projet 2

Chapitre 1 cloud computing

Avant d'explorer les couches de services qui caractérisent le Cloud Computing, nous allons rappeler ce qui définit un service.

Sur base de la définition de l'Open Group SOA Work Group, nous pouvons définir un service comme étant:

Une représentation logique d'une activité, commerciale ou non, reproductible qui:

Est formée d'un résultat spécifique (par exemple : vérifier le crédit d'un compte client, fournir des données météorologiques, consolider les rapports de forage, etc.).

Est autonome. Peut se composer d'autres services. Est une «boîte noire» cachant son implémentation interne aux consommateurs

du service.

La notion de services étant assez large, nous allons étendre ce concept pour catégoriser trois types de services tels que le décrit Guillaume Ploin dans son ouvrage sur le Cloud Computing:

Service Accessoire:

Un service accessoire définit les fonctionnalités non stratégiques qui peuvent venir enrichir une application telles que :

✗ L'affichage d'une carte pour localiser des sites ou pour fournir le parcours d'un itinéraire.

✗ L'ajout d'un moteur de recherche sur son site Web.✗ L'affichage des prévisions météo.✗ La collecte de flux d'information.

Service de Commodité:

Un service est dit de commodité lorsqu'il offre à l'entreprise des fonctionnalités nécessaires pour son bon fonctionnement et la bonne communication entre collaborateurs:

✗ Service de messagerie. ✗ Calendrier partagé.✗ Partage de documents.✗ Gestion des ressources humaines.✗ Suivi clientèle.

Un service de commodité peut être stratégique pour l'entreprise, mais la généricité de ces fonctions permet d'envisager le déport de son fonctionnement en dehors de l'entreprise.

Page 18: Fin Projet 2

Le contexte : Dossier du cloud computing

Service Métier:

Un service métier constitue le cœur de fonctionnement de l'entreprise. Son fonctionnement est capital et les données traitées par de tels services peuvent

requérir un niveau de sécurité et de confidentialité de sorte que l'externalisation de ce type de services métier peut s'avérer contraignant, voire impossible.

Toutefois, l'externalisation de services métier est envisageable pour des entreprises qui ont pu rendre générique le comportement de leurs services ou pour lesquelles le niveau de sécurité du prestataire externe est considéré comme suffisant.

2.2 SAAS.

L'acronyme « SAAS » est le plus connu dans le monde du cloud computing, destiné aux métiers de l’entreprise. Sa signification est « Software as a Service », autrement dit, application en tant que service. C'est après le EAAS (« email as a service ») le type de service le plus utilisé dans le monde.

C'est un modèle de déploiement d'application sous la forme de service et non sous la forme de programme informatique. Les utilisateurs des applications SaaS accèdent à ce service via Internet. En effet, les SaaS proposent des logiciels opérationnels, prêts à l’emploi, sans passer par une étape d’installation, et sans se soucier d’espace de stockage, de puissance machine ou même de mise à jour de logiciel.

Ce type de modèle transforme les budgets logiciels en dépenses variables et non plus fixes et il n'est plus nécessaire d'acquérir une version du logiciel pour chaque personne au sein de l'entreprise.

Les SaaS sont exécutés sur des plates-formes mises à disposition par des acteurs (comme Google ou Salesforce) que nous appellerons opérateurs SaaS, car leur métier est plus proche de ceux des opérateurs télécoms que de celui d’éditeurs de logiciel. Les SaaS sont les successeurs des ASP (Application Service Providers). Ils se distinguent de ces derniers par:

L’usage d’interfaces RIA ; Des architectures dédiées et optimisées : les applications SaaS bénéficient d’un

environnement d’exécution conçu pour un usage en ligne avec une forte charge utilisateur, elles sont liées à cet environnement et ne peuvent pas être « déménagées » simplement sur un serveur en entreprise.

La mise en avant de fonctions collaboratives : les SaaS mettent l’accent sur les pratiques collaboratives héritées du web 2.0.

La fourniture d’API ouvertes : les SaaS fournissent des API permettant de faire appel à leurs fonctionnalités.

Page 19: Fin Projet 2

Chapitre 1 cloud computing

2.3 PAAS.

PaaS signifie Platform as a Service. Ce terme désigne une plate-forme d’exécution hébergée par un opérateur et accédée depuis Internet. Cette plate-forme peut être utilisée pour exécuter des SaaS, et peut aussi être mise à la disposition des entreprises qui souhaitent faire héberger leurs applications issues de développements spécifiques.

Amazon a été précurseur dans ce domaine avec Amazon Web Services (AWS).

Les PaaS se distinguent des hébergeurs classiques par:

Une grande abstraction de la plate-forme. L’entreprise utilisatrice ne connaît pas les configurations des machines qui exécutent son application.

Une architecture à très haute disponibilité basée sur des datacenters répartis dans le monde entier, et garantissant une grande résistance aux sinistres (inondations, incendies, etc.).

Les plateformes PaaS reposent généralement sur les composants suivants: Un ensemble de Datacenter : leur nombre est toujours supérieur à trois. Dans les cas

de Microsoft ou de Google, les centres se comptent en dizaines. Une couche d’exécution sur une machine virtuelle via un hyperviseur, ou sur un

runtime de type Java, .NET... Une couche de persistance accédée via HTTP sous forme de base de données ou de

fichiers. Une couche d’authentification en local ou déléguée à l ‘annuaire de sécurité de

l’entreprise. Une couche d’intégration : une API ou un bus d’intégration pour échanger des

données avec l’entreprise. Une console d’administration qui permet de gérer le déploiement et le versioning des

applications, ainsi que le monitoring de la plate-forme.

Cette partie a été écrite par Guillaume Plouin (directeur programme innovation SQLi, auteur de Cloud Computing & SaaS, aux éditions Dunod, mars 2009). Avec son aimable autorisation.

2.4 IAAS.

Le Iaas signifie Infrastructure as a Service. Il s’agit de la partie infrastructure du cloud, c’est-à dire la mise à disposition de ressources matérielles (puissance de calcul, espace de stockage) en tant que service. Ce terme était originellement connu sous le nom de « Hardware as a Service ».

Page 20: Fin Projet 2

Le contexte : Dossier du cloud computing

Ces infrastructures virtuelles composent un des domaines du « as a Service » en empruntant la même philosophie de fonctionnement et de tarification que la plupart des services du cloud computing. Plutôt que d'acheter des serveurs, des logiciels, de l'espace dans un centre de traitement de données et/ou de l'équipement réseau, les clients n'ont plus qu'à louer ces ressources auprès de prestataires de service complètement externalisés et directement compétents dans le domaine.

Le service est alors typiquement tarifé en fonction de l'utilisation et de la quantité de ressources consommées. De ce fait, le coût reflète typiquement le niveau d'activité de chaque client. C'est une évolution de l'hébergement Internet qui se différencie des anciens modes de fonctionnement:

Hébergement mutualisé : une machine pour plusieurs clients, gérée par un prestataire de service et dont les clients payent le même prix peu importe leur utilisation (souvent limitée d'ailleurs, le fameux principe de l'illimité-limité).

Hébergement dédié : une machine par client, gérée le plus souvent par le client lui même et pour laquelle le client paye le même prix chaque mois peu importe son utilisation (rarement limitée, parfois infogéré2).

Infrastructure as a Service : un nombre indéfini de machines pour un nombre indéfini de clients, dont les ressources sont combinées et partagées pour tous les clients.

Chaque client paye en fonction de son utilisation de l'architecture.

3 L'architecture cloud.

Comme nous l'avons vu, le Cloud Computing repose sur des ressources physiques. La question est «où sont ces ressources physiques ?» (Serveurs, commutateurs, routeur, solutions de stockage, etc.).

La réponse « dans le nuage » n'est pas vraiment acceptable. Du point de vue

consommateur, l'abstraction est telle qu'on ne peut déterminer sur quelles ressources physiques l’application est hébergée. De par son côté dynamique, les ressources physiques hébergeant une application et des données dans un Cloud ne sont jamais fixes et évoluent dans le temps.

En théorie, le Cloud Computing n'impose aucune dépense en immobilisation. Comme

c'est le cas avec la solution de messagerie décrite, on exploite généralement les ressources physiques d'un fournisseur de Cloud.

Cependant cette technologie de Cloud Computing peut très bien se retrouver sur

l’infrastructure physique d'une entreprise : n’étant plus mutualisé, le Cloud reste privé : on parlera alors de Cloud public, de Cloud privé et de Cloud hybride.

Page 21: Fin Projet 2

Chapitre 1 cloud computing

3.1 Le Cloud Privé.

Ces ressources physiques peuvent être hébergées dans une infrastructure propre à l'entreprise et étant sous son contrôle, à sa charge donc de contrôler le déploiement des applications.

Nous reviendrons sur cette notion de Cloud privé, mais nous pouvons d'ores et déjà nous

demander si « un Cloud privé est réellement un Cloud ? ». En effet, dans le sens où, comme nous l'avons dit plus haut, un Cloud ne doit pas imposer de dépenses en immobilisations, l'infrastructure physique dans un Cloud privé est à la charge de l'entreprise.

Le Cloud privé peut aussi désigner un Cloud déployé sur une infrastructure physique

dédiée et mise à disposition d'un fournisseur de services.

Ainsi une entreprise peut louer à un fournisseur de services, un nombre conséquent de serveurs qui lui sont entièrement dédiés et sur lesquels une solution de Cloud sera déployée pour gérer dynamiquement l’application, la plate-forme ou l’infrastructure (virtuelle).

3.2 Le Cloud Public

Pour certaines personnes, tel que Werner Vogels (Directeur des technologies d'Amazon), le Cloud ne peut être que public.

Un Cloud public est un service IaaS, PaaS ou SaaS proposé et hébergé par un tiers.

Amazon, Google et Microsoft propose un Cloud public dans lequel n'importe quel particulier ou n’importe quelle entreprise peut y héberger ses applications, ses services ou ses données. Pour les consommateurs, il n'y a donc aucun investissement initial fixe et aucune limite de capacité.

Les fournisseurs de Cloud public facturent à l'utilisation et garantissent une disponibilité

de services au travers des contrats SLA (« Service Level Agreement » : document qui définit la qualité de service requise entre un prestataire et un client).

Page 22: Fin Projet 2

Le contexte : Dossier du cloud computing

3.3 Le Cloud Hybride.

Un Cloud Hybride est l’utilisation de plusieurs Clouds, publics ou privés. On peut ainsi déporter nos applications vers un Cloud public qui consommera des

données stockées et exposées dans un Cloud privé, ou bien faire communiquer deux applications hébergées dans deux Clouds privés distincts, ou encore consommer plusieurs services hébergés dans des Cloud publics différents. Dans tous ces cas de figure, nous avons affaire à la notion de Cloud hybride.

4 Résumé.

Le Cloud Computing, de par son slogan « IT as a Service », propose un modèle de paiement « à l’usage », comme c’étaient le cas des « services bureau » des années 70.

Nous reviendrons sur tous les avantages mais aussi les inconvénients du Cloud

Computing plus tard. En clair, le Cloud Computing c’est :

✔ L’informatique « comme un service », c'est-à-dire à la demande.✔ Souvent basé sur de la virtualisation (surtout pour l’IaaS et le PaaS).✔ Trois couches :

✗ Infrastructure.✗ Plateforme.✗ Applicative.

✔ Du « self-service » avec un paiement à la consommation (je paye ce que je consomme) ✔ Abstraction, mutualisation et allocation dynamique des ressources physiques.

5 Avantages & inconvénients:

Puisque le contexte est désormais délimité et que le domaine du cloud computing n'a plus aucun secret pour le lecteur avisé, il est temps de passer aux faits concrets. Nous allons lister les différents points forts ainsi que les points faibles de ce domaine et expliquer pourquoi à notre avis les choses vont ou ne vont pas telles qu'elles sont, ainsi que proposer des alternatives et solutions s'il y a lieu.

Le passage au Cloud Computing implique une transformation de l'entreprise tant au niveau métier que technique.

Page 23: Fin Projet 2

Chapitre 1 cloud computing

Cette mutation doit s'opérer avec intelligence en évaluant :

le niveau de maturité de l'entreprise par rapport à cette nouvelle approche. le niveau de maturité des offres proposées par rapport aux contraintes de

l'entreprise.

Le modèle du Cloud Computing ne concernant pas uniquement le volet technologique, il est crucial de valider l'approche par des réflexions métier.

Dans la suite, nous allons voir les opportunités et les défis auxquels est confrontée chaque entreprise.

5.1 Avantages.

Dans cette première section, nous allons nous placer dans la peau du cloud computing pour en tirer le max d'avantages il y aura sans nul doute réalisé des études préalable de ce marché pour en comprendre les avantages et inconvénients.

L'accès rapide à des ressources informatiques souvent hors de prix.

Le modèle du Cloud Computing permet aux PME de « jouer dans la cour des grands » en concrétisant leur stratégie métier qui était jusque là freinée par des investissements conséquents en termes d'infrastructures matérielles et logicielles et par les coûts inhérents à l’administration de ce parc informatique.

L'accès à des serveurs, des espaces de stockage, des environnements applicatifs clés sur porte et la flexibilité de mensualiser ces services sont un avantage indéniable pour se recentrer sur son métier.

Le Cloud Computing va donc bouleverser les règles du jeu économique en permettant aux PME de se positionner par rapport aux entreprises de taille plus conséquentes.

Ce modèle se prête également bien pour favoriser l'internationalisation des services de l'entreprise, les services étant déjà accessibles sur Internet.

L’extensibilité des ressources pour répondre aux pics d'activité.

Le grand problème des entreprises est de dimensionner efficacement les systèmes informatiques pour répondre aux pics d'activité.

D’une part, un sous-dimensionnement des serveurs gâche l'accès aux services et peut ternir l'image de la société voire mettre à mal la viabilité de ses projets.

Page 24: Fin Projet 2

Le contexte : Dossier du cloud computing

D’autre part, un surdimensionnement des serveurs grève les budgets IT déjà malmenés par les coûts d'administration.

En outre, définir une architecture apte à répondre aux problèmes de charge tout en assurant une haute disponibilité requiert des compétences techniques pointues.

Le Cloud Computing apporte des réponses à cette problématique en offrant aux entreprises des mécanismes d’extension qui leur permettent d'étendre ou de compresser les ressources (CPU, RAM, disques, bande passante) en fonction de leurs besoins.

Une meilleure agilité pour répondre aux attentes du marché.

La souplesse qu'offre le Cloud Computing au niveau de l'accès aux ressources et de son modèle de facturation, permet aux entreprises de se libérer l'esprit quant aux besoins IT et de se concentrer sur leur Business Model afin d'être plus agiles pour répondre aux attentes de leur client.

Une production plus rapide de solutions.

La diversité des fournisseurs Cloud, la profusion de solutions clés sur porte, l'accès aisé aux plateformes de développement et aux ressources informatiques, la possibilité de bénéficier d'une intelligence collective (Crowdsourcing) venant renforcer les équipes de développement, tous ces éléments permettent aux entreprises d'entrevoir la mise en production plus rapide de solutions alignées sur leurs besoins.

Passer du CapEx à l'OpEx .

Externaliser son centre informatique permet de revoir son business model en vue de réduire drastiquement les dépenses liées aux investissements (CAPEX) au profit des dépenses opérationnelles (OPEX). Dans un modèle traditionnel, le CAPEX exige un investissement initial important : dans le modèle du Cloud, l’OPEX est facturé à la consommation.

Plus de mobilité.

La plupart des offres Cloud intègrent le support des équipements mobiles comme l'iPhone. Cela offre aux entreprises une flexibilité accrue qui leur était jusqu'alors difficile d'atteindre par manque de compétences techniques.

Page 25: Fin Projet 2

Chapitre 1 cloud computing

Acquérir de nouveaux marchés

L'accès au Cloud permet aux entreprises d'envisager une plus grande visibilité notamment à l'international. Les compétences internes acquises en matière de développement ou de paramétrage de services Cloud peuvent également être mis à profit pour proposer son expertise ou ses propres solutions sur les plateformes des fournisseurs Cloud (exemple : Salesforce AppExchange) ou des places de marché spécialisées (exemple : eLance).

Recentrage des activités sur le cœur de métier.

Le passage au Cloud doit s'accompagner d'une stratégie d'accompagnement au changement pour préparer les utilisateurs et l'équipe IT à adopter de nouvelles méthodes de travail. L'équipe IT pourra ainsi se concentrer sur le cœur de métier de la société et redevenir un centre d'innovation plutôt qu'un centre d'opération. Les utilisateurs seront quant à eux motivés d'approcher de nouvelles technologies qui rendront leur travail au quotidien plus souple.

5.2 Inconvénients.

Problématique des applications patrimoniales (legacy applications).

Dans certains cas de figure, l'externalisation d'applications et de données patrimoniales est difficile à imaginer.

Par exemple, de nombreuses grandes entreprises continuent à utiliser des mainframes hébergeant des applications volumineuses écrites en COBOL. Le modèle de données atteint un haut niveau de complexité qui rend difficile une importation dans un autre système.

Même si des sociétés de services informatiques se spécialisent sur ces aspects, on peut estimer que les applications patrimoniales resteront encore longtemps dans les murs de l'entreprise.

Dans ce cas, une approche hybride (Cloud privé + Cloud public) peut être étudiée pour enrichir les fonctions applicatives avec des ressources issues du Cloud.

Page 26: Fin Projet 2

Le contexte : Dossier du cloud computing

Coûts de l'extensibilité pour des ressources importantes.

L'extensibilité des ressources et le coût inhérent à la consommation de ces ressources peuvent devenir très élevés si l'entreprise manipule des volumes de données importants.

Une étude sera nécessaire pour comparer le coût financier d'une approche Cloud privé versus Cloud public en prenant en compte tous les frais nécessaires.

Il faudra également prendre en considération le coût des espaces locatifs nécessaires pour héberger son propre centre de données et ses centres de backup:

➢ Occupation au sol.➢ Coût des charges électriques. ➢ Onduleur.➢ Protection contre le vol, l'incendie, le dégât des eaux, etc... ➢ Climatisation.➢ Redondance.

Latences du réseau impactant la performance des applications.

Les latences du réseau sont une limitation bien réelle d'Internet. Ces problèmes de latence sont encore plus importants si l’application est composée de services Cloud délivrés par des fournisseurs différents.

Par exemple, les applications boursières doivent garantir un temps de réponse, car chaque

milliseconde compte.

Si les applications ne peuvent se permettre d'être impactées par ces problèmes de latence, le Cloud public risque d'être une solution peu envisageable.

Garanties en termes de disponibilité.

Les plaquettes commerciales des fournisseurs Cloud annoncent toutes qu'ils assurent un niveau de disponibilité de l'ordre de 99,5 %.

Mais si la société dépend de services de plusieurs fournisseurs Cloud, il y a un risque

qu’elle n’atteigne pas de façon globale ce niveau de disponibilité.

De plus, la panne récente d’un grand opérateur télécom46 montre que l’accès à Internet n’est pas non plus garanti de façon permanente.

Il faudra donc lire avec attention les contrats de service et les SLAs (Service Level Agreement) proposés par les fournisseurs Cloud.

Page 27: Fin Projet 2

Chapitre 1 cloud computing

Confiance au Cloud.

Les données de l’entreprise sont vitales pour son métier et peuvent revêtir un caractère hautement confidentiel. Les fournisseurs Cloud garantissent que les données sont entre de bonnes mains, mais dans la réalité il est souvent difficile de savoir où les données sont réellement stockées.

Le Cloud pose de vraies questions en matière de gouvernance des données et le contrat

de service devra être analysé avec attention.

En particulier, si l'entreprise est soumise à une législation très contraignante, une gouvernance interne des données pourrait s’avérer incontournable.

Dans les cas moins contraignants, une option consistera à négocier avec un fournisseur Cloud national qui garantira par contrat que les données ne seront pas hébergées en dehors du pays.

Besoin en ressources humaines.

Le Cloud fait intervenir des technologies state-of-the-art (Web 2.0, RIA, SOA, méthodes agiles, etc.) qui obligent les informaticiens à acquérir de nouveaux concepts.

Il faudra donc prendre en compte la gestion du changement du personnel et planifier les formations adéquates.

Cela peut impliquer de renforcer les équipes locales avec des compétences externes (ex : crowdsourcing). L'impact sur l'organisation du travail n'est pas à sous-estimer.

Difficulté de choisir le fournisseur adéquat

La profusion de fournisseurs Cloud est déjà importante et va aller en grandissant. Il faudra donc veiller à vérifier la qualité de service du fournisseur.

On évitera ainsi de choisir un fournisseur spécialisé dans l'infrastructure et qui se lance dans le SaaS.

On ne livre pas un service applicatif comme on rend un service d'infrastructure. Et inversement.

On sera également vigilant sur les acquisitions qu'opèrent les entreprises pour diversifier leurs offres Cloud. Dans ce schéma, l'acquisition peut engendrer des problèmes dans la qualité de service.

Page 28: Fin Projet 2

Le contexte : Dossier du cloud computing

Interopérabilité et réversibilité.

Les bonnes pratiques du SOA prônent l'interopérabilité des systèmes et alertent quant aux problèmes de "vendor lock-in" qui contraignent les clients à rester chez le même fournisseur. Si l’entreprise externalise ses données et services chez un fournisseur, sera-t-elle en mesure de récupérer ses données de manière souple et immédiate ?

Chaque fournisseur Cloud devrait fournir des outils pour récupérer ses biens (applications, données) mais les fournisseurs Cloud comme Amazon, Google ou Salesforce.com sont peu transparents quant à la structure interne de leur plateforme. Il faudra donc évaluer la pertinence et la flexibilité de ces outils dans le cas où l'on décide de changer de fournisseur.

Ce problème sera mitigé par des fournisseurs Clound interopérables avec des Cloud concurrents.

Offre des services Cloud régionalisés.

L'un des aspects contraignants des offres Cloud et de voir certains services uniquement disponibles pour les nationaux. Par exemple, l'offre de Crowdsourcing d'Amazon (Amazon Mechanical Turk) n'est pour l'instant accessible qu'aux résidents américains.

Les entreprises concernées par ces restrictions peuvent pâtir d'un retard par rapport à la concurrence qui aurait accès à ces services.

Gestion du changement.

Le passage au Cloud ne doit pas être une décision hâtive. La Gouvernance de l'entreprise doit mesurer l’impact des changements sur la continuité du métier.

Certains services, comme l'équipe informatique, risquent d’être peu favorables à externaliser les données ou les applications parce qu'ils éprouveront un sentiment de dépossession et de risque pour leur emploi. Les utilisateurs devront se familiariser avec de nouvelles solutions et adopter de nouveaux réflexes.

Sans une stratégie d'accompagnement du changement, le passage au Cloud peut devenir

un véritable fiasco.

6 L'avenir du Cloud Computing

Au terme de cette analyse des principaux avantages et inconvénients actuels de ce nouveau modèle économique et technique que représente le cloud computing, il est temps de se poser la question de sa fiabilité sur le long terme. Car s'il est vrai que le cloud computing représente à n'en pas douter une formidable expérience professionnelle et une bonne occasion en ces temps troublés, il ne faudrait pas que son adoption se base uniquement sur des motifs purement économiques.

Page 29: Fin Projet 2

Chapitre 1 cloud computing

Dans cette dernière partie, nous allons nous pencher plus en détail sur les problèmes qui pourraient se poser aux acteurs de ce nouveau marché dans les années à venir. Nous verrons également qu'il existe encore de formidables marges de progression dans le domaine et que même si le cloud computing recèle de nombreuses failles et faux espoirs, il n'en est pas moins révolutionnaire sur certains aspects.

6.1 Défis à relever

Le cloud computing est un paradigme composé de plusieurs strates de services. Ceux-ci incluent des services telles que les infrastructures as a service, le stockage as a service, les plateformes as a service et les applications as a service. Les divers fournisseurs de services du marché ont ainsi développé diverses méthodes pour accéder à ses services.

La majorité de ces accès sont réalisés par le biais des protocoles standards de l'Internet, tel que le HTTP, le SOAP, le REST et le XML; tandis que l'infrastructure est basée sur des technologies largement utilisées de par le monde, telles que la virtualisation.

Actuellement, le cloud computing représente la maturation et le rassemblement de tous les concepts de base qui formaient les services en ligne d'hier, le grid computing, l'ASP, l'hébergement de serveurs, l'utility computing et la virtualisation.

D'un autre côté, le cloud computing est encore très immature en lui-même, et cela prendra probablement encore plusieurs années avant que cela ne se développe complètement, ce qui sous-entend qu'il soit largement adopté par les entreprises, même pour des tâches critiques.

De nos jours, l'adoption se cantonne à des petites expérimentations à l'échelle de start-up ou d'un seul département d'une entreprise. Dans la prochaine phase, le cloud computing doit absolument évoluer vers un modèle hybride, où les services s’intégreront directement au sein des Datacenters et des infrastructures ainsi qu'en interne. Le cloud computing tel qu'il existe actuellement devra passer outre la barrière psychologique de la délocalisation totale des systèmes d'informations.

Le cloud computing doit évoluer vers un modèle hybride, avec un mélange de public clouds et de Private Clouds. Les nuages publics sont ceux que l'on connaît aujourd'hui, qui résident chez un fournisseur de service externe à l'entreprise, tandis que les nuages privés résident directement à l'intérieur des entreprises, derrière leurs firewalls. Tout le défi consistera alors à mettre en relation ces différents nuages sans compromettre la sécurité de l'un ou de l'autre.Dans le meilleur des mondes, le processus se fera naturellement. L'offre suivra les avancées technologiques et la demande suivra l'offre. La plupart des applications web d'aujourd'hui ne représentent en rien le futur du SAAS

Page 30: Fin Projet 2

Le contexte : Dossier du cloud computing

Depuis la perspective du client, ces applications web sont à l'aube d'une transformation majeure, notamment avec l'arrivée de nouveaux standards et protocoles tels que le HTML, qui ont pour rôle de rendre l'expérience utilisateur bien plus riche qu'avec les technologies actuelles et surtout qui ont été pensés pour cette utilisation.

Au final, le SAAS ne peut, et ne pourra jamais se construire seul, et personne ne pourra y remédier. Le Cloud Computing lui-même est un domaine soumis à énormément de mutations, qui nécessite un certain nombre d'aménagements technologiques et psychologiques dans la vie de tous les jours. Ce n'est qu'en supposant que ces aménagements affluent dans le sens du cloud computing que l'on pourra assister à une révolution. Malheureusement, ce n'est pas quelque chose qui peut se provoquer facilement, et ce sera avant tout de petites évolutions successives qui feront du SAAS et du cloud computing ce qu'il sera dans les années à venir.

A l'heure actuelle, il est relativement impossible de prédire la nature des évolutions qui se produiront, tout comme il est impossible de prédire quelle forme prendra le SAAS dans les années à venir. On ne peut que lui souhaiter de bénéficier des mutations bénéfiques qui interviendront dans les mois et années à venir.

6.2 Avenir du marché

Désormais que nous savons que le cloud computing a encore de nombreux défis à relever, mais que personne ne peut réellement exercer de pressions pour aboutir à ces changements,il est temps de se poser la question de l'avenir du marché en lui même. Certes le cloud computing est une toute nouvelle philosophie, mais qu'en est-il du marché sous-jacent ? A-t-il autant d'avenir que sa philosophie ne le laisse entendre ?

7 Conclusion Générale:

Au cours de cette première partie, nous nous sommes attelés à défricher le domaine du «cloud computing», notamment à donner des noms à chacun de ses sous-domaines pour ensuite les définir. Nous avons passé en revue les trois principaux modèles du cloud computing:

• Le IAAS fournit une architecture matérielle souple et puissante en tant que service à la demande et facturée à l'utilisation. Typiquement, on facture généralement à l'heure CPU (le temps CPU est le temps total cumulé pendant lequel un programme utilise le processeur de la machine qu'il sollicite).

• Le PAAS fournit une Plateforme de développement et/ou de déploiement pour les applications en tant que service sans que les développeurs n'aient à se soucier du fonctionnement du matériel informatique sous-jacent.

• Le SAAS fournit des applications en tant que service, typiquement des applications dont l'utilisation peut grandement dépendre d'un client à l'autre et qu'il serait injuste de facturer au même prix malgré ses disparités. L'autre aspect du SAAS étant que le client final n'a en définitive plus aucun contrôle sur ses logiciels ni ses données, qui sont hébergés chez un prestataire de service externe.

Page 31: Fin Projet 2

Chapitre 2

tat des lieux duÉ Cloud Computing

en entreprise.

Page 32: Fin Projet 2

Le contexte : Dossier du cloud computing

1 Introduction

Tout au long de cet ouvrage, nous avons démontré que l’adoption du cloud computing n’est pas qu’un changement technologique ; il implique des transformations de grande ampleur. Les précédents chapitres ont fait le point sur la technologie métier, les nouvelles méthodes d’approvisionnement (en libre service) et l’importance de l’Architecture d’Entreprise. Dans ce dernier chapitre, nous vous proposons des pistes de réflexion et des conseils concrets qui vous accompagneront dans vos prises de décisions et qui vous aideront à franchir les prochaines étapes. Ce chapitre vous permettra ainsi de mettre au point votre feuille de route.

Inutile de vous préciser qu’il n’existe aucune feuille de route universelle. Les étapes que vous devrez franchir dépendront de votre organisation, de vos objectifs et, dans une moindre mesure, de la technologie que vous utilisez déjà. Chaque aventure est unique, propre à chaque organisation, y compris l’ordre dans lequel franchir les différentes étapes. Certaines entreprises voudront peut-être commencer par la virtualisation des serveurs afin de renforcer la flexibilité de leur service informatique, d’autres, au contraire, brûleront des étapes et s’engageront sans tarder aux côtés de Salesforce.com. Les unes choisiront le cloud computing comme option par défaut, les autres l’adopteront avec plus tardivement, lorsque les risques seront limités au maximum et les bénéfices à portée de main.

Par où commencer…

Tant que vous n’aurez pas de vision concrète du cloud computing, il vous sera difficile de préconiser les actions à entreprendre, voire de quantifier sa véritable valeur. Avant toute chose, intéressez-vous sérieusement au cloud en étudiant certaines de ses applications spécifiques, en recherchant les services cloud disponibles ou encore en abordant les différents concepts qu’il regroupe.

Par exemple, approfondissez les notions de virtualisation ou d’imputation et demandez-vous si elles ont de la valeur d’un point de vue opérationnel. Une autre piste de réflexion consisterait à envisager la possibilité de mettre en œuvre un système de messagerie basée sur le Web. Tout au long de votre étude, ne perdez toutefois pas de vue les profonds bouleversements qui se profilent déjà à l’horizon.

Page 33: Fin Projet 2

Chapitre 2 cloud computing

Son adoption pleine et entière permettra d’ouvrir la voie à de nouvelles opportunités à tous les niveaux de l’organisation : transformations au niveau du service informatique, transformations métiers et, par dessus tout, transformations dans l’interaction et la collaboration entre les opérations et le service informatique.

Dans un monde idéal, dès vos premiers pas vers le cloud, vous vous battriez sur tous les fronts à la fois. Les utilisateurs métiers et les équipes technologiques travailleraient main dans la main de façon à imaginer de nouvelles méthodes de collaboration idéale. Ce serait en effet la meilleure façon de se préparer au cloud computing et de développer les compétences nécessaires.

Car un service informatique plus flexible sans la mise en place d’un processus métier digne de ce nom ne serait pas très utile. Ou, inversement, un système dans lequel des utilisateurs métiers récupéreraient eux-mêmes leurs solutions informatiques à partir du cloud sans aucune interaction avec l’équipe informatique serait voué à l’échec. Dans tous les cas, c’est le contexte dans lequel évolue votre organisation qui vous indiquera quelle voie emprunter en premier. Il n’en reste pas moins que vous devrez développer les autres activités dans la foulée.

2 Innovations métiers en vue du cloud computing

Page 34: Fin Projet 2

Le contexte : Dossier du cloud computing

Comme nous l’avons présenté au chapitre 3, nous passons d’un univers des technologies de l’information à un monde dominé par les technologies métiers.

Les organisations qui reconnaissent pleinement le rôle et l’importance du service informatique renforcent leurs technologies métiers en développant les compétences techniques de ses utilisateurs. Mais cette transition ne s’improvise pas; elle nécessite en effet la mise en place de processus et d’activités inédits.

L’adoption du cloud computing par l’entreprise est favorisée par les activités suivantes :

2.1 Test et vérification de l’utilisation « sauvage » de services cloud.

Il est fort probable que votre entreprise ait déjà recours à des services cloud sauvages. Des utilisateurs ont en effet peut-être trouvé un outil en ligne répondant à l’un de leurs besoins ponctuels. Saisissez cette occasion pour essayer de comprendre la réalité de l’utilisation des ressources cloud : ses avantages et ses inconvénients. Si votre entreprise a peu d’expérience en la matière, voire aucune, il est en effet grand temps de vous familiariser avec certains services métiers. Par exemple, testez de nouveaux outils dans le cadre de vos activités marketing, de vos projets ou de votre stratégie de communication (yammer.com ou IBM Lotus Live, entre autres). Ainsi, les utilisateurs impliqués pourront choisir eux-mêmes leurs propres outils informatiques et faire l’expérience des problèmes qui les accompagnent. Il se peut d’ailleurs également qu’ils accèdent à des services métiers qu’ils ont bien l’intention de garder !

2.2 Renforcement des savoir faires technologiques.

L’un des objectifs à long terme consiste à renforcer les compétences techniques des responsables métiers. En prenant, par exemple, le cas du smart-phone comme base de départ, engagez les discussions au sujet des capacités de la technologie à pouvoir connecter les entreprises entre elles, des innovations inspirées par les utilisateurs et du rôle que les services numériques peuvent jouer dans les produits et les processus phares de l’entreprise. Définissez une stratégie « tout numérique » décrivant la façon d’exploiter pleinement le monde numérique pour proposer des services compétitifs et orientés clients. Attention, ne nous méprenons pas : l’objectif n’est pas de former des responsables rompus aux techniques de la mise au point de bases de données, mais de présenter tout simplement les concepts généraux d’une stratégie qui fait la part belle à la technologie.

Page 35: Fin Projet 2

Chapitre 2 cloud computing

2.3 Réévaluation des pratiques budgétaires.

Lorsque le service informatique évolue vers un modèle de facturation à l’usage, il convient de repréciser les méthodes de définition des budgets des activités métiers. Dès que le cloud computing commence à gagner du terrain, les pratiques en matière de gestion financière en général et de définition des budgets en particulier doivent intégrer un modèle selon lequel les coûts sont calculés par transaction, par utilisateur ou par tout autre niveau de granularité approprié au contexte métier. Tâchez de renforcer tout particulièrement votre flexibilité en cas de succès non anticipé : en effet le développement des commandes entraînera de facto une augmentation du coût global des services informatiques. Dans ce cas, vous apprécierez de pouvoir « gérer de façon plus précise » le budget !

2.4 Autres activités

En prolongeant la discussion sur la business intelligence, on constate que les plans de développement et les objectifs de l’entreprise doivent désormais intégrer la valeur et le potentiel des données de l’entreprise, aussi bien en interne qu’en externe. Comme nous l’avons indiqué, le partage des données et l’utilisation de données partagées croissent rapidement. Seules les organisations capables d’apprendre rapidement et d’exploiter ces don-nées tireront leur épingle du jeu. Découvrez des trésors encore enfouis en identifiant les données pouvant avoir de la valeur aux yeux des autres entre-prises et en trouvant, auprès d’autres partenaires, des informations susceptibles d’améliorer vos propres processus et vos prises de décisions. Vous participez ainsi activement à l’écosystème qui vous entoure, tout en vous appuyant.

3 Amélioration de interaction entre les opérations et le service informatique

Comme nous l’avons déjà évoqué dans plusieurs chapitres, l’adoption du cloud computing provoque de nombreux transformations dans l’interaction entre les opérations et le service informatique. C’est à ce niveau qu’interviennent les Architectes d’Entreprise. C’est à ce niveau, aussi, que se prennent les principales décisions stratégiques en matière d’informatique. Mettez en perspective les visions à court terme et les objectifs à long terme, puis séparez les éléments d’infrastructure standard de l’activité métier, d’un côté, des composants uniques, innovants et compétitifs, de l’autre.

Page 36: Fin Projet 2

Le contexte : Dossier du cloud computing

Plusieurs solutions vous permettent d’améliorer les relations entre les opérations et le service informatique, tout en découvrant les opportunités du cloud computing qui s’offrent à vous :

3.1 Découvrez ensemble les bienfaits du travail de groupe

Organisez une rencontre entre les utilisateurs métiers et le personnel du service informatique afin de discuter des leviers opérationnels et les liens possibles avec les dernières tendances technologiques. Sous la forme d’ateliers, définissez une stratégie commune à même de donner une vision claire du chemin à suivre et des priorités à intégrer. Identifiez les domaines dans lesquels le cloud peut être source de valeur. En règle générale, des sessions comme celles-ci sont une formidable occasion de resserrer les liens entre les utilisateurs métiers et le personnel informatique. Si des ateliers de ce type sont d’ordinaire très utiles pour mettre les actions de l’entreprise en phase avec les innovations informatiques, quelles qu’elles soient, ils sont indispensables lorsqu’il s’agit de projets de transition vers le cloud computing.

Il est parfois difficile de trouver, voire de formuler à la volée, les leviers opérationnels. Un minimum de préparation est nécessaire. Demandez également au personnel informatique de présenter les différents éléments du cloud, dans la mesure où ces détails peuvent s’avérer être de précieuses informations aux yeux des utilisateurs métiers. Dans la plupart des cas, nous vous conseillons d’inclure dans cette présentation des informations sur d’autres technologies : comme par exemple des informations sur les solutions d’informatique mobile ou les technologies Web en général. Si, la plupart du temps, des consultants externes aident à la préparation, à l’animation et à la conclusion des ateliers, votre équipe peut très bien décider de prendre les choses en main, de A à Z.

Après avoir passé en revue les leviers opérationnels, cet exercice de découverte peut également présenter brièvement une gamme de services cloud et expliquer dans quelle mesure ils pourraient aider à actionner ces mêmes leviers. Et pourquoi ne pas considérer cette étape comme le premier pas vers la création de votre portfolio de services cloud ?

3.2 tude de faisabilitéÉ

Une fois que vous avez défini les domaines d’application du cloud computing, attelez-vous à la réalisation d’une étude de faisabilité. Dans certains cas, le calcul des coûts et des retours sur investissement sera un jeu d’enfant. Dans d’autres, en revanche, vous ne serez qu’en mesure de définir une logique et une stratégie d’application du cloud, sans élément comptable à l’appui. Mais pas de panique ! Le fait de ne pas pouvoir anticiper de retour sur investisse-ment ne signifie pas pour autant qu’il n’y en aura aucun au bout du compte.

Page 37: Fin Projet 2

Chapitre 2 cloud computing

Vous pouvez en effet très bien décider d’investir dans un domaine prometteur, qui pour l’instant n’est pas encore assez mature pour permettre une étude de faisabilité en bonne et due forme : comme par exemple choisir un service cloud propre à votre industrie ou une solution d’intégration en ligne des processus métiers proposée par une toute jeune entreprise.

Pour les solutions plus ou moins standardisées, les études de faisabilité sont très simples : virtualisation à partir d’un cloud privé, messagerie ou platesformes collaboratives dans le cloud. L’analyse comparée des coûts, des bénéfices, des opportunités et des risques, entre une solution traditionnelle et son équivalent dans le cloud, devrait vous permettre de confirmer si le cloud est effectivement l’option la plus sage. Comme nous l’avons déjà indiqué, il est important de prévoir également, dans le cas de services de facturation à l’usage, des variables prenant en compte l’évolution des scénarios. Quelles sont les prévisions à long terme et dans quelle mesure auront-elles un impact sur votre étude comparative ? En fin de compte, malgré la simplicité des études de faisabilité, il sera assez difficile d’arriver à comparer équitablement les différentes solutions. À moins bien sûr que vous n’ayez réussi à chiffrer vos coûts d’exploitation et de recrutement actuels, vos frais de location ou d’achat des locaux, vos charges d’électricité, etc. et à définir la valeur de votre niveau actuel de qualité, d’assistance et d’implication informatique. De toute évidence, les comparaisons seront toujours plus simples dans le cas de l’adoption de nouvelles solutions que pour la migration de systèmes ou d’infrastructures existants. Si vous voulez faire vos premières armes sans trop de difficultés, nous vous recommandons donc de commencer par celle-là.

3.3 À chacun ses points d’entrée, à chacun ses potentiels de gains rapides.

Les utilisateurs métiers et le personnel informatique doivent avant tout convenir des premières étapes à mettre en œuvre pour initialiser le projet de cloud computing. Quel projet pilote allez-vous sélectionner ? Bien entendu, choisissez un dossier de petite envergure, plutôt simple, permettant non seulement de révéler au mieux la valeur du cloud computing mais également de procurer une vision d’ensemble à l’entreprise. Deux options s’offrent à vous pour vos premiers pas : le cloud public, selon une approche « extérieur-intérieur », d’une part, ou le cloud privé, selon une approche « intérieur-extérieur ». Peu de projets de cloud privé ont pour objectif premier de réduire les coûts et de renforcer l’agilité des services informatiques internes. De plus, ils n’offrent généralement aucune nouvelle fonctionnalité. Dans ce contexte, il est probable que vous obteniez moins de visibilité que pour tout autre projet de cloud public plus fonctionnel. Il n’en reste pas moins que certains projets de cloud privé proposent de nouvelles fonctions très intéressantes pour l’entreprise. Comme par exemple les solutions d’extraction de données, d’analyses et de recherches.

Page 38: Fin Projet 2

Le contexte : Dossier du cloud computing

Si vous recherchez absolument des solutions innovantes et que vous souhaitez tester la puissance collaborative en ligne de certaines solutions de cloud, choisissez plutôt un système interne en lien avec un ou plusieurs de vos principaux partenaires commerciaux et optez pour une solution de cloud permettant d’améliorer le processus : par exemple, une solution renforçant l’automatisation, fournissant des données plus fiables, permettant de mettre en relation plusieurs partenaires, offrant de meilleures fonctionnalités tout en réduisant les coûts de chacune des parties, etc.

IBM a identifié les tâches qui se prêtent le plus à une intégration dans le cloud, selon les modèles de cloud privé ou public (IBM 2010). Cette sélection repose sur une étude des données et des expériences observées dans le cadre de projets de cloud actuellement mis en œuvre. Les organisations intéressées par un service cloud public pourront consulter la liste des tâches du tableau répertoriant les projets représentant le moins de risques tout en offrant les meilleures perspectives de retour. Il en est de même pour les tâches répertoriées parmi les toutes premières solutions d’un projet de mise en œuvre de cloud privé.

Recommandations en matières d’activités

Aujourd’hui, tous les services ne sont pas forcément adaptés à une intégration dans le cloud. Applications critiques, tâches impliquant des données ultra-confidentielles (telles que les dossiers médicaux ou les dossiers du personnel), services interdépendants (tels que les traitements des transactions en ligne à débit élevé) et activités soumises à de nombreux processus d’audit et à des responsabilités élevées (telles que celles faisant l’objet des lois Sarba-nes-Oxley)… toutes ces solutions ne sont pas appropriées à une intégration dans le cloud (IBM 2010).

3.4 Un processus d’innovation continu.

Si l’atelier de découverte est un bon début, le meilleur outil reste tout de même le dialogue ; un dialogue continu au sujet de l’entreprise, de ses objectifs, de ses projets, de sa stratégie informatique, etc. Essentiel à la réussite du projet, il peut revêtir plusieurs aspects. Entretiens individuels fréquents entre de nombreux collaborateurs ou réunions régulières animées par un « comité d’innovation » créé pour l’occasion : à chacun sa formule !

Page 39: Fin Projet 2

Chapitre 2 cloud computing

Vous pouvez égale-ment mettre au point des outils en ligne, ouvrir des espaces collaboratifs, voire externaliser des initiatives en invitant un grand nombre de personnes à vous faire part de leurs réflexions en matière d’innovation et de stratégie d’entre-prise. En intégrant les membres du service informatique dans cette phase de réflexion, l’organisation sera en mesure de se rapprocher encore un peu plus de ses aspirations en matière de technologie métier et mettra toutes les chances de son côté pour exploiter les nouvelles technologies. Qu’auriez-vous fait si vous aviez eu l’iPad en tête dès le jour de son annonce ? Auriez-vous pu créer une application complète ayant les caractéristiques de ce nouveau périphérique informatique, à savoir mobilité, connexion, géolocalisation et personnalisation ?

De nombreux services cloud obéissent à la même règle : si vous faites partie des premiers à les utiliser, vous disposez d’un avantage certain, à condition de pouvoir abandonner ceux qui n’arriveront pas à maturité.

Déterminer dans quelle mesure le cloud peut être utile à l’entreprise est un travail de longue haleine. Votre équipe informatique devra sans arrêt redéfinir la frontière entre services cloud et services internes. Au fil du temps, de nouveaux développements ne cesseront de déplacer cette frontière. Des solutions trop coûteuses hier pour une intégration dans le cloud deviendront abordables, des applications jugées inadaptées au cloud par le passé pourront bientôt correspondre à un bon projet de cloud. De même, il y a fort à parier que les obstacles d’aujourd’hui pourront être finalement surmontés par de nouveaux services ou grâce à l’intervention de fournisseurs cloud nouvellement installés. Tout ceci fait partie du processus d’innovation ou du dialogue au sujet de l’Architecture d’Entreprise ; deux notions synonymes puisque les collaborateurs impliqués dans les innovations sont aussi ceux en charge de l’Architecture d’Entreprise.

Si votre société n’est pas suffisamment préparée à ces discussions, pas de panique, il existe une solution plus simple et moins contraignant : demandez au DSI et aux architectes d’entreprise d’inviter de temps en temps un utilisateur métier pour un déjeuner en tête à tête ou pour un échange informel de fin de journée, de façon à ce qu’ils puissent discuter de la contribution du service informatique aux efforts de l’entreprise. Cette volonté d’impliquer les utilisateurs vous permettra de tisser un réseau de collaborateurs désireux d’apporter leur soutien au projet de cloud et susceptibles d’aider ultérieure-ment à la mise en place des transitions.

3.5 L’Architecture d’Entreprise, premier maillon de la chaîne.

Le cloud computing peut en effrayer plus d’un, dans la mesure où il brandit le spectre d’une perte éventuelle de contrôle. Ce qui, comme nous l’avons souligné au chapitre 6, n’est pas forcément négatif tant que ce risque particulier est connu et que les autres dangers, plus conséquents, sont évités par des mesures préventives. Les réussites à court-terme et les réalisations à long terme ne sont pas nécessairement contradictoires ; elles requièrent tout simplement une bonne maîtrise de la situation pour se concrétiser.

Page 40: Fin Projet 2

Le contexte : Dossier du cloud computing

Seule l’Architecture d’Entreprise est en mesure d’assurer non seulement le suivi du bon développement du paysage informatique lors de la mise en œuvre de solutions de cloud, mais également la vérification de la parfaite adaptation de la technologie aux objectifs métiers. L’AE permet en effet de définir les fonctionnalités, la qualité et la structure des solutions, quelles que soient les méthodes de mise en œuvre utilisées. De ce point de vue, elle vous donne les moyens de surveiller et de contrôler le déploiement épars de tous les composants des solutions lors de leur mise en œuvre technique. Pour garantir la mise en place d’une bonne Architecture d’Entreprise dans le contexte du cloud computing, gardez à l’esprit les points suivants :

Analysez la situation actuelle afin de découvrir les services et les modèles en vigueur dans l’organisation et leurs alternatives.

Définissez la nature future des services et des schémas susceptibles d’être inclus dans un projet de mise en œuvre (partielle) du cloud. Chaque scénario plausible doit faire l’objet d’une étude architecturale ainsi que d’une analyse des impacts, réalisées à partir des différents schémas permettant de définir et de mettre en place les divers cas de figure.

Définissez les options de déploiement les plus appropriées en choisissant celles qui vous permettront de fournir les meilleurs services. Cette approche de classification des solutions cloud permet de mettre en parallèle la valeur métier et le facteur de standardisation de chaque alternative de schéma et/ou de service. Il est indispensable que cette étape implique également la définition du portfolio de services et la mise en correspondance des capacités métiers et des services.

Pilotez la rédaction des appels d’offres en fournissant des descriptions fonctionnelles de chaque schéma ou de chaque variante de service pouvant être choisi pour une intégration dans le cloud. Ces descriptions doivent contenir les éléments suivants :

◦ Une définition des fonctionnalités.◦ L’objet et le but de la variante.◦ Des caractéristiques supplémentaires.◦ Les critères de qualité à atteindre.◦ La mise en œuvre des directives et des normes nécessaires à l’intégration de ces

fonctionnalités dans le paysage informatique dans son ensemble. Fournissez les mêmes descriptions pour tous les services et tous les schémas qui, bien

que restant sous la responsabilité de l’organisation, seront tout de même affectés par le déploiement d’autres services dans le cloud. Vous aurez ainsi une vision complète des transformations qui auront lieu lors de la mise en œuvre du cloud.

Suivez de près les processus de mise en œuvre, de test et de fonctionnement des services cloud sans oublier de (re)définir et de tester les services internes affectés par leur mise en œuvre.

Page 41: Fin Projet 2

Chapitre 2 cloud computing

Si vous ne disposez pas encore d’une Architecture d’Entreprise mature, nous vous recommandons d’en mettre une en place ; entre autres raisons, elle vous permettra de garantir à coup sûr le succès de votre projet de cloud computing.

4 Préparation du service informatique en vue de l’adoption du cloud

Transformations technologiques induites par le cloud computing

L’impact du cloud computing sur le service informatique est double : du point de vue de la technologie d’une part, c’est-à-dire au niveau de la nature des technologies utilisées et de leurs méthodes d’intégration. Et du point de vue des processus de création, d’approvisionnement et de fonctionnement des activités informatiques, d’autre part : à savoir le fonctionnement interne du service informatique lui-même.

4.1 Transformations sur les processus informatiques

Transformations induites par le cloud computing

L’intégration de services cloud externes dans les activités des services informatiques de l’entreprise aura des répercussions sur le fonctionnement des activités informatiques à bien des égards. Le cloud peut en effet proposer de nouvelles fonctionnalités pour un même processus, la qualité de service peu être différente, comme peuvent l’être également les méthodes de sauvegarde et de restauration. De plus, dans le cas de clouds privés, les processus informatiques feront l’objet de modifications importantes.

Dans le but de préparer au mieux les processus informatiques au passage au cloud computing, voici quelques transformations à prendre en compte :

Page 42: Fin Projet 2

Le contexte : Dossier du cloud computing

4.2 Intégrer l’Architecture d’Entreprise dans les attributions du service informatique

Seule l’intégration des principes architecturaux dans les activités quotidiennes du service informatique peut permettre la mise en œuvre d’une Architecture d’Entreprise et la mise en phase des objectifs métiers avec les solutions technologiques. Appuyez-vous sur l’Architecture d’Entreprise pour simplifier les principes architecturaux et les intégrer facilement dans les projets et les autres activités informatiques. Il n’en reste pas moins que vous devez impliquer les chefs de projets et les responsables informatiques (séniors), par exemple.

Les conseils en matière d’architecture d’infrastructure présentés devraient par exemple vous fournir les outils concrets vous permettant d’intégrer la notion de cloud dès la phase de conception de l’infrastructure.

Mais il est indispensable que les collaborateurs réellement impliqués dans les projets d’infrastructure les exploitent pleinement avant de prendre les décisions nécessaires.

4.3 Définir et faire admettre la fonction de facilitateur.

Si le service informatique souhaite coordonner les efforts de l’entreprise dans son chemin vers le cloud, il doit au moins assumer le rôle de facilitateur entre les utilisateurs métiers et les utilisateurs finals, d’une part, et les prestataires de services cloud de l’autre. Si cette fonction de facilitateur s’avère assez simple (il suffit en effet d’adapter l’offre à la demande), elle n’en reste pas moins un facteur de réussite décisif vous permettant de gagner (ou perdre) des parts de marché. Intrinsèquement, la fonction de facilitateur est à la fois tournée vers l’intérieur, en ce sens qu’elle est en mesure de connaître les demandes, qu’elles soient actuelles ou futures, et vers l’extérieur en recherchant de façon proactive les services pouvant éventuellement intéresser l’entreprise. Laissez le temps à vos collaborateurs de mettre en place les deux facettes de cette fonction de facilitateur : définir les demandes attendues et rechercher les nouveaux services potentiellement disponibles sur le marché.

Dès que le nombre de services gérés commencera à augmenter, le service informatique devra faire face à davantage de pressions : à lui en effet de garantir à la fois la qualité et la continuité, tout en cherchant à limiter les risques et surveiller les conflits juridiques. Si vous utilisez un service cloud que le service informatique aura choisi en sa qualité de facilitateur, vous pouvez faire confiance aux tiers qui proposent des services stratégiques ou qui stockent des données sensibles. Cette confiance devra toutefois reposer sur la signature de contrats juridiques ou d’accords de niveaux de service en bonne et due forme. Lors de la mise en place de la fonction de facilitateur dans le cadre de votre projet de cloud computing, nous vous conseillons de définir les profils des prestataires éventuels sur la base de critères aussi divers que les aspects financiers et juridiques, la conformité, la sécurité, le personnel, l’emplacement géographique, etc. Ces profils pourront être réutilisés lors de l’intégration de nouveaux services dans le portfolio de solutions de l’entreprise.

Page 43: Fin Projet 2

Chapitre 2 cloud computing

Il peut s’avérer également très utile, à long terme, de garder à l’esprit la notion de catalogue d’applications d’entreprise : un portail d’approvisionnement en ligne et en libre service, où les utilisateurs pourraient choisir les applications et les services qui les intéresseraient. Dans ce catalogue, vous pourriez par exemple présenter, de façon conviviale et attrayante, toute la gamme d’applications internes et externes mises à la disposition des utilisateurs. La mise à jour de ce catalogue incomberait au facilitateur de cloud.

4.4 Commencer à utiliser un portfolio de services.

Seul un portfolio de services cohérent, abondant et développé de façon dynamique permettra de garantir l’efficacité de la fonction de facilitateur. C’est au service informatique que revient la tâche de mettre au point un tel portfolio, en sélectionnant des services aussi bien internes qu’externes sur la base de critères tels que l’excellence opérationnelle, l’innovation, la qualité de service et le coût. En tant que nouvelle fonction du service informatique, cette gestion de portfolio va bien au-delà de la prise en charge traditionnelle des fournisseurs. Pour mettre au point un portfolio, il n’y a rien de plus simple : commencez par répertorier les « capabilités » , puis associez-les aux services dont elles ont besoin. Tous vos collaborateurs seront ainsi en mesure de bien comprendre l’utilisation des services, la façon dont ils sont réutilisés ou partagés et leur importance dans le fonctionnement des processus métiers (priorité des services).

Définissez et décrivez les services fournis par votre équipe informatique, agnostique du point de vue technologique, de façon à donner un aperçu très clair de leurs fonctionnalités, de leur qualité et de leurs caractéristiques, quelle que soit la façon dont ils sont utilisés. Ces définitions peuvent être également exploitées par les architectes, dans la mesure où elles leur permettent de sélectionner des solutions pertinentes et de déterminer s’il existe des solutions susceptibles de pouvoir être intégrées dans le cloud. En retour, les architectes peuvent participer à la mise à jour des descriptions des services en fournissant des définitions et des précisions sur l’aspect fonctionnel des

solutions.

4.5 Affiner l’allocation des coûts.

La mise en œuvre d’un portfolio de services repose en grande partie sur la définition du coût par service. Comme le service informatique interne va rentrer en concurrence, dans une certaine mesure, avec des prestataires externes, la transparence au niveau des coûts devient une exigence incontournable. Pour vous permettre de définir un modèle de facturation à l’usage et d’imputer correctement les frais correspondants à l’entreprise, vous devez disposer d’une bonne vision des critères de mesure des prestations informatiques.

Vous devez en effet connaître non seulement le coût d’exploitation des prestations informatiques, mais également le mettre en relation avec les critères de mesure métiers appropriés tels que les transactions, les produits ou les utilisateurs. N’oubliez pas d’inclure dans ce modèle les coûts d’intégration et d’orchestration des services cloud.

Page 44: Fin Projet 2

Le contexte : Dossier du cloud computing

En établissant une structure de répartition des coûts et un modèle des charges couvrant tous les services, quel que soit leur mode de mise à disposition (dans le cloud, hors du cloud ou les deux), vous vous préparez à pouvoir intégrer toute solution de cloud, quelle qu’elle soit. Il se peut que votre entreprise n’adopte d’ailleurs jamais un modèle de facturation à l’usage. Peu importe ! Vous devez tout de même disposer de la vision la plus large possible afin de pouvoir maîtriser et justifier correctement l’approche financière.

4.6 Renouveler la gestion des services pour contrôler leur livraison.

La fourniture de services via le cloud affecte aussi bien les processus techniques que les méthodes opérationnelles.

Parce que la mise en œuvre des solutions évolue, elle doit désormais être prise en charge par les architectes. Responsabilité vis-à-vis des processus opérationnels, type et nature de ces mêmes processus, méthodes de déploiement et de contrôle des services… l’heure est au bouleversement à tous les niveaux.

Le dynamisme du cloud computing renforce la vitalité des portfolios de services et développe, par la même occasion, les opportunités de contrat. Les services de natures différentes et proposés par plusieurs prestataires doivent être présentés de façon cohérente à l’entreprise. La gestion des incidents, des problèmes et des évolutions doit évoluer et s’adapter, entre autres, à la nature des services cloud ainsi qu’aux contrats de service sous-jacents. Le renouvellement de la gestion des services en vue de son adaptation à l’environnement du cloud implique que vous apportiez des modifications aux processus suivants :

Gestion du portfolio des services : comme nous l’avons expliqué précédemment, vous devez y inclure des services standardisés et définis selon des termes métiers. Toutes les étapes nécessaires à la définition d’un portfolio de cette nature ont déjà été précisées dans les sections précédentes. C’est à l’équipe en charge de la gestion des services qu’incombe la responsabilité de la mise à jour du portfolio.

Gestion de la continuité des services informatiques : veillez à assurer la continuité des services. La mise en œuvre répartie de solutions (auprès de différents prestataires de cloud) peut mettre en danger la continuité des services en cas de contrôle insuffisant.

Gestion du support client et des incidents : mettez en place une structure et une organisation de gouvernance prêtes à assumer des tâches hautement automatisées, à définir des services de support technique en collaboration avec les prestataires de cloud, à gérer les incidents et les problèmes éventuels, ainsi qu’à convenir avec les prestataires de cloud des méthodes de suivi et de résolution des problèmes (analyse des causes racines).

Gestion des transformations et des versions : définissez des processus matures et standardisés pouvant être automatisés de façon à prendre en charge l’approvisionnement rapide des services cloud.

Page 45: Fin Projet 2

Chapitre 2 cloud computing

Gestion des disponibilités et des capacités : mettez en œuvre un modèle de prévision des capacités en mesure de prendre en compte les caractéristiques des services cloud connexes.

4.7 Transformations technologiques

Transformations technologiques induites par le cloud computing

L’impact du cloud computing sur les processus et les activités métiers est tel que l’on pourrait facilement en oublier ses répercussions techniques. Si vous optez pour une intégration de services cloud à partir d’un modèle interne, concentrez tout d’abord vos efforts techniques sur les enjeux de la virtualisation. En revanche, si vous envisagez plutôt de faire appel à des services proposés sur un cloud public, la sécurité ou l’intégration doivent mériter toute votre attention. Ce ne sont pourtant pas les seules actions concrètes que vous pouvez entreprendre au niveau technologique, en voici d’autres:

4.8 Experimentez !

Soyez imaginatif ! Créez une solution à l’aide d’API disponibles dans le cloud public. Accédez à l’espace informatique d’Amazon et testez l’exécution d’une application. Lors de vos essais, exploitez les concepts du cloud à titre expérimental et attardez-vous principalement sur les caractéristiques les plus significatives :

Sécurité et performances. Gestion et fonctionnement. Nouvelles fonctions, nouvelles possibilités.

La plupart des développeurs adorent tester les toutes dernières plates-formes en ligne ; ne leur gâchez pas ce plaisir. Il ne fait aucun doute qu’ils arriveront à trouver des solutions toutes plus imaginatives les unes que les autres. Et si,en plus, vous avez l’occasion de tester une solution métier, impliquez les utilisateurs concernés sans tarder.

Page 46: Fin Projet 2

Le contexte : Dossier du cloud computing

4.9 Virtualiser votre centre de données

La plupart des entreprises ont déjà sauté sur cette occasion en or : recherchez les redondances matérielles dans le cadre de l’un de vos projets, puis réduisez le nombre de machines physiques. L’effet sera garanti : la réduction des coûts et le renforcement de votre agilité seront au rendez-vous. À condition d’être réalisée correctement, la virtualisation est quasiment transparente aux yeux des utilisateurs métiers. En outre, elle peut vous permettre de vous préparer à l’exploitation de nouvelles ressources externes.

4.10 Automatiser les processus informatiques manuels

Dans un environnement où la pression sur les coûts reste élevée et où la concurrence de la part des prestataires de services cloud ne cesse de se renforcer, le coût des opérations informatiques standard doit se rapprocher de celui des prestataires externes. La solution la plus efficace consiste à automatiser les processus informatiques autant que possible. Pensez à tous les processus manuels, toutes les exceptions ou encore toutes les tâches récurrentes qui ne sont pas encore tombées sous le joug de l’automatisation.

4.11 Migrer des applications existantes

Dans certains cas, vous trouverez à la fois plus judicieux et plus rentable de migrer des applications existantes dans le cloud. Si, par exemple, un service cloud offre les mêmes fonctionnalités qu’une application existante, il vous suffit alors de ne migrer que les données. En revanche, si aucune alternative prête à l’emploi n’est disponible, migrez l’application existante vers une plateforme cloud. Dans ce cas, n’oubliez pas de vérifier l’architecture de l’application : comment prend-elle en charge les threads, l’évolutivité, les transactions, le stockage, etc... ? Sélectionnez ensuite la plateforme cloud la plus appropriée à l’application et la plus pertinente selon votre étude de faisabilité.

4.12 Se préparer aux défis d’intégration.

Si vous disposez d’une architecture orientée service, il y a fort à parier que vous avez déjà mis en place des méthodes de communication entre applications de type ESB. Avec l’adoption du cloud computing, le service informatique prend en charge une nouvelle responsabilité technique : l’intégration.

L’une de ses fonctions principales consistera donc à fournir une plateforme d’intégration à la fois stable et mature en mesure de s’adapter aux nombreuses demandes générées par le cloud : gestion des données de référence, des identités, des autorisations et des politiques, orchestration des flux de travail, suivi des dispositifs de messagerie et fiabilité de la connectivité réseau... Si vous pensez que votre stratégie en matière d’intégration a besoin d’être améliorée, ne perdez pas de temps. Vous éviterez ainsi de créer une multitude de plates-formes incompatibles et impossibles à gérer. Sans une approche saine en matière d’intégration, vous n’obtiendrez qu’un système anarchique et chaotique, dominé par une augmentation de la complexité, une envolée des coûts et une réduction de la flexibilité.

Page 47: Fin Projet 2

Chapitre 2 cloud computing

5 De l’intérieur vers l’extérieur ou de l’extérieur vers l’intérieur ?

En règle générale, il est possible d’adopter le cloud computing selon deux approches. De l’intérieur vers l’extérieur (inside-out), par l’optimisation du service informatique et la recherche d’une réduction des coûts et d’un renforcement de l’agilité. Et de l’extérieur vers l’intérieur (outside-in), par l’intégration de solutions prêtes à l’emploi dans le cas de besoins métiers urgents.

Ces deux approches ne sont pas incompatibles et peuvent même parfois être combinées.

5.1 Approche outside-in.

Cette première approche est, de loin, la plus simple ; du moins au départ. Il suffit à une organisation de choisir différents services et applications de cloud (public) proposant des fonctionnalités très simples ou des prestations de niche isolées. Comme par exemple des services de messagerie ou de téléconférence (applications standardisées), ou encore des outils d’évaluation des ressources humaines ou des portails de collaboration (services de niche). Adopter ces solutions pose peu de difficultés ; la plupart du temps : il suffit de s’inscrire aux services correspondants. Un navigateur, une carte de crédit… et le tour est joué ! Ces applications vous proposent des fonctionnalités propres à des groupes d’utilisateurs spécifiques effectuant des tâches bien particulières. Le revers de la médaille ? Ces services ne peuvent (quasiment) pas être intégrés aux autres applications. Malgré une phase initiale de mise en œuvre relativement simple, cette approche est loin d’être systématiquement la plus appropriée : son manque d’intégration, ainsi que les éventuels risques qui existent au niveau de la sécurité des données et de la conformité réglementaire la rendent en effet inadaptée à certains contextes. En outre, dans une perspective à long terme, l’image d’un environnement composé d’une myriade d’applications et de dispositifs déconnectés, ainsi que de services venus des quatre coins du cloud n’est pas tout à fait conforme aux aspirations de la plupart des organisations.

5.2 Approche inside-out.

Cette deuxième approche, bien que plus difficile à mettre en œuvre, s’avère plus fiable à long terme. Les dispositifs internes sont convertis en services cloud (privés) grâce à des techniques de virtualisation, des outils de gestion et d’intégration de services, des méthodes de gestion automatisée, des portails en libre service et des mécanismes de facturation pour ne citer que quelques exemples. Cette approche implique de redéfinir entièrement le paysage informatique en le faisant reposer sur des principes d’orientation services. Une fois les services internes en place (y compris les dispositifs d’orchestration et d’intégration), vous pouvez avoir accès aux services cloud externes et les intégrer dans la gamme complète des services informatiques de votre organisation. Il peut s’agir, par exemple, de plates-formes d’application et de dispositifs de stockage situés à l’extérieur des pare-feux du centre de données propre à l’organisation et utilisés en cas de récupération après incident, de développement et de test ou pour des besoins de traitement des charges élevées. Ou encore de programmes disponibles sous la forme de services externes prenant en charge une partie des tâches de traitement des données à la manière d’une véritable architecture orientée services.

Page 48: Fin Projet 2

Le contexte : Dossier du cloud computing

Complète, cette approche ne vous garantit que des avantages dans la suite de votre aventure. Il se peut toutefois qu’il soit difficile d’exposer cette vision aux responsables de l’entreprise et, qui plus est, de les convaincre. Vous devez au moins leur présenter la liste précise des principes et des modèles de référence sur lesquels vous vous appuyez de façon à leur faciliter la prise de décisions.

Si un service informatique décidait de tourner tout simplement le dos au cloud, l’approche externe prendrait discrètement le pas sur sa fonction principale. Au fil du temps, le service informatique serait de moins en moins sollicité, au détriment probablement des opérations d’intégration et de l’intégrité des processus. Si une approche inside-out complète peut s’avérer tout aussi sécurisée que fiable, elle peut parfois souffrir des mêmes maux qui ont fini par ternir la réputation de l’architecture orientée services : une préparation interne intensive n’engendre pas systématiquement de nouvelles opportunités commerciales. La réduction des coûts est un objectif formidable, le renforcement de l’agilité un but souvent recherché. Mais rien n’est plus encourageant que de nouvelles opportunités commerciales. C’est la raison pour laquelle nous pensons que la combinaison des deux approches représente le cocktail idéal : cherchez à mettre en place les plus grands changements en interne tout en scrutant le cloud public à la découverte de nouvelles opportunités. Quelles que soient les décisions que vous prenez, gardez à l’esprit les principes d’une bonne architecture et appliquez-les. Au fil du temps, les deux approches vous permettront de disposer d’un portfolio composé de services aussi bien internes qu’externes, orchestrés par le service informatique interne dans son rôle de facilitateur.

6 Pour en savoir plus sur le cloud et son impact

Aujourd’hui, les organisations s’efforcent de se renseigner au mieux au sujet du cloud computing de façon à comprendre davantage son principe et son impact. De nombreuses méthodes sont à votre disposition, certaines d’entre elles vous ont d’ailleurs déjà été exposées dans cet ouvrage. D’autres n’ont pas encore été abordées. Voici quelques idées…

Assistez à des événements ou à des formations organisés sur le thème du cloud computing. Vous trouverez dans ces manifestations de précieuses explications au sujet du cloud accompagnées de témoignages à propos des meilleures pratiques. Les rencontres CloudCamp, véritables lieux d’échange entre utilisateurs, sont tout particulièrement recommandées aux architectes d’entreprise et aux techniciens.

Impliquez l’équipe juridique dès à présent en l’invitant à prendre part aux discussions. Aidez ses membres à identifier les obstacles qui risquent de surgir sur le chemin du cloud et à trouver les solutions adéquates permettant de les surmonter.

Page 49: Fin Projet 2

Le contexte : Dossier du cloud computing

Analysez la maturité de votre service informatique et de votre Architecture d’Entreprise, et recueillez les retours de tiers à propos des forces et des faiblesses de votre organisation actuelle. Avez-vous mis en œuvre une architecture orientée services ? Le processus d’Architecture d’Entreprise fonctionne-t-il correctement ? Apprenez à évaluer les secteurs pour lesquels des améliorations sont nécessaires avant d’intégrer les changements générés par le cloud.

Vérifiez la sécurité de vos systèmes de façon à vous assurer que vos processus de gestion des risques, vos règles en matière de sécurité des données ainsi que vos solutions technologiques sont suffisamment efficaces pour que vous puissiez commencer à envisager de les intégrer dans un écosystème cloud.

Renseignez-vous et recherchez des cas de figure présentant la possibilité ou l’impossibilité d’intégrer le cloud computing. Rencontrez les équipes responsables des tests et de l’assurance qualité, ainsi que les personnes en charge de l’exécution des applications existantes. Qu’il s’agisse de conseils avisés ou bien d’objections, les informations précieuses qu’elles vous fourniront vous permettront d’envisager l’impact que pourrait avoir le cloud computing sur votre organisation.

La plupart des concepts existent déjà depuis de nombreuses années. Souvent, il suffit en effet d’appliquer tout simplement ce que nous connaissons déjà. Les discussions au sujet du cloud vous donnent l’occasion d’aborder certains aspects qui souffraient cruellement de quelques défauts. Comme par exemple diffuser des informations sur la façon dont le service informatique pourrait et devrait travailler : définir des objectifs et donner l’impulsion nécessaire aux collaborateurs pour les atteindre.

7 Le cloud computing au sein de votre organisation

Si le cloud repose sur la technologie, son impact concerne toutefois l’organisation dans son intégralité. La priorité et l’étendue de la mise en place des différents aspects varient d’une organisation à une autre. En règle générale, vous pouvez adopter tous les aspects indiqués de gauche à droite dans le diagramme, en prévoyant tout de même une phase de test initiale avant d’intégrer sérieusement la solution de cloud. Bien que l’ordre dans lequel vous pouvez adopter ces solutions importe peu, sachez tout de même qu’il existe des relations de dépendance entre certains aspects, comme par exemple entre la virtualisation et l’imputation ou entre l’automatisation et l’approvisionnement en libre service.

Page 50: Fin Projet 2

Chapitre 2 cloud computing

Synthèse des transformations induites par le cloud computing

8 Surfer sur le nuage.

En fin de compte, le cloud marche sur les plates-bandes de l’architecture orientée services : bien qu’il ait perdu de sa superbe et qu’il n’attire plus l’attention du public, ce type d’architecture reste malgré tout le modèle de référence en matière de conception de systèmes répartis. Le cloud computing, quant à lui, s’impose rapidement comme une « option supplémentaire » aux yeux des services informatiques. Seules les entreprises en mesure de transformer l’essai en opportunité commerciale pourront libérer et exploiter son potentiel. Tout au long de son intégration, le cloud aura permis à l’équipe informatique d’accéder à un niveau de professionnalisme supérieur et de s’imposer, du même coup, comme un service indispensable à l’entreprise. Mais sans efforts, les promesses resteront lettres mortes. Le cloud computing exige travail, coordination, collaboration et créativité. Il importe de définir des jalons précis tout au long du processus d’intégration afin de garantir sa réussite. Les étapes que nous avons décrites dépendent toutes les unes des autres et ne peuvent être suivies séparément. Elles doivent être respectées dans le cadre d’une méthode intégrant délicatement les processus, la technologie et les collaborateurs. Ne l’oubliez pas : le cloud n’est pas une simple migration,mais l’adoption d’un nouveau modèle, le début d’une nouvelle aventure. À vous de choisir votre destination et votre rythme. Puis hissez la grande voile si vous n’avez pas encore quitté le port. Et bon vent !

Page 51: Fin Projet 2

Chapitre 3

tude général sur laÉ virtualisation.

Page 52: Fin Projet 2

Le contexte : Dossier de la virtualisation

1 Présentation:

L’informatique vue par les administrateurs système consiste à gérer des triplets: matériel, logiciels et usagers. Si les utilisateurs finaux sont l’objectif même de notre travail, les services offerts nécessitent la gestion de serveur basé sur:

Un matériel. Un système et ses pilotes. Les logiciels.

L’évolution des besoins évoluant avec le temps, le parc matériel installé n’est pratiquement jamais homogène.

L’administrateur doit gérer les relations de compatibilité suivantes pour chacun de ces serveurs:

Matériel - version de micro programmation (firmware). Version de micro programmation – pilotes. Pilotes - système d’exploitation. Système d’exploitation – applications. Applications - services offerts à l’usager.

Parfois, un logiciel particulier nécessite une version de pilote spécifique entraînant la mise à jour de la micro programmation du serveur.

Pour cela les inventeurs en pensé cette situation et on parle de la virtualisation Donc c'est Quoi la Virtualisation? On quoi consiste? Ces principes? Et il un avantage? Ou inconvénient?

Page 53: Fin Projet 2

Chapitres 3 La Virtualisation

2 Description de la virtualisation: 2.1 Définition:

Avant de se lancer dans le dossier de la virtualisation, il faut avant tout définir un peu le vocabulaire technique. Tout d’abord, voyons le mot virtualisation.

La virtualisation consiste à intercaler une couche d'abstraction entre un client et un

fournisseur au sens large du terme.

Pour l’encyclopédie francophone Wikipédia elle définit la virtualisation comme « l’ensemble des techniques matérielles et/ou logicielles qui permettent de faire fonctionner sur une seule machine plusieurs systèmes d’exploitation et/ou plusieurs applications, séparément les uns des autres, comme s’ils fonctionnaient sur des machines physiques distinctes » . Il s’agit donc d’utiliser une seule machine physique en remplacement de plusieurs et d’utiliser les possibilités offertes par la virtualisation pour démultiplier le nombre de machines virtuelles.

Toutefois, la virtualisation ne se limite pas uniquement à une utilisation grand public: elle recouvre plusieurs champs d’application, via plusieurs technologies et pour plusieurs objectifs.

La définition reste vague, car sous une appellation unique se cachent énormément de notions à prendre en compte. Les buts et les usages de la virtualisation varient également beaucoup selon les besoins et les catégories d’utilisateurs. Les paragraphes suivants seront donc consacrés à une présentation des cas d’utilisation en détaillant quelles solutions techniques qui seront adaptées à chaque usage , ce qui permettra de cerner tout ce qu’apporte la virtualisation pour toutes les usages de l'entreprise.

2.2 Description:

La virtualisation tout simplement une technologie permettant de disposer de plusieurs environnements (de serveurs physiques) sur une seule machine physique configurée en fonction de la charge nécessaire.

Chaque outil de virtualisation implémente une ou plusieurs de ces notions : ➢ Couche d'abstraction matérielle et/ou logicielle.➢ Système d'exploitation hôte (installé directement sur le matériel).➢ Systèmes d'exploitations (ou applications, ou encore ensemble

d'applications)« virtualisé(s) » ou « invité(s) ».➢ Partitionnement, isolation et/ou partage des ressources physiques et/ou logicielles.➢ Images manipulables : démarrage, arrêt, gel, clonage, sauvegarde et restauration,

sauvegarde de contexte, migration d'une machine physique à une autre réseau virtuel : réseau purement logiciel, interne à la machine hôte, entre hôte et invités.

Page 54: Fin Projet 2

Le contexte : Dossier de la virtualisation

La virtualisation recouvre aussi plusieurs domaines, en fonction de ce que l'on souhaite en faire. Par exemple :

➢ Un système d'hébergement mutualisé avec des Plateformes telles qu'Aternc permet d'héberger plusieurs domaines sur un seul serveur. Les utilisateurs ne voient que leurs données : on peut parler de virtualisation de service.

➢ Les clusters composés de plusieurs machines rendent les processus exécutés indépendants de leur emplacement. On parle alors de virtualisation de ressources.

➢ Dans le domaine du développement, le runtime java est une forme d'abstraction du système sous-jacent : le bytecode est virtualisé.

➢ Pour certaines applications professionnelles, plusieurs machines peuvent partager des services et un noyau commun. Techniquement dans ce cas un seul système tourne mais plusieurs applications peuvent avoir des ressources indépendantes : on parle de virtualisation niveau système.

2.3 Historique:

Une bonne part des travaux sur la virtualisation fut développée au centre de recherche IBM France de Grenoble (aujourd'hui disparu), qui développa le système expérimental CP/CMS, devenant ensuite le produit (alors nommé hyperviseur) VM/CMS, proposé au catalogue dès 1972.

Par la suite, les mainframes ont été capables de virtualiser leurs OS avec des technologies spécifiques et propriétaires, à la fois logicielles et matérielles.

Dans la seconde moitié des années 1990, les émulateurs sur x86 des vieilles machines des années 1980 ont connu un énorme succès, notamment les ordinateurs Atari, Amiga, Amstrad et les consoles NES, SNES, Neo Geo.

La société VMware développa et popularisa au début des années 2000 un système propriétaire de virtualisation logicielle pour les architectures de type x86. Les logiciels libres Xen, Qemu, Bochs, Linux-VServer et les logiciels propriétaires mais gratuits VirtualPC, virtualBOX et VirtualServer ont achevé la popularisation de la virtualisation dans le monde x86.

Cependant, les solutions envisageables sur architecture x86 sont longtemps restés bridés par les spécificités de l'architecture x86 et surtout par son utilisation. En effet, cette famille de processeurs depuis le 80386 offre, pour l'écriture de systèmes, 4 niveaux de privilèges, mais à priori tous les systèmes d'exploitation ont pris le parti de placer le système au niveau le plus privilégié ring 0, et les applications au niveau le plus faible ring 3, sans penser à se rendre plus indépendant des niveaux d'exécution. Par conséquent, 2 niveaux de privilèges sont perdus, et écrire une couche de virtualisation pour embarquer des systèmes d'exploitation complets, nécessitant des privilèges supérieurs à ceux du ring 0, ne peut plus se faire que par émulation.

Page 55: Fin Projet 2

Chapitre 3 La Virtualisation

C'est pourquoi les fabricants de processeurs x86 AMD et Intel ont ajouté dans leurs gammes des instructions dédiées afin de proposer des solutions de virtualisation matérielle dans la seconde moitié des années 2000. Ces instructions permettent la coexistence de plusieurs "ring 0" simultanée, on parle parfois par extension à leur sujet de "ring -1".

Aujourd'hui, les principaux éditeurs de solutions propriétaires de virtualisation sont VMWare, éditeur du logiciel éponyme, leader du marché, Microsoft avec Virtual PC et Virtual Server (ces deux produits sont spécifiques à l'environnement de Microsoft), Avanquest qui édite Parallels (dédié MacOS X sur Intel), le seul logiciel du marché qui permet une accélération 3D sur système invité, Citrix qui a acquis Xen, SWSoft, éditeur de Virtuozzo et Innotek GMBH avec VirtualBox.

3 Techniques et technologies de la virtualisation 3.1 Isolateur:

Un isolateur est une couche logicielle permettant d'isoler des applications dans des contextes d'exécution différents. Ils permettent en particulier l'exécution simultanée de plusieurs instances d'une même application nativement conçue pour n'être exécutée qu'à un seul exemplaire par machine. Cette technique est très performante, mais le cloisonnement des environnements virtualisés reste en général imparfait. Les machines virtuelles, qui sont que des environnements, sont forcément issues du même OS. Un exemple de technologie Isolateur, le chroot : isolation changement de racine.

Page 56: Fin Projet 2

Le contexte : Dossier de la virtualisation

3.2 Noyau en espace utilisateur:

Un noyau en espace utilisateur ou User-Space s'exécute comme une application standard dans l'espace utilisateur du système hôte. Ce système hôte à lui-même un noyau qui s'exécute directement sur la machine matérielle en espace privilégié. Le noyau en espace utilisateur a donc son propre espace utilisateur, dans lequel il contrôle ses applications. Cette technique est peu performante, car on empile deux noyaux, Elle n’est pour ainsi dire plus utilisée. De plus, les machines virtuelles sont forcément issues du même OS. Un exemple de technologie noyau en User-Space, l’User Mode Linux : noyau tournant en User-Space.

3.3 Machine virtuelle (superviseur) :

La Machine Virtuelle est un logiciel qui s'exécute sous le contrôle d'un système hôte. Il permet de lancer un ou plusieurs OS invités. Le rôle du système hôte est en particulier de procurer l'accès générique aux ressources physiques (disques, périphéries, connexions), les OS invités croient, de ce fait, être interfacés directement avec cette périphérie. L'exécution des instructions est native, les OS hôtes et invités doivent donc être de même architecture matérielle (processeur en particulier), sauf s'il s'agit d'un émulateur, l'architecture de l'OS invités ne dépend que de la nature du processeur émulé.

Les machines virtuelles (OS invités) peuvent être de type différents mais avec une architecture identique si mode natif et non émulé. Les performances sont bonnes à excellentes dans le cas d'une machine virtuelle en mode natif. Elles sont mauvaises à déplorables dans le cas d'un émulateur. Le premier cas est très adapté à des solutions en production, alors que le second est peu utilisable dans ces conditions. Ces deux techniques (exécution native et émulation) sont confondues, pour des performances en totale opposition. Un exemple de technologie superviseur, VirtualBox : émulateur de plateforme x86.

Page 57: Fin Projet 2

Chapitre 3 La Virtualisation

3.4 Para-virtualisation ou hyperviseur:

C'est une extension de l'architecture précédente (Machine Virtuelle). L'hyperviseur est un noyau hôte allégé et optimisé pour assurer l'exécution exclusive d'OS invités. L'OS invités peut être lui même générique, ou bien adapté dans le sens de l'optimisation pour s'exécuter sous le contrôle de cet hyperviseur. Les performances sont normalement excellente (quasi natives), il s'agit de la technique de virtualisation logicielle la plus efficace. Les machines virtuelles (OS invités) peuvent être de type différents mais d’architecture identique. Un exemple de technologie de Para-virtualisation : ESX VMware : hyperviseur sur plateforme x86.

Page 58: Fin Projet 2

Le contexte : Dossier de la virtualisation

3.5 Virtualisation Matérielle :

Le processeur, conçu pour cela, prend en charge le support de la virtualisation, et permet d'éviter de faire effectuer à l'hyperviseur ou à la machine virtuelle des tâches «micro-logicielles » qui ne peuvent être déléguées à un OS hôte dans le cadre d'un processeur non spécialisé. Le premier intérêt est d'améliorer les performances, pour les rapprocher encore plus de performances natives. Aujourd'hui, il y a principalement deux technologies en cours de développement : Intel VT, et AMD-V. Un exemple de technologie de virtualisation matérielle, Mainframes VM/CMS.

4 Les différents domaines de la virtualisation

Il est capital pour une entreprise de définir quelle technologie ou catégorie de service elle souhaite virtualiser. Globalement, il existe trois domaines de virtualisation, selon que l'on vise plutôt le système d'exploitation, le système stockage ou les applications. Très vastes, ces domaines ne délimitent pas clairement les aspects parfois les plus pertinents de la virtualisation du centre de données. Bien d'autres approches, tout aussi importantes sinon plus, peuvent trouver leur place dans une stratégie globale de virtualisation.

La virtualisation du système d'exploitation

Forme de virtualisation la plus répandue, les systèmes d'exploitation virtualisés, ou machines virtuelles, constituent un composant incontournable de l'infrastructure informatique, permettant de faire fonctionner simultanément des systèmes standards sur la même plate-forme matérielle. Les gestionnaires de machines virtuelles, s'installent soit comme une application d'un système d'exploitation hôte, soit comme une couche logicielle plus profonde que le système d'exploitation, et permettent d'administrer chaque machine virtuelle de façon individuelle, de telle sorte que chaque instance du système d'exploitation n'a pas conscience que la gestion se fait sur un mode virtuel et que d'autres machines virtuelles fonctionnent en même temps.

Virtualisation d'application

Si serveur d'application et virtualisation d'application peuvent paraître similaires, il s'agit de deux notions bien distinctes. La virtualisation d'application correspond à ce que l'on appelle « client léger ». La virtualisation d'application implique de pouvoir exécuter un logiciel sans toutefois l'installer physiquement sur le système auquel l'utilisateur est connecté, avec tout ce que cela implique en termes d'économies (de processus, de déploiement, d'altération, de mise à jour, de test, de compatibilité, etc.).

Page 59: Fin Projet 2

Chapitre 3 La Virtualisation

Virtualisation de réseau

Il s'agit du domaine le plus ambigu et le plus spécifique des approches de virtualisation. Il comprend les tables de routage, les réseaux locaux virtuels (VLAN), etc. L'exemple le plus simple de virtualisation de réseau est le VLAN, réseau informatique logique indépendant. De nombreux VLANs peuvent coexister sur un même commutateur réseau. Toute connexion IP virtuelle sur ce port physique unique est indépendante des autres et seul le commutateur gère chaque connexion individuellement. L'intérêt du VLAN se mesure en termes de : segmentation, flexibilité et sécurité.

Virtualisation de matériel

Très similaire à la virtualisation de système d'exploitation, et dans certains cas requise pour que celle-ci puisse avoir lieu. La virtualisation matérielle divise le matériel en segments indépendants et gérés individuellement. On citera comme exemple le multitraitement symétrique (SMP) et asymétrique (ASMP) ou encore la technique du Slicing qui est un procédé par lequel on partage le système en portions exploitées en enceinte close.

Virtualisation du stockage

Forme de virtualisation qui a fait ses preuves, la virtualisation du stockage se compose en deux catégories principales : la virtualisation de blocs, d'une part, et la virtualisation de fichiers, d'autre part.

La virtualisation de blocs correspond plus précisément aux technologies de réseau de stockage (SAN) et de stockage en réseau (NAS). Au niveau du SAN, la virtualisation de l'espace de stockage se rencontre d'abord dans les unités de stockage, avec l'introduction il y a plusieurs années, de la première forme de virtualisation du stockage : le RAID. Autre implémentation courante de virtualisation des blocs, l'iSCSI permet au système d'exploitation ou à l'application d'associer sur un réseau de stockage dédié des équipements qui ne savent pas communiquer entre eux.

La virtualisation de fichiers rend la couche virtuelle plus accessible à l'échelle de l'utilisateur. La plupart des technologies de virtualisation de fichiers sont associées à des réseaux de stockage et permettent de suivre la localisation et la répartition des fichiers et répertoires dans le dispositif de stockage. Par exemple, un utilisateur qui pense accéder à un fichier localisé sur son unité distante de stockage, y accède en fait via un serveur de partage de ressources SMB hébergé dans un centre de données. Le réseau principal est ainsi libéré et dynamisé.

Page 60: Fin Projet 2

Le contexte : Dossier de la virtualisation

Virtualisation des services

L'ensemble des approches de virtualisation abordées précédemment mène à la virtualisation des services. Il s'agit de la consolidation de toutes les approches possibles de virtualisation, via l'association de toutes les composantes servant à la diffusion d'une application sur le réseau, quelle que soit leur localisation physique. En ce sens, la virtualisation des services facilite la disponibilité des applications, en permettant aux composantes de l'application de fonctionner indépendamment les unes des autres et de n'être mobilisées qu'en fonction des besoins.

5 Les acteurs majeurs de la virtualisation

Les principaux acteurs dans le domaine de la virtualisation sont partagés entre les très grandes entreprises fournissant des solutions pour leurs ordinateurs et les entreprises fournissant des solutions orientées PC. Les deux types d’activité ne sont que très rarement en concurrence, car les buts visés ne sont pas les mêmes.

Les grandes entreprises sont celles qui fournissent des machines pour les centres de calcul et les mainframes. Les acteurs les plus connus sont IBM qui a un fort historique de virtualisation , HP, Sun, Bull, etc. Toutes ces sociétés fournissent des systèmes de virtualisation fonctionnant exclusivement avec leur propre architecture matérielle. Les technologies utilisées diffèrent selon les systèmes, mais en général ce sont des technologies à base de virtualisation complète ou d’hyperviseur.

Sur les architectures de type PC, il y a plus de sociétés proposant des produits et donc plus d’offres de virtualisation. On peut notamment citer Microsoft, qui a racheté la solution de virtualisation de Connectix en février 2003. Ce rachat a ensuite donné lieu à la diffusion de Virtual PC et Virtual Server, produits permettant de virtualiser des systèmes à base de Windows, respectivement pour un ordinateur personnel et pour un serveur. La version pour serveurs offre également la possibilité de virtualiser GNU/Linux.

La société VMware édite plusieurs produits à destination des entreprises souhaitant virtualiser leurs serveurs, qui couvrent sensiblement les mêmes applications que les solutions de Microsoft, mais avec en plus la possibilité de faire fonctionner leurs produits avec le système GNU/Linux en tant que système hôte. Ces deux sociétés fournissent des solutions propriétaires destinées aux particuliers et aux entreprises.

Il y Aussi Xen; un hyperviseur, il vient s’insérer entre le matériel et le noyau. C’est donc Xen qui a l’accès exclusif au matériel, et les systèmes d’exploitation fonctionnant par dessus doivent obligatoirement passer par l’hyperviseur pour y accéder. Il peut ainsi répartir précisément les ressources entre les systèmes invités.

Page 61: Fin Projet 2

Chapitre 3 La Virtualisation

Xen virtualise selon deux techniques différentes :

➢ La virtualisation utilisant l´hyperviseur et la para virtualisation.

➢ la virtualisation matérielle.

Aujourd’hui, de nombreuses distributions intègrent Xen dans leur système d´exploitation comme Red Hat, Ubuntu, Suse,Windows et Gentoo.

Au niveau des fonctionnalités, Xen est très certainement un des plus complets, il n’a pas à rougir de la comparaison avec des technologies propriétaires plus anciennes et mieux établies, telles que les solutions de la société Vmware.

Du côté de la communauté du logiciel libre, il y a énormément de projets de virtualisation, ayant des buts variables. Certains d’entre eux sont soutenus par une société, qui fournit un service payant pour les clients le souhaitant. Les plus connus sont :

• Bochs : émulateur très complet de l’architecture PC traditionnelle (processeur Intel).• KVM : soutenu par la société Qumranet, KVM se veut une solution de virtualisation

performante et facile à administrer.• Linux-VServer : projet de virtualisation destiné à fonctionner sur le système

d’exploitation GNU/Linux.

Ces projets sont tous à des états d’avancement différents, certains sont d’ores et déjà utilisables en production alors que d’autres sont encore en phase de développement.

6 Virtualisation et sécurité

6.1 Les bénéfices de la Virtualisation des serveurs en termes de sécurité.

Parmi les bénéfices immédiats de la virtualisation des serveurs on peut entre autre identifier les points suivants : isolation, retour arrière et portabilité.

La possibilité de configurer des réseaux dédiés permet aux administrateurs de réduire les risques liés à la propagation d'une infection. Si un programme malicieux est installé dans une machine virtuelle, il est relativement facile de la restaurer à un état précédemment sain. Même si cela n'est pas toujours possible, ceci est particulièrement utile dans le cas de machine virtuelle hébergeant des données statiques comme les serveurs web.

La relative isolation qui existe entre une machine virtuelle et le serveur hôte permet de limiter significativement les dégâts causés par des programmes malicieux destinés à corrompre les données d'un système. Quand bien même le disque virtuel est totalement corrompu, le disque physique sur lequel il est hébergé reste intact.

Page 62: Fin Projet 2

Le contexte : Dossier de la virtualisation

La portabilité des machines virtuelles offre la possibilité de mettre en œuvre des processus de restauration et de PRA (plan de reprise d’activité) à moindres coûts et réduit considérablement le temps nécessaire à la remise en route d'un serveur. Elle permet entre autre de déplacer facilement la charge de travail d'un serveur physique à un autre.

De nombreuses solutions permettent de déplacer cette charge de travail dans toutes les directions indépendamment des configurations matérielles :

✗ Physique vers Virtuelle (P2V)✗ Virtuelle vers Virtuelle (V2V)✗ Virtuelle vers Physique (V2P)

Les nouvelles fonctions offertes par la virtualisation permettent de concevoir des systèmes capables de basculer automatiquement en cas de défaillance.

Enfin, en consolidant des infrastructures complexes dans des environnements et des réseaux virtuels séparés, les administrateurs peuvent configurer des règles spécifiques à chaque environnement et maximiser la sécurité. (Environnements de tests, ou de développement, environnements de production).

6.2 Les risques potentiels de la virtualisation

Comme toute nouvelle technologie, la virtualisation répond à de nombreux besoins et fait apparaitre de nouveaux problèmes. Ces risques sont parfois inhérents à l'architecture même de la virtualisation.

6.2.1 L'exploitation des failles.

L'isolation de la machine virtuelle et du système hôte est remise en cause par certains spécialistes de la sécurité. Ces derniers ont en effet découverts des problèmes d'étanchéité entres les machines virtuelles et la machine hôte rendant possible dans certain cas l'accès au système physique. Encore extrêmement marginales, ces menaces sont cependant prisent très au sérieux par les éditeurs qui n'hésitent pas à commander des études indépendantes pour améliorer leurs produits.

6.2.2 La répartition des machines (grille de consolidation)

Un des risques les plus importants de la virtualisation vient en partie dans sa raison d'être, la consolidation. En consolidant la charge de travail de différents serveurs sur une même machine, on augmente la criticité de cette machine. L'impact d'une panne matérielle d'un serveur hôte est maximisé car elle entraîne l'arrêt de l'ensemble des services consolidé sur cette machine. Même dans le cas ou des services non critiques ont étés choisis pour la consolidation, leur arrêt brutal et simultané peut avoir un impact conjugué important.

Page 63: Fin Projet 2

Chapitre 3 La Virtualisation

6.2.3 La sécurité des accès et la formation du personnel

D'une manière générale, il ne faut pas négliger l'aspect critique des serveurs de virtualisation. Si une personne non autorisée obtient l'accès au serveur, il lui est alors possible de copier l’ensemble des machines hébergées vers une autre destination et ainsi d'obtenir l'ensemble des informations sensibles d'une infrastructure. Imaginons par exemple ce que signifierai la récupération du disque virtuel d'un des contrôleurs de domaine d’une organisation.

Enfin, des utilisateurs mal intentionnés ou maladroits peuvent significativement perturber ou interrompre le service en rebootant le serveur, ou en modifiant des paramètres de configuration.

6.2.4 Le suivi des performances et du service

D'un point de vue répartition des ressources, bien qu'isolée les unes des autres, il est possible pour un programme malicieux d'affecter significativement la charge d'une machine virtuelle et donc d'impacter l'ensemble des performances des machines consolidées sur ce serveur. Ceci peut alors provoquer des problèmes de performances ou des phénomènes de « ping pong » sur les systèmes bénéficiant d'une répartition dynamique des ressources paramétrée de manière incorrecte. Les machines seront basculées d'un serveur à l'autre sans limites.

7 Avantages & inconvénients de la virtualisation 7.1 Les avantages de la virtualisation

Depuis de nombreuses années, les performances des équipements informatiques n’ont cessées d’évoluer pour atteindre aujourd’hui une puissance extraordinaire. Les applications proposées de nos jours ont besoin de beaucoup de ressources mais paradoxalement n’utilisent qu’une fraction du potentiel de certains serveurs. Selon Microsoft, il est souvent possible de regrouper jusqu’à 5 serveurs sur une seule machine sans perte de performances.

La virtualisation apporte donc de nombreux avantages :

La virtualisation permet de diminuer le nombre de machines physiques, ce qui entraîne un retour sur investissement intéressant:

✗ En termes d’espace nécessaire, un serveur capable de faire fonctionner différents systèmes d’exploitation sur une seule machine réduit en moyenne de moitié l’espace réservé aux serveurs dans une entreprise.

✗ En plus de cette réduction de place, la diminution du nombre de machines physiques entraîne une réduction de la consommation électrique.

Page 64: Fin Projet 2

Le contexte : Dossier de la virtualisation

✗ Enfin, moins de machines veut dire moins de contrats de supports matériels (souvent très cher sur les serveurs, où la maintenance doit intervenir rapidement en cas de panne matérielle).

En plus de ces avantages, la virtualisation permet une gestion simplifiée du parc serveurs.

✗ Les applications étaient autrefois étroitement liées aux serveurs sur lesquels elles s’exécutaient, la technologie de virtualisation crée une couche d’abstraction entre le matériel physique et les logiciels, ce qui permet l’exécution et la cohabitation de plusieurs serveurs bien distincts sur une même machine. Ainsi, des applications métiers développées en interne ne s’exécutant que sur un ancien OS (comme NT4 par exemple) peuvent être conservées sans les contraintes liées à l’ancien serveur physique.

✗ La virtualisation permet de réduire le temps et le coût souvent élevés consacrés à l’administration des serveurs. La gestion du parc machine est plus facile, ce qui allège la charge des administrateurs.

✗ Elle simplifie la mise en place de plateformes de tests ou de production en réduisant le temps de mise à disposition d’un serveur.

✗ Enfin, elle augmente la disponibilité des serveurs avec une reprise d’activité plus rapide que pour une machine physique.

Nous pouvons ajouter à ces caractéristiques un réseau plus sécurisé. En effet, la machine hébergeant les systèmes virtuels n’est pas visible par l’attaquant.

7.2 Les contraintes de la virtualisation

Malgré tous ces avantages, se lancer dans la virtualisation sans y avoir bien réfléchit, sans études et surtout sans plan de reprise d’activité (PRA) peut être fatal à votre système d’information.

✗ La mise en œuvre de la virtualisation induit une complexité de gestion et apporte son lot de risques inhérents au "tout virtuel". C’est une autre façon d’organiser son parc informatique,qui peut demander un temps d’adaptation.

✗ Un autre problème se pose : la gestion des données. Comment en effet retrouver ses données quand elles sont partagées sur plusieurs disques physiques, mais stockées sur des volumes logiques? Il faut absolument faire une cartographie détaillée à un instant T de ses données. Les LUN (Logical Unit Number) doivent être normés, avoir un nom et un numéro.

✗ Enfin, si la machine qui héberge tous les OS s'arrête ou si la montée en charge d'une application est flagrante, la situation peut vite tourner au cauchemar.

Page 65: Fin Projet 2

Chapitre 3 La Virtualisation

✗ D'autant plus que la virtualisation masque souvent l'origine des pannes, notamment grâce aux fonctionnalités automatiques de répartition de charge, qui rendent les pannes quasiment invisibles, puisque le système continue de fonctionner quoi qu'il arrive. Mais si une panne plus importante survient, il devient alors très difficile pour l'administrateur de la localiser.

Pour une virtualisation redondante il est donc capital de dupliquer les machines

virtuelles. Dans tous les cas la virtualisation n’est pas à prendre à la légère et doit être mûrement réfléchie.

8 Présentation d'Hyperviseur 8.1 C’est quoi un Hyperviseur

Un hyperviseur est une plate-forme de virtualisation qui permet à plusieurs systèmesd'exploitation de travailler sur une machine physique en même temps.

Hyperviseur (hypervisor) est en quelque sorte l’évolution logique de la virtualisation, si l’on recherche encore une amélioration des performances. Dans les technologies précédentes, le système hôte était le seul à avoir un accès direct au matériel ; avec un hyperviseur, le système hôte partage cet accès avec les systèmes invités.

Page 66: Fin Projet 2

Le contexte : Dossier de la virtualisation

Au démarrage de l’ordinateur, c’est normalement le système d’exploitation qui prend la main et contrôle le matériel. Dans le cas de l’utilisation d’un hyperviseur, c’est un système minimaliste l’hyperviseur qui prend le contrôle du matériel. Ensuite, il fait appel à un système d’exploitation complet, qui sera donc exécuté par dessus l’hyperviseur. Ainsi, le système d’exploitation doit passer par l’hyperviseur pour tout accès au matériel. On peut donc très facilement instancier un deuxième système d’exploitation, qui passera lui aussi par l’hyperviseur pour l’accès au matériel. Comme les systèmes d’exploitation doivent obligatoirement passer par ce dernier pour tout accès au matériel, l’hyperviseur peut s’assurer qu’ils n’accèdent qu’aux ressources autorisées, sans perturber le fonctionnement des autres systèmes.

8.2 Les avantages de l'Hyperviseur

Le premier avantage qui nous saute aux yeux lorsque nous parlons de l'hyperviseur est de pouvoir faire fonctionner plusieurs OS sur le même environnement physique. Au lieu d'utiliser notre CPU et notre RAM à 5%, on l'utilise à 90% et c'est bien plus facile pour le département TI de convaincre l'administration d'investir dans du nouveau matériel. En plus de cet avantage majeur (car on sait tous qu'il faut toujours se battre pour avoir le financement pour l'infrastructure), il y en a plusieurs qui peuvent être présenté pour ainsi montrer que l'on peut faire économiser et être plus efficace.

Aujourd’hui, l'Hyperviseur a pleinement droit de cité en apportant des bénéfices à la fois à l’exploitant et aux clients.

➢ Gain au niveau des Performances du matériels surtout coté serveur.➢ Jusqu’à 60 % d’économie en terme d’alimentation électrique.➢ Une administration centralisée.➢ Permet une longue durée au niveau Matériels.➢ Rapidité pour monter un nouveau serveur.➢ Monitoring plus efficace des serveurs.➢ Portabilité.➢ Facilité et rapidité de se relever d'un désastre.➢ Moyen facile de monter un environnement de test peu couteux et complet.

Page 67: Fin Projet 2

Chapitre 3 La Virtualisation

9 Produits d'Hyperviseur.

Évitez les risques et les coûts inutiles en choisissant un hyperviseur fiable et éprouvé en production comme base de notre datacenter centralisé. Le choix d’un hyperviseur adapté est la première étape sur la voie du succès d’une infrastructure virtuelle. Tous les hyperviseurs ne sont pas identiques. De ce principe nous ce sont basé pour faire le choix; nous allons découvrir trois hyperviseurs les plus fiables et éprouvés en production du marché et de là partir avec le choix du meilleur pour le développement d’une infrastructure virtuelle.

9.1 Xen.

Comme décrit auparavant Xen est un hyperviseur, c’est à dire qu’il vient s’insérer entre le matériel et le noyau. C’est donc Xen qui a l’accès exclusif au matériel, et les systèmes d’exploitation fonctionnant par dessus doivent obligatoirement passer par l’hyperviseur pour y accéder. Il peut ainsi répartir précisément les ressources entre les systèmes invités.

Xen virtualise selon deux techniques différentes :

➢ La virtualisation utilisant l´hyperviseur et la para virtualisation.

➢ la virtualisation matérielle.

Aujourd’hui, de nombreuses distributions intègrent Xen dans leur système d´exploitation comme Red Hat, Ubuntu, Suse et Gentoo.

Au niveau des fonctionnalités, Xen est très certainement un des plus complets, il n’a pas à rougir de la comparaison avec des technologies propriétaires plus anciennes et mieux établies, telles que les solutions de la société Vmware.

9.2 Vmware ESX:

VMware ESX est un hyperviseur qui permet une gestion plus précise des ressources pour chaque machine virtuelle et de meilleures performances. La solution VMware ESX est la solution la plus industrielle de la gamme. Cet hyperviseur est composé de plusieurs modules.

VMKERNEL: Ce module «noyau» est le "cerveau" de VMware ESX; il permet de gérer et de hiérarchiser l'ensemble des ressources matérielles (mémoire, CPU, disques, réseaux) en fonction de chaque serveur. De plus c'est ce noyau qui est chargé de toute la gestion des ressources physiques pour ESX.

Page 68: Fin Projet 2

Le contexte : Dossier de la virtualisation

SERVICE CONSOLE: Ce module permet la gestion de l'hyperviseur en mode commande. Accessible depuis le port 22 (SSH), cette console sert à lancer certaines commandes inaccessibles depuis l'interface graphique ou encore de parcourir les dossiers dans lesquels sont stockés les machines virtuelles. Enfin elle peut permettre de collecter des informations de débogage sur les machines virtuelles ou sur le serveur ESX.

9.3 Microsoft HyperV.

HyperV est le moteur de virtualisation (hyperviseur) de Microsoft, lancé en 2008 pour contrer la suprématie de VMWare dans le secteur de la virtualisation (notamment grâce à VMWare ESX). Il se base sur le système des hyperviseurs.

HyperV présente cependant deux limites :

Il ne prend pas en charge l’accès aux périphériques USB. Contrairement à VMWare ESX qui comporte une fonction de Live Migration (le

maintien des connexions réseau et aucune interruption de services pendant la migration des VM), HyperV n’a qu’une fonction de Quick Migration (la VM est suspendue sur un hôte et redémarré sur un autre hôte. Le réseau ainsi que les services sont alors suspendus le temps du transfert de la mémoire active entre les deux hôtes).

10 Conclusion:

Voilà qui conclu notre rapide tour d’horizon de la virtualisation. Nous allons approfondir le sujet encore, il va constituer un des axes principal de développement de notre sujet du Cloud.

Quoiqu'il en soit, il est clair que nous nous sommes qu'aux débuts de la virtualisation et que, la puissance du contenu suivra au chapitre4. Elle va présenter un intérêt de plus en plus grand et des performances remarquant la différence entre les systèmes choisie.

Le combat n'est pas encore gagné, Le chemin est toujours a suivre dans nos prochains analyses...

Page 69: Fin Projet 2

Chapitre 4

tat des lieux de É

la virtualisation

en entreprise.

Page 70: Fin Projet 2

Chapitre 4 La Virtualisation

1 la problématique économique

La plupart des sociétés qu’elles soient des sociétés informatiques ou non requièrent un service informatique et ont donc des stations de travail, des serveurs et un ensemble de technologies. Il se pose donc à cela une problématique liée à la performance de cette technologie, à la sécurité du système d’information et la disponibilité des services ; tout cela mis en rapport à une optique de coût. Le but étant d’exploiter au mieux le service rendu par l’informatique pour générer le plus de profits possible tout en rendant les choses les plus simples possibles et les plus efficaces pour tout le monde et à un moindre coût.

Aussi, même si la technologie de la virtualisation n’est pas spécialement une technologie nouvelle, elle est certainement une technologie « à la mode » actuellement, étant amenée à fortement se développer au cours des prochaines années.

Nous allons donc essayer de comprendre pourquoi les entreprises viennent à migrer leur système d’information vers un système partiellement ou complètement virtualisé en mettant en évidence les avantages et les inconvénients de ces technologies de virtualisation par rapport à l’activité des entreprises pour finalement comprendre l’impact qui en découle en terme économique.

Pour ce faire, nous allons étudier cette question grâce à des études de cas montrant des entreprises ayant des besoins spécifiques et ayant décidé de passer à la virtualisation pour des raisons que l’on expliquera et analysera.

Par la suite, nous allons compléter les études de cas par des études terrains que nous avons nous même préparés qui nous permettront d’arriver à la finalité de ce mémoire qui est de pouvoir répondre le plus clairement possible à la problématique qui met en relief la virtualisation par rapport au rendement économique.

Nous avons jugé nécessaire de réaliser cette étude au travers de cas pratiques, car traiter ce sujet sur la simple théorie ne nous permettrait pas de comprendre efficacement les raisons qui ont poussé une société à virtualiser et plus précisément, ne nous permettrait pas d’avoir le maximum de visibilité sur les impacts que cela a engendré en terme économique.

Au final, Ces études de cas vont donc nous amener à un certain nombre de contraintes réelles, de conseils et de solutions qui ont finalement permis à ces entreprises de réaliser un profit économique ainsi que d’acquérir un ressentis et une confiance sur les technologies de virtualisation.

Page 71: Fin Projet 2

Le contexte : Dossier de la virtualisation

2 Les Différentes version de Virtualisation 2.1 Microsoft HyperV.

A l’heure actuelle, Hyper-V se présente sous deux versions : un rôle que l’on peut installer sur Windows Server 2008 et une version StandAlone : Hyper-V Server 2008 (sortie le 01 Octobre 2008). Si on veut installer le rôle Hyper-V, on doit savoir que les fonctionnalités ne seront pas les même en fonction de la version de notre Windows Server 2008 (Standard, Enterprise ou Datacenter) .Ces différentes versions n’étant pas destinées aux mêmes usages, nous allons donc les voir en détails.

2.1.1 Hyper-V Server 2008 Comme dis précédemment, Hyper-V Server 2008 est la version StandAlone d’Hyper-V.

C’est un système d’exploitation serveur (basé sur un Windows Server 2008 Core Edition Standard) dédié à la virtualisation, qui ne contient que le minimum nécessaire à son fonctionnement: l’Hyperviseur Windows, les pilotes Windows Server et les composants de virtualisation.

Comme nous l’avons déjà dit, Hyper-V est une solution de virtualisation simple à utiliser,

fiable et optimisée. Elle permet d’améliorer l’utilisation des servers et de réduire les coûts de l'infrastructure sur le long terme. Comme cette version StandAlone d’Hyper-V ne contient que des fonctionnalités basiques, Microsoft la recommande pour les utilisations suivantes :

Tests et Développent - Consolidation de servers dans une architecture simple - Consolidation de servers dans un site annexe - Virtualisation de bureaux hébergés (VDI pour Virtual desktop infrastructure) Cet outils est disponible gratuitement en téléchargement sur le site de Microsoft.

2.1.2 Le rôle Hyper-V sur un Windows Server 2008 Standard

Le rôle Hyper-V permet de profiter simplement de tous les avantages de l’hyperviseur de

Microsoft sur le serveur Windows 2008. Sur une version Server 2008 Standard, on aurait accès aux mêmes fonctionnalités que la version StandAlone, avec cependant la possibilité d’ajouter d’autres rôles à notre serveur et bien sur une interface graphique. L’installation du rôle Hyper-V plutôt que de la version Standalone conviendra donc mieux aux entreprises à budget limité qui n’ont pas les moyens d’investir dans une nouvelle machine dédié à la virtualisation et qui utiliseront un serveur unique pour plusieurs rôles.

A noter aussi, contrairement à la version StandAlone, vous pouvez avec Windows Server

2008 Standard le droit d’héberger une machine virtuelle sans payer de licence supplémentaire.

Page 72: Fin Projet 2

Chapitre 4 La Virtualisation

2.1.3 Le rôle Hyper-V sur un Windows Server 2008 Enterprise C’est en installant le rôle Hyper-V sur un Windows Server 2008 Enterprise que vous

profiterez d’un server de virtualisation robuste aux capacités étendues. Sur un Server 2008 Enterprise, Hyper-V permet la Migration Rapide, le clustering multisites et la prise en charge de machine puissante (mémoire vive supérieure à 32 Go et plus de 4 processeurs). Cela garantie la continuité du service et la récupération après incident. De plus, cette version de serveur nous permet d’héberger jusqu’à quatre machines virtuelles sans licence supplémentaire.

2.1.4 Le rôle Hyper-V sur un Windows Server 2008 Datacenter

La version d’Hyper-V sur un Windows Server 2008 Datacenter est en tout point identique celle sur un Server Enterprise. La seule différence est le nombre de machines virtuelles peuvent être hébergées sans licences supplémentaire: elles sont ici illimitées !

Tableau récapitulatif Ci-dessous le tableau récapitulatif des fonctionnalités inclussent dans les différentes versions.

Page 73: Fin Projet 2

Le contexte : Dossier de la virtualisation

2.1.5 Installation sur un Windows Server 2008 Core Edition

Nous pouvons bien sûr installez le rôle Hyper-V sur un Server 2008 Core. Cela est même recommandé, car c’est dans ce mode que nous obtiendrons les meilleures performances pour nos machines virtuelles (le mode Core prenant beaucoup moins de ressources systèmes). Les fonctionnalités restent bien sûr les mêmes que dans la version avec une interface graphique.

Cependant, l’absence d’interface graphique nous oblige à administrer nos machines virtuelles à distance, avec un autre Windows Server 2008 ou un Windows Vista SP1.

2.1.6 Pré-requis

Avant de nous lancer dans l’installation d’Hyper-V, nous devon bien sûr nous assurer que notre machine est compatible avec cette fonctionnalité.

Pour pouvoir fonctionner, le rôle Hyper-V requit:

➢ Un processeur 64 bits, supportant les technologies de virtualisation matérielle comme Intel-VT ou AMD-V.

➢ Hardware Data Execution Protection (DEP) doit être activé. Plus précisément, vous devez activer le bit Intel XD ou l'AMD bit NX.

➢ Une licence Windows Server 2008 Standard, Enterprise ou Datacenter.➢ La configuration matérielle minimale pour la version de Windows Server 2008.*➢ De la mémoire vive supplémentaire (chaque machine virtuelle à besoin de sa propre

mémoire vive). Pour Hyper-V Server 2008, nous aurons besoin de:

➢ Un processeur 64 bits, supportant les technologies de virtualisation matérielle

comme Intel-VT ou AMD-V.➢ 2 Go minimum de disque dur.➢ 1 Go minimum de mémoire vive.➢ De la mémoire vive supplémentaire pour chaque machine virtuelle.

Page 74: Fin Projet 2

Chapitre 4 La Virtualisation

2.2 CITRIX Server.

Citrix XenServer permet à l’entreprise de déployer rapidement et simplement des machines virtuelles Windows et Linux hautes performances. XenServer permet en outre de gérer ces machines et les ressources réseau et de stockage qui leur sont associées à partir d’une console de gestion unique et très simple d’emploi.

La famille XenServer s’appuie sur l’hyperviseur open source Xen®, moteur de virtualisation des serveurs reconnu et éprouvé. Grâce à la virtualisation Xen, une fine couche logicielle (appelée l’hyperviseur Xen) est installée directement sur le matériel totalement nu, insérée entre le matériel lui-même et le système d’exploitation. Cette insertion fournit une couche d’abstraction qui permet à chaque serveur physique d’héberger un ou plusieurs « serveurs virtuels », en dissociant le système d’exploitation et ses applications du serveur physique sous-jacent. La technologie de paravirtualisation Xen est largement reconnue comme la plus rapide et la plus sûre du marché des logiciels de virtualisation. Elle s’appuie en outre sur les toutes dernières solutions Intel VT et AMD-V de virtualisation assistée par matériel. L’hyperviseur Xen est exceptionnellement léger (moins de 50 000 lignes de code), ce qui se traduit pour l’hôte par une charge extrêmement faible et des performances quasi natives.

Citrix XenServer associe les performances, la sécurité et l’ouverture de la technologie Xen aux capacités de gestion étendues de XenCenter. XenServer constitue une plate-forme de virtualisation idéale, parfaitement adaptée à la consolidation des serveurs, au développement et au test de logiciels et aux projets de continuité de service. Citrix XenServer est une plate-forme de virtualisation 64 bits native bénéficiant de l’extensibilité exigée par les applications les plus stratégiques. Ses performances en termes de limites de mémoire et de ressources CPU (hôte ou invité) et son niveau de contrôle des ressources CPU, réseau et disque lui permettent de garantir en permanence une qualité de service optimale.

Page 75: Fin Projet 2

Le contexte : Dossier de la virtualisation

Citrix propose une offre de virtualisation articulée autour de trois technologies différentes, pour la mise en œuvre d’architectures complexes. L’utilisation combinée ou indépendante des solutions de virtualisation Citrix répond aux exigences du marché : souplesse de mise en œuvre, performances, économies…

Description de l’offre de virtualisation Citrix :

➢ Virtualisation de serveur:XenServer.➢ Virtualisation des postes de travail: XenDesktop.➢ Virtualisation d’application: XenApp.

2.2.1 XenServer.

XenServer est la solution globale de virtualisation de serveur proposée par Citrix utilisant le moteur de virtualisation

Open Source Xen. Solution de type hyperviseur, XenServer installe une couche d’abstraction de la couche matérielle pour partager les ressources d’une machine physique entre une ou plusieurs machines virtuelles. XenServer tire également parti de virtualisation matérielle des processeurs AMD et Intel.

La dernière version disponible de Citrix XenServer est la version 5.0.

Description des versions de Citrix XenServer.

Edition Express

Version d’entrée de gamme et gratuite de l’offre Citrix XenServer. Cette version assure le service de virtualisation de serveur.

Edition Standard

Version améliorée de l’offre Edition Express, la version Edition Standard ajoute la gestion multiserveurs et le support de VLAN pour la création de réseaux virtuels.

Edition Enterprise

La version Edition Enterprise rend le service de virtualisation de serveur totalement dynamique et offre la fonctionnalité XenMotion, pour le déplacement à chaud de machines virtuelles.

Edition Platinum

La version Edition Platinum reprend l’offre de l’Édition Enterprise et ajoute la fonction Provisionnement de serveurs physiques et virtuels pour la livraison à la demande de systèmes d’exploitations préconfigurés.

Page 76: Fin Projet 2

Chapitre 4 La Virtualisation

Atouts et fonctionnalités de Citrix XenServer

➢ XenServer utilise l’hyperviseur Open Source Xen.➢ XenServer repose sur une architecture native de paravirtualisation 64 bits.➢ Simplicité d’installation et d’administration.➢ Fonctionnalité XenMotion, déplacement de machine virtuelle à chaud.➢ Interopérabilité totale avec Microsoft HyperV.

2.2.2 XenApp

XenApp est la solution de virtualisation d’applications proposée par Citrix précédemment connue sous le nom de Citrix Présentation Server. La solution Citrix XenApp met à la disposition de l’utilisateur final les applications virtualisées côté client et côté serveur et introduit la notion de HUB applicatif, point d’accès central et sécurisé. Citrix XenApp est aujourd’hui le produit leader pour la virtualisation d’application et revendique 70 millions d’utilisateurs pour près de 800 000 serveurs.

Citrix XenApp repose sur une architecture sécurisée et évolutive.La dernière version disponible de Citrix XenApp est la version 5.0.

Description des versions de Citrix XenApp

Edition Advanced

Version de base de l’offre Citrix XenApp, cette version propose un nombre limité de fonctionnalités et offre la virtualisation des applications côté serveur.

Edition Enterprise

La version Edition Enterprise intègre, en supplément des fonctionnalités de la version Advanced, la technologie Citrix. EdgeSight et la virtualisation d’applications côté client (streaming).

Edition Platinum

La version Edition Platinum est la version la plus complète de l’offre Citrix XenApp et intègre toutes les fonctionnalités de la plateforme de virtualisation d’applications.

Page 77: Fin Projet 2

Le contexte : Dossier de la virtualisation

Atouts et fonctionnalités de Citrix XenApp

➢ Virtualisation d’application côté serveur et côté client (Streaming).➢ Technologie SpeedScreen pour l’accélération des fonctions d’affichage.➢ Fonction d’équilibrage de charge.➢ Architecture centralisée.➢ Surveillance des performances à l’aide de Citrix EdgeSight.➢ Interface Web pour la présentation des ressources publiées sous forme de portail

Web.➢ Solution d’authentification unique Citrix Password Manager.

2.2.3 XenDesktop

XenDesktop est la solution de virtualisation de poste de travail (VDI Virtual Desktop Infrastructure) Windows simple, sécurisée et à faible coût proposée par Citrix. Citrix XenDesktop provisionne les postes de travail aux utilisateurs de l’infrastructure informatique.

La dernière version disponible de Citrix XenDesktop est la version 2.0.

Principaux atouts et fonctionnalités de Citrix XenDesktop.

➢ Provisionnement de postes de travail à la demande.➢ Technologie SpeedScreen pour l’accélération des fonctions d’affichage.➢ Pilote d’impression universel.➢ Support d’une image unique pour la distribution de postes de travail et

l’optimisation du stockage de ressources.➢ Support d’infrastructure de type hyperviseur 64 bits pour les principaux acteurs du

marché.➢ Fiabilité de session et support de liens réseaux à forte latence et à faible bande

passante.➢ Accès distant sécurisé aux postes de travail.➢ Contrôle des performances.

2.2.4 Pré-requis

Les pré-requis d'installation des familles CITRIX suivent l'OS a installé dessus ainsi du type de serveur a utilisé, elle s’appuie en outre sur les toutes dernières solutions Intel VT et AMD-V de virtualisation assistée par matériel. Comme nous l'avons décrit avant CITRIX et un outils exceptionnellement léger ce qui se traduit pour l’hôte par une charge extrêmement faible et des performances quasi natives.

Page 78: Fin Projet 2

Chapitre 4 La Virtualisation

Faut surtout pas oublié les licences qui sont nécessaire au bon fonctionnement de CITRIX Server.

N’empêche que CITRIX ne demande pas trop de ressources matériels nous publions un tableaux le seul trouver sur internet malgré tout nos recherches:

2.3 Vmware:

VMware est né en 1998 avec l'invention du premier hyperviseur en environnement x86 et il en est aujourd'hui à la 4ème génération. Voyons en détail cette évolution et les sauts technologiques qui accompagnent chaque nouvelle version :

Page 79: Fin Projet 2

Le contexte : Dossier de la virtualisation

1 ère génération (1998 – 2002).

➢ Premier hyperviseur sur les plates-formes x86 supportant Dos, Netware,Windows et Linux.

➢ Administration par serveur.➢ Stockage local.➢ Gestion des ressources par serveur.➢ Adapté pour les machines de faibles charges.

Version disponible : VMware ESX1.xxx.VMware est surtout utilisé en environnement de test et de qualification.

2 ème génération : (2003 – 2005).

➢ Première technologie de déplacement de Machine Virtuelle en fonctionnement Vmotion.

➢ Administration centralisée de plusieurs serveurs physiques.➢ Stockage centralisé avec VMFS (Virtual Machine File System).➢ Gestion centralisée des ressources par serveur physique.

Principale évolution technologique :➢ Vmotion.➢ Virtual Center.

Version disponible : VMware ESX 2.x, Virtual Center 1.x.

La virtualisation est utilisée pour des tests mais aussi en production. Vmware compte plus de 20.000 clients dans le monde.

3 ème génération : Virtual Infrastructure 3 (2006 – 2008).

Les hyperviseurs ne sont plus indépendants les uns des autres mais forment un pool de ressources, vu comme une entité unifiée.

➢ Définition de groupe de ressources pour gérer la consommation et la répartition de charge (DRS - Distributed Resource Scheduling).

➢ Définition d'un contrat de niveau de service par groupes de machines virtuelles.➢ Mise en place de Haute Disponibilité (HA - High Availability).➢ Sauvegarde centralisée de toutes les machines virtuelles avec VCB (Vmware

Consolidated Backup ).➢ Adapté pour tous types de charges.

Page 80: Fin Projet 2

Chapitre 4 La Virtualisation

Principales évolutions technologiques:

➢ VMware HA➢ VMware DRS➢ VCB➢ Storage VMotion (depuis la version 3.5)

Version disponible : Virtual Infrastructure3 : VMware ESX 3.x, Virtual Center 2.x.

VMware s'impose dans la plupart des grandes entreprises du monde entier et domine le marché sans réelle concurrence.

4 ème génération : vSphere 4 (à partir de 2009).

Virtual Infrastructure 3 devient vSphere 4 .

Alors que Vi3 était dédiée à la consolidation de serveurs, vSphere 4 a l'ambition de devenir une offre de virtualisation de l'ensemble du Datacenter. vSphere 4 étend les fonctionnalités au stockage, réseau et apporte encore plus de fonctionnalités pour la disponibilité et la sécurité.

Principales évolutions technologiques :

➢ Fault Tolerance➢ vStorage Thin Provisionning➢ vNetwork Distributed Switch➢ vShield Zone➢ Data Recovery.➢ Host Profiles.

Version disponible : vSphere 4 : VMware ESX4, VMware vCenter Server 4.

Cette nouvelle version apporte des fonctionnalités très innovantes comme VMware Fault Tolerance permettant ainsi à VMware d'être très en avance sur ses concurrents. VMware domine largement le marché mais des concurrents tels que Microsoft Hyper-V ou Citrix Xen Server proposent des solutions alter-natives permettant de couvrir uniquement pour le moment les fonctionnalités de base de Vmware.

Page 81: Fin Projet 2

Le contexte : Dossier de la virtualisation

2.3.1 Présentation de vSphere 4

C'est le nouveau nom de la plate-forme de virtualisation de VMware.La plate-forme VMware vSphere 4 utilise la puissance de la virtualisation pour

transformer les infrastructures de Datacenters en Cloud Computing.

Le modèle de Cloud Computing est axé sur la prestation de service qui garantit des niveaux de qualité de service SLA (Service Level Agreement) une grande évolutivité et des coûts d'exploitation adaptés aux besoins.

Le Cloud Computing au travers de vSphere 4 devient accessible et est haute-ment disponible tout en offrant une optimisation des ressources et une répar-tition de charge.

vSphere 4 permet de gérer et d'administrer les éléments de l'infrastructure tels que les serveurs, le stockage, le réseau, la sécurité, la mise en place de standard...

2.3.2 L'architecture de vSphere 4

Techniquement, vSphere 4 est une suite de composants permettant de faire tourner l'infrastructure virtuelle. vSphere 4 apporte beaucoup de nouvelles fonctionnalités mais l'architecture est très sensiblement la même que la génération précédente VI3.

Page 82: Fin Projet 2

Chapitre 4 La Virtualisation

Serveur hôte ESX/ESXi:

Le cœur de l'infrastructure.

C'est la couche de virtualisation permettant de consolider les serveurs. C'est le système d'exploitation permettant de faire tourner les machines virtuelles simultanément. Un host agent installé de base avec ESX a pour rôle de collecter les informations, de communiquer et d'exécuter les actions reçues du vSphere Client.

ESXi est la version allégée d'ESX qui ne possède pas de service console. A noter que la versin VMware ESX4.1 est le dernière version possédant un service console. Les versions supérieures en sont dépourvues et sont basées sur ESXI.

Nous reviendrons en détail sur ESX et ESXi à la section VMware ESX/ESXi.

vCenter Server:

Administration de l'infrastructure (connu sous l'ancien nom Virtual Center Server).

vCenter sevrer est un service Windows qui permet d'administrer de façon centralisée l'ensemble des serveurs ESX. Son rôle est de superviser et d'administrer toutes les activités des serveurs hôtes ESX et des VM.

vCenter Server est nécessaire pour des fonctionnalités avancées telles que VMotion, DRS, FT.

vCenter Server peut s'installer dans une machine virtuelle ou sur un serveur physique. VMware recommande de l'installer dans une VM.

Plusieurs vCenter Server peuvent être réunis en utilisant le Linked Mode permettant de les administrer en utilisant une interface vSphere cliente unique. vCenter Heartbeat offre de la haute disponibilité pour vCenter Server (cf. chapitre Fonctionnalités de vSphere 4).

vCenter PlugIns:

Utile aux développeurs.C'est l'interface qui fournit des fonctionnalités additionnelles à celles prévues initialement

par VMware. Les PlugIns sont composés d'un client et d'un serveur. Une fois le plugin serveur installé, il est enregistré dans vCenter Server et disponible pour vSphere Client pour téléchargement et installation. Les PlugIns ouvrent la voie aux éditeurs et constructeurs de matériels afin d'intégrer directement leur solution dans une interface unifiée vCenter Server.

Page 83: Fin Projet 2

Le contexte : Dossier de la virtualisation

2.3.3 Pre-requis:

L'utilisation d' ESX exige des ressources matérielles et système spécifiques.

Processeur 64 bits. VMware ESX 4.1 ne peut s'installer et fonctionner que sur les serveurs dotés de

CPU x86 à 64 bits. Processeurs 64 bits connus :

◦ Tous les AMD Opterons admettent le 64 bits.◦ Tous les Intel Xeon 3000/3200, 3100/3300, 5100/5300, 5200/5400,

7100/7300 et 7200/7400 admettent le 64 bits. ◦ Tous les Intel Nehalem (aucun numéro de marque Xeon attribué à ce jour)

admettent le 64 bits.

Mémoire vive.

Minimum de 2 Go de mémoire vivePour les mises à niveau, 3 Go de RAM sont nécessaires si l'hôte ESX est géré par

vCenter Server.

NIC.

Une ou plusieurs cartes réseau. Les adaptateurs réseau pris en charge incluent:

➢ Contrôleurs Broadcom NetXtreme 570x gigabit.➢ Cartes Intel PRO 1000

Adaptateur SCSI, adaptateur Fiber Channel ou contrôleur RAID interne.

Un ou plusieurs des contrôleurs suivants (n'importe quelle combinaison est possible) :

➢ Les contrôleurs SCSI de base sont les Adaptec Ultra-160 et Ultra-320, LSI Logic Fusion MPT et la plupart des contrôleurs SCSI NCR/Symbios.

➢ Pour Fiber Channel, voir le Hardware Compatibility Guide sur http://www.vmware.com/resources/compatibility.

➢ Les adaptateurs RAID pris en charge sont HP Smart Array, Dell PERC (Adaptec RAID et LSI MegaRAID), et les contrôleurs IBM (Adaptec) ServeRAID.

Page 84: Fin Projet 2

Chapitre 4 La Virtualisation

Installation et stockage.

Disque SCSI, LUN Fibre Channel ou LUN RAID avec espace non partitionné. Dans une configuration minimum, ce disque ou ce RAID est partagé entre la console du service et les machines virtuelles.

Pour l'iSCSI matérielle, un disque connecté à un contrôleur iSCSI, par exemple le QLogic qla405x. L'iSCSI logiciel n'est pas pris en charge pour amorcer ou installer ESX.

Serial Attached SCSI (SAS). Pour le Serial ATA (SATA), un disque connecté via des contrôleurs SAS pris en

charge ou des contrôleurs SATA embarqués pris en charge. Des lecteurs de disques SATA connectés derrière des contrôleurs SAS pris en charge ou des contrôleurs SATA embarqués pris en charge.

Les contrôleurs SAS pris en charge incluent :◦ LSI1068E (LSISAS3442E)◦ LSI1068 (SAS 5) ◦ Contrôleur IBM Serve RAID 8K SAS◦ Contrôleur Smart Array P400/256◦ Contrôleur Dell PERC 5.0.1

Les contrôleurs SATA embarqués pris en charge incluent :◦ Intel ICH9◦ NVIDIA MCP55◦ Server Works HT1000

Si vous installez ESX sur des lecteurs SATA, tenez compte des considérations suivantes :

Vérifiez que vos disques SATA sont connectés via des contrôleurs SAS pris en charge ou des contrôleurs SATA embarqués pris en charge.

N'employez pas de disques SATA pour créer des banques de données VMFS partagées par plusieurs hôtes ESX.

Lecteurs ATA et IDE – ESX permet d'installer et d'amorcer sur un lecteur ATA ou un RAID ATA, mais assurez-vous que votre contrôleur de lecteur spécifique figure dans le matériel pris en charge. Les lecteurs IDE sont pris en charge pour l'installation ESX et la création VMFS.

Page 85: Fin Projet 2

Le contexte : Dossier de la virtualisation

3 Comparaison des caractéristiques des différentes versions de Virtualisation

Tout d’abord, il convient de vous donner les raisons pour lesquelles on a sélectionner ses trois solutions. La principale raison est simple. Ce sont les acteurs les plus crédibles sur le marché de la virtualisation. D’autres solutions sont peut être plus performantes mais n’auront pas la chance de pénétrer dans les Datacenters et seront confinées à des marchés de niches ou aux universités.

Pour que notre dossier présente un intérêt, le choix d’intégrer l’hyperviseur de Microsoft dans ce comparatif car l'arrivé de cet éditeur modifie le paysage de la virtualisation. Il est important de connaître le positionnement et de faire un comparatif permettant d’avoir une vision objective de ces 3 hyperviseurs :

• Microsoft Hyper-V. • Citrix XenServer 5• VMware Infrastructure 4 et VMware VirtualCenter 2.5

Ces trois produits se distinguent tout d’abord par l’hyperviseur sur lesquels ils s’appuient. VMware et Microsoft ont choisi de développer une solution propriétaire alors que Citrix est un dérivé de Xen, un hyperviseur open source (www.xen.org).

Pour commencer, parlons un peu du matériel. XenSever s’appuie sur une couche de pilotes Linux, ainsi, il sera facile de trouver un matériel compatible. De son côté VMware utilise ses propres pilotes. Cependant, ils sont très proches des pilotes Linux. Ainsi, un constructeur de matériel a peu de difficulté à faire certifier sont matériel pour VMware ESX. Pour sa part, Microsoft a fait le choix d’utiliser une autre technique, les pilotes doivent être installés dans la machine virtuelle. A contrario des solutions VMware et XenServer qui présentent un matériel différent (générique) à la machine virtuelle, Il n’y pas de pilote dans l’hyperviseur.

Il est donc difficile de comparer le matériels supportés “officiellement” par chacune de ses solutions. Bien entendu, il faut aussi rappeler qu’un pré-requis en termes de support chez ces éditeurs est d’utiliser du matériel dédié pour un usage serveur (HP, IBM, DELL, etc.).

En fonction de l’hyperviseur, l’installation sera différente. Dans le cas de VMware et XenServer, l’hyperviseur et une machine virtuelle un peu spécifique (service console ou driver domain) qui permet de contrôler l’hyperviseur sont installés en même temps. Avec Hyper-V plus précisément la version StandAlone qui est la version dédie a la virtualisation. Cette version ne contient que le minimum nécessaire à son fonctionnement: l’Hyperviseur Windows, les pilotes Windows Server et les composants de virtualisation, Il vient alors se glisser entre le matériel et le système d’exploitation précédemment cité.

Page 86: Fin Projet 2

Chapitre 4 La Virtualisation

3.1 Configuration de l’hôte

Voici un tableau récapitulatif des configurations possibles des machines hôtes :

3.2 Systèmes d’exploitation invité.

Un des principaux avantages de la virtualisation est de pouvoir supporter des systèmes d’exploitation invités hétérogènes. Mais quand les hyperviseurs entrent dans l’entreprise, seule la matrice de compatibilité importe.

Commençons par les systèmes d’exploitation Windows. On peut constater que Windows Server 2008 est supporté par les trois solutions. Linux, Redhat et SUSE sont supportés par tous les hyperviseurs. Ce sont d’ailleurs les seules distributions supportées par Microsoft. SUN Solaris est supporté aussi par Microsoft. Pour les utilisateurs de Netware, il faut nécessairement se tourner vers Vmware ou bien Xenserver.

Page 87: Fin Projet 2

Le contexte : Dossier de la virtualisation

VMware et XenServer prennent tous deux en charge les systèmes d’exploitation Windows et Linux les plus populaires, notamment Windows XP, Windows Vista®, Windows 2000 Server, Windows Server 2003, Windows Server 2008, Red Hat Linux, SUSE Linux et d’autres. En outre, VMware ESX prend en charge certaines versions de BSD®, Sun™ Solaris™ et Novell Netware®. VMware et XenServer sont tous deux certifiés pour Windows conformément aux spécifications du Programme SVVP (Server Virtualization Validation Program) de Microsoft.

3.3 Réseau.

Les trois solutions sont relativement équivalentes en ce qui concerne le réseau. Elles permettent toutes de mettre en place de la redondance, même si cette tâche est un plus fastidieuse en environnement XenServer qui requiert l’usage de l’outil en ligne de commande. Tous les produits supportent le standard 802.1q qui permet de créer des réseaux virtuels.

3.4 Stockage en réseau.

Le stockage est l’un des éléments les plus importants à considérer dans le cadre de la virtualisation de serveurs. Les trois solutions permettent la prise en charge du stockage de machines virtuelles sur des disques locaux, du stockage SAN (Storage Area Network) iSCSI ou Fibre Channel et du stockage NAS (Network-Attached Storage). L’utilisation du stockage SAN ou NAS est indispensables pour les fonctionnalités avancées de chaque plate-forme, telles que la migration instantanée et la haute disponibilité.

VMware s’appuie en général sur ses fichiers VMFS propriétaires, bien que des options faisant appel à des disques de données brutes soient également disponibles. VMFS est le système de stockage par défaut [à la fois local et partagé (SAN ou NAS)] des fichiers des machines virtuelles de VMware.

VMFS est un système complexe de fichiers groupés qui permet l’accès à des fonctionnalités avancées comme VMotion ou Storage Vmotion. Utilisé avec le stockage SAN, VMFS permet à VMware de prendre le contrôle de certaines fonctions de stockage, comme le Provisioning ou la capture d’image à chaud, par exemple, quelle que soit la marque de la baie de stockage. Storage Vmotion effectue des migrations instantanées de machines virtuelles d’une baie à une autre sans aucune interruption.

XenServer adopte une approche de stockage complètement différente. XenServer n’impose pas son propre système de fichiers sur des systèmes de stockage mais s’appuie plus directement sur les fonctionnalités de stockage natives. Par exemple, avec un système de stockage partagé basé sur des fichiers tel que NFS, les machines virtuelles XenServer sont directement stockées au format Microsoft VHD (disque dur virtuel).

Page 88: Fin Projet 2

Chapitre 4 La Virtualisation

Avec un stockage basé sur des blocs tel que des réseaux de stockage SAN iSCSI ou Fibre Channel, XenServer étend le VHD avec le standard LVM (gestion par volumes logiques) ouvert pour la gestion de volumes. L’administrateur est complètement dissocié des informations d’implémentation sous-jacentes par l’assistant de création du registre de stockage XenCenter.

Les fonctionnalités d’intégration de stockage uniques de XenServer sont disponibles dans StorageLink™. StorageLink permet à l’administrateur d’utiliser directement les fonctionnalités des baies leaders du marché telles que celles de HP, NetApp®, Dell EqualLogic et EMC®. Par exemple, une demande de snapshot de machine virtuelle dans XenCenter transférera cette tâche sur le SAN, via une interface avec l’API de l’éditeur SAN. Ainsi, StorageLink peut optimiser les performances et permettre aux administrateurs d’utiliser les fonctionnalités avancées de la baie exactement comme ils le souhaitent, y compris les snapshots, les clones et le provisioning léger. Outre les API propres à l’éditeur, StorageLink prend en charge la norme ANSI relative à la gestion de stockage. Il s’agit de la spécification des programmes de gestion de stockage (SMI-S) qui permettent d’intégrer facilement de nombreux équipements d’éditeurs de stockage.

Page 89: Fin Projet 2

Le contexte : Dossier de la virtualisation

3.5 Stockage des disques virtuels.

VMware utilise son propre format de disques virtuels, le format VMDK. Citrix utilise le format VHD de Microsoft. Les spécifications de ces deux formats de disques virtuels sont ouverts au public. Il est possible d’utiliser des disques virtuels mais aussi des disques physiques en accès direct (Raw Device Mapping, Passthrough Disk, ). En fonction des choix effectués, toutes ou partie des fonctionnalités apportées à la virtualisation ne seront plus disponibles (redimensionnement, snapshot, disque de démarrage de la VM, etc.).

Il est possible de stocker des machines virtuelles sur des baies SAN mais aussi sur des NAS et utiliser l’espace au travers de systèmes de fichiers réseau de type CIFS (Microsoft) ou NFS (Citrix et Vmware).

3.6 Haute disponibilité.

La haute disponibilité permet aux machines virtuelles de redémarrer sur un hôte physique différent lorsque l’hôte exécutant initialement la machine virtuelle connaît une défaillance. Cela peut réduire les temps d’arrêt et éliminer le besoin de toute intervention administrative. Les trois produits disposent de fonctionnalités de haute disponibilité mettant en œuvre des stratégies granulaires permettant de contrôler le comportement des machines virtuelles en cas de défaillance d’un hôte. VMware intègre également une tolérance de panne, une fonctionnalité qui maintient des instances en miroir de machines virtuelles exécutées sur des hôtes séparés. En cas de défaillance d’un hôte, l’instance en miroir peut garantir la continuité de la charge. La tolérance de panne est prise en charge sur des machines virtuelles VMware dotées d’un vCPU.

XenServer peut être équipé de produits tiers permettant d’assurer la tolérance de panne des machines virtuelles, notamment des meilleures offres de Marathon Technologies et Stratus.

Côté sécurisation, les trois produits encore proposent tous les deux des possibilités de mise en cluster. En cas de disfonctionnement d’un des noeuds, les noeuds restants réinstancient les serveurs virtuels affectés.

Microsoft utilise les fonctionalités Windows 2008 Failover Clustering. Celui-ci est relativement complexe à mettre en oeuvre et requiert surtout de modifier de manière significative la configuration et le design de l’environnement virtuel.

Le cluster VMware HA profite de l’utilisation de son système de fichier VMFS qui permet à plusieurs serveurs VMware d’accéder simultanément à une partition. Le cluster VMware est donc particulièrement simple à gérer et à mettre en oeuvre. Par contre, l’expérience a démontré qu’il manque encore un peu de robustesse.

Chez Citrix, la fonctionnalité est intégrée à l’aide du produit everRun VM de Marathon Technologies.

Page 90: Fin Projet 2

Chapitre 4 La Virtualisation

3.7 Coté Argent.

D’un point de vue investissement, les différences sont très importantes. Les tarifs d’entrée de gamme son pourtant devenus très bas et comprennent déjà de nombreuses fonctionnalités. A partir de quelques 650 Euros pour une licence Windows Server 2008 Standard avec Hyper-V, environ 1000 Euros pour VMware Infrastructure 3 Foundation (1ère année de maintenance comprise), et gratuit chez Citrix avec XenServer Express (pas de support). Les prix sont tirés vers le haut lorsqu’on souhaite utiliser des fonctionnalités de type VMotion ou XenMotion. Jusqu’à 6000 Euros par serveur bi-processeur. A noter qu’à fonctionnalités équivalentes, VMware reste souvent le moins cher ! Le débat se fait donc essentiellement sur les fonctionnalités nécessaires pour atteindre les objectifs demandés.

3.8 Conclusion.

Stratégiquement, Microsoft semble s’intéresser à fournir des produits de qualité pour la gestion de l’environnement virtuel pour séduire les clients, en attendant de disposer d’un hyperviseur plus mature qui pourra concurrencer les leaders actuels de ce marché.

Difficile de dire qui seront les acteurs de ce marché demain. La virtualisation est en phase de généralisation et sera un composant anodin demain. Cette forte concurrence permet de faire fondre les prix et améliore le quotidien des clients.

VMware dispose du produit le plus évolué mais la base installée de Microsoft devrait lui assurer une place de choix sur ce marché. Technologiquement, Citrix a un produit qui est le moins évolutif dans des data centers de taille importante. Le créneau de Citrix risque essentiellement d’être les infrastructures VDI et constitue un bon socle technique pour cet usage.

Page 91: Fin Projet 2

Le contexte : Dossier de la virtualisation

4 Retour d’expérience sur la virtualisation

Les études de cas si après ont pour but de permettre de comprendre de manière pratique les raisons qui poussent à virtualiser avant d'étudier le dossier du cloud et comprendre les conséquences économiques de cette virtualisation. Les études de cas sont réparties entre des études collectées sur internet.

4.1 Cas INSA Rennes:

Cette étude de cas est très similaire dans le contexte et les besoins à l’étude de cas précédente. Il s’agit d’une étude de cas sur la virtualisation de serveurs avec VMware. Cela dit, dans cette étude de cas on ne s’intéressera pas au bilan économique de moyen/long terme après la mise en production, mais plutôt à un bilan économique de court terme, à savoir le bilan économique lié à la migration de l’architecture physique vers l’architecture virtualisée. Contexte

L’institut national des sciences appliquées (INSA) de Rennes est une école d’ingénieur

publique comprenant 1600 étudiants et environ 450 personnels utilisateurs du réseau informatique de l’école.

Le centre de recherche informatique (CRI), comme dans l’étude de cas précédente gère le

service informatique. Le CRI gère 35 serveurs physiques regroupant les différents services. Le personnel comprend 11 techniciens responsables des mises à jour, installation et maintenance et 1 directeur. L’équipe système est quant à elle composée de 2 personnes.

Au fur et à mesure, l’école développe de nouveaux besoins dont une forte demande de nouveaux services (liés au nombre de personnes, à l’évolution des technologies, etc..). Chaque serveur physique est en général composé d’un service majeur par serveur plus quelques petits services mineurs. Le CRI prévoit donc le doublement du nombre de serveurs d’ici 3 ans, ce qui les amène à se poser certaines questions liés à l’augmentation du nombre de problèmes matériels, aux raccordements électriques, au raccordement au réseau et au niveau de la prolongation de la garantie du matériel. Tous ces problèmes sont à réfléchir en termes de coût et sont à comparer avec des solutions alternatives qui pourraient remplir les besoins suivants : Besoin

• Moins de matériel • Maximiser l’utilisation du matériel • Simplifier l’administration (installation, upgrades,…) • Simplifier le bas niveau système (montage, brassage, déploiement OS) • Premier pas vers un plan de reprise d’activité (PRA)

Page 92: Fin Projet 2

Chapitre 4 La Virtualisation

Choix de la solution de virtualisation et analyse

Pour répondre à ce besoin, l’INSA a décidé de créer un projet dédié à la virtualisation de son parc dans le but premier d’en améliorer l’administration et la fiabilité. La logique de coût est bien sûr partie intégrante des objectifs de fond du projet, que ce soit un coût diminué lié aux ressources (matérielles et humaines), ou un coût diminué lié au temps et à la facilité d’administration.

La première étape de cette migration vers un système virtualisé correspond à la mise en œuvre d’une analyse technique et de diverses procédures visant à préciser quels sont les éléments à virtualiser et comment s’organisera la migration vers la nouvelle architecture définie.

L’INSA fait appel à une société extérieure pour réaliser ces études, elle vérifia les

différents indicateurs sur les besoins en termes de virtualisation. Parmi ces besoins, on notera des indicateurs sur l’utilisation réelle des ressources : .

Indicateurs d’utilisation des ressources

Nous observons sur la figure qu’un pic processeur ne dépasse jamais 60% en terme de fréquence tandis que la consommation moyenne est de 2,7%. Il en va de même pour la mémoire qui étant de 1023Mo connaît un pic maximal d’environ 700Mo et est d’environ 550Mo la majorité du temps. De ce fait, la mémoire utilisée la plupart du temps est égale à la moitié de sa capacité maximale.

Un autre indicateur à prendre en compte étant le fait que tous les serveurs ne sont pas

virtualisables car certaines licences produits sont basées sur l’adresse MAC ou encore pour des raisons techniques certaines applications ou OS ne doivent pas être virtualisés. De plus, dans certains cas, il y a plus d’avantage économique à garder une machine physique que de tenter la virtualisation.

Page 93: Fin Projet 2

Le contexte : Dossier de la virtualisation

A l’issu des études d’éligibilité et des procédures préparatoires pour une migration vers une architecture virtualisée (regroupements de services mineurs, élimination du superflu), un cahier des charges a été réalisé par l’INSA suivi d’un appel d’offre.

L’architecture matérielle retenue est la suivante :

Architecture Matériels

L’architecture logicielle sélectionnée pour fonctionner sur cette architecture matérielle est la suivante :

Page 94: Fin Projet 2

Chapitre 4 La Virtualisation

Le choix d’acquérir deux serveurs physiques Sun X4200 M2 de 32 Go de RAM destinés à être virtualisés pour remplacer plusieurs serveurs physiques s’avère judicieux pour la diminution du matériel. Ce dernier, rappelons-le, représente un coût non négligeable : électricité, maintenance, etc. Cette diminution de serveurs permettra en outre de faciliter l’administration.

Ces serveurs physiques seront virtualisés avec VMware ESX Server car l’INSA préfère

opter pour une solution propriétaire plutôt qu’une solution Open Source. La raison étant l’assistance technique qui représente un plus indéniable en cas de problème.

En effet, les compétences humaines internes n’étant pas spécialisées sur les technologies

de virtualisation, choisir une solution Open Source aurait été un pari risqué, économiquement parlant. En cas de problèmes, on ne pourra compter que sur les compétences internes pour les solutionner. L’INSA s’est donc judicieusement penchée sur une problématique essentielle liée à la virtualisation, le rapport « risque/bénéfice».

Au niveau du choix des licences, pour les serveurs virtualisés, 2 licences VMware ESX 3

ont été achetés, incluant certaines options considérées comme indispensables dans le cadre de cette activité. C’est notamment le cas pour l’option DRS et VMotion qui servent respectivement à attribuer dynamiquement les ressources et à gérer les migrations à chaud des machines virtuelles. Afin de superviser les différentes VMs et de pouvoir les administrer plus efficacement, une licence VMware Virtual Center a été achetée.

En ce qui concerne la migration des serveurs en elle-même, une multitude de possibilités ayant chacune des avantages et des inconvénients sont à prendre en compte. Pour réaliser cette migration, les choix suivants s’offraient au CRI :

• Ghost des serveurs + reconfiguration • VMWare Converter • VizionCore vConverter • PlateSpin PowerConvert

La solution choisie est la première (Ghost des serveurs) car les compétences nécessaires pour réaliser une telle tâche étaient présentes en interne et le coût économique se limite au coût du temps passé, comptabilisé en jour-homme. La deuxième solution est plus orientée Windows, les serveurs étant sous Linux Redhat, et n’est pas des plus stables. La troisième solution est aussi dédiée aux plateformes Windows, la dernière solution quant à elle coûte très cher (3000 à 4000 € HT pour 25 conversions).

Page 95: Fin Projet 2

Le contexte : Dossier de la virtualisation

Il est à noter que ces coûts représentent le budget prévu pour la migration seule, les coûts liés au service régulier (frais de maintenance, etc..) ne sont donc pas pris en compte dans cette étude de cas. Le CRI prévoyait également de continuer à former les administrateurs après la migration, ce coût intègrera celui du service régulier.

Le ressenti du CRI de l’INSA est que la migration de l’architecture physique vers

l’architecture virtualisée coûte assez chère mais permet globalement un gain de temps une fois en service régulier, notamment au travers d’une administration moins complexe. Egalement, le système d’information est mieux évolutif et plus stable, la sécurité est également de mise avec des machines bien isolées.

En revanche, en plus du coût important de la migration, celle-ci prend beaucoup de temps

et occasionne beaucoup de travail. Le CRI met en avant le problème de la nécessité d’arrêter chaque serveur pendant la migration et un retour arrière impossible après la mise en service des serveurs virtuels.

Les évolutions qui ont eu lieues par la suite sont des mises à jour des logiciels VMware

(ESX 3.5 et VCenter 2.5). Il y a eu également un ajout d’une nouvelle baie disque ainsi que l’ajout d’un troisième serveur ESX.

Le CRI prévoit de réaliser une sauvegarde des VMs vitales sous forme de fichiers, de répliquer les baies et d’externaliser un serveur ESX pour répondre aux nouveaux besoins du système d’information. Ainsi, cela permettra de réaliser de nouveaux gains économiques au travers d’une amélioration de l’activité.

4.2 Cas CISCO IT:

L’étude de cas suivante est similaire à l’étude de cas précédente sur la virtualisation de serveurs avec VMware, cependant avec plus de poids. En effet, CISCO est une entreprise mondialement connue et reconnue. Elle a mise à jour les bilans économiques de son projet de virtualisation en précisant que ce retour d’expérience peut être très profitable à beaucoup d’entreprises.

Contexte

Le département IT d’une grande entreprise peut avoir à gérer des centaines d'applications, s'exécutant sur des milliers de serveurs. Dans bon nombre de cas, chaque application ou instance requiert un serveur dédié, même si l'application n’utilise qu’une petite portion de la capacité de traitement (CPU) ou de la mémoire du serveur. Il en résulte que les ressources informatiques ne sont pas utilisées de manière effective.

Ainsi, les départements IT sont confrontés à une augmentation rapide du besoin en serveurs devant être achetés, déployés, surveillés et entretenus, et donc du besoin en services et ressources induits, comme l'énergie électrique, le système de refroidissement, l’espace au sol, le câblage et le personnel de support.

Page 96: Fin Projet 2

Chapitre 4 La Virtualisation

« Lorsque les serveurs virtuels peuvent être rapidement installés, les projets de développement peuvent s'effectuer très rapidement, et Cisco IT peut satisfaire davantage de demandes internes. » – Mike Matthews, Chef du Programme de virtualisation de serveurs, Cisco IT

Cisco IT a été confronté à cette situation dans ses centres informatiques : au début de

2007, 4000 applications tournaient sur plus de 11 000 serveurs. Par ailleurs, cette immense base installée de serveurs connaissait une croissance de 15% par an.

Besoin

Les objectifs de ce projet de virtualisation de serveurs sont de répondre aux défis suivants: ➢ Coûts élevés des équipements, du câblage et de l'installation.

➢ Espace réduit dans les centres informatiques existants, avec peu ou pas d'espace pour l'expansion de ces centres dans les campus Cisco.

➢ Demande croissante en énergie électrique et en climatisation coûteuses dans les centres informatiques ; problèmes d'impacts environnementaux posés par l'alimentation de réserve, fournie par les unités d'alimentation permanente (UPS) et les générateurs diesel.

➢ Augmentation constante des temps de déploiement des nouveaux serveurs (12 semaines et plus). « Les ressources de notre centre informatique étant de plus en plus limitées, le temps de planification devenait de plus en plus long, pour trouver un endroit où un espace, l'énergie électrique et le refroidissement nécessaires pour un nouveau serveur », affirme Mike Matthews, Chef de programme Cisco IT chargé de la virtualisation des serveurs.

Choix de la solution de virtualisation et analyse

Pour relever ces nouveaux défis, Cisco IT décida de virtualiser ses serveurs, et de déployer la nouvelles technologies Cisco de centre informatique. A l’opposé de la conception classique,où une application unique s'exécute sur un serveur physique unique (1<->1), un serveur physique unique peut désormais recevoir plusieurs serveurs virtuels, et prendre en charge plusieurs applications sur un seul équipement (n<->1).

Les serveurs virtualisés permettent à Cisco IT de résoudre un problème épineux : le temps requis pour la mise à disposition de nouveaux serveurs. «Si nous ne parvenons pas à mettre les serveurs à disposition dans les délais établis, cela peut affecter les projets de développement et augmenter le durées et les coûts de cycle. Cela est surtout vrai lorsque les développeurs sont au chômage technique, dans l’attente des ressources informatiques », affirme Ken Bulkin, Directeur IT de l'équipe SODC (Service-Oriented Data Center).

Page 97: Fin Projet 2

Le contexte : Dossier de la virtualisation

Le SODC représente un programme stratégique au sein de Cisco IT : il doit déployer les innovations IT et générer les gains de productivité espérés, grâce aux technologies de virtualisation et d'orchestration des ressources informatiques.

« Les délais de mise à disposition nous ont poussés à être plus offensifs dans le déploiement des serveurs virtuels, y compris vis-à-vis des applications pour lesquelles il n'existait pas encore de support formalisé. Nous avons testé ces applications, tout en acceptant un risque de prise en charge mesuré, afin de bénéficier au plus vite de l’agilité de la virtualisation. Nous étions certains que ces applications fonctionneraient correctement ; nous avions néanmoins prévu un plan de rétablissement de l’installation sur serveur physique, en cas de problème.», déclare Bulkin. « Sur les premiers 1500 serveurs virtuels déployés, nous n’avons dû procéder à cette opération qu’une seule fois. MLK ».

Aujourd’hui, Cisco IT utilise VMware Infrastructure 3 comme base de la virtualisation des serveurs dans le centre informatique. VMware prend en charge la création de serveurs virtuels, chacun d'eux exploitant potentiellement plusieurs unités centrales et plusieurs gigaoctets de mémoire. Le nombre d'unités centrales et la capacité de la mémoire peuvent être facilement modifiés, à mesure que les applications se développent, et Cisco IT peut réaffecter les serveurs virtuels entre les serveurs physiques en fonction des besoins en ressources informatiques, des incidents, ou pour assurer la maintenance.

Avec la virtualisation, il est également possible d'installer plusieurs systèmes d'exploitation sur un même serveur physique. Chaque application fonctionne sur une instance de système d'exploitation standard et dédiée (Microsoft Windows ou Linux par exemple). Seules les ressources du serveur physique sont partagées entre les systèmes d'exploitation ou les applications. Cette conception augmente l'utilisation globale du matériel sans pour autant sacrifier la disponibilité, la fiabilité ou l'intégrité des applications.

En environnement de production, Cisco IT a déployé VMware en parcs de serveur regroupant quatre, huit ou douze serveurs physiques. Ces parcs assurent également la flexibilité et la redondance dans la distribution des charges de trafic. Pour les tests d’applications, Cisco IT déploie des environnements VMware indépendants, réservés aux les développeurs.

Les parcs VMware sont spécifiquement pour de fournir la flexibilité, la fiabilité et la sécurité requis par les applications stratégiques de Cisco. « Nous surveillons en continu la performance des serveurs et des parcs, pour éviter toute situation pouvant dégrader les performances des applications.», déclare Matthews. « En cas de panne ou d’utilisation trop intensive d’un serveur, nous en redistribuons les machines virtuelles vers d'autres serveurs physiques du parc. Et ceci tout en maintenant les serveurs connectés, sans interruption de services. »

La virtualisation des serveurs fait appel à toute une gamme de technologies Cisco : routage, commutation, équilibrage de charge, cache de contenu, et réseaux de stockage SAN. Pour la gestion des systèmes du réseau, y compris les serveurs virtuels, Cisco utilise un programme d’administration propre, développé par Cisco IT.

Page 98: Fin Projet 2

Chapitre 4 La Virtualisation

Les serveurs virtuels du centre informatique Cisco sont accessibles à partir du réseau Cisco et interagissent avec un système de stockage partagé, pour optimiser la puissance de calcul.

La virtualisation des serveurs représente un élément clé du modèle SODC Cisco,permettant de partager, d’approvisionner et de distribuer dynamiquement les ressources de traitement, de réseau et de stockage, entre les différentes applications, à travers une matrice de réseau intelligent. « Nous comptons gérer la majorité des besoins de nos infrastructures informatiques de bout en bout, des serveurs aux services de réseau et de stockage, que ces ressources soient virtualisées ou non. », déclare Bulkin.

Bilan économique Cisco IT a constaté qu'un peu plus de la moitié de ses serveurs existants nécessitaient une

reconfiguration pour être virtualisés. Sur cette base, Cisco IT définit l’objectif suivant : la virtualisation de 50 % des serveurs existants et de 75 % des serveurs nouvellement déployés.

Avant même d’avoir atteint cet objectif, il a pu être constaté des résultats impressionnants.

Page 99: Fin Projet 2

Le contexte : Dossier de la virtualisation

Réduction des coûts du fait de la diminution du nombre de serveurs physiques : Début 2007, Cisco IT avait déployé plus de 1500 serveurs virtuels, résultant en un évitement de coûts et des économies évalués à près de 10 millions de dollars américains (calculé à partir de mi-2006). Environ 70% des serveurs virtuels étaient des redéploiements, ce qui avait évité l'achat de nouveaux serveurs physiques, plus les matériels associés et le câblage. Les 30% de déploiements restants étaient des serveurs physiques existants configurés comme serveurs virtuels pour prendre en charge plus d'applications.

Cisco IT estime que le déploiement d'un serveur virtuel coûte environ 2000 dollars

américains, à comparer aux 7000 dollars que représente un serveur physique standard équipé de deux unités centrales. Un nombre limité de serveurs physiques réduit en outre les coûts de fonctionnement, d’administration, de maintenance et de prise en charge.

Réduction de l’espace requis pour le centre informatique : En moyenne, un serveur physique prend en charge entre 10 et 20 serveurs virtuels exécutant des applications. Avec un nombre restreint de serveurs à installer, Cisco IT peut réduire l’espace nécessaire dans le centre informatique, même si le nombre d'instances de serveurs déployés continue d’augmenter. Moins de serveurs physiques se traduit par moins de consommation électrique, moins de climatisation et de ressources de sauvegarde. Ces réductions vont avoir un impact significatif : il est prévu qu’en 2011, le coût de l’énergie représentera 30 % du budget de Cisco IT.

Déploiement plus rapide des nouveaux serveurs : Avec un nombre réduit de serveurs

physiques à déployer, Cisco IT peut aujourd’hui répondre à une demande de nouveaux serveurs dans un délai de trois jours ou, si nécessaire, en quelques heures. Bulkin confirme que « Nous avons à présent des serveurs physiques déjà provisionnés pour prendre en charge de nouveaux hôtes virtuels dans le centre informatique. Nous pouvons donc répondre rapidement à une demande de nouveaux serveurs venant de nos équipes de développement. ».

Par ailleurs, affirme Matthews, « Lorsque des serveurs virtuels peuvent être rapidement installés, les projets de développement peuvent s'effectuer très rapidement, et Cisco IT peut satisfaire davantage de demandes internes de mise à jour des applications, de diminuer les temps de développement, de bénéficier de l'agilité générale de nos infrastructures informatiques. ».

Augmentation de la productivité du personnel IT : Cisco IT prévoit d’administrer plus de 15 000 serveurs (virtuels ou physiques) à l'horizon 2009. Les équipes de support du centre informatique peuvent être plus productives, car le déploiement et le provisionnement des serveurs virtuels sont plus simples que ceux des serveurs physiques.

Augmentation de la sécurité et de la stabilité des applications : Les applications

connaissent peu de pannes ayant un impact sur les systèmes clients, du fait d’une défaillance matérielle ou d’une opération maintenance du système, et ces pannes sont rapidement maîtrisées. La sécurité des applications est en outre renforcée par des LAN virtuels (VLAN), une surveillance optimisée et un système d'exploitation intégré.

Page 100: Fin Projet 2

Chapitre 4 La Virtualisation

L’expérience acquise par Cisco IT en matière de virtualisation de serveurs sera profitable à toute entreprise envisageant ce type de déploiement. Cisco IT est en train d’implémenter deux nouvelles évolutions de ces centres informatiques.

Malheureusement pour toutes nos recherches nous n'avons pas pu avoir des retours d'expériences sur d'autres produits ce qui nous as poussé a présenter les retours sur les produits Vmware malgré que notre choix ce penche vers le produits XEN pour pas mal de raison décrite dans les chapitres précédent.

4.3 volution et avenirÉ

De plus, les entreprises en demandent encore plus et aimeraient que les éditeurs améliorent certains services tels que la supervision et les services de sauvegarde. Egalement, elles aimeraient qu’en on intègre d’autres tels qu’une meilleure visibilité sur les ressources matérielles utilisées (capacité, charge,…). Comme observé auparavant, une meilleure « souplesse dans le hardware » est également désirée.

Toutes les entreprises confirment que leurs processus informatiques a évolué ou évoluera dans l’avenir afin de tenir compte de la virtualisation. Cela s’explique par la nécessité d’adapter les processus informatiques au « nouveau monde mutualisé » dans lequel nous entrons.

Répondant à la question « comptez-vous évoluer ou régresser votre système informatique

virtualisé », les entreprises ont, à l’unanimité, déclaré vouloir évoluer vers plus de virtualisation. Le but étant de réduire le parc physique de serveurs, de capitaliser sur la mise en œuvre de la virtualisation pour consolider l’infrastructure physique, assurer une haute disponibilité et mettre en œuvre un plan de reprise d’activité (PRA).

D’autre part les entreprises anticipent une évolution majeure de la virtualisation, le

virtualisation de postes de travail, en disant réfléchir à la pertinence d’un passage de tout ou partie des postes clients en virtuel. Néanmoins, les personnes sondées ne donnent pas l’impression que cette évolution importante soit pour tout de suite.

Plus globalement, le ressenti générale des sondés est positif. Ces derniers estiment que la virtualisation est « un grand pas pour la gestion informatique », «arrivant à maturité » et « relançant l’organisation des systèmes d’informations et des Datacenters ».

Néanmoins, il est observé que la simplicité de gestion que procure la virtualisation, implique également une plus grande rigueur de suivi, de part son fort impact direct sur le système d’informations. De fait, la sensibilité des éléments matériels hébergeant la virtualisation impose la nécessité de se doter d’un PRA en cas d’incidents sur les environnements de production.

Egalement, comme le note la société Loxam, le ticket d’entrée pour un passage d’un système d’informations sur l’environnement virtuel est relativement élevé. Clairement, la virtualisation n’est pas un investissement à court terme.

Page 101: Fin Projet 2

Le contexte : Dossier de la virtualisation

Au final, pour toutes les sociétés sondées, l’avenir se présente de la meilleure des façons pour cette technologie. Les personnes interrogées lui présagent une « croissance continue » et « un grand avenir ». Tout cela dans un esprit global de réduction d’espace nécessaire à l’exécution des services informatiques. De plus, les évolutions matérielles futures rendront encore plus efficace et plus stable cette technologie.

5 Analyse globale du contexte économique de la virtualisation 5.1 Tendance actuelle du marché de la virtualisation.

Pour analyser l’évolution de la technologie de la virtualisation dans le milieu professionnel, nous nous sommes basé essentiellement sur des études de grands cabinets n’analyse : Forrester, Gartner, IDC,...

Diffusion actuelle de la technologie:

Le cabinet d’études Forrester a mené une grande étude sur le marché de la virtualisation en interrogeant 500 entreprises, dont 45% disposent de parcs de 100 à plus de 1000 serveurs x86. Il en est ressorti que 46% de ces dernières ont déjà des environnements virtualisés en service, 9% comptent en installer d'ici le troisième trimestre 2011 et 29% s'y intéressent de près et prévoient des budgets pour le faire. Parmi les entreprises qui ont déjà sauté le pas, la virtualisation concerne en moyenne 31% des instances de leurs serveurs x86.Ce taux devrait atteindre dans moins de deux ans les 54%. Par ailleurs, Forrester constate que les projets de virtualisation concernent aussi de plus en plus d'autres plateformes que celles qui reposent sur l'architecture x86.

D’autre part, selon une étude réalisée par le cabinet IDC , 18,3% des serveurs livrés en 2010 en Europe étaient destinés à la virtualisation, soit au total 358 000 serveurs. Cela représente une augmentation de 26,5% par rapport à 2009. Et cette tendance devrait encore se poursuivre, notamment en raison de la crise actuelle. Le cabinet IDC prévoit ainsi que la part des serveurs livrés en 2011qui seront virtualisés sera de 21% en 2012.

L’institut constate par ailleurs que le nombre de machines virtuelles déployées a dépassé celui des serveurs physiques dans la zone Europe de l'Ouest.

Évolution à court et moyen termes :

En dépit de la conjoncture actuelle, le marché de la virtualisation ne connaît pas la crise. Cela à contre-courant de tout le reste de l'industrie. Le Gartner a annoncé en février dernier que le marché mondial de la virtualisation devrait croître de 43% cette année, développant un chiffre d'affaires de 2,7 milliards de dollars contre 1,9 milliards en 2010.

Le cabinet d'études prédit une croissance encore plus grande pour le marché EMEA(Europe-Middle East-Africa. Une des grandes régions du monde dans le découpage des marchés internationaux. Ce sigle est souvent utilisé par les entreprises américaines. ), puisqu’il la chiffre à 55%. Avec un chiffre d’affaires de 512 millions d'euros (330 millions en 2009). L’Angleterre, l’Allemagne et la France étant les pays les plus dynamiques.

Page 102: Fin Projet 2

Chapitre 4 La Virtualisation

Comme le montre le tableau suivant, le Gartner a découpé le marché de la virtualisation en trois parties : La gestion de la virtualisation des serveurs, leur infrastructure et l'hébergement de postes clients virtuels.

En croissance de 42%, l'administration de serveurs génèrera à elle seule près de la moitié de la valeur du marché total. Les outils d'infrastructure progressent, quant à eux, de 20%. C'est en revanche sur le créneau de la virtualisation des postes de travail que le cabinet d'étude anticipe la plus forte croissance : +300 %. Mais, en valeur absolue, il n'atteindra que 11% de la valeur totale du marché.

La virtualisation dans les PME :

Les grandes entreprises ne sont manifestement pas les seules à s'intéresser aux technologies de virtualisation. Les entreprises de taille moyenne s’intéressent aussi à ces ses technologies, pour leur impact sur la réduction des coûts.

En effet, Le cabinet Forrester dans une étude menée auprès d'environ un millier de PME américaines (74 %) et européennes (23 %, dont un tiers de sociétés françaises) durant le 3e trimestre 2010, nous apprend que 34% des PME interrogées la pratiquent déjà (contre 45% des grands comptes) et 19% envisagent quant à elles de lancer des projets en ce sens. Un engouement nettement plus marqué que dans les grands comptes. En effet, il n’y a que 9% de ces derniers qui annoncent des projets dans ce domaine.

Page 103: Fin Projet 2

Le contexte : Dossier de la virtualisation

Les bénéfices recherchés par les entreprises :

Les raisons du choix de déploiement de solutions de virtualisation sont à l'origine fondées sur le soucis de consolidation des centres de calcul et de réduction du nombre de serveurs, afin de faciliter leur administration, réduire les coûts et mieux récupérer une puissance jusqu'alors dispersée et souvent très mal utilisée. A ces motivations sont venues s'en ajouter d'autres, comme le perfectionnement des PRA (Plan de Reprise d'Activité) ainsi que l’optimisation du temps de déploiement de solutions.

Plus concrètement, selon une étude CA menée en 2009, les entreprises ont déclaré que les bénéfices apportés par les environnements de virtualisation des serveurs sont la performance/utilisation, la sécurité et l'automatisation. Elle montre également que les initiatives de virtualisation des serveurs facilitent les configurations matérielles et les déploiements logiciels, confèrent plus de souplesse aux environnements de développement et de test et, enfin, optimisent les performances système. Pour sa part, le Garner estime que les impacts positifs de la virtualisation sont la réduction du coût total de possession (TCO), l’amélioration de la souplesse, l’accélération de la vitesse des déploiements de ressources et la réduction de la consommation énergétique.

Concernant les PME, elles notent une étude Info-Tech Research [ITR 09], que les gains constatés s’expriment au travers d’une meilleure maîtrise des achats de matériels informatiques, par une capacité globalement accrue des ressources de traitement et de stockage, par une moindre occupation au sol et par une consommation d’énergie en baisse, le nombre de serveurs ou d’équipements de stockage diminuant.

Les domaines d’application :

Selon une étude mené par Forrester parmi 124 entreprises de son panel, les applications les plus "virtualisées" sont les serveurs Web et les serveurs d'applications (dans 81% des entreprises), les applications génériques utilisées sans d'importants paramétrages (dans 65% des entreprises) et les serveurs d'infrastructures (65% des entreprises). Du côté des applications plus lourdes, 53% des utilisateurs ont déjà virtualisé Microsoft SQLServer dans leur système d'information. On trouve aussi un taux assez élevé de virtualisation de serveurs mail (29%) et de SGBD Oracle (28%).

Pour les PME, la tendance est à peu près la même. La seule différence se trouve dans un intérêt relatif plus marqué pour les clients légers chez les PME que chez les grands comptes.

Page 104: Fin Projet 2

Chapitre 4 La Virtualisation

La virtualisation de postes de travail :

Selon le Gartner, le marché de la virtualisation des PC passe de 1,3 à 1,5 milliard de dollars entre 2009 et 20010. Ce qui représente pour cette année 500 000 des PC en entreprises soit 1% du marché. Ces chiffres sont en deçà de ce qui était espérer pour 2010 à cause du retournement économique. En effet, les projets sur ce point sont reportés aux deux prochaines années. En 2013, ce marché passera à 65 milliards de dollars et concernera 49 millions de PC. Les acteurs actuels de la virtualisation de postes de travail viennent du client léger. Les fabricants de PC actuels n'offrent pas de solution de virtualisation, mais plusieurs d'entre eux, comme HP et Dell projettent d'y venir.

VMware en leader du marché :

Sans surprise, c'est VMware qui règne en maître sur la virtualisation. Cependant, il faut dire que la croissance de ce marché, s'est aussi accompagnée de l'arrivée d'une concurrence de haute tenue (Hyper-V, XenServer,…), qui aujourd'hui propose des hyperviseurs comparables en qualité, sinon en prix à ce que propose VMware. Selon une étude Forrester , les entreprises s'orientent vers des parcs virtualisés hétérogènes où VMware est cité dans 66% des cas, Microsoft dans 53% et Citrix dans 35%.

Côté constructeur de matériel, l'impact de la virtualisation se fait également sentir. HP, qui a racheté le spécialiste du client léger Neoware en juillet 2007, met en avant des serveurs et des outils d'administration relookés spécifiquement pour coller aux attentes des clients en termes de virtualisation. Dell quant à lui a choisi la stratégie des partenariats pour proposer une offre globale avec les trois grands acteurs du marché, VMware, Citrix et Microsoft.

5.2 Consolidation de la sécurité grâce à la virtualisation:

La virtualisation matière de sécurité autorise non seulement la segmentation des réseaux et des bases de données mais présente également l’avantage de consolider plusieurs périphériques réseau, de réduire le nombre de ports d’interconnexion et d’équipements actifs, et enfin de diminuer les charges d’exploitation des centres de données. Ainsi, en consolidant la sécurité (en utilisant de nombreux équipements sur un seul boîtier) on réduit au minimum les charges de gestion, de maintenance, d’approvisionnement, de surveillance et de contrôle.

Dans une étude Fortinet réalisée auprès de 600 entreprises européennes, les DSI interrogés sont 81% au total et 95% en France à souhaiter virtualiser leurs solutions de sécurité informatiques. Cela laisse entrevoir une mutation des pratiques d’achat en matière de sécurité informatique. L’étude avait notamment pour objectif d’étudier la tendance des entreprises à consolider deux fonctions de sécurité ou plus en une seule et même solution.

Page 105: Fin Projet 2

Le contexte : Dossier de la virtualisation

Étude Fortinet sur la consolidation de la sécurité .

La « simplification de la gestion de la sécurité réseau » constitue la raison la plus fréquemment citée avec (34 %) pour la mise en œuvre d’un projet de consolidation de la sécurité réseau. 33 % des personnes interrogées ont également mentionné « la réduction de coûts de fonctionnement », tandis que 17 % perçoivent cette démarche comme l’opportunité de « renforcer la sécurité ».

5.3 Modèle économique :

Dans une étude européenne menée par le cabinet IDC en 2010, il est observé que le modèle économique de cette technologie ne fait pas l’unanimité auprès des sociétés. En effet, 23% des utilisateurs adeptes de la virtualisation estiment que les modèles de licences ne satisfont pas leur besoin et 33% de grands comptes qu'ils limitent l'utilisation de la virtualisation. En France, ce chiffre descendrait à 20% chez les grands comptes, 13% chez les PME mais grimperait à 40% pour la catégorie medium. En revanche, point positif, seulement 16% des entreprises hexagonales (des grands comptes) estiment que cela ne répond pas à leur besoin.

Coté éditeurs, la virtualisation est souvent présentée comme une réponse technologique permettant d'atteindre objectif de réduction des coûts. Pour appuyer cet argument, VMware a lancé un programme qui pourrait bien contraindre ses concurrents à eux aussi s'engager sur des résultats. Effectivement, jusqu'au 30 juin dernier, VMware proposait de ne faire payer les entreprises qu'à partir de 50% d'économies réalisées sur l'infrastructure serveurs x86. Le programme de VMware s'adressait aussi bien aux clients existants qu'aux nouveaux. Toutefois, seuls les Etats-Unis étaient concernés.

Page 106: Fin Projet 2

Le contexte : Dossier de la virtualisation

Les entreprises visées devaient également disposer d'une infrastructure de taille puisque l'offre est limitée à celles souhaitant virtualiser entre 200 et 750 serveurs physiques. Il est en effet difficile pour des parcs plus réduits d'atteindre une économie supérieure à 50%. D’autre part, VMware imposait une configuration matérielle et exigeait que les serveurs physiques à virtualiser soient hébergés dans un unique centre de données.

Concernant les revendeurs de solutions de virtualisation, l’institut CompuBase les estime à près de 20 000 dans la zone EMEA, dont plus de 15 000 en Europe. La France serait le pays comptant le plus grand nombre de revendeurs (plus de 5 400), suivi de l'Allemagne (près de 3 900), du Royaume-Uni (près de 2 500) et de l'Italie (plus de 2 100). Il s'agit pour la plupart de prestataires de services informatiques (60%), les autres étant, soit des revendeurs à part entière (36%), soit des constructeurs (1%) ou des éditeurs de logiciels (3%).

L'étude révèle également que parmi ces revendeurs, les grosses structures (plus de 100 employés) restent peu nombreuses et que ce sont en majorité (49%) des TPE et des PME comprenant entre 5 et 24 employés qui officient. La plupart de ces sociétés sont d'ailleurs relativement jeunes par rapport à la moyenne d'âge des entreprises présentes sur le marché de l'informatique. Néanmoins, plus de 90 % d'entre elles possèdent plus de 5 ans d'expérience avec des compétences concentrées principalement dans les domaines de l'informatique décisionnelle (Business Intelligence), du stockage en réseau et de la gestion de contenus. Compubase souligne aussi le potentiel des intégrateurs réseaux et télécoms et celui des sociétés spécialisées sur les architectures orientées services en matière de commercialisation de solutions de virtualisation.

Pour ces revendeurs en solutions de virtualisation, les principales cibles sont les PME (à 80%), le secteur public et scientifique, mais aussi le domaine de la banque et de la finance, ainsi que les services logistiques.

Quant aux méthodes de vente, elles restent plutôt traditionnelles avec une prédominance de la télévente et du démarchage sur le terrain. La majorité des revendeurs ciblent leur clientèle à l'échelle nationale (47%) et 28% seulement au niveau régional.

5.4 Virtualisation et stratégie :

Selon Gartner , la virtualisation est l’une des dix technologies qui devraient rythmer la stratégie des DSI dans les trois ans à venir, permettant d’avoir un impact significatif sur l'activité et l'organisation des entreprises et pour lesquels le cabinet américain conseille d'investir massivement.

Le cabinet Forrester estime de son coté que l'atteinte d'un certain niveau d'expérience de la virtualisation permet de passer d'une approche expérimentale à la mise en place d'une véritable stratégie d'infrastructure IT en la matière. Une stratégie visant notamment à tirer le meilleur parti des serveurs x86 virtualisés. Dans ce cadre, le cabinet recommande aux fournisseurs spécialistes de l'informatique de gestion d'adopter une approche pragmatique en orientant leur offre vers des solutions pratiques et spécialisées plutôt qu'intégrées.

Page 107: Fin Projet 2

Chapitre 4 La Virtualisation

L'objectif étant de répondre à des besoins concrets - conversion, configuration ou encore mise à jour des serveurs virtualisés - liés au déploiement d'une infrastructure virtuelle.

D’autre part, dans une étude mandatée par la société CA auprès de 300 directeurs et responsables informatique, montre que si 54 % des grandes entreprises considèrent la gestion de leur environnement de serveurs virtuels comme une activité critique ou prioritaire, seulement 45 % considèrent qu'elles gèrent efficacement ces projets. L’étude estime que la gestion efficace des projets de virtualisation doit permettre à l'entreprise d'optimiser ses évolutions technologiques, de bien évaluer ses retours sur investissement et d'améliorer sa productivité.

De plus, 56 % des personnes interrogées dans cette étude utilisent plusieurs plates-formes ou fournisseurs pour la gestion de la virtualisation des serveurs contre 35 % qui privilégient une plateforme unique. Egalement, 68 % des répondants considèrent que la centralisation de la gestion des environnements multiplateformes physiques ou virtualisés est critique ou très importante.

Le calcul du retour sur investissement est également un enjeu de gestion critique. Seulement 28 % des personnes interrogées disposent d’une méthode leur permettant de mesurer le retour sur les investissements de virtualisation alors que 51 % sont persuadés ou ne doutent pas que leurs entreprises maximisent le retour sur ces investissements.

5.5 Virtualisation et administrateurs :

La virtualisation a simplifié la vie des administrateurs et les a également motivés en développant leurs compétences. De plus, la virtualisation leur a apporté une plus grande flexibilité et leur a permis de se libérer du temps. Désormais, on constate l’apparition de nouvelles fonctions informatiques telles que responsable de pool de machines virtuelles.

La formation par l’expérience et le transfert de compétences reste la norme pour les intervenants en virtualisation. Ce mode d'apprentissage permet d'attaquer un gros projet, en partant de rien, et à terme d'être pleinement opérationnels sur la gestion d'un environnement virtuel. On constate que les certifications professionnelles ne sont pas une priorité, même si elles peuvent parfois permettre d'aller plus vite dans la maîtrise des outils. Au final, c'est avant tout l'expérience acquise au jour le jour qui enrichit les compétences.

Selon les données recueillies par cabinet EMA , il faut, en moyenne, un administrateur pour 77 machines virtuelles. Mais l'écart type derrière ce chiffre est significatif. Ainsi, un ratio de 155 machines virtuelles par administrateur n'est pas rare. Mais certains responsables ne s'occupent que de 18 machines virtuelles quand d'autres ont la charge de 1800.

D’autre part, le cabinet estime que pour l'administration d'un Datacenter, le ratio machine virtuelle/administrateur se traduit par d'importants écarts sur le coût unitaire d'ajout d'une machines virtuelle. Pour les services informatiques les plus automatisés, l'ajout d'une machine virtuelle revient à 452 $.

Page 108: Fin Projet 2

Le contexte : Dossier de la virtualisation

Pour ceux qui sont moins performants, une machine virtuelle supplémentaire revient à 880 $ et peut atteindre la somme vertigineuse de 3 770 $ dans le pire des cas.

Egalement, les outils d'administration jouent un rôle important dans la productivité des administrateurs. 39% des entreprises interrogées utilisent des logiciels de suivi des configurations, ce qui évite les modifications sauvages. 37% font appel à des outils d'inventaire pour vérifier l'utilisation des équipements et des licences logicielles achetés. 36% se servent d'outils de gestion de capacité pour optimiser la répartition de charge des machines virtuelles. 27% n'hésitent pas à s'équiper de systèmes de télétravail pour intervenir à distance jusqu'au niveau matériel le plus bas des serveurs. Enfin, seulement 24% administrent leurs environnements virtualisés avec les outils de VMware (Infrastructure, vCenter), de Citrix (XenCenter) et de Microsoft (VMM).

5.6 Avenir et évolution de la virtualisation en milieu professionnel :

Gartner est catégorique : la virtualisation atteindra son pic d’influence maximum dans les infrastructures IT en 2012. Le cabinet d’études estime que ces technologies auront des répercussions sur un grand nombre de départements et de processus dans les entreprises. Elle affectera la vision stockage, réseau et gestion des parcs informatiques, ce qui nécessitera une révision en profondeur des configurations d’architectures établies.

Cette pénétration poussée des technologies de virtualisation dans les entreprises a un impact collatéral : la compétition entre fournisseurs de solutions de technologies de virtualisation sera plus rude. Gartner s’attend à l’émergence de technologies de rupture et à un mouvement de concentration des acteurs qui comptent dans ce domaine. Le cabinet estime que Microsoft devra attendre 2013 pour combler l’avance de VMware, ce rattrapage se faisant essentiellement à travers le marché des PME.

Parallèlement selon une étude IDC , le marché global –logiciels et services- de la virtualisation, devra atteindre 12 milliards de dollars à l’horizon 2011. La plus grande partie de cette augmentation viendra du consulting et de l’intégration de système qui se développeront encore plus.

• Le poste de travail virtuel :

Même si elle demeure moins répandue que sur serveurs, la virtualisation du poste de travail tend à gagner du terrain en entreprise selon le cabinet Gartner [GAR 09]. Le poste de travail virtuel, c'est-à-dire hébergé et délivré à distance à l'utilisateur (HVD pour Hosted virtual desktop), devrait connaître une croissance forte. 15% des PC en entreprise seront virtualisés et hébergés d'ici 2014 selon Gartner. Une situation qui va pénaliser les ventes de matériel neuf et devrait pousser les constructeurs à développer aussi une offre de services.

Néanmoins, l'adoption de cette technologie devrait être retardée en 2009 par le ralentissement économique. La mise en place d'architecture de type HVD requiert l'achat de serveurs supplémentaires, une bande passante suffisamment conséquente et un logiciel pour l'administration. Les implémentations devraient par conséquent être différées jusqu'en 2010 et 2011.

Page 109: Fin Projet 2

Chapitre 4 La Virtualisation

• Le cloud computing

Le Cloud Computing est entré dans la sphère de l’hébergement. Cette nouvelle technologie consiste à hébergé des serveurs virtualisés en mode locatif au sein de datacenters répartis dans le monde. Pour le cabinet Forrester , l’adoption rapide de la virtualisation va accélérer le choix du Cloud Computing. Même si la pénétration de cette technologie reste aujourd'hui encore assez faible. Ainsi, 5 % des entreprises appliquent déjà ce type d’hébergement et 3 % d’entreprises le feront dans les 12 prochains mois.

Cependant, pour aller de l’avant, le Cloud Computing doit prendre en compte les aspects de sécurité et de législation ainsi que la maîtrise des coûts et des environnements. De plus, il est essentiel d’être attentif à la localisation des lieux d’hébergement des applications et aux temps de transit réseau qui peuvent pénaliser l’utilisation des applicatifs ainsi que l’expérience utilisateur.

5.7 Actions recommandées pour la mise en place de la virtualisation :

Grâce aux études de cas précédentes et aux retours d’expériences des diverses entreprises, on a pu voir un aperçu de certaines difficultés et/ou éléments à prendre en compte lorsque l’on souhaite virtualiser son système d’information en minimisant les risques encourus.

Il n’existe pas bien sûr de migration « standard » vers la virtualisation comme nous l’avons vu précédemment, chaque entreprise a son propre contexte qui justifie ou non certains choix : virtualiser tel domaine, avec telle solution, etc.

De la même manière, il faut avoir un esprit critique sur les « règles toute faites » qui concernent la virtualisation. Néanmoins, un certain nombre de préconisations, basées sur les expériences des entreprises et le bon sens permet de réaliser le processus de migration vers un système virtualisé de la meilleure façon possible. Nous allons tenter de donner une approche aux procédures à respecter pour virtualiser son système d’information.

Fixer les objectifs.

Une entreprise peut avoir plusieurs buts dont la finalité qu’elle soit apparente ou non aboutit sur des raisons économiques. Ainsi, comme l’ont montré les différentes études de cas, l’objectif peut être principalement une réduction des coûts à moyen ou long terme, ainsi qu’administration et un fonctionnement du système d’information simplifié grâce à la virtualisation.

Il faut donc avoir d’abord une idée précise de la raison pour laquelle on souhaite virtualiser le parc informatique de sa société car cela coûte cher et bouleverse l’aspect organisationnel du système d’information la plupart du temps. Nous noterons que cette phase du projet sera reprise si les conclusions des étapes suivantes ne sont pas satisfaisantes. Cette phase est la première partie de l’étude Pré-Migration à mener.

Page 110: Fin Projet 2

Le contexte : Dossier de la virtualisation

Réaliser un état des lieux

Avant de se lancer dans un projet de virtualisation de serveurs, il est préférable de procéder par étape en commençant par évaluer la capacité de l’entreprise et de son système d’information à “basculer”. Avant toute chose, il est nécessaire de procéder à un recensement précis des applications et services que l’on souhaite virtualiser, sachant qu’il n’est pas forcément souhaitable de virtualiser toutes les applications (les études de cas ont prouvé la même conclusion). Ainsi, certaines bases de données très sollicitées ne gagneront pas grand chose à être virtualisées. Il faut ensuite vérifier que ces applications sont compatibles avec un environnement virtuel. C’est vrai dans la majeure partie des cas, mais on peut avoir des surprises.

Il est nécessaire de vérifier que les éditeurs de ces solutions supportent leurs produits en mode virtualisé. Une attention particulière doit être portée aux versions des systèmes d’exploitation et à leurs mises à jour. Enfin, un audit du parc de serveurs s’impose, afin d’évaluer sa capacité, ses caractéristiques techniques et son niveau d’obsolescence.

La virtualisation est une technologie très gourmande en mémoire et en puissance de calcul, qui impose aux machines des demandes que l’on trouve rarement dans les autres environnements logiciels. Les serveurs physiques les plus anciens seront ainsi remplacés par de nouvelles machines, plus fiables. Un matériel qui tombe en panne peut entraîner avec lui de très nombreuses machines virtuelles. Il est nécessaire de vérifier que les versions des contrôleurs hôtes de bus, les firmwares et drivers sont compatibles avec la solution de virtualisation retenue.

Calculer le retour sur investissement

Cette étape dans un projet de virtualisation est probablement la plus importante car elle permet de prévoir et de dimensionner le coût du projet en fonction des gains qui seront perçus. Le rapport coût/gain doit être inférieur à 1 avec des gains supérieurs au coût évalué sur une période assez longue. Ce retour sur investissement doit être prévu en accord avec les objectifs fixés à court, moyen ou longs termes, suivant la taille du projet et le contexte de la société.

Une fois l’état des lieux réalisé, il est utile de se projeter dans 12 ou 24 mois, afin de déterminer la capacité que les serveurs, réels ou virtuels, devront posséder à ce moment-là. De cette estimation découlera la taille de l’architecture cible. Le choix de la solution de virtualisation devra en tenir compte.

Pour calculer efficacement le retour sur investissement, il faut prendre en compte l’intégralité des éléments impactés. On peut citer entre autre, le coût des serveurs, de leur maintenance, de leur hébergement, consommation électrique, climatisation, etc. Les paramètres à intégrer sont nombreux (coûts des licences, formations RH,…). Autres gains à évaluer : ceux liés à une administration unifiée et à une continuité de service renforcée.

Page 111: Fin Projet 2

Chapitre 4 La Virtualisation

Cette étape est en quelque sorte l’étape qui valide la viabilité du projet. Les résultats de ce retour sur investissement sont en fait les résultats de l’analyse du projet de virtualisation. Cette étude peut être faite au travers d’un audit par une société externe.

Pour les PME ou pour un petit projet de virtualisation, il existe également certains outils (simulateurs) payants ou en Open Source qui permettent de simuler les gains générés par la virtualisation .

On citera comme exemple le simulateur Hyper Green de Microsoft. Cet outil traduit les kWh économisés en consommation électrique des serveurs et en refroidissement avec les économies financières conséquentes et leur pendant en terme de réduction des émissions de CO2. Nous citerons également le simulateur gratuit de la société APC .

La figure suivante représente une capture d’écran de cet outil :

La formation

La virtualisation, si elle simplifie la gestion des serveurs physiques, peut générer une complexité additionnelle pour les administrateurs. La manipulation fréquente de machines virtuelles, une plus grande richesse des consoles d’administration ainsi qu’un niveau d’abstraction plus élevé peuvent désorienter les équipes techniques. Il est donc nécessaire de procéder à une évaluation aussi fine que possible des compétences présentes au sein de l’équipe informatique. A l’issue de celle-ci, il semble indispensable de mettre en place un plan de formation adapté pour pallier les carences qui ne manqueront pas de se révéler.

Page 112: Fin Projet 2

Le contexte : Dossier de la virtualisation

La virtualisation va par ailleurs bouleverser un certain nombre de processus opérationnels bien établis au sein des directions technique ou informatique. La gestion de la capacité verra alors les modalités de son application transformées. De même pour tout ce qui touche à la gestion des configurations.

Enfin, les procédures de sécurité devront totalement être révisées : il ne faut pas en effet que la simplification de l’architecture se fasse au détriment de sa sûreté de fonctionnement. De ces évolutions majeures découleront là aussi des besoins de formation dont la direction informatique ne pourra faire l’économie.

Les nombreux bénéfices de la virtualisation, s’accompagnent de changements majeurs dans la répartition et le niveau des compétences au sein de la DSI. Le suivi des ordinateurs virtuels est aussi indispensable que celui des serveurs physiques. Il est donc nécessaire de prendre cette dimension en considération et de faire monter en puissance les administrateurs de la DSI en conséquence.

Mener la migration

Pour l'exploitant, une machine virtuelle possède tous les attributs d'un serveur physique. La problématique de la migration est pratiquement identique à celle d'une migration d'un serveur physique vers un autre. Le processus peut ainsi être soit global, soit progressif.

Parallèlement, comme pour une migration physique, un projet de virtualisation s'accompagne souvent d'une mutualisation des ressources de stockage autour d'un SAN. De ce point de vue, l'offre VMware est parfaitement rôdée puisqu'il est même possible de changer de serveur physique tout en restant sur le SAN, sans aucune reconfiguration.

Supervision et contrôle d’accès

La supervision d’un système virtualisé, surtout lorsque les serveurs virtuels sont nombreux, est stratégique. Car sans une administration rigoureuse, la virtualisation peut générer plus de torts que de bénéfices.

Une surveillance particulière doit tout d’abord s’appliquer aux métriques liées aux ressources et à leurs performances. D’un côté, l’environnement virtualisé, de l’autre, les ressources physiques. Ensuite, les indicateurs quantitatifs qui en découlent doivent être suivis avec attention pour éviter toute dégradation de la qualité de service ou, pire, toute indisponibilité. Ils doivent par ailleurs être régulièrement confrontés au retour d’expérience des utilisateurs.

Pour assurer l’efficacité d’un système virtualisé, il faut en outre être capable d’administrer non seulement les zones virtualisées mais aussi les parties physiques du système. On risque sinon de devoir gérer de nombreux cas isolés et par là même de perdre un temps précieux. Les outils fonctionnant à la fois en environnements physiques et virtuels minimisent la complexité et rationalisent les opérations, ils sont à privilégier.

Page 113: Fin Projet 2

Chapitre 4 La Virtualisation

Le choix d’une administration centralisée des ressources virtuelles et physiques, fondée sur la définition de stratégies, est un autre choix garant d’efficacité.

En effet, quand les serveurs virtuels se multiplient, les administrateurs doivent savoir quelles règles régissent, par exemple, la création, le transfert ou la destruction de l’un de ces serveurs. En l’absence de stratégies clairement définies, on s’expose à des risques élevés d’anarchie au niveau de la gestion de ces entités virtuelles.

Autre aspect, et non des moindres : la nécessité de mettre en place une solution indépendante de contrôle d’accès. Plusieurs administrateurs peuvent en effet interagir avec de nombreux composants de l’environnement virtuel. Un contrôle défaillant des accès à la plate-forme de virtualisation peut être préjudiciable à l’entreprise en cas de fuite d’informations sensibles ou d’interruption de service. Enfin, pour fonctionner de manière optimale, un système virtualisé doit faire l’objet d’un inventaire régulier des actifs et les licences des machines virtuelles.

En définitif, la virtualisation de serveurs est riche en promesses : flexibilité, simplicité de gestion et réduction des coûts, etc. Mais ces bénéfices ne seront atteints qu’au prix d’une profonde réflexion sur l’architecture du système d’information, son fonctionnement voire son administration. Ce n’est qu’après cette remise en cause que la virtualisation montrera pleinement tous ses avantages.

CONCLUSION :

L’objectif de ce mémoire était de mettre en évidence l’impact de la virtualisation sur l’économie d’une entreprise. Pour ce faire, nous avons fait le choix de traiter ce mémoire de recherche de manière théorique d’une part mais également de manière pratique au travers d’études de cas.

En effet, la virtualisation même si elle suit certaines règles, communes à toutes les sociétés, suit également une logique et évolue dans un contexte qui est propre à chaque entreprise.

L’analyse des études de cas a pu nous permettre de comprendre quels éléments étaient susceptibles d’être impactés par la virtualisation.

Ce mémoire avait donc pour but secondaire de sensibiliser le lecteur afin de mieux comprendre les rouages de cette technologie et ses conséquences économiques, ainsi qu’à l’amener sur une réflexion clairvoyante au travers des divers exemples et analyses exposées.

A l'heure où la crise impose de plus en plus aux entreprises de réduire leurs dépenses, y compris dans le domaine informatique, cette préoccupation à l'égard des coûts devrait normalement stimuler davantage l'adoption de la virtualisation dans le but de réaliser des économies. De plus, les technologies actuelles dans les entreprises étant de plus en plus complexes et les clients étant toujours exigeants, les sociétés peuvent également adopter celle- ci pour améliorer le service informatique et l’activité de l’entreprise.

Page 114: Fin Projet 2

Le contexte : Dossier de la virtualisation

Toutefois, tous les projets de virtualisation (serveurs, applications, postes,...) ne se traduisent pas par des économies équivalentes. Tous présentent différents intérêts suivant le contexte et les besoins des entreprises et n'auront donc pas systématiquement les faveurs de celles-ci.

Quand une société veut virtualiser son parc informatique, elle doit avoir un objectif clair de ce qu’elle attend. Il faudra donc réaliser une étude sérieuse basée sur l’expérience d’autres entreprises ainsi que la prise en compte de son propre contexte. Cela, afin d’envisager les impacts sur le nouveau système d’information et prévoir un retour sur investissement dans un délai réfléchi.

En outre, un projet de virtualisation doit être considéré d’abord comme un investissement sur moyen ou long terme, dû à l’importance de son coût et aux impacts importants qui peuvent se produire dans le système d’information.

Nous noterons que la virtualisation a des avantages mais aussi des inconvénients, qui peuvent agir sur l’économie de l’entreprise. Une mauvaise gestion de projet de virtualisation et la non prise en compte de certains paramètres importants -mis en évidence dans ce rapport- pourraient ralentir l’activité de l’entreprise et même engendrer tout un lot de problèmes pouvant être souvent critiques. En matière de sécurité par exemple, Les risques sont les mêmes qu'avant, mais dans un environnement virtualisé, les conséquences peuvent être bien pires.

Les attentes et améliorations actuelles de la virtualisation sont aujourd'hui essentiellement dans la mise au point d'hyperviseurs, dans la disponibilité de versions d'OS hébergés «allégés» et adaptés à la virtualisation, d'outils performants d'administration, mais aussi dans la mise au point de modes de licences et de prix de ces solutions qui soient réellement attractifs.

En définitif, le bilan global que l’on peut tirer de ce travail de recherche est que la technologie de la virtualisation est en train de révolutionner les systèmes d’informations, cela en remodelant leur organisation ainsi que leur gestion mais en comprenant que si elle apporte des solutions, cette technologie apporte aussi son lot de dangers qu’il faut apprendre à mesurer pour générer un profit économique. Cette révolution touche également, par extension, tout le marché de l’informatique avec tout ce qu’il comporte comme acteurs (éditeurs, constructeurs, sociétés de services,…).

Par conséquent, nous pouvons légitiment penser que c’est une nouvelle étape ou transition qui est entrain de se réaliser dans le cadre des technologies de l’information et de l’informatique en général.

Page 115: Fin Projet 2

Chapitre 4 La Virtualisation

6 A la nouvelle Architecture, qu’est-ce qui a changé ?

L’implémentation de la nouvelle architecture de la virtualisation inclura Automation Suite for Data Centers, qui permet l’automatisation des processus, l’orchestration, la normalisation du provisioning, la gestion de la configuration, la gestion de la refacturation/comptabilisation, l’administration des ressources, ainsi que Business Service Insight pour la gestion contractuelle des niveaux de services.

Les scénarios suivants d'utilisation sont communs à toutes les technologies de virtualisation.

Selon les technologies et solutions, certains scénarios seront plus ou moins attrayants.

Sécurité : ➔

La virtualisation permet d'isoler chaque service réseau (comme Apache, le serveur mail, le serveur DNS etc.) dans un environnement virtuel séparé. Dans ces conditions, si un intrus trouvait une faille de sécurité dans une des applications, il ne pourrait maltraiter que ce service même ; puisque tous les autres services sont dans des VE (environnements virtuels) séparés, il ne pourrait pas y accéder.

Consolidation de serveur : ➔

Actuellement, la plupart des serveurs sont peu employés, de 10 à 20% selon les experts. En utilisant la virtualisation, de tels serveurs peuvent être consolidés en les migrant dans des environnements virtuels, un même serveur physique pouvant supporter de 2 à une dizaine de serveurs virtuels. Le gain est dans l'espace pris par les racks, les factures d'électricité, la mutualisation des équipements matériels de redondance et sûreté (RAID, climatisation), et les coûts de gestion.

Plan de reprise d'activité : ➔

Une autre utilisation de la virtualisation, c'est l'installation d'un système de secours situé dans un site distant. Ce système de secours étant destiné à embarquer tous les services à secourir à titre temporaire, il pourra donc être dimensionné moins généreusement que le système de production.

Hébergement :➔La virtualisation permet aux hébergeurs de proposer de l'hébergement virtualisé à bon

marché. Chaque Environnement Virtuel (donc éventuellement, chaque client) a un accès root total, ce qui signifie que le propriétaire du VE peut réinstaller n'importe quoi, et employer des outils telles que les tables IP de Linux (règles de pare-feu).

Page 116: Fin Projet 2

Le contexte : Dossier de la virtualisation

Développement et test, éducatif :➔

Les développeurs et testeurs ont souvent besoin d'accéder à un grand nombre de distributions Linux ; parfois ils doivent réinstaller ceux-ci à partir de zéro. Si toutefois les configurations sont d'une diversité maîtrisée, il est possible de disposer d'images virtuelles de chacune des installations prévues, et démarrer une installation se fait dans un temps de l'ordre de la durée de la copie d'un (gros) fichier.

7 Les nouveaux outils et les anciennes tâches.

Les systèmes virtuels ne sont pas simplement des objets manipulables mais de véritables ordinateurs avec des tâches réelles à accomplir. Nous devons pouvoir les administrer comme des ordinateurs physiques. Il y a un ensemble complet d'outils d'administration, l'exploitation des systèmes se rationalise et la complexité doit se réduit au minimum. Les outils étant communs aux systèmes physiques et virtuels, une formation supplémentaire est nécessaire, pour une maintenance simplifié et appliquer de façon uniforme les stratégies dans toute l'entreprise.

La gestions des taches d'un administrateur reste un peut prêt la même si on dit pas qu'elle est plus simplifier en raison de la centralisation des machines, l'administration est unifiée permettant aux informaticiens d'entreprise de gérer leurs environnements informatiques physiques et virtuels de façon proactive, avec une efficacité accrue.

Principales caractéristiques:

➢ Gestion de la virtualisation.➢ Supervision proactive des serveurs et des postes de travail.➢ Gestion des mises à jour.➢ Fonction de rapports.➢ Inventaire matériel et logiciel.➢ Sauvegarde et restauration.

Gestion de la virtualisation:

Comporte la gestion complète de toutes les activités liées à la virtualisation de serveurs, et vous pouvez, dans une même console, visualiser l’état des environnements physiques et virtuels. Les opérations suivantes sont facilement exécutées : création de nouvelles machines virtuelles à partir de modèles, conversion des machines du physique au virtuel, conversion de serveurs VMWare vers le format Microsoft Hyper-VTM, positionnement judicieux des charges de travail virtuelles et migration à chaud.

Supervision proactive des serveurs et des postes de travail.

La supervision doit permetre, depuis une console centrale, les problèmes de configuration, les performances et la disponibilité des serveurs des environnements d’exploitation hétérogènes du centre de données. Des configurations de référence doivent être déployées

Page 117: Fin Projet 2

Chapitre 4 La Virtualisation

et surveillées sur les serveurs. Toutes les modifications de configuration (intentionnelles ou non) apparaissent dans un rapport afin de signaler d’éventuelles erreurs de configuration.

Au-delà de la surveillance des configurations, les responsables du centre de données exploitent l'une des solutions pour superviser de façon centralisée les plateformes Linux, UNIX et Microsoft, et s’assurer que chaque plateforme est pleinement opérationnelle. La solution doit détecte les problèmes éventuels de sécurité, de disponibilité et de performances. Doit aussi permetre d’éviter des arrêts intempestifs et une dégradation des performances ; accélère la résolution des problèmes sur les systèmes installer.

En plus de surveiller les autres systèmes d’exploitation, la solution doit gère aussi les plateformes de virtualisation. Elle doit encore réagit de façon dynamique lorsqu’elle détecte des performances insuffisantes ou des pannes dans les systèmes virtuels : encore propose des actions de correction comme créer un nouveau système virtuel, ou fournit une réponse automatique afin d’aider à obtenir une disponibilité maximale et une grande réactivité.

En plus de la supervision des plateformes, ont a besoin d’un contrôle proactif et d’une analyse précise des performances des processus informatiques et des applications métier afin d’atteindre le niveau de service souhaité et d’assurer la continuité de l’exploitation.

Gestions des mises a jour:

Essentials 2010 permet de manière simple et puissante de déployer les mises à jour des systèmes d’exploitation Microsoft ainsi que celles de vos matériels, pilotes et logiciels quels qu’ils soient, garantissant un haut degré de sécurité.

Vous définissez rapidement la configuration de mise à jour initiale pour votre environnement. Une fois cette configuration effectuée, vous pouvez déployer les mises à jour manuellement ou automatiquement, afin d’assurer la sécurité de votre environnement informatique.

Essentials 2010 vérifie automatiquement les nouvelles mises à jour disponibles et applicables et génère des notifications et des rapports d’accès sur la progression du déploiement des mises à jour. Vous pouvez ainsi dépanner rapidement tout problème lié à ce déploiement.

Essentials 2010 automatise la collecte des données matériel et logiciel, ce qui vous permet d’examiner vos ressources et d’assurer une configuration et une conformité optimales.

8 Respect des standards

L’hyperviseur doit utiliser des fonctions analytiques brevetées et des solutions de virtualisation puissantes pour automatiser la gestion des performances, de la capacité et de la configuration. Il recueille et analyse les données de performance, met en corrélation les anomalies et identifie la cause profonde des problèmes de performance de base.

Page 118: Fin Projet 2

Le contexte : Dossier de la virtualisation

L'hyperviseur doit aussi proposé la gestion de la capacité pour optimiser l'utilisation des ressources et la gestion de la configuration basée sur des règles pour garantir la conformité et supprimer la prolifération et les dérives de configuration.

Automatisation intelligente.

Les fonctions analytiques brevetées offrent une intelligence concrète sur toute la pile en vue d'automatiser les processus manuels pour une efficacité et une flexibilité optimales.

✗ L'analyse de l'infrastructure et des opérations permet de supprimer les processus fastidieux de résolution des problèmes grâce à l'analyse automatisée des causes profondes.

✗ Les fonctions analytiques à la demande permettent d'optimiser l'infrastructure informatique sans « connaissance tribale ».

✗ L'analyse de la capacité permet de supprimer le besoin en feuilles de calcul, scripts simples et règles empiriques. Les scénarios hypothétiques de planification de la capacité ne nécessitent aucune mise à jour de modèles fastidieuse.

✗ L'analyse de la capacité permet d'identifier les ressources surprovisionnées en vue de les redimensionner pour une utilisation plus efficace de la puissance informatique.

✗ L'analyse automatisée du Provisionnement et de la configuration permet de détecter les modifications indésirables et aident le service informatique à respecter les pratiques opérationnelles recommandées et les exigences obligatoires.

Visibilité complète.

La visualisation efficace des problèmes et risques liés aux performances, à la capacité et à la configuration offre une visibilité sur l'infrastructure dynamique et les applications pour une résolution rapide des problèmes.

✗ L'hyperviseur doit offre une vue inter-équipe pour la gestion en temps réel des performances, de la capacité et de la configuration.

✗ Les données de performance sont abstraites dans les mesures des risques liés à la santé, la charge de travail et la capacité qui permettent au service informatique d'identifier plus efficacement et plus simplement les problèmes de performance de base.

✗ Des modèles prêts à l'emploi garantissent le respect des pratiques de sécurité conseillées, des consignes de sécurisation et des exigences réglementaires.

Gestion proactive.Face à des attentes de plus en plus fortes en matière de niveaux de services et à un environnement évoluant de plus en plus rapidement, une approche intégrée de l'automatisation des opérations permet au service informatique d'être plus proactif et de garantir une performance optimale.

Page 119: Fin Projet 2

Chapitre 4 La Virtualisation

✗ L'analyse des performances à auto-apprentissage permet d'identifier les problèmes de performance de base avant qu'ils n'affectent les utilisateurs.

✗ Identifie les pénuries de capacité avant qu'elles n'affectent les utilisateurs. ✗ Les tableaux de bord intégrés en temps réel des modifications de performances, de

capacité et de configuration permettent une approche de gestion proactive et garantissent le respect des SLA.

✗ Garantit le respect du contrôle des règles à tous les niveaux de l'infrastructure du Datacenter, virtuelle ou physique.

De notre part nous avons sélectionné des logiciels émulant, de plus ou moins près, la plateforme PC IA-32/x86.

Cependant, les derniers nés de cette famille de processeurs ont bénéficié d'ajouts de leur langage machine explicitement orientés virtualisation (AMD AM-V ou Intel VT). Si l'utilisation de ces instructions permet de simplifier l'écriture de programmes de virtualisation et d'améliorer fortement leur performance, elle contraint toutefois techniquement la plateforme de déploiement.

Aussi les solutions utilisant explicitement ces instructions seront signalées, ainsi que celles les utilisant tout en leur gardant un caractère optionnel.

De plus, certains virtualiseurs nécessitent la modification du système invité. Si cela est facile pour un système open source, une telle modification n'est pas envisageable pour un système propriétaire. Ces contraintes seront signalées.

Enfin, il reste la question du format des images (de disque, de machine etc.). Certains virtualiseurs montent des fichiers que l'on peut créer en loopback, d'autres demandent l'utilisation d'outils dédiés pour gérer un fichier optimisé (en performance ou en place. Si les raisons qui poussent cette démarche sont parfaitement justifiées, la difficulté est après de porter les images de machine d'un virtualiseur à l'autre. Pour cette raison, l'option permettant, tel un 'chroot', de monter une sous-arborescence (qui pourra au passage être un montage d'un fichier par loopback), ou l'utilisation d'images de systèmes de fichiers loopback, est un plus appréciable.

Un mot maintenant concernant l'installation de systèmes : la plupart des virtualiseurs demandent une base pour démarrer. Cette contrainte n'est pas gênante lorsqu'une image est disponible, mais cela complique fortement l'installation de systèmes "exotiques", tout comme l'installation à partir de disques amorçables.

9 Sécurité :

9.1 la priorité pour la sécurité de la virtualisation

Page 120: Fin Projet 2

Le contexte : Dossier de la virtualisation

Chaque génération informatique offre des technologies révolutionnaires, mais très peu d’entre elles ont égalé l’impact de la virtualisation sur les datacenters. La valeur qu’elle génère en matière de consolidation des ressources, de pro visionnement à la demande et de

maintenance hors ligne permet d’apporter aux systèmes informatiques une plus grande flexibilité. Ils sont ainsi mieux adaptés aux besoins des entreprises.

Néanmoins, il est impossible d’obtenir une parfaite adéquation entre les systèmes

proposés et les besoins des entreprises tant que les risques induits par la virtualisation ne sont pas compris et maîtrisés. Certains de ces risques sont sans précédent ou presque dans les environnements physiques.

9.2 Gestion de la consolidation des ressources

Par exemple, les systèmes invités virtualisés partageant une plate-forme physique commune peuvent présenter différents niveaux de sensibilité en termes d’opérations, d’exposition de leur réseau ou d’informations gérées. Une machine virtuelle invitée exposée à un réseau public peut courir le risque d’exposer des données sensibles gérées par un autre invité sur le même hôte.

Dans le passé, les interactions aussi risquées étaient essentiellement contrôlées via une isolation physique ou logique. Cependant, dans le cadre de la virtualisation, les risques de violation de l’isolation sont accrus du fait de la consolidation des fonctionnalités sur un hôte partagé. Certains gros détaillants n’ont pas validé leur conformité aux normes de sécurité des données PCI (Payment Card Industry) à cause de tels problèmes.

9.3 Contrôle de l’exposition aux risques

Même de simples modifications de la configuration d’un serveur ou de la topologie d’un réseau peuvent révéler des faiblesses, comme un défaut logiciel non corrigé ou un accès réseau susceptible d’engendrer une prise de contrôle du système. La virtualisation quant à elle, a le potentiel d’amplifier considérablement cette exposition, lorsqu’une configuration de machine virtuelle est répliquée à maintes reprises en environnement de production.

La possibilité de déplacer et déployer des systèmes virtuels à la demande peut également accroître les risques. Les entreprises supposent qu’un certain nombre de serveurs doivent être gérés. Mais la virtualisation à la demande peut faire augmenter ce nombre significativement si elle n’est pas contrôlée. La « prolifération » due à la virtualisation a une incidence importante à plusieurs niveaux :

Page 121: Fin Projet 2

Le contexte : Dossier de la virtualisation

➢ Elle accroît le volume des expositions aux risques (ou « surface d’attaque ») si des mesures de sécurité appropriées et cohérentes ne sont pas appliquées à l’ensemble de l’environnement virtuel.

➢ Elle expose l’entreprise à des violations de licences logicielles. ➢ Elle peut introduire des violations de conformité relatives à la gestion des données

privées, à la séparation des systèmes et réseaux, à une journalisation adéquate et à un contrôle des ressources et des modifications.

9.4 Les images de machines virtuelles sont aussi des données

Une image de machine virtuelle est effectivement constituée d’un fichier ou d’un ensemble de fichiers stockés sous forme de données. Ces données peuvent être copiées puis exécutées ultérieurement dans un environnement non contrôlé, contournant ainsi les protections autorisées. Il est donc essentiel de contrôler en priorité l’accès aux systèmes de stockage gérant de telles données.

9.5 L’impact de l’administration

Notez le rôle essentiel que jouent l’administration et la gestion dans chacun de ces exemples. Un privilège d’administration permet de définir des images de machines virtuelles, de récupérer des images de machines virtuelles stockées sous forme de données, de contrôler leur déploiement et gestion en production. Cela augmente le besoin de sécuriser les actions et privilèges d’administration.Cela souligne également l’importance des contrôles orientés virtualisation. Une visibilité de l’infrastructure virtuelle est également nécessaire pour détecter des facteurs tels que la consolidation, le déplacement et la suspension de machines virtuelles, ainsi que le contrôle des images de machines virtuelles en tant que données. Sans cette visibilité, les tâches administratives présentant des risques pourraient passer inaperçues. Sans contrôles spécifiques de la virtualisation, elles pourraient également ne pas être gérées.

10 Relever le défi

La sécurisation de l’administration de la virtualisation doit donc devenir la priorité principale pour la sécurité de la virtualisation elle-même. Cependant, les entreprises ne sont pas nécessairement au fait des meilleures méthodes de sécurisation des privilèges de gestion et d’administration de la virtualisation. Cela demande une prise en compte de tous les facteurs impliqués afin de développer un plan d’action efficace.

10.1 Commencer par une stratégie

En d’autres termes, cela implique l’adoption d’une approche stratégique, correspondant aux exigences de l’entreprise. Une telle approche est reflétée dans la série de normes ISO 27000 sur la gestion de la sécurité, souvent citées comme directives à respecter dans le domaine de la gestion de la sécurité informatique. Les normes ISO recommandent essentiellement d’adopter une approche systématique, qui décrit une séquence logique permettant aux entreprises de définir, mettre en oeuvre et contrôler leurs objectifs, en

Page 122: Fin Projet 2

Chapitre 4 La Virtualisation

mettant l’accent sur l’action. Cette approche est fréquemment synthétisée ainsi : Planifier, exécuter, vérifier, agir

Les normes ISO représentent un ensemble de directives pouvant être appliquées au cas général Les directives spécifiques des technologies utilisées doivent être consultées pour sécuriser la mise en oeuvre en elle-même. Les organismes tels que le Computer Security Institute (CSI) proposent de telles directives, mais les fournisseurs proposent également leurs propres directives, dans la plupart des cas VMware, par exemple, propose des directives sur le renforcement de la sécurité, appliquées aux technologies de virtualisation VMware1. Ces documents contiennent des informations utiles sur la

sécurisation de l’administration des environnements virtualisés.

10.2 Planifier : conception d’une configuration appropriée

La préservation du contrôle administratif constitue un objectif implicite en vertu des principes de sécurité fondamentaux qui s’appliquent à la fois dans les environnements virtuels et dans les environnements physiques. La sécurisation de l’administration de la virtualisation commence donc par la sécurisation de l’environnement physique et l’extension de ces principes à la virtualisation. ➢ Limiter les expositions pouvant mener à un accès non autorisé via des privilèges

élevés. ➢ Installer les outils de sécurité habituels tels que des systèmes anti-programmes

malveillants, de pare-feu et de prévention des intrusions au niveau de l’hôte. ➢ Désactiver les fonctions inutiles ou superflues. ➢ Réserver des ressources système aux processus de gestion des services : gestion des

correctifs, des modifications, des ressources et de configuration. ➢ Les configurations sécurisées doivent être conçues dans des modèles renforcés, afin de

s’assurer que lors du déploiement de nouveaux systèmes, ces derniers sont configurés correctement. Cela comprend la configuration de l’hôte physique, de l’hyperviseur et de chaque machine virtuelle invitée.

La segmentation réseau implique une dimension supplémentaire dans les environnements virtualisés puisque les machines virtuelles invitées possèdent chacune leurs propres connexions : aux topologies de réseaux physiques et logiques en dehors de l’hôte virtualisé ainsi que dans l’hôte lui-même. ➢ Dans la plupart des cas, les communications réseau entre les machines virtuelles

invitées doivent être isolées. Les technologies telles que VMware vShield Zones peuvent limiter le trafic inter-machines virtuelles ainsi que les expositions aux risques qui en résultent, étendant les principes éprouvés de la segmentation réseau au monde virtuel.

➢ La connexion à des interfaces physiques spécifiques peut renforcer cette isolation protectrice et atténuer les risques relatifs aux configurations logicielles.

Page 123: Fin Projet 2

Le contexte : Dossier de la virtualisation

La configuration des systèmes de gestion de la virtualisation est particulièrement importante puisque ces derniers exercent un contrôle direct sur les fonctionnalités. VMware vCenter propose par exemple l’administration centralisée d’environnements VMware et doit donc être déployé avec précaution.

➢ Limiter l’accès administratif à l’hôte sur lequel vCenter s’exécute. vCenter lui-même doit s’exécuter sous un compte d’administrateur distinct, fourni spécialement à cette fin.

➢ Les réseaux de gestion et de production doivent être isolés les uns des autres afin de limiter le risque d’accès non autorisé aux fonctionnalités d’administration.

Lorsqu’un accès administratif est autorisé, le principe des privilèges minimaux doit s’appliquer.

➢ Autant que possible, l’accès administratif doit être lié à des comptes individuels. L’accès à des comptes d’administrateurs partagés, par exemple un compte racine, doit être restreint, de même que l’utilisation d’outils tels que « su » doit être limitée.

➢ Le contrôle d’accès basé sur les rôles (RBAC) permet de diviser les fonctions d’administration en rôles individuels pouvant être invoqués par des utilisateurs autorisés si nécessaire. Grâce à la possibilité de créer des rôles personnalisés, VMware vCenter constitue une solution intégrée de définition et de division des privilèges d’administration par rôles.

Le contrôle de l’environnement est essentiel, en particulier en ce qui concerne la surveillance des actions et de l’accès administratifs, autorisés ou non. Les entreprises doivent prévoir de déployer des outils de gestion des événements permettant une visibilité des risques inhérents à la virtualisation. Dans cette optique, il convient de contrôler l’accès aux ressources de stockage des images de machines virtuelles.

➢ De même, la division en rôles par RBAC doit permettre de garantir que les personnes disposant de droits d’accès d’administrateur ne peuvent pas altérer les preuves des actions d’administration effectuées.

10.3 Exécuter : sécurité administrative des opérations

Après le déploiement de la virtualisation, il convient de veiller au maintien des principes d’exposition limitée et de privilèges minimaux dans le cadre de la gestion des opérations. Pour ce faire, il est possible de s’appuyer sur les outils de gestion ultrasécurisés ou ultraciblés disponibles.

Page 124: Fin Projet 2

Chapitre 4 La Virtualisation

➢ Dans l’environnement VMware, ESX Service Console peut donner accès à de nombreuses fonctionnalités avec un contrôle limité. Un meilleur niveau de contrôle peut être atteint via des outils plus précis basés sur les fonctionnalités de vCenter, comme PowerCLI et les kits d’outils contenant l’API vSphere.

➢ Ces outils tirent le meilleur parti de vCenter : ils appliquent un contrôle et une surveillance centralisés des privilèges. Ils fournissent également un accès administratif basé sur des rôles grâce aux rôles personnalisés de vCenter.

➢ Le recours à une authentification forte peut également renforcer la sécurisation de l’accès aux privilèges d’administration. Certaines exigences de conformité telles que les normes de sécurité des données PCI nécessitent spécifiquement une authentification à deux facteurs pour un accès administratif à distance. L’un des exemples les plus répandus d’authentification à deux facteurs est la technologie de mot de passe unique de RSA SecurID, longtemps utilisée pour sécuriser l’accès administratif dans de nombreuses entreprises, à travers le monde entier.

10.4 Vérifier : contrôle des actions administratives

La mise en place d’une fonctionnalité de surveillance lors de la phase de planification est essentielle,mais elle doit être utilisée efficacement pendant le déroulement des opérations. Dans le rapport de recherche2 sur la violation de données rédigé par Verizon Business en 2009, 66 % des victimes étaient en possession de preuves suffisantes dans leurs journaux pour découvrir une faille. Encore aurait-il fallu qu’ils soient plus attentifs à leurs analyses. Le volume d’informations de surveillance généré constitue pour beaucoup la source du problème. Cette masse de données est difficile, voire impossible, à gérer sans les outils destinés à classer les alertes signalant les risques importants par ordre de priorité.

Le recours aux systèmes de gestion des informations et événements de sécurité (SIEM) constitue la solution de choix pour relever ces défis. Cependant, afin de gagner en efficacité en termes de contrôle de l’administration de la virtualisation, ces systèmes doivent bénéficier d’une visibilité complète sur les différents événements : ➢ Événements de tout type d’environnement : la surveillance doit recouvrir des

événements non spécifiques de la virtualisation, mais qui ont une incidence sur la gestion de la sécurité de cette dernière. Exemple :

◦ Les événements doivent être corrélés avec les modifications informatiques. La surveillance des modifications informatiques est un principe fondamental de la gestion informatique qui renforce le contrôle des modifications et améliore la fiabilité informatique. En termes de sécurité, la détection des modifications peut révéler des menaces.

◦ Les événements doivent être corrélés avec l’accès administratif. Cela peut permettre d’identifier les accès administratifs non autorisés ou les attaques de sécurité exploitant des privilèges d’administration. Il en résulte également une gestion informatique plus fiable, puisque les causes premières des problèmes de performances ou de disponibilité découlant d’actions d’administration sont plus faciles à identifier.

Page 125: Fin Projet 2

Le contexte : Dossier de la virtualisation

◦ L’accès aux ressources de stockage contenant les images de machines virtuelles doit être surveillé afin d’être protégé contre le déploiement et l’analyse de systèmes virtuels non autorisés.

➢ Événements spécifiques de la virtualisation : les outils d’analyse doivent également bénéficier d’une visibilité sur les activités d’administration spécifiques de la virtualisation. Cela est particulièrement critique lorsque ces événements n’ont pas d’équivalent ou peu dans un environnement physique : ◦ Les actions d’administration entraînant des modifications de l’état de la machine

virtuelle doivent être surveillées. L’arrêt et le démarrage d’un service sur un serveur physique peuvent être détectés par des outils conventionnels, mais ce n’est pas le cas des problèmes spécifiques de la virtualisation tels que l’interruption des machines virtuelles. Les machines virtuelles peuvent également être déplacées d’un hôte physique à un autre, ce qui peut constituer une violation des règles. Les outils d’analyse doivent bénéficier d’une visibilité sur l’infrastructure de virtualisation dans ces cas précis.

◦ Dans la plupart des cas, apporter des modifications à la configuration d’une machine virtuelle requiert de la mettre hors ligne et de monter son image à nouveau, opération qui n’est pas aussi intuitive que le redémarrage d’un serveur physique. Lorsque des modifications sont définies dans les images principales des machines virtuelles, l’analyse doit garantir leur mise en production opportune. Cette opération peut être critique lors de la correction des failles de sécurité exploitées activement.

10.5 Agir : importance critique de la réponse

Surveiller est une chose, agir en est une autre, comme le suggèrent les recherches sur la violation de données. Même lorsque des systèmes de gestion des événements mettent en corrélation et identifient des problèmes prioritaires, des mesures doivent être prises, tout d’abord pour réagir au problème mais également pour empêcher qu’il ne se reproduise et mieux sécuriser la gestion de la virtualisation par la suite. Des principes généraux peuvent également être appliqués à tous les types d’environnement, même aux environnements spécifiques de la virtualisation :

➢ Évaluer l’exhaustivité de la réponse. Lorsque des failles de sécurité sont découvertes, l’exposition doit être localisée et confirmée dans d’autres environnements. Les systèmes de gestion de la configuration peuvent non seulement vérifier la présence de l’exposition lorsqu’elle survient, mais également la corriger directement via une modification de configuration.

➢ Adopter une approche proactive. Au-delà de la surveillance, la « vérification » doit également inclure l’évaluation régulière de l’efficacité des programmes. Cela permet de s’assurer que la virtualisation est gérée de manière responsable alors que les technologies, scénarios d’utilisation et exigences métiers évoluent. Les modifications impliquant systématiquement une exception aux processus de gestion en place, par exemple, peuvent amener à une réévaluation de ces processus.

Page 126: Fin Projet 2

Chapitre 4 La Virtualisation

➢ Développer la sensibilisation à la virtualisation. Il faut reconnaître que la virtualisation peut avoir une incidence importante sur les domaines de gestion existants, tels que la gestion de la configuration. L’environnement virtuel est beaucoup plus dynamique que les anciens systèmes. Les machines virtuelles peuvent se déplacer très librement entre plusieurs hôtes physiques. Les modifications peuvent être appliquées hors ligne, ce qui réduit l’incidence de ces dernières sur les environnements de production, mais les équipes techniques doivent s’assurer que ces modifications sont mises en production correctement. Les entreprises souhaitent s’assurer que leurs outils d’administration bénéficient d’une visibilité correcte sur l’infrastructure de virtualisation, et ce afin d’éviter d’être désagréablement surprises par ces problèmes spécifiques de la virtualisation.

➢ Relier l’infrastructure virtuelle à la gestion du service informatique. Les systèmes de surveillance peuvent générer un ticket d’incident en réponse à des événements spécifiques. Cela permet de suivre les incidents et d’y donner une conclusion satisfaisante, impliquant notamment une analyse approfondie ou d’autres opérations de suivi si nécessaire. Inversement, un ticket d’incident peut être utilisé pour autoriser un événement de modification spécifique, dont le résultat, satisfaisant ou non, est répercuté dans les systèmes de surveillance.