belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est...

49
Informatique 1 C C OURS OURS D D ’I ’I NFORMATIQUE NFORMATIQUE S CIENCES CIENCES P PO A A IX IX 1 ÈRE ÈRE ANNÉE ANNÉE

Transcript of belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est...

Page 1: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

1

CCOURSOURS DD’I’INFORMATIQUENFORMATIQUE SSCIENCESCIENCES P POO A AIXIX

11 ÈREÈRE ANNÉEANNÉE

Page 2: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

2

SSOMMAIREOMMAIRE

CHAPITRE 1CHAPITRE 1............................................................................................................................................3

INTRODUCTION À LA MACHINEINTRODUCTION À LA MACHINE.............................................................................................................3

I.I. EETUDETUDE DEDE LALA STRUCTURESTRUCTURE DESDES SYSTÈMESSYSTÈMES INFORMATIQUESINFORMATIQUES..........................................................................6

1)1) OORGANESRGANES DD’’ENTRÉEENTRÉE.............................................................................................................................6

2)2) LLESES ORGANESORGANES DEDE STOCKAGESTOCKAGE..................................................................................................................9

3)3) LLESES ORGANESORGANES DEDE TRAITEMENTTRAITEMENT.............................................................................................................18

4)4) LLESES PORTSPORTS DEDE COMMUNICATIONCOMMUNICATION..........................................................................................................21

5)5) LLESES ORGANESORGANES DEDE SORTIESSORTIES OUOU PÉRIPHÉRIQUESPÉRIPHÉRIQUES.........................................................................................23

II.II. LLESES PROGRAMMESPROGRAMMES INFORMATIQUESINFORMATIQUES.....................................................................................................24

1)1) LLESES DIFFÉRENTSDIFFÉRENTS LOGICIELSLOGICIELS...................................................................................................................24

2)2) LLESES LANGAGESLANGAGES DEDE PROGRAMMATIONPROGRAMMATION....................................................................................................26

3)3) LLESES PROGRAMMESPROGRAMMES DD’’APPLICATIONAPPLICATION........................................................................................................28

4)4) LLESES VIRUSVIRUS ETET ANTIVIRUSANTIVIRUS.....................................................................................................................29

CHAPITRE 2CHAPITRE 2..........................................................................................................................................31

L’ORGANISATION DES SYSTÈMES INFORMATIQUESL’ORGANISATION DES SYSTÈMES INFORMATIQUES...........................................................................31

I.I. LLESES TOPOLOGIESTOPOLOGIES DD’’ORDINATEURORDINATEUR..........................................................................................................31

1)1) LLESES TOPOLOGIESTOPOLOGIES PHYSIQUESPHYSIQUES................................................................................................................32

2)2) LLESES TOPOLOGIESTOPOLOGIES LOGIQUESLOGIQUES.................................................................................................................34

Page 3: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

3

CCHAPITREHAPITRE 1 1

IINTRODUCTIONNTRODUCTION ÀÀ LALA MACHINEMACHINE

Un ordinateur est une machine de traitement automatique de l’information. Une polyvalence des tâches est possible grâce aux logiciels informatiques. Il diffère ainsi d’une calculatrice par exemple qui ne peut effectuer qu’une seule tâche à la fois, celle de calculer.

Ordinateur = Matériel + Logiciel (hardware + software) C’est un assemblage de circuits électroniques et éléments électromagnétiques (ex : disque dur, lecteur CD, ventilateur etc.)

Ainsi, un ordinateur est un ensemble d’éléments électromagnétiques et de circuits électriques qui grâce aux logiciels vont manipuler des données, les traiter sous forme binaire.

Les logiciels représentent l’ensemble des programmes, il y a plusieurs niveaux logiciels :

- 1er niveau : Les systèmes d’exploitation- 2ème niveau : Les langages de programmation- 3ème niveau : Les programmes d’application

Il existe plusieurs moyens de sécurité afin de préserver l’ordinateur d’une éventuelle panne ou dysfonctionnement. Un ordinateur peut contenir plusieurs disques durs (notamment sur les ordinateurs « sensibles »). Ainsi, si le disque dur tombe en panne, on bascule automatiquement sur un autre disque dur afin de ne pas perdre les données et éviter la rupture du système. On appelle ces ordinateurs des systèmes à tolérance de panne.

Sinon, on protège un système informatique grâce à un onduleur, qui alimentera le serveur en cas de coupure de courant. Il est constitué de batteries. L’onduleur dure entre 10 et 30 min, afin de permettre aux personnes d’arrêter proprement le système, qui ne subit pas de coupure brutale (L’onduleur protège donc de la coupure brutale). Il est utilisé lorsque les systèmes sont « sensibles » (ex : Air France).

Il existe deux catégories d’onduleur :

Les ON LINE : Le courant distribué par EDF (ou autre) passe dans l’onduleur dans tous les cas, ce qui fait qu’en cas de panne, il n’y a aucune différence et l’ordinateur n’est pas « touché ».

Les OFF LINE : Ils sont moitié moins chers que les ON LINE. Ils sont bien moins performants car ils ne repèrent pas toujours les microcoupures. C'est-à-dire que le courant distribué par EDF ne passe pas dans l’onduleur, il n’y passe qu’en cas de panne et l’ordinateur subit les microcoupures.

Page 4: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

4

Par suite, si la panne de courant est une panne prolongée, on a recours à des groupes électrogènes qui fabriquent du courant et « remplacent » EDF. Dans tous les cas, ils interviennent suite à l’onduleur, qui protège de la panne brutale.

Le dernier moyen de sécurité est la réplication du serveur (basculement vers un serveur de secours en quelques secondes).

Il existe deux notions de compatibilité :

Compatibilité matérielle : elle consiste à pouvoir déplacer les éléments d’un ordinateur à l’autre. Par exemple, Mac n’a pas de compatibilité matérielle avec d’autres ordinateurs, du fait d’un coût de production élevé.

Compatibilité logicielle : elle n’est pas toujours possible. Un même logiciel n’est pas forcément le même d’un ordinateur à l’autre (ex : Word pour Mac n’est pas compatible avec Word pour HP). Pour que le logiciel soit compatible, il faut qu’il réponde aux critères du 1er niveau (= système d’exploitation). Un programme va fonctionner sur un système mais pas sur un autre.

Par exemple, il existe une compatibilité entre Windows et Intel, le WINTEL, qui représente actuellement plus de 90 % des PC. Le PC (Personal Computer) est lancé en 1981 par IBM. Jacques Perret, à la demande d’IBM, décide d’appeler cette nouvelle machine « Computer » (ordinateur) qui signifie calculateur et « Dieu mettant de l’ordre dans le monde ». L’ordinateur a très vite évolué grâce aux interfaces et à la conception de nouveaux éléments matériels compatibles. Une interface est un élément matériel que l’on ajoute entre les éléments pour qu’ils puissent communiquer et fonctionner (ex : faire fonctionner un robot à l’aide d’un système informatique). L’entrée de données se fait par le clavier. Puis le traitement est assuré par l’Unité Centrale. Enfin, le résultat se fait sur l’écran ou sur une imprimante (selon si on a demandé l’impression).

L’Unité Centrale comporte :

- Un processeur, qui exécute les programmes informatiques- Une mémoire centrale, aussi appelée mémoire vive, mémoire de traitement ou RAM, qui

stocke les données en cours de traitement. De ce fait, elle n’a pas la fonction de stockage car elle est conçue pour être extrêmement rapide afin d’enregistrer efficacement le traitement de données. C’est donc une mémoire à très court terme, qui permet la modification ou la création de données.

- Une mémoire de stockage, également nommée mémoire auxiliaire ou mémoire de masse. Elle correspond au disque dur et stocke les données de l’ordinateur.

Les données sont regroupées dans des fichiers. Ceux-ci peuvent posséder différentes extensions telles que .EXE, .DOC, .MP3, etc… Il existe deux catégories de fichiers :

Page 5: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

5

- Les fichiers exécutables, soit des fichiers programmes- Les autres, c'est-à-dire, tout ce qui n’est pas exécutable, soit les fichiers de données, fichiers

d’information, fichiers structurés, etc…

.

Le processeur contenu dans l’Unité Centrale ne connait qu’un seul langage, le binaire de 0 et de 1 : le Binary Digit (BT).

Bit : unité d’information exprimée en suite binaire (0,1) permettant de représenter toutes les langues du monde

Ces unités servent à évaluer la capacité de stockage. On en arrive aujourd’hui aux Téraoctets (To) qui représentent un billion d’octets. La mémoire vive évolue avec 1 à 5 Go alors que le disque de stockage varie de quelques centaines de Go à 2 To. On peut supposer que les capacités de stockage évolueront vers le Pétaoctet (Po). Dans un texte, la mise en page (saut de ligne, gras, alinéa) augmente le poids du document. Les fichiers multimédia, très importants en taille, poussent les constructeurs à augmenter les capacités de stockage.

Les taux de transfert de l’information sont souvent donnés en bit/s ou en kbit et Gbit/s. Il est aussi possible d’utiliser l’octet/s et ses multiples pour mesurer les protocoles de transfert.

1 octet = 256 possibilités différentes

Le codage de l’information permet de communiquer selon chaque langage. En 1844, Samuel Morse met au point un codage composé de tirets et de points. Emile Baudot (1845-1903) invente un code dit « Baudot » fondé sur 5 bits, soit 32 caractères. Dans les années 50, l’Amérique met au point le code ASCII (Code Standard Américain d’Echange d’Information), qui comporte 7 bits (128 caractères) avant d’évoluer en 8 bits (256 caractères). On va aujourd’hui vers un unicode qui, mis au point en 1991, est codé sur 16 bits et permet de représenter n’importe quel caractère indépendamment de tout langage d’exploitation et systèmes. Il est compatible avec le code ASCII. Il évolue en version 32 bits (norme ISO 10 646) et devient mondial.

8 bits = 1 octet

1 kilo octet / 1 Ko = 210 = 1024 octets

1 mega octet / 1 Mo = 210 X 210 = 1 048 576 octets

1 giga octet/ 1 Go = 210 X 210 X 210 = 1073 741 824 octets

Page 6: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

6

I.I. EETUDETUDE DEDE LALA STRUCTURESTRUCTURE DESDES SYSTÈMESSYSTÈMES INFORMATIQUESINFORMATIQUES

1)1) OORGANESRGANES DD’’ENTRÉEENTRÉE

Les organes d’entrée sont divers, et on compte notamment parmi ces outils l’écran, le clavier, la souris ou le dispositif de pointage, le microphone, le scanner, la webcam, la table à digitaliser, les capteurs divers…

Clavier : Le clavier « azerty » est le clavier français et le clavier de base est le « qwerty ».

Ecran : on est passé de l’écran à tube CRT à l’écran plat. On les distingue par rapport à leur taille, qui se mesure en pouce (2,54 cm) et on le mesure par rapport à la diagonale. On est passé des écrans 4/3 aux écrans 16/9 (rapport entre la longueur et la largeur). La taille d’écran comprend les 14 pouces, 15, 17, 19 et 21 pouces. Aujourd’hui, les écrans plats sont 17 pouces, 19 pouces (PC bureau). Le standard est le 15 pouces ou 15,6 pouces. C’est la taille limite de la portabilité. Les netbooks sont les plus petits ordinateurs du marché. Le nombre de pixels s’exprime sous forme de matrice et la résolution VGA est la résolution de base.

Page 7: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

7

Résolution Taille d’écran

VGA 640 × 480

SVGA 800 × 600

XGA 1024 × 768

HD 1280 × 720

WXGA 1280 × 768

Full HD 1920 × 1080

Le nombre de pixels, de points par unité de surface ou DPI, correspond à la résolution et permet une finesse d’image.

300 DPI = une résolution 300 lignes sur 300 colonnes par pouce².

La résolution d’un ordinateur représente les capacités de l’écran, soit sa définition et elles doivent être en accord avec la carte vidéo pour être entièrement exploitée. Le pas de masse ou pitch est primordial car il détermine la distance entre deux points sur l’écran. Plus cette distance est courte et plus la qualité de l’image est élevée et donc il y a un meilleur confort visuel.

L’écran plat fonctionne avec une couche rectangulaire composée de petits bâtonnets liquides. On y associe un transistor, qui a pour rôle d’ouvrir le bâtonnet et de laisser passer le point lumineux afin d’afficher la couleur sur l’écran. Ce mécanisme électronique fonctionne avec trois couleurs de base, le rouge, le vert et le bleu. Il s’agit d’un système RVB.

La souris : Autrefois à boule, il s’agit maintenant de souris optique qui grâce à une LED va analyser le déplacement. La souris optique est plus précise que les souris classiques, mécaniques. Les souris et les claviers sont de plus en plus sans fils.

Le scanner : la base du système se compose toujours d’une source lumineuse et de capteurs, soit des photos transistors de très faible diamètre qui émettent une tension proportionnelle à la luminosité réfléchie par le document. On obtient généralement une densité de 300 par 300 points ou 600 par 600 points DPI et plus la densité sera élevée, meilleure sera la définition de la copie. Le scanner peut ainsi « voir le document ». Il affecte à chaque point une valeur binaire 0 ou 1 pour une copie en noir et blanc. Pour les scanners en couleurs, une valeur codée sur plusieurs bits est affectée au document, avec par exemple 8 bits qui correspondent à un octet. On scanne chaque couleur de base (RVB) sur 8 bits.

Page 8: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

8

Les scanners actuels sont en mode 24 bits. Le scanner est un outil indispensable utilisé à des fins ludiques et professionnelles. Le logiciel OCR permet d’analyser un document et de l’utiliser dans un traitement de texte par reconnaissance des caractères au lieu de le conserver en format photo. Les scanners très rapides utilisent le logiciel OCR et obtiennent ainsi un gain de productivité important. Cela est notamment utilisé dans les entreprises. Sur certains scanners à main, les logiciels permettent de reconstituer le document dans son ensemble.

Les microphones : En 1981, les premiers PC ne sont pas multimédias, ils ne possèdent pas de CD-Rom ou de son. Ce dernier est obtenu à l’aide d’une carte son et de haut-parleurs, ainsi qu’à des micros externes ou internes. Le son a d’abord était considéré comme une option avant d’être intégré aux machines. Les CD-Rom ont permis l’enregistrement du son. Les logiciels de reconnaissance vocale permettent d’établir un texte par diction et le logiciel « intelligent » va reconnaître la voix et s’améliorer au fil du temps dans la reconnaissance de cette voix.

Les appareils photo numériques et caméras : Les capteurs CCD ou capteur à transfert de charge sont au cœur des appareils photo numériques, des caméscopes et des scanners. En effet, ce sont eux qui assurent la conversion de l’image en signaux électriques et donc leur codification en binaire. Ces signaux électriques sont numérisés par un convertisseur analogique numérique. Des résolutions de plus en plus élevées sont disponibles. Le modèle RVB (rouge/vert/bleu) est le plus souvent utilisé pour créer les couleurs par les capteurs, mais ils existent aussi des capteurs basés sur le mode colorimétrique CMJN (cyan/magenta/jaune/noir). Lorsqu’on fait une photo numérique, celle-ci a une taille proportionnelle à sa résolution. Tous les fichiers images ou sons sont très lourds pour les disques durs.

On obtient ainsi :

Rouge correspond à 8 bits = 28 = 256 variantesVert correspond à 8 bits = 28 = 256 variantesBleu correspond à 8 bits = 28 = 256 variantes

On a donc 2563 = 16,7 millions de couleurs disponibles sur le scanner.

Page 9: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

9

La webcam : Intégrée ou externe à l’ordinateur, c’est une caméra numérique qui, avec l’association d’internet, fonctionne par IP (Internet Protocol). Chaque élément présent sur le réseau du net est identifié par une adresse IP qui lui est propre. La webcam est branchée sur IP et wifi et peut être activée de n’importe où par l’adresse IP.

Les tablettes digitalisées

Capteurs divers : ils vont mesurer certains paramètres comme la température, la pression, etc… et vont apporter de l’information à l’unité centrale en vue du traitement. Cela est notamment utilisé sur les chaînes de production sensibles (aéronautique, industrie de pointe…)

Lecteur à code barre : la technologie se rapproche du scanner avec un capteur CCD. L’information alpha numérique contenue dans le code barre va être transférée à l’ordinateur par le lecteur code barre lors d’un flash.

2)2) LLESES ORGANESORGANES DEDE STOCKAGESTOCKAGE

Ce sont les plus importants du système et ils sont nécessaires à l’ordinateur. Cette mémoire de stockage, mémoire de masse ou mémoire auxiliaire sont accessible de deux façons : les bandes et les disques. Pour les bandes, on dit que l’information est de type séquentiel. Cet accès séquentiel n’est pas un accès direct car pour accéder à une information de rang N, il est nécessaire d’avoir lu l’information N-1. La bande aura une grande capacité de stockage. On y oppose l’accès direct par disques, soit des disquettes, CD, etc… Ce sont des supports adressables, c’est-à-dire qu’on conserve l’adresse de ces supports et grâce à celle-ci on va pouvoir retrouver l’information.

La disquette : elle possède un disque interne et est de format 3,5 pouces, 5 pouces ¼ et plus rarement 8 pouces. Elle possède 1.44 Mo d’espace mémoriel. Chaque secteur a une capacité de 512 octets. Il y a 18 secteurs par pistes et une disquette de 3.5 pouces contient 80 pistes recto verso, soit 160. Un cluster est un ensemble de secteur et tout système d’exploitation utilise un mode d’enregistrement qui lui est propre. En règle générale, le cluster est la taille minimale d’allocation faite par le système d’exploitation. Le système d’allocation dit NTFS sur PC (anciennement FAT32 sur Windows XP) fait en sorte que l’information occupe un cluster, soit 4 secteurs, qui font 2048 octets. Si le fichier enregistré est moins important, par exemple 16 octets, c’est alors une perte de place.

Page 10: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

10

Les disques durs : Leur particularité est leur grande capacité de stockage. C’est le support le plus largement utilisé pour le stockage fixe d’information. Il constitue l’un des composants les plus complexes que l’on puisse trouver dans un ordinateur : les technologies mises en œuvre pour sa conception sont extrêmement sophistiquées et font appel à plusieurs domaines scientifiques complexes comme la mécanique, l’électronique, la chimie, le génie logiciel, les sciences et les matériaux, les sciences magnétiques et l’aérodynamique. Ils sont constitués de plusieurs plateaux rigides en alliage léger ou en céramique et verre. Ils tournent très rapidement autour d’un axe dans le sens des aiguilles d’une montre. Leur vitesse de rotation s’exprime en tours par secondes. Chaque plateau est recouvert d’une fine couche magnétique. Les disques sont très proches les uns des autres et les têtes de lectures flottent sur la surface des disques grâce à la couche d’air provoquée par la vitesse élevée de la rotation de ceux-ci. Les têtes sont des électro-aimants qui se baisse et se soulève pour pouvoir lire ou écrire l’information constituée de bit 0 et 1. Les têtes de lecture/écriture sont dites inductives, soit elles sont capables de générer un champ magnétique et ainsi, lors de l’écriture, les têtes viennent polariser la surface du disque en créant des champs magnétiques positifs ou négatifs sur de très petites zones. Ces champs positifs ou négatifs représentent l’information binaire. Lors de la lecture, les changements de polarité induiront un courant dans la tête de lecture qui sera ensuite transformé par un convertisseur analogique numérique en 0 et 1 compréhensible par l’ordinateur. On retrouve le même fonctionnement qu’une disquette (secteurs, table d’adresses…). Lorsqu’on efface des données sur un disque dur, les secteurs se désignent libres dans la table d’adresse pour le système. Donc lors de l’effacement d’un support magnétique, les données ne sont pas supprimée du disque dur jusqu’à ce que le système les réalloue pour enregistrer d’autres données par-dessus. Pour réellement effacer un disque dur, il faut le formater. Pour réinstaller le système d’exploitation, il faut également reformater le disque dur. Avant cela, on peut créer des partitions, c'est-à-dire qu’on partitionne l’espace. La question est de savoir si l’on veut utiliser tout l’espace du disque dur. Le système d’exploitation est généralement unique, soit sur une seule partition, mais on peut décider de faire deux partitions afin d’utiliser deux systèmes d’exploitation (exemple : Windows en Linux). Ces deux partitions forment des ensembles indépendants. On peut également déclarer deux partitions avant de formater, mais avec un seul système d’exploitation. Sur le disque dur, on aura alors deux unités de disque (C: et D:), alors qu’il n’y en a qu’un physiquement. Cela peut

Page 11: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

11

être utile pour la sauvegarde de données. Concernant les partitions, le constructeur, notamment HP, se réserve souvent une partition système généralement cachée, appelée « partition de recovery ». Quand on réinstalle un système d’exploitation, il faut trouver les bons drivers. Lors d’un formatage, il a le choix entre formatage rapide ou complet : c’est là que le disque va être effacé ou pas. Dans un formatage rapide, seule la table d’adresse est mise à jour, mais le contenu du disque n’est pas effacé. Dans un formatage complet, le système teste tout le support et contrôle sa qualité pour éviter les « bad sectors », ou secteurs défectueux. Les principales caractéristiques d’un disque dur sont :Capacité de stockage : Plus un disque a une grande taille, plus sa capacité est grande. On trouve le plus souvent des 2’’1/2 et 3’’1/2. Pour des disques de 3’’1/2, on arrive aujourd’hui à des disques dur de 3 To, mais sans réelle utilité, d’autant plus qu’ils sont moins rapides.Rapidité : Elle dépend de deux éléments. La vitesse de rotation des plateaux (aujourd’hui, les 2’’1/2 font 5400 tours/min et les 3’’1/2 font souvent 7200 tours/min). Dans les serveurs, les stations de travail, ou work station, sont des PC bureau très puissants équipés de la même façon que des serveurs et qui ont donc besoin d’énormes puissances de calcul : les disques durs tournent à 10 000 voire 15 000 tours/min. Le mode de contrôle du disque, ou son interface, a évolué dans le temps et influe sur la rapidité. Il se situe entre le disque et l’unité centrale. Dans les PC bureau et portables, il y a une interface standard qui s’appelle ATA ou IDE. La liaison y est parallèle : elle passe par plusieurs fils à la fois. Dans le mode ou l’interface SCSI, le traitement de données est beaucoup plus rapide. On le trouve dans les serveurs de réseau « work stations ». Aujourd’hui les liaisons sont en séries, c'est-à-dire sur deux fils : l’ATA est devenu SATA (Serial ATA) et le SCSI est devenu SAS (c’est du SCSI série). Les taux de transfert ont pu augmenter : le plus rapide en SAS est de 3 GB/sec. (GB = Giga bits).

Durée de vie / fiabilité : Le MTBF est la durée de vie probable d’utilisation d’un élément électromécanique. C’est aussi le temps moyen entre deux pannes. Il est essentiel en matière de disque dur. On l’exprime en millions d’heures. Cela signifie que cet élément a une grande fiabilité.Prix des disques : Quand IBM a sorti le premier PC en 1981, il n’y avait pas de disque dur. Un lecteur de disquette 5’’1/4 était présent. Une option permettait d’avoir un double-lecteur de disquettes. Peu de temps après, le disque dur est sorti en option, deuxième boîtier que l’on

Page 12: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

12

connectait à l’unité centrale. Il faisait 10 MO et coûtait environ 10 000 F. Maintenant, un disque dur d’1 TO coûte environ 50€.Nouvelles avancées technologiques : On améliore la qualité des têtes de lecture, elles auront la capacité de lire et écrire sur des espacements de plus en plus petits. On améliore aussi la surface du disque. Il y a eu une avancée technologique : une technique d’enregistrement/stockage perpendiculaire. Chaque bit 0 ou 1 était déposé par aimantation horizontale sur le plateau, désormais ils sont verticaux.Tolérance aux pannes : Certains serveurs disposent de supports d’enregistrement qui tolèrent les pannes. Ces disques ont des MTBF très élevés. Pour permettre la tolérance aux pannes, un contrôleur RAID (plusieurs niveaux : de 0 à 10) est nécessaire. Il permet une redondance de l’information sur plusieurs disques physiques de telle sorte que si l’un des disques du contrôleur RAID tombe en panne, il n’y a jamais perte de données car celles-ci se trouvent aussi sur les autres disques. Des disques permettent au technicien de les retirer en toute sécurité lorsque le serveur tourne. Ensuite il reconstitue les informations se trouvant sur les autres disques.Fabricants : Un des leaders est Seagate. Il existe également Western digital, Samsung…

SSD : Ce sont des disques solides où il n’y a pas de mécanique mais des composants de mémoire flash, soit des composants de mémoire ayant la particularité de maintenir l’information lorsque le système est arrêté. Les avantages sont la rapidité et l’économie d’énergie. Cependant, leur faible capacité et leur prix élevé est un frein à leur utilisation.

Disques durs hybrides : On ajoute quelques composants de mémoire flash qui contiennent une partie du système d’exploitation pour améliorer la vitesse du système informatique. Au démarrage, le disque dur va rapidement retrouver les informations qui s’y trouvent.

Disques virtuels : La tendance en informatique est aujourd’hui l’externalisation : on traite les données sur des serveurs distants. C’est un espace de stockage disponible sur un serveur via

Page 13: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

13

internet mais qui est présenté sur le système informatique comme s’il était physique. En ce moment, il y a grande concurrence entre Google (G drive) et Microsoft. La difficulté pour l’instant est que le réseau internet est plus lent qu’un système informatique. Il n’est pas fait pour stocker de grandes quantités de données (programmes, etc.). L’avantage de ce disque virtuel est qu’où que l’on soit, on retrouve ses données.

Enregistrements optiques (DVD, Blu-Ray, CD) :

Le CD, venant du monde audio, dispose d’une capacité mesurée en minutes, secondes, secteurs et octets. Il mesure 12 cm. Chaque seconde contient 75 secteurs, qui eux-mêmes contiennent chacun 2048 octets. Un CD classique de 74 minutes disposera de 74 X 60 secondes X 75 secteurs X 2048 octets = 681 984 ko = 3 650 Mo. Un CD-Rom (Read Only Memory) ne sert à la base qu’à véhiculer l’information sur le support. Le CD est pressé dans une machine qui va reproduire l’information sur la surface, inscrivant ainsi le code binaire 1 et 0. Le CD est composé d’une couche métallique constituée de pit, soit de microscopiques bosses et creux correspondant au code binaire. Le rayon laser du lecteur va pouvoir identifier l’information en analysant celles-ci. Les CD-R possèdent une couche supplémentaire située entre le substrat plastique et la couche métallique. Elle est composée d’un colorant organique (cyanine = bleu, pthalocyanine = vert, azo = bleu foncé) et va permettre de recréer le concept de bosses et de creux : un laser de graveur de CD, plus puissant, va brûler la couche de colorant et créer une réverbération sur la couche métallique du dessus. Le lecteur va dès lors considérer le trou comme un creux, soit un 0. Le CD-R permet donc de graver les informations une seule fois. Cependant, sur le long terme, le CD-R se détériore rapidement tandis que le CD-Rom dure plus longtemps. Les CD-RW sont des CD sur lesquels on peut réenregistrer l’information plusieurs fois : il y a une couche cristalline à la place du colorant qui va, sous l’action du laser, s’éclaircir ou s’assombrir et ainsi représenter le code binaire. Le rayon laser va faire fondre les cristaux dans la zone d’enregistrement et va les placer dans une phase amorphe non cristalline ou leur fera subir un lent recuit à une température plus basse jusqu’à ce qu’ils retrouvent un état cristallin.

Page 14: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

14

DVD (Digital Versatil Disc) : il est le résultat d’une alliance entre le monde vidéo et le monde informatique et le DVD support audio vidéo peut enregistrer jusqu’à 130 minutes de films avec trois canaux audios. Le DVD-Rom offre une capacité d’enregistrement de 4,7 Go sur un disque de 12 cm. Les DVD ont une capacité accrue et une compatibilité avec les CDs. Le DVD-Rom, par rapport au CD-Rom, dispose de nouvelles avancées technologiques qui ont augmenté la densité d’enregistrement. La taille des pits, ou micro cuvette, est passée de 0,83 microns pour le CD à 0,4 microns pour le DVD. Le PITCH sur les CDs et les DVDs, soit l’espacement entre les points lumineux, est passé de 1.6 à 0.74 microns. Le faisceau optique a également subi des modifications, passant de 780 nm pour le CD à 650 nm pour le DVD. Le DVD Simple Face dispose ainsi de 4.7 Go contre 3 650 Mo pour le CD. Certains DVD Double Face disposent de 9.4 Go, mais n’ont pas été développé dans le commerce. Un système de phases a cependant été mis en place avec un DVD Simple Face Double Phase à 6.5 Go et un DVD Double Face Double Phase à 17 Go. Avec un système de lentilles, on conçoit un DVD où l’on parvient à loger deux couches, qui vont pouvoir être analysée par le rayon laser selon sa puissance. Le lecteur considérera donc qu’il y a deux disques. De nos jours, les lecteurs sont à la fois R, RW, DVD-Rom et CD-Rom, voire Blu-Ray.

Le Blu-ray ou BD-Rom : commercialisé par Sony, il s’agit d’un successeur du DVD et est concurrent du DVD-HD (Haute Définition) lancé par Toshiba. Le Blu-ray Simple couche Simple face contient 25 Go, soit deux heures d’audio-vidéo en haute définition. Les Blu-ray Double couche vont conserver 50 Go d’information. Pour arriver à cette capacité, la longueur du rayon passe à 405 nm et va pouvoir stocker plus d’information. Le PITCH a considérablement diminué. La plupart des lecteurs Blu-ray sont des lecteurs simples et on commence à peine à obtenir des graveurs BD-R et BD-RW. La tendance est éventuellement de gérer plusieurs phases et couches sur la même face. Pour se protéger, les constructeurs ont établi une carte mondiale, permettant ainsi d’instaurer une incompatibilité entre les DVD et les lecteurs de pays différents (ex : DVD Europe et DVD USA différents). Le temps d’accès à un support optique est plus lent qu’un disque dur. Une taxe est imposée sur les supports optiques, s’élevant à 1€ pour un DVD, afin de payer les auteurs, etc… La durée de vie de ces supports est tout de même limitée, notamment les DVD-R et DVD-RW, et ceux-ci

Page 15: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

15

ne doivent pas être considéré comme supports de stockage fiables car ils se dégradent dans le temps. Dans notre société actuelle se pose la question de la conservation de la mémoire et il faut trouver des supports durables sur des dizaines, voire des centaines d’années.

Le Century Disc : invention française de 1980, il s’agit d’un disque gravé sur du verre trempé, qui dure donc sur le long terme. La conservation des données se fait sur des siècles. Cependant, le support en lui-même coûte de 100 à 200€.

Bandes magnétiques : ce support ne permet qu’un accès séquentiel à l’information. Son intérêt est donc de copier les données présentes sur les disques : c’est un support très rapide ayant une très grande capacité de stockage. La capacité des bandes dépend de sa longueur, sa largeur et sa densité d’enregistrement. Il existe différents formats. La rapidité dépendra, elle, de la vitesse de rotation des moteurs (rembobinage et déroulage) et du contrôleur de type SCSI ou SAS qui va gérer la bande. Les lecteurs TRAVAN ont laissé la place au lecteur DAT de format DDS 1, DDS 2, etc… Sony a ensuite développé l’AI-T, qui reste très rare encore aujourd’hui. Pour les moyens et gros serveurs, les lecteurs DLT ont été remplacés par les lecteurs LTO ou LI(C)TRIUM.

Format de bande Capacité de stockage

LTO 1 100 à 200 Go

LTO 2 200 à 400 Go

LTO 3 400 à 600 Go

Les bandes magnétiques sont des supports amovibles. Il existe également des auto-loaders, ou robots de bande, qui vont permettre de graver automatiquement plusieurs bandes successivement grâce à un bras métallique qui va changer les bandes une fois pleines. Un lecteur à bande coûte environ 3 000 € et un robot loader peut s’élever jusqu’à 100 000 €. Une sauvegarde ne doit jamais être laissée sur le même lieu que le serveur : elle n’a aucune utilité et peut être également détruite en cas de dégâts (incendie, vol…). Pour une meilleure sécurité, les entreprises ont intérêt à sauvegarder leurs données tous les jours en faisant tourner trois ou quatre bandes.

Page 16: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

16

Il existe aujourd’hui dans les entreprises des NAS (Network Area Storage) et SAN. C’est un serveur autonome dédié au stockage : le concept est d’externaliser les données vers un serveur de fichier connecté au réseau d’entreprise et capable de fonctionner dans des environnements hétérogènes. Ce disque dur est connecté sur le réseau grâce à une adresse IP et représente un espace de stockage fait de plusieurs disques. Il est capable de sauvegarder les données de Windows, Mac, Linux… Le SAN (Storage Area Network) est un réseau dédié au stockage et ne s’adresse qu’aux très grandes entreprises. De nos jours, on utilise le stockage en ligne pour sauvegarder les données.

Mémoire centrale = mémoire de traitement = RAM = mémoire vive

La mémoire centrale est la mémoire où transitent toutes les informations et elle va permettre le traitement des données par le processeur ou micro-processeur. Ce dernier va diriger et contrôler l’exécution des programmes. La mémoire centrale maintient les données le temps du traitement. Pour cela, on dit qu’elle est volatile et extrêmement rapide. Le temps d’accès à la mémoire de traitement se calcule en nanosecondes. Le temps d’accès entre la mémoire vive et son disque dur s’exprime en millisecondes. Selon la taille de la mémoire, on peut y loger plusieurs processeurs, qui permettent de moins accéder au disque dur et donc augmente la rapidité de la machine. Il faut cependant que le système d’exploitation installé sur l’ordinateur soit capable de gérer la mémoire utilisée. La mémoire est composée de milliers de condensateurs emmagasinant des charges électriques. Lorsque le condensateur est chargé, son état logique est égal à 1 et, dans le cas contraire, il est égal à 0. Chaque condensateur correspond à un bit de la mémoire et doit constamment être rafraîchi, soit rechargé de façon régulière. Il s’agit d’un cycle de rafraîchissement, qui s’exprime en nanosecondes. Chaque condensateur est couplé à un transistor qui va permettre de modifier l’état du condensateur ou de récupérer l’information en lisant l’état logique. Ils sont rangés sous forme de matrices, de tableaux et on accèdera à chaque case par les coordonnées x et y (lignes et colonnes).

La mémoire morte a un rôle plus marginal et est beaucoup moins importante que la mémoire vive. Elle est également nommée mémoire ROM (Read Only Memory). C’est un composant dans lequel l’information ne s’efface jamais, même lorsqu’elle n’est plus alimentée. Lorsque le composant était construit, on y inscrivait le programme adapté, qui était par la suite lu.La mémoire PROM : c’est une mémoire programmable qui permet d’inscrire durablement un composant sans possibilité de l’effacer.

Page 17: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

17

La mémoire EPROM : c’est une mémoire ROM programmable et effaçable. On programme la mémoire morte plusieurs fois car il y a possibilité d’effacer les données.La mémoire EEPROM : c’est une mémoire ROM programmable et effaçable électriquement. La clé USB utilise cette mémoire. La mémoire flash est une EEPROM et cette technologie est également utilisée dans les cartes d’appareils photos, etc… Cela permet une densité physiquement réduite pour proposer des capacités de plus en plus vastes. Il s’agit d’un compromis entre la mémoire de type RAM et ROM car elle possède la non volatilité des ROMs toute en pouvant être accessible en lecture et en écriture. En contrepartie, les temps d’accès sont plus importants que ceux de la RAM. La mémoire EEPROM a cependant une durée de vie limitée car la réécriture et l’effacement électrique use les cellules et met hors circuit la mémoire.

La mémoire vive : il y a distinction entre la mémoire statique et la mémoire dynamique.Mémoire statique ou mémoire SRAM : elle ne nécessite aucun rafraîchissement et conserve l’information sur une échelle de temps de quelques heures à quelques jours. C’est une mémoire extrêmement rapide, plus que la DRAM. Elle sert à constituer sur l’ordinateur la mémoire cache. Il s’agit d’un petit espace où sont conservées les données pour être traitées de façon récurrente par le processeur. On parle de mémoire cache externe, soit à l’extérieur du processeur, par opposition à la mémoire cache interne intégrée dans celui-ci. La SRAM est donc une mémoire très petite, très rapide et très chère en petite quantité dans l’ordinateur.Mémoire dynamique ou mémoire DRAM : Elle nécessite un rafraîchissement permanent et se présente sous la forme de barrettes plus ou moins larges. On l’appelle également mémoire DIMM pour les PC bureau et SODIMM pour les PC portables. Elle a évoluée dans le temps : les premières mémoires DRAM étaient asynchrones, c’est-à-dire qu’il n’y avait pas une parfaite synchronisation entre le processeur et la mémoire centrale. Le processeur va donc subir des temps d’attente pour obtenir des informations, cela ralentit le temps de traitement. La mémoire asynchrone était nommée mémoire EDO. La mémoire synchrone, ou mémoire SDRAM, permet la communication entre le processeur et la mémoire et atteint une vitesse de 66 à 133 MH (mégahertz). On passe aujourd’hui à la DDR-SDRAM. On double le taux de transfert tout en conservant la même fréquence de fonctionnement qu’une SDRAM. Avec la DDR2-SDRAM, on parvient à quadrupler le taux de transfert. On passe de 400 à 1066 MH. Depuis peu de temps, le marché est à la DDR3-SDRAM et on atteint des vitesses de 1600 MH. La RAMBUS, concurrente aux DDR-SDRAM, était plus performante que celles-ci mais très chère à fabriquer. Elle servait principalement aux serveurs et stations de travail mais a été mise de côté. Ses performances ont été dépassées par la DDR3.

Page 18: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

18

3)3) LLESES ORGANESORGANES DEDE TRAITEMENTTRAITEMENT

Le processeur : la capacité d’un processeur à traiter un nombre d’information simultanément est essentielle. La taille du processeur influe également sur sa performance, ainsi que sa rapidité. La vitesse de cadencement de l’horloge, soit la rapidité avec laquelle il peut traiter les bits, est également un élément important participant à la puissance du processeur. De nos jours, pour pallier aux problèmes de chauffe du processeur, on s’oriente dans les processeurs multi-cœur, soit disposant de plusieurs centres de traitement, qui sont dès lors beaucoup plus efficaces. En 1971, Intel invente le premier processeur de puissance 4 bits avec 108 kilohertz. Le processeur, aussi appelé unité centrale de traitement, est le cœur de l’ordinateur. Il est codé en binaire et traite la plupart des informations de la machine. C’est un circuit électronique cadencé par une horloge interne qui envoie des impulsions (top) qui vont déclencher une action du processeur et donc des éléments de l’ordinateur. La vitesse de cette horloge, soit le nombre de battements par secondes, s’exprimait en mégahertz et se dénombre aujourd’hui en gigahertz. Il constitué de deux éléments importants : l’unité de commande qui lit les instructions et les codes et l’unité de traitement appelée UAL (Unité Arithmétique et Logique) qui exécute des instructions. Lorsque tous ces éléments sont regroupés sur un même composant, on parle alors de microprocesseurs, soit des processeurs qui contient ces composants sur la même puce. A l’intérieur du processeur, il y a des registres. Ainsi, lorsque le processeur exécute des instructions ou qu’il traite des données, il stocke temporairement ces données dans des petites zones mémoires de quelques ko et celles-ci sont nommées registres. Selon le type de processeur et sa puissance, le nombre peut varier de quelques centaines à plusieurs millions. Il y a également un jeu d’instruction au sein du processeur. Il s’agit d’un ensemble d’instructions physiquement gravées à l’aide de circuits électroniques dans le processeur lui-même. Ce jeu d’instruction est réalisé à l’aide de semi-conducteurs qui sont de petits interrupteurs utilisant l’effet transistor. Il existe plusieurs millions de ces micro-conducteurs dans un même processeur. Ce câblage interne microscopique est essentiel. En 1956, trois chercheurs ont obtenu le prix Nobel pour la découverte du processeur.

Dans un processeur, il existe une mémoire cache interne. Celle-ci va participer à sa rapidité, au même titre que sa taille et son nombre de cœurs. Il existe deux niveaux de mémoire cache interne dans les processeurs. Il y a également une caractéristique de parallélisme. Lorsqu’on a deux ou quatre cœurs dans les composants, on parle de parallélisme qui consiste à effectuer simultanément

Page 19: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

19

sur des processeurs différents des instructions relatives à un même programme. On obtient au final le découpage d’un programme en plusieurs processus qui seront traités sur chacun des processeurs ou des cœurs, dans le but d’une rapidité toujours plus grande et donc d’une exécution plus rapide. On va donc concevoir des programmes capables de fonctionner sur multiprocesseurs ou multi-cœurs. Le principe du système consiste à mettre à la disposition du processeur plus rapidement les instructions qu’il va devoir effectuer. Celles-ci sont mises en file d’attente dans la mémoire cache de telle sorte que lorsque le nouveau processeur exécute une instruction, la suivante est mise à sa disposition. L’architecture interne d’un processeur peut être :

CISC (Ordinateur à jeu d’instruction complexe) pour les processeurs X86 qui peuvent traiter des instructions complexes, vastes. On a intégrer au processeur des instructions complexes directement imprimées, câblés sur une section de la puce dans le but d’avoir un circuit plus rapide.

RISC (Ordinateur à jeu d’instruction réduit) qui permettent d’utiliser des processeurs moins complexes pour des applications plus communes.

On peut mesurer la puissance d’un processeur avec le mips (million d’instructions par seconde). On arrive aujourd’hui à 1 mips.

Pour pouvoir régler les problématiques environnementales, calculer des réactions nucléaires ou autres, qui nécessitent des calculs extrêmement précis, on va amalgamer des millions de clusters (super calculateurs) entre eux. L’université de Virginia Tech a mis au point le premier cluster composé de 1100 ordinateurs Mac G5 et a atteint la troisième place des plus puissants calculateurs au monde. Pour mesurer la puissance d’un super calculateur, on utilise le flops (opération à virgule flottante par seconde). Le nombre de flops est une mesure commune dans la vitesse des systèmes informatiques. Le rassemblement de nombreux processeurs à mips va former un « super ordinateur ».

1 Gigaflops = 1 milliard d’opérations à virgule flottante par seconde1 Teraflops = 1 millier de milliard d’opérations à virgule flottante par seconde

1 Pétaflops = 1 million de milliard (billiard) d’opérations à virgule flottante par seconde

En 2008, la barre des 1 Pétaflops a été franchie par un super calculateur : on parle de machines de systèmes pétaflopiques. Deux fois par an est publié le top 500 des supers calculateurs. En juin 2010, l’importance toujours aussi grande des USA dans ce secteur est prouvée : ils possèdent sept des dix plus puissants supers calculateurs au monde et 56% des supers calculateurs totaux. Le plus puissant possède environ 260 000 processeurs cœurs et atteint la puissance maximale de 1,75 Pétaflops. En France, le plus gros ordinateur a été mis en route en 2010 et se nomme le Teracent : c’est le premier super calculateur pétaflopique conçu et développé en Europe. Il a atteint la puissance théorique de 1,25 Pétaflops, ce qui le classe parmi les trois supers calculateurs les plus puissants au monde. Il intègre 140 000 processeurs cœurs Intel Zeon. Cette technologie fait appel au calcul distribué, qui décrit un système informatique composé d’unités de calculs (micro processeurs, cœurs, unités

Page 20: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

20

centrales) qui sont reliées entre elles à l’aide d’un réseau de communication. Ces systèmes seront équipés d’un système d’exploitation spécialisé qui va coordonner et répartir les calculs et traitements à réaliser sur les différentes unités de calculs.

Le mainframe (ordinateur central) est un concept essentiel dans la conception et l’utilisation des systèmes d’exploitation, mais qui aujourd’hui date quelque peu. Le développement des ordinateurs se fait après la Seconde guerre mondiale aux USA et jusqu’aux années 70-75, l’ordinateur possédait une information centralisée. Le concept d’ordinateurs individuels n’existait pas : l’unité centrale était spécifique, soit chaque concepteur fabriquait toutes pièces de l’ordinateur et rien n’était compatible. Chaque concepteur fabriquait également son propre système d’exploitation. L’écran et le clavier n’affichaient que les informations de l’unité centrale, ils ne contenaient aucune intelligence.

Le mainframe consistait donc à brancher plusieurs claviers et écrans sur la même unité centrale et à partager la mémoire centrale sur plusieurs postes. Avec l’apparition des réseaux, on connecte plusieurs ordinateurs entre eux et on centralise les données dans un seul, appelé réseau. Au fil des années, le concept de mainframe, soit d’ordinateur centralisé, a été dépassé par l’utilisation de la microinformatique et des serveurs. Dans les entreprises et les administrations, l’utilisation d’un ordinateur central (mainframe) a été

remplacée par l’utilisation de réseaux de communication. L’apparition d’internet dans les années 90s, réseau mondial par excellence, a définitivement rendu le mainframe caduc.

85% des meilleurs calculateurs au monde fonctionnent sous système d’exploitation Linux. Seul 1,4% est géré par Windows et 0,5% par Mac OS.

Le fabricant numéro un mondial de microprocesseur est Intel, qui a mis au point des processeurs de la famille X86 compatibles de générations en générations. La société américaine AMD fabrique également des processeurs X86 et est concurrente directe d’Intel. IBM conçoit également des processeurs spécifiques pour ses propres machines, mais également des processeurs appelés power PC. Motorola, société qui fournissait les processeurs pour les premiers Mac, produit également des processeurs. Les constructeurs HP, SUN, DEC ou SGI mettent également au point des microprocesseurs mais dans une moindre mesure.

Chez Intel, le Pentium constitue le processeur principal, aujourd’hui produit à double cœur. Le processeur Celeron, plus économique, possède également double cœur. Les nouveaux processeurs de génération 2 à double cœurs, appelés Core 2 Duo ou Quad Core pour les quatre cœurs, sont récemment apparus. On parle aujourd’hui de Core I 3, Core I 5 et Core I 7. La puissance est exprimée par le nombre de cœurs, la mémoire cache et la taille.

Page 21: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

21

Chez AMD, le Sempron, l’Athlon, le Phénon (PC bureau) et le Turion (PC portable) sont les processeurs principaux. Leur évolution s’est traduit par l’apparition de double, voire de triple cœur.Il existe également des processeurs pour les serveurs, plus puissants. Chez Intel, il s’agit du Xeon tandis qu’AMD a conçu l’Opteron.

La carte mère est une plaque électronique sur laquelle se trouvent :

Le(s) processeur(s) La RAM ou mémoire Les circuits électroniques : leur rôle est de contrôler les différentes ressources présentes sur

la carte mère (processeurs, mémoires, mus…). Ils sont chargés de coordonner les échanges de données entre ces différents éléments et sont appelés jeu de composants ou chipset. Il peut exister plusieurs chipsets sur un ordinateur : celui de la carte mère mais également celui de la carte vidéo, etc…

Une horloge temps réel ou RTC : elle est chargée de la synchronisation des signaux du système. Sa fréquence est exprimée en Mégahertz ou Gigahertz, soit le nombre de top d’horloge émis par secondes. L’horloge de la carte mère doit être en harmonie avec celle du processeur. Cette horloge est associée à un circuit électronique appelé Cmos qui conserve certaines informations sur le système dont la date et l’heure. Cette petite zone de mémoire est une mémoire lente alimentée par une pile et qui consomme très peu d’énergie. Associé à cette mémoire Cmos, le programme Set Up permet au démarrage de la machine de modifier la configuration matérielle dans celui-ci.

Le BIOS : ce programme s’exécute à la mise sous tension du système il est le lien entre le premier niveau de logiciel de l’ordinateur, soit le système d’exploitation, et le matériel. Il contrôle la présence des différents éléments matériels et effectue un test afin de vérifier la fonctionnalité des éléments matériels de l’ordinateur conformément à ce qui est stocké dans le Cmos avant le démarrage. Il donne ensuite la main au système d’exploitation via le boot sector. Le BIOS est stocké dans une mémoire morte de type EEPROM (modifiable par impulsion électrique).

Le BUS d’extension ou connecteur d’extension (SLOTS) : ils reçoivent des cartes d’extension comme par exemple la carte vidéo lorsque celle-ci n’est pas intégrée directement sur la carte mère. Les cartes vont ainsi pouvoir communiquer avec le reste de la machine. Il y a eu plusieurs standards, plusieurs types de BUS sur les PCs : ISA (Architecture Standard de l’Industrie) en 1981 avec IBM (16bits), MCA, EISA, VLB, AGP, PCI, PCI express. Le BUS d’extension n’est pas utilisé sur les PC portables et est remplacé par un port PCMCIA qui va permettre d’intégrer des extensions.

4)4) LLESES PORTSPORTS DEDE COMMUNICATIONCOMMUNICATION

Page 22: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

22

Les ports de communication sont présents sur toute machine. Il y a deux grands modes de communication :

la communication parallèle : il s’agit d’une liaison où chaque bit d’un mot occupe son propre canal, soit son propre fil. Ainsi, si on a des mots de 8 bits, il y aura 8 fils et on transmettra simultanément les 8 bits du mot. La rapidité de la transmission est un atout mais est cependant limitée par la distance : le signal est affaibli par le nombre de fils et la communication ne va pas au-delà de 10 mètres. On se servait notamment du port parallèle pour connecter les imprimantes ou les lecteurs CD-DVD externes.

la communication série : il s’agit d’une liaison où les bits de chaque mot sont envoyés à la suite sur un même canal de transmission. Il y a donc deux fils : un pour l’envoi et un pour le retour. Le procédé est donc simple mais il est à priori plus lent que la communication parallèle. On s’en servait notamment pour les souris, les modems externes, etc…

Les ports de communication sont :

La bande passante : elle désigne la capacité à faire circuler l’information numérique sur un lien de communication informatique comme le fil de cuivre, la fibre optique, les ondes radio… La bande passante, soit le débit d’information que l’on pourra faire circuler, sera alors plus ou moins grande : plus le diamètre du tuyau est important et plus le débit d’information sera important.

Port USB (Universal Serial BUS) : il s’agit d’un BUS informatique à transmission série. Il est révolutionnaire par rapport aux modes précédents. Sur un port série ou parallèle, on ne peut mettre qu’un élément tandis qu’un port USB peut connecter 127 éléments. En dehors des aspects de reconnaissance des éléments, de connexion à chaud et de connexion multiple, l’USB va permettre des débits sans cesse croissants : on est passé de l’USB 1.0 en 1987, l’USB 1.1 en 1998, l’USB 2.0 en 2000, l’USB 3.0 en 2010. Il y a une compatibilité ascendante (sur un USB 3.0 on peu connecter un USB 1.0). La vitesse va ainsi être modifiée : avec l’USB 2.0 en 2000, on parle d’une vitesse de 480 Mbits/sec, soit 60Mo/sec. Lorsque l’USB 3.0 sort, on peut parvenir à une vitesse de 4800 Mbits/sec ou 4,8 Gbits/sec, soit 600Mo/s. On est alors proche de la vitesse des disques durs internes.

Port série Port I3E1394 : Ce BUS série ne supporte que 63 périphériques connectables. C’est un port

qui vient compléter l’USB car il est beaucoup plus rapide que l’USB 1.0 ou 2.0. On le privilégiait notamment pour utiliser des périphériques demandant un débit d’information important, comme la vidéo via un caméscope par exemple. Il est appelé Fireware chez Microsoft. En 2008, ce port permet 3 200 Mbits/s ou 3,2 Gbits/s.

Page 23: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

23

Connecteur réseau RJ45 : C’est un connecteur très rapide qui permet de se connecter au serveur électronique et aux réseaux. On était en 10 Mo/s peu après sa création et on est aujourd’hui aux Go/s.

Connecteur Modem RJ11 : C’est un connecteur analogue au RJ45 mais qui ne concerne que les connexions au Modem.

5)5) LLESES ORGANESORGANES DEDE SORTIESSORTIES OUOU PÉRIPHÉRIQUESPÉRIPHÉRIQUES

L’écran L’imprimante :

les imprimantes à impact : c’est une technologie ancienne qui a par exemple disparue dans les imprimantes à marguerites ou à boules. Elle reste cependant aujourd’hui utilisée majoritairement pour les imprimantes matricielles à aiguilles. Un ruban carboné est placé entre les caractères à presser et le papier et va permettre d’imprimer les caractères sur celui-ci. Les imprimantes à marguerites : Une tête est présente et va se déplacer le long du papier. Au bout de celle-ci, une rosace portant les caractères est mise en mouvement par un moteur et est tournée jusqu’à trouver la lettre voulue avant qu’elle soit pressée contre le papier.Les imprimantes à boules : Une boule contient les caractères et se déplace en tournant sur elle-même pour presser contre le papier les caractères voulus.Les imprimantes matricielles à aiguilles : c’est une imprimante graphique, c’est-à-dire qu’on peut faire des graphismes autres que des caractères (dessin, traits, etc…) car sur sa tête, des aiguilles permettent de tracer des points sur le papier, mettant en forme des lettres et des graphismes. Il existe des imprimantes à 9 aiguilles, 12, 24, etc… Cette demande de marché a disparue au profit de l’imprimante matricielle aiguille rapide. C’est la seule imprimante sans technologie qui permette de faire de la multi copie grâce à du papier listing (11’’/12’’) à plusieurs couches.Les imprimantes à transfert thermique : On brûle le papier photo sensible à la chaleur ou à un rayon lumineux particulier pour former des caractères. Elles sont encore utilisées pour les tickets de carte bleue ou d’autoroute.Les imprimantes laser : le laser reçoit l’information qui doit être imprimée et va magnétiser le cylindre magnétique des caractères à inscrire. Celui-ci va tourner sur lui-même et atteindre le bac d’encre en poudre qui va se poser sur le cylindre aux points précis magnétisés. On atteint donc une très grande précision. Le cylindre va ensuite déposer l’encre sur le papier qui sera magnétisé pour attirer l’encre. Celle-ci sera fixée par chauffage de la feuille localement jusqu’à 200°C. L’impression est donc de qualité et inaltérable car l’encre a été figée de façon permanente sur le papier.Les imprimantes laser couleur : Le papier doit être passé quatre fois dans la base de couleurs primaires et le noir. Ces couleurs étaient fixées par magnétisation, comme la technique laser normal. La technique est ensuite passée à une passe au lieu de quatre, ce qui

Page 24: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

24

a multiplié par 4 dans l’imprimante les tambours magnétiques et les lasers. Il existe dans les technologies laser, lorsqu’on électrifie le tambour avec le laser, une autre façon de le faire par l’intermédiaire de diodes électroluminescentes : c’est la technologie LED développée par la marque OKI. Cela permet des imprimantes plus économiques.Les imprimantes à encre solide : C’est une technologie particulière de l’encre solide, à mi-chemin entre le laser et le jet d’encre. Il s’agit de petits bâtonnets d’encre solidifiés qui vont être liquéfiés par chauffage avant la projection du liquide sur un tambour contre lequel la feuille est ensuite pressée. De cette façon, l’encre ne pénètre pas dans les fibres du papier et on peut utiliser les supports les plus variés.Les imprimantes à jet d’encre : les premières étaient en noir et blanc et elles sont aujourd’hui en couleur. Les imprimantes à bulles d’encre ont été inventées par la société Canon : il s’agit de réchauffer l’encre fluide à l’aide de buse possédant leur propre élément chauffant pour projeter des bulles microscopiques afin de tracer des points sur le papier. Les imprimantes à jet d’encre utilisent des buses (contenant l’encre) avec une technologie piézoélectrique, soit chaque buse est associée à un quartz piézoélectrique qui va, lorsqu’on l’excite sur sa fréquence de résonnance, se déformer et presser la buse pour projeter la pointe d’encre.Les traceurs : ce sont des imprimantes spécifiques de grand format qui vont être utilisées de façon professionnelle par des architectes, ingénieurs, etc… elles utilisent une technologie jet d’encre et sont à même d’imprimer dans les deux sens. Cette imprimante comprend le format A1 ou A0 (1m20/85cm). L’entreprise HP est la première productrice de ces imprimantes, tandis que les marques Canon, Epson, Brother, etc… arrivent derrière. Il y a beaucoup de constructeurs qui n’ont pas de savoir faire dans l’impression, comme Dell.

L’impression laser est plus rapide que le jet d’encre et certaines imprimantes impriment couramment 50 pages à la minute. Les imprimantes jet d’encre induisent un modèle économique particulier : la machine ne coûte presque rien mais l’achat de cartouche s’élève au prix de celle-ci.

II.II. LLESES PROGRAMMESPROGRAMMES INFORMATIQUESINFORMATIQUES

1)1) LLESES DIFFÉRENTSDIFFÉRENTS LOGICIELSLOGICIELS

Le terme de logiciel évoque l’exploitation d’une liste ordonnée d’instruction décrivant les tâches à effectuer. Sur tout système informatique, il existe trois niveaux principaux de logiciels : le système d’exploitation, les langages de programmation et les programmes d’application. Ces trois niveaux s’empilent les uns sur les autres et il y a une interdépendance entre les niveaux.

Page 25: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

25

Le système d’exploitation : c’est un ensemble de programmes complexes et volumineux qui permettent d’utiliser les services disponibles sur la machine. Son rôle est d’assurer deux fonctions principales et distinctes : présenter une machine virtuelle à l’utilisateur et exploiter de façon efficace les ressources de l’ordinateur. On va donc convertir la machine réelle en une machine virtuelle, plus facilement exploitable par le plus grand nombre. Les ressources matérielles de l’ordinateur (mémoire, processeur, etc…) sont également logicielles. Pour classifier les systèmes d’exploitation, on utilise la notion de systèmes mono ou multiutilisateurs et mono ou multitâches. Le mono-tâche ne sait gérer qu’une seule tâche à la fois sur le matériel : on ne pourra donc faire fonctionner qu’un seul programme sur le même processeur de l’ordinateur. Au contraire, le système multitâche va savoir simultanément gérer plusieurs travaux à la fois qui vont être exécutés sur le processeur. MS DOS, le premier système d’exploitation de la société Microsoft, est un système mono-tâche. Les systèmes des micro-ordinateurs sont aujourd’hui multitâches. Le système multiutilisateur permet à plusieurs utilisateurs d’utiliser le même ordinateur et ceux-ci pourront lancer des travaux qui s’exécuteront sur le même processeur. Les PC portables sont tous mono-utilisateur, c’est-à-dire qu’on ne peut pas brancher de second terminal (écran, souris…) à l’unité centrale. Cette multi-utilisation est possible sur les PC bureau où l’unité centrale est distincte du terminal et donc capable d’en supporter plusieurs. Les ordinateurs multiutilisateurs sont obligatoirement multitâches. La coexistence de plusieurs programmes actifs en train d’être exécutés est particulièrement délicate à gérer et la méthode consiste à créer un processus pour chaque programme en cours d’exécution. Le processus pourra lui-même en générer d’autres.

Au niveau des sociétés de système d’exploitation informatique, la société Microsoft représente 80% du marché. Il a développé en 1981 le système MS DOS, qui va développer l’interface Windows 1, 2 et 3, mais est en concurrence avec Apple, qui dispose d’un système d’exploitation plus convivial. Il faut attendre 1995 pour voir apparaître Windows 95, qui fera apparaître pour la première barre des tâches sur le bureau. En 1998 suivra Windows 98. En 2000, le Windows Millénium sort mais il s’agit seulement du Windows 98 alourdit. Du fait de l’inefficacité du système, Microsoft est contraint de repasser à la version 98. Il va développer la version Windows NT pour le PC et Novell Network pour les

Page 26: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

26

serveurs. Le Windows 2000, sorti dans les années 2000, est rebaptisé Windows XP. Suivra Windows Vista et Windows 7 en 2010. Pour les serveurs, le système Novell Network a laissé la place au système 2000 serveur, 2003 serveur et 2008 serveur, qui est toujours utilisé aujourd’hui. La société Apple a développé le système d’exploitation MAC OS aujourd’hui en application. Son premier système d’exploitation était Unix. Le système d’exploitation Linux est né des recherches d’un étudiant finlandais Linus Torswald durant sa thèse, qui souhaitait créer une alternative aux systèmes Windows. Ce système s’est développé et est libre de droit. Cet étudiant est aujourd’hui président de la Communauté internationales Linux et continue à faire évoluer le système. IBM a conçu un système unique d’AIX. Un système propriétaire est un système écrit, créé par le constructeur du matériel et n’est compatible avec aucun autre système d’exploitation. Il est donc la propriété du constructeur. IBM équipe donc tous ses systèmes d’exploitation de système maison, propriétaires. Lorsqu’il est développé par le concepteur du matériel, le système propriétaire coûte excessivement cher, autant que la conception du matériel. Les micro-ordinateurs apparaissent en 1981 et, avant cela, tous les ordinateurs étaient équipés de systèmes d’exploitation propriétaire. Aucun n’était donc compatible avec une machine étrangère à l’entreprise.

2)2) LLESES LANGAGESLANGAGES DEDE PROGRAMMATIONPROGRAMMATION

Les langages de programmation : ce sont des langages utilisés par les concepteurs pour mettre au point des programmes informatiques. La machine ne comprend qu’un seul langage : le langage binaire. Il serait trop fastidieux de développer des programmes en langage binaire : des langages d’application se sont donc développés et se rapprochent de notre langage naturel tout en gardant une rigueur logique qui n’est pas forcément présente dans notre langage naturel. Les langages de programmation évoluent à ce qu’ils soient de plus en plus efficaces dans la production de logiciels, plus faciles d’emploi, plus proches de la langue d’origine. Un bon programme est un programme bien conçu, bien structuré pour qu’on puisse le faire évoluer, le maintenir et pour que d’autres personnes qui ne l’ont pas conçu puissent y entrer et le faire évoluer. Des phases de traduction du programme source écrit par le concepteur du logiciel qui est l’écriture des instructions dans le langage évolué correspondant. Ce programme source ne pourra pas être directement exécuté par l’ordinateur. Pour qu’il devienne un programme exécutable, il sera nécessaire d’utiliser un programme traducteur, qui va opérer la traduction de la source vers le programme exécutable. Ce programme traducteur existe selon deux modes : on parle alors d’interpréteur et de compilateur.Interpréteur : à chaque demande d’exécution du programme, le traducteur traduira le programme source en programme exécutable et l’exécutera. Il y a à chaque fois traduction du programme source en langage machine et exécution. On va donc devoir lire, traduire et exécuter.

Page 27: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

27

Compilateur : on traduit le programme source en programme exécutable une fois et de façon permanente. A chaque fois qu’on demande l’exécution du programme, il ne sera plus nécessaire de le traduire car le compilateur a fabriqué un programme exécutable de celui-ci et l’exécute. L’avantage est que l’exécution est plus rapide car la phase de traduction est éliminée. De plus, il protège les sources du créateur car le concepteur va vendre la version du compilateur, soit déjà traduite et le programme sera uniquement exécutable et non modifiable. Le plagiat est donc difficile. Aujourd’hui, la plupart des programmes sont des compilateurs car la puissance des machines permet une phase de traduction rapide. Le COBOL (gestion), le FORTRAN (scientifique), le BASIC (micro-informatique aujourd’hui appelé VISUAL BASIC), le PASCAL (apprentissage de la programmation avec conception de programmes structurés), le C (action sur la base du système), le C++ (programmation orientée objet) sont des langages de programmation apparus dans les années 50 et ont évolués jusqu’à aujourd’hui.

Il y a eu une évolution des différentes méthodes de modélisation et aujourd’hui, la méthode UML (Langage de modélisation unifié) domine. Il s’agit notamment de la référence en modélisation objet. Cette technique consiste à modéliser au niveau informatique les éléments du domaine, ou monde réel, en entité informatique.

Le langage html permet de définir des pages de document. Il est considéré comme un langage de programmation, cependant il ne définit que les structures logiques d’un document mais ne gère pas de programmes à proprement parler. Il permet de gérer la notion d’hypertexte et donc de lier une page à une autre. Sa particularité est d’être un langage interprété. C’est le navigateur internet qui devient moteur d’interprétation, de traduction. Seul le code source qui décrit la page (html) est transposé : le document n’est pas transmis sur le réseau tel quel. C’est donc seulement la source qui est envoyée et le traducteur internet va traduire et exécuter la page (interpréteur). Cette opération va donc être très rapide car elle ne concerne que des données légères.

De nouveaux langages sont apparus avec internet. Le langage Java a été créé vers les années 1990 et mis sur internet en 1995. Il s’inspire de C++ et permet, par rapport à html, de programmer des animations. Il va créer des modules spécifiques appelés applet qui vont compléter la page html. Ceux-ci sont transmis pour être exécutés par le traducteur internet. Les animations Java sont toutes indépendantes des plateformes, comme le langage html. Le langage est donc multiplateforme, ce qui signifie qu’il fonctionne quelque soit le traducteur utilisé. Le langage Java Script est un langage de script incorporé dans un document html. Il est plus léger que Java, plus facile d’emploi et directement écrit dans la page html : il n’y a donc pas de confidentialité au niveau du code source. Le langage php est un langage de script qui est interprété et exécuté du côté serveur et non du côté client.

La fonction xml consiste à décrire le contenu des documents de manière à en déterminer le type, la signification et le positionnement des données qui seront traitées dans la page. Ainsi, contrairement à html qui s’applique principalement au formatage de la page, xml sert aussi à afficher mais aussi à traiter les données. Avec le développement de services web xml, il permet une interopérabilité entre des applications déployées sur différentes plateformes matérielles et logicielles. Cela permet l’échange, la communication, le transfert et le traitement des données entre des plateformes différentes. Microsoft a développé une stratégie d’outil appelée Microsoft.NET. Il s’agit d’une suite

Page 28: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

28

d’outil langage permettant le développement d’applications logicielles : on y trouve Visual Basic.NET, C#, etc…

Les langages POST SCRIPT ou PCL constituent des langages plus rarement rencontrés. Le SQL est un outil permettant d’interroger les bases de données : c’est donc un langage réalisé pour manipuler les bases de données à l’aide de requêtes, de recherches. Ces langages sont non procéduraux, soit ils se bornent à émettre une demande, une requête, qui sera traitée par un autre programme. Au contraire, les langages procéduraux concernent la grande majorité des langages et permettent d’écrire un programme indiquant à la machine le but à atteindre et la manière d’y parvenir, soit la procédure à suivre. SQL ne formule que des requêtes, il est donc non procédural. De la même façon, les langages LISP, PROLOGUE sont déclaratifs et séparent les règles des faits auxquels elles s’appliquent. L’intérêt d’un tel système est de pouvoir changer quelques règles d’action sans bouleversement tout le système. Ces langages déclaratifs sont à la base des développements en intelligence artificielle. Ils ont été utilisés pour la première fois dans le domaine bancaire où les programmes possédaient le savoir financier de l’expert et prenaient la décision à la place de l’individu. Ils servent également à l’aide au diagnostique pour les médecins.

3)3) LLESES PROGRAMMESPROGRAMMES DD’’APPLICATIONAPPLICATION

Les progiciels standards : l’utilisateur est beaucoup plus actif, cela concerne par exemple les traitements de textes, les tableurs, les SGBD (Système de gestion de base de donnée), logiciel de présentation assisté par ordinateur… Avec ces outils, l’utilisateur doit s’investir dans le programme.

Logiciels d’application verticaux : ils vont traiter une activité du début à la fin. Il existe des logiciels par domaine d’activités, par fonctions à traiter dans l’entreprise. Des logiciels spécialisés vont par exemple traiter de la comptabilité de l’entreprise. Des logiciels de facturation seront également présents. L’entreprise qui vend le logiciel forme les utilisateurs qui sont ensuite pris en charge par le logiciel.

Les logiciels d’application spécifiques : lorsque l’on souhaite utiliser un logiciel pour informatiser des données qui ne le sont pas, il faut utiliser des prologiciels en cas de problème complexe. La seule solution est de faire fabriquer le programme d’application par une société de services : logiciel d’application spécifique. Cependant, les besoins de l’entreprise doivent être cernés correctement.

Les ERP : ce sont des progiciels de gestion intégrés. Il s’agit de programmes qui vont couvrir l’ensemble des activités de l’entreprise, de la production jusqu’au marketing. Tout est bâti autour d’un système d’information qui intègre l’ensemble des activités de l’entreprise. Cette notion ne s’applique qu’à de grosses structures (entreprises du CAC 40 vont vers les ERP). Les ERP sont nés autour des années 75 dans le domaine de la production industrielle et ont évolués pour devenir de plus gros logiciels. Lors de la mise en place d’un ERP dans une entreprise, celle-ci est réorganisée, les habitudes de travail et le personnel change.

Page 29: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

29

L’acquisition et la mise en place organisationnelle du logiciel provoque un coût important. On estime souvent que le coût du logiciel ne représente que 25% de l’investissement global. Le principal fournisseur d’ERP est une entreprise allemande produisant le logiciel SAP.

L’ASP : il s’agit de l’usage d’un fournisseur d’application logicielle hébergé. Ces fournisseurs de logiciels ne proposent pas d’acheter une licence mais de louer l’utilisation du logiciel sur leur serveur. On paie un droit au temps passé pour l’usage du logiciel. Le débit doit tout de même être important. Cette technique se développe avec la mise en place de la fibre optique.

La virtualisation : sur une même plateforme matérielle, on va installer un système d’exploitation puis on va en installer d’autres virtualisés. Des logiciels de virtualisation vont par exemple permettre d’installer Windows ou Linux sur un Mac. Les systèmes d’exploitation ne sont donc pas matériels, réels, mais virtuels. On virtualise également des serveurs les uns sur les autres.

Le cloud computing : « informatique dans les nuages » l’informatique se virtualise et se mondialise par les réseaux. Ce concept nouveau correspond à la mobilité des informations et à leur immatérialité.

Le navigateur internet s’ajoute au système d’exploitation.

4)4) LLESES VIRUSVIRUS ETET ANTIVIRUSANTIVIRUS

Les virus sont de petits programmes se situant dans le corps d’un autre. On distingue les virus résidants et les non résidants. Les résidants se chargent dans la mémoire vive de l’ordinateur (RAM) lors de l’exécution des programmes. Les virus non résidants vont infecter des programmes enregistrés dans le disque dur et se déclenche à un moment précis mais pas systématiquement. On les classe par mode d’infection et de propagation.

Les vers : ce sont des virus qui se propagent à travers le réseau. Ils s’auto-reproduisent sans avoir de support physique. Ils se propagent principalement grâce à la messagerie, notamment outlook.

Les chevaux de Troie ou Troyen : c’est un programme qui est caché dans un autre et qui va exécuter certaines tâches dans le but d’ouvrir une porte sur l’ordinateur et de l’envahir. Il peut notamment voler les mots de passe et les données personnelles. Son but n’est donc pas de se reproduire.

Les bombes logiques : Il s’agit de programmes qui vont se déclencher à un moment particulier et en exploitant la date du système. Il est non résidant, stocké sur le disque dur,

Page 30: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

30

et va se lancer à l’heure programmée. S’il n’a jamais eu d’actions, les antivirus ne peuvent pas l’identifier.

Les hoax, ou annonces : ces programmes vont annoncer l’infection d’un ordinateur alors que c’est faux, il s’agit de canulars.

Spyware : c’est un programme chargé de récupérer des informations sur l’ordinateur. Il va alors effectuer un profil d’utilisateur et envoyer à la société qui le diffuse les informations demandées.

Les enregistreurs de touches : c’est un dispositif d’espionnage qui peut par exemple voler les codes d’accès à un site ou les codes carte bleue par enregistrement des touches utilisées.

Les antivirus permettent de contrer ces programmes malveillants. Lorsque le virus est connu, l’antivirus va supprimer les lignes de programme correspondant au virus qui se trouve dans un fichier particulier. Suivant le type, on supprime le virus lui-même sans passer par les lignes de code. S’il s’agit d’un fichier système de l’ordinateur qui est infecté, supprimer le virus peut altérer le fonctionnement de la machine. Il faut donc le déplacer avant de le supprimer. Un fichier infecté peut également être mis en quarantaine : l’antivirus le renomme et le loge dans un dossier où il ne pourra être exécuté.

La difficulté est de détecter le virus : le programme antivirus va essayer d’identifier la suite d’octets qui compose le virus. Il s’agit d’une signature virale qui va permettre de signaler le virus. Cependant, les virus peuvent changer de signature et la base de l’antivirus doit donc se mettre à jour continuellement. Il existe des virus polymorphes, qui vont essayer de se camoufler de telle sorte que leur signature soit quasiment indétectable. Celle-ci est d’ailleurs changée régulièrement et de manière autonome. Les virus se logeant dans la zone d’amorçage du système, ou virus du secteur de voûte, sont plus rares. Lorsqu’un ordinateur démarre, il y a vérification de la carte mère et des composants avant mise en marche du système. Les virus se logent dans cet espace, ce qui oblige à réinstaller un système si la machine est infectée.

Page 31: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

31

CCHAPITREHAPITRE 2 2

L’L’ORGANISATIONORGANISATION DESDES SYSTÈMESSYSTÈMES INFORMATIQUESINFORMATIQUES

On passe de l’ordinateur monoposte au multiposte. Les premiers ordinateurs sont apparus après la Première Guerre mondiale. L’informatique est alors réservée aux grandes structures et administrations car elle est excessivement chère. La gestion de l’entreprise et la comptabilité entrent dans le domaine de l’informatique. Les systèmes sont informatisés. Matériellement, il y a une grosse unité centrale sur laquelle sont connectés des terminaux. Tout est concentré dans l’unité centrale et l’ensemble écran-clavier n’est que le reflet de la mémoire utilisée. On désigne les systèmes informatiques complexes allant d’une dizaine à un millier de terminaux comme des mainframes. Ils sont reliés à une unité centrale soit en local soit en distance via une ligne téléphonique ou spécialisée. Dans les années 80 apparaît le concept de micro-ordinateur, soit d’ordinateur individuel. Dans la décennie 80-90, il y a une forte croissance des ordinateurs avec le premier PC qui apparait en 1981. Les réseaux locaux permettent de connecter entre eux des ordinateurs afin de les faire communiquer. La connexion d’une imprimante sur un poste permet grâce au réseau d’imprimer les documents de plusieurs ordinateurs. En concentrant les données et les programmes sur un seul ordinateur branché en réseau, on obtient un serveur. Dans les premiers réseaux locaux, les serveurs étaient non dédiés, soit il s’agit d’un micro-ordinateur qui constitue le serveur mais sur lequel on peut travailler également : il est à la fois serveur et poste de travail. Cela constitue cependant un risque de perte de données en cas de blocage. Aujourd’hui, la majorité des réseaux sont conçus avec un serveur dédié, soit qui ne sert que de serveur et non de poste de travail, pour maximiser la sécurité des systèmes. La tendance des réseaux locaux est majoritaire aujourd’hui. On parle également de réseau poste à poste. Tous les ordinateurs sont alors reliés entre eux les uns aux autres.

Les ordinateurs sont généralement reliés par des câbles. D’autres dispositifs (switch, routeurs…) vont permettre la bonne circulation de l’information. Cette organisation matérielle est appelée topologie physique. On la distingue de la topologie logique du réseau qui représente la façon selon laquelle les données utilisent la topologie matérielle. Les topologies logiques les plus courantes sont par exemple internet.

Page 32: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

32

I.I. LLESES TOPOLOGIESTOPOLOGIES DD’’ORDINATEURORDINATEUR

1)1) LLESES TOPOLOGIESTOPOLOGIES PHYSIQUESPHYSIQUES

La topologie physique se décline de quatre façons :

La topologie bus : les ordinateurs sont reliés à un câble unique à l’aide de prises BNC et d’une résistance permettant d’équilibrer le flux de données sur le câble. La simplicité est un avantage, tandis que le peu de sécurité est un inconvénient sur ce système. En effet, en cas de problème sur le câble, tout le système est bloqué.

La topologie en étoile : chaque micro-ordinateur possède une paire de fils qui le relie aux autres dans une formation en étoile. Tous les fils sont reliés à un point central, concentrés en hub, soit dans un concentrateur. Ce boîtier permet la communication mais il arrive qu’il y ait une collision de données. En effet, dans un hub, les données ne sont pas directement adressées à un poste destinataire. On utilise aujourd’hui un switch, ou répartiteur, afin d’éviter ces problèmes. Celui-ci va identifier les données qui vont provenir de chaque poste et les envoyer au bon destinataire. Cette topologie est la plus utilisée aujourd’hui. Lors d’une panne sur un poste, seul ce poste est bloqué et cela ne plante pas le réseau. La sécurité est donc maximale, notamment avec un second switch prévu en cas de panne.

Page 33: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

33

La topologie en anneau ou réseau token ring : les ordinateurs sont reliés à un câble circulaire fermé. Il y a un jeton virtuel qui tourne sur l’anneau et qui va transporter des données aux différents postes du réseau. Sur l’anneau sont inscrites les adresses des ordinateurs destinataires

La topologie de réseau maillé : tous les postes sont reliés entre eux par des liaisons points à points. C’est la technologie propre au réseau internet.

Page 34: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

34

2)2) LLESES TOPOLOGIESTOPOLOGIES LOGIQUESLOGIQUES

Les topologies logiques du réseau se déclinent en :

Réseau token ring : cette technologie est basée sur un principe de communication autour de chaque ordinateur. Elle a la possibilité d’émettre des informations sur le réseau. Elle est aujourd’hui en perte de vitesse face à internet alors qu’elle s’était fortement développée dans les entreprises.

Réseau Ethernet : il se rapproche de la topologie bus et connecte donc les ordinateurs en réseau en série.

Réseau en étoile : il permet une vitesse très élevée : de 10 Mb, on passe à 100 Mb avant d’atteindre 1 Gb. Les réseaux filaires (câblés) ont aujourd’hui une vitesse d’1 Gb. Le switch doit être adapté à cette vitesse dans le réseau en étoile propre à internet.

FDDI : cela correspond à une évolution du réseau token ring câblé en fibre optique. Il permet donc de parcourir de grandes distances et engendre une grande rapidité.

Page 35: belgiman69.free.frbelgiman69.free.fr/1A/Informatique/Informatique20102011.…  · Web viewC’est un assemblage de circuits électroniques et éléments électromagnétiques (ex

Informatique

35

ATM : c’est une technologie grande distance qui permet une très grande vitesse puisqu’on dépasse le Gigabit. Elle permet d’établir les liaisons entre deux lieux éloignés.

Aujourd’hui, on utilise le plus souvent le réseau éthernet ou en étoile. Quand on parle de réseaux locaux, on parle de LAN (Local Area Network). Le WAN (World Area Network) et MAN (Metropolitan Area Network) sont considérés comme des réseaux internationaux ou régionaux. Le LAN est le plus souvent utilisé en entreprise ou dans le même établissement. Au contraire, le WAN est un réseau mondial à l’image d’internet.

La notion de VPN (Virtual Private Network) permet, via le réseau internet, de construire un tunnel entre deux ordinateurs qui vont former un réseau privé complètement sécurisé dans lequel on peut échanger des données. Les données vont donc utiliser le support logique d’internet mais seront dans un espace indépendant et sécurisé. C’est un système de tunnelisation. Pour cela, on utilise des routeurs qui permettent de créer des points d’attache entre deux réseaux. A l’origine, les routeurs permettent de sortir du réseau pour se connecter à internet. On relie les deux routeurs pour créer un tunnel. L’adresse IP du routeur est appelée la passerelle. Le pare-feu (fireware) a pour fonction de filtrer les données entrantes et sortantes et permet de sécuriser le transfert de données entre deux réseaux.

L’émulation de terminal permet, sur un micro-ordinateur, d’émuler un terminal, soit de le faire communiquer avec l’unité centrale principale. Cela permet de recréer un environnement informatique sur l’ordinateur. Par exemple, on peut ainsi créer un espace MAC sur un PC. Cette modélisation est une émulation. De la même façon, de nombreux émulateurs permettent d’intégrer un espace propre à une console de jeu sur l’ordinateur afin de l’utiliser, comme l’EmuleN64.

Le client léger est un concept informatique. On a aujourd’hui une tendance qui est de remplacer dans les entreprises les micro-ordinateurs par un boîtier appelé client léger. Il s’agit d’un micro-ordinateur allégé qui ne contient ni disque dur ni unité de stockage. Il sert à se connecter au serveur. Les programmes que l’on va utiliser ne vont pas être exécuté par le client léger mais dans le serveur de réseau. Il y a donc partage des ressources matérielles du réseau avec les différents clients légers. On revient donc à des systèmes centralisés.

Il y a 37,5 millions d’utilisateurs internet en France actuellement, dont 70% des français. Dans le monde entier, la population mondiale est de 6,5 milliard, et les utilisateurs représentent près d’un milliard.