148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

412
Architecture des réseaux haut débit cours, exercices et corrigés Kim-Loan Thaï Véronique Vèque Simon Znaty

Transcript of 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Page 1: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture des

réseaux haut débit cours, exercices et corrigés

Kim-Loan Thaï Véronique Vèque

Simon Znaty

Page 2: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 3: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 4: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 5: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture des réseaux haut débit

Page 6: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Collection dirigée par Pierre Rolin

EXTRAIT DU CATALOGUE GÉNÉRAL

Michael GRIFFITHS et Michel VAYSSADE, Architecture des systèmes d'exploitation, 2e édition, 1 9 9 0 .

Habib ABDULRAB, de Common Lisp à la programmation objet, 1 9 9 0 .

Robert OGOR et Robert RANNOU, Langage ADA et algorithmique, 2 E édition revue et

corrigée, 1 9 9 3 .

Ivan LAVALLÉE, Algorithmique parallèle et distribuée, 1 9 9 0 .

Jean-Pierre CHARDON et Dominique B l S S E Y , Télécommunications d'entreprise — techniques et organisation, 2 E édition revue et complétée, 1 9 9 2 .

Victor SANDOVAL, Technologie de l'EDI, 1 9 9 0 .

Xavier MARSAULT, Compression et cryptage des données multimédias, 2 E édition revue et augmentée, 1 9 9 5 .

Christian PÉLISSIER, UNIX— utilisation, administration système et réseau, 2 E édition revue et augmentée, 1995 .

Christian PÉLISSIER, Guide de sécurité des systèmes UNIX, 1 9 9 3 .

Jean-Louis JACQUEMIN, Informatique parallèle et systèmes multiprocesseurs, 1 9 9 3 .

Michel ADIBA et Christine COLLET, Objets et bases de données — le SGBDO2, 1 9 9 3 .

Radu HORAUD et Olivier MONGA, Vision par ordinateur, 2 E édition revue et augmentée, 1 9 9 5 .

Laurent TOUTAIN, Technique des réseaux locaux sous Unix — des protocoles à l'interconnexion, 1 9 9 4 .

Patrice BOURSIER et Pierre-Antoine TAUFOUR, La technologie multimédia, 2 E édition revue et augmentée, 1 9 9 4 .

Christian VAN HOUCKE, Le multimédia en entreprise, 1 9 9 4 .

Gérard DUPOIRIER, Technologie de la CED — techniques et management des documents électroniques, 2 E édition revue et augmentée, 1 9 9 5 .

Jean-François JODOUIN, Réseaux neuromimétiques — modèles et applications, 1 9 9 4 .

Jean-François JODOUIN, Les réseaux de neurones — principes et définitions, 1 9 9 4 .

Victor SANDOVAL, SGML — un outil pour la gestion électronique de documents, 1 9 9 4 .

Daniel CALI et Gabriel ZANY, Technologie de l'interconnexion de réseaux — méthodologies, marchés et évolutions, 1 9 9 4 .

Jean PELLAUMAIL, Pierre BOYER et Patrice LEGUESDRON, Réseaux ATM et P-simulation, 1 9 9 4 .

P i e r r e ROLIN, Réseaux haut débit, 1 9 9 5 .

Pierre ROLIN, Réseaux locaux — normes et protocoles, 5 E édition revue et augmentée, 1 9 9 5 .

Xavier LAGRANGE, Philippe GODLEWSKJ, Sami TABBANE, Réseaux GSM, 1 9 9 5 .

Pierre LECOY, Technologie des télécoms, 1 9 9 5 .

Page 7: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

réseaux et télécommunications

Architecture des réseaux haut débit cours, exercices et corrigés

Kim-Loan Thai Véronique Vèque

Simon Znaty

HERMES

Page 8: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

© Hermès, Paris, 1995

Editions Hermès 14, rue Lantiez 75017 Paris

ISBN 2-86601-494-4

Catalogage Electre-Bibliographie Thai, Kim Loan*Vèque, Véronique*Znaty, Simon Architecture des réseaux haut débit : cours, exercices et corrigés. -Paris : Hermès, 1995. - (Réseaux et télécommunications) ISBN 2-86601-494-4 RAMEAU : ordinateurs, réseaux d': architectures : manuels d'enseignement supérieur DEWEY : 621.62 : Physique appliquée. Systèmes, réseaux et services des

télécommunications

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une part, que les « copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective » et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'illustration, « toute représentation ou reproduction intégrale, ou partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est illicite » (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété intellectuelle.

Page 9: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

à nos parents,

à Kim-Mai et Anh,

à Christophe,

à Marianne et Edouard.

Page 10: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 11: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Table des matières

Introduction 1

Chapitre 1. Architecture en couches et normalisation 5

1.1. Introduction 5 1.2. Les réseaux 5

1.2.1. Classification 5 1.2.2. Applications 7

1.2.2.1. Applications des réseaux grande distance 7 1.2.2.2. Applications des réseaux locaux 8 1.2.2.3. Applications des réseaux métropolitains 8

1.2.3. Caractéristiques fonctionnelles 9 1.3. Les organismes de normalisation 10

1.3.1. Les organismes officiels internationaux 12 1.3.1.1. L'ISO 12 1.3.1.2. LUIT 13

1.3.2. Les organismes européens 13 1.3.3. Autres organismes 14

1.4. Le modèle de référence OSI 15 1.4.1. Concepts de base de la structuration en couches 16

1.4.1.1. Organisation des communications avec le modèle OSI. 16 1.4.1.2. Transfert de données 19

1.4.2. Définition des services 21 1.4.3. Description des couches 22

1.4.3.1. La couche physique 22 1.4.3.2. La couche liaison de données 23 1.4.3.3. La couche réseau 23 1.4.3.4. La couche transport 23 1.4.3.5. La couche session 23

Page 12: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

VIII Architecture des réseaux haut débit

1.4.3.6. La couche présentation 24 1.4.3.7. La couche application 24

1.5. L'architecture DoD et ses protocoles 24 1.6. L'administration de réseaux 26

1.6.1. Définition 26 1.6.2. Les normes d'administration 27

1.6.2.1. L'ISO 27 1.6.2.2. L'UIT-T 32 1.6.2.3. Le monde TCP/IP 32

Exercices 35

Chapitre 2. Caractéristiques générales des réseaux locaux et des réseaux métropolitains 37

2 .1 . Introduction 37 2.2. L'architecture IEEE 38 2.3. Supports de transmission 40

2 .3 .1 . Caractéristiques 40 2.3.2. Les paires torsadées 42 2.3.3. Le câble coaxial 44 2.3.4. La fibre optique 45 2.3.5. Supports non guidés 46

2.4. Topologies 47 2.4.1. L'étoile 47 2.4.2. Le bus 48 2.4 .3 . L'anneau 49

2.5. Les familles de contrôle d'accès 51 2.5.1. L'accès statique 51

2.5.1.1. Accès multiple à répartition dans le temps 51 2.5.1.2. Accès multiple avec répartition en fréquence 52

2.5.2. L'accès déterministe 53 2.5.2.1. Le polling 53 2.5.2.2. Accès par jeton 53

2.5.3. L'accès aléatoire 56 2.5.3.1. Le protocole Aloha 56 2.5.3.2. CSMA (Carrier Sense Multiple Access) 57 2.5.3.3. CSMA/CD (CSMA with Collision Detection) 58 2.5.3.4. CSMA/CA (CSMA with Collision Avoidance) 59

Exercices 60

Chapitre 3. Ethernet et Ethernet 100 Mbit 63

3 .1 . Introduction 63 3.1 .1 . Historique 63 3.1.2. Le standard 802.3 64

3.2. Le protocole MAC 65

Page 13: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Table des matières IX

3.2.1. Principe de fonctionnement de CSMA/CD 65 3.2.1.1. Transmission d'une trame 65 3.2.1.2. Détection des collisions 66 3.2.1.3. Reprise après collision 68 3.2.1.4. Réception d'une trame 68

3.2.2. Modèle fonctionnel de la couche MAC 68 3.2.3. Structure de la trame 70 3.2.4. Paramètres du protocole MAC 71

3.3. Service MAC 72 3.3.1. La primitive MA_DATA.request 73 3.3.2. La primitive MA_DATA.indication 73

3.4. La couche physique 74 3.4.1. Sous-couche PLS 74 3.4.2. Interface AUI 75 3.4.3. Fonctions de la MAU 75

3.5. Service PHY 76 3.5.1. Les primitives de service 76 3.5.2. Génération et effets 76

3.6. Les supports 77 3.6.1. Supports à base de câble coaxial 77 3.6.2. Les répéteurs 78 3.6.3. Supports à base de paires torsadées 79 3.6.4. Supports à base de fibre optique 81 3.6.5. Récapitulatif 82

3.7. Ethernet 100 Mbit/s 82 3.7.1. Fast Ethernet 83 3.7.2. lOOVGAnyLan 83 3.7.3. Ethernet Full Duplex 85 3.7.4. Ethernet isochrone 86

Exercices 87

Chapitre 4. Accès par jeton : Token Ring et Token Bus 89

4 . 1 . Introduction 89 4.2. Token Ring 90

4.2.1. Principe de l'accès à jeton 90 4.2.2. Structure du standard 802.5 91 4.2.3. Le protocole MAC 802.5 92

4.2.3.1. Les trames MAC 92 4.2.3.2. Transmission d'une trame de données 95 4.2.3.3. Remise du jeton et retrait de la trame 95 4.2.3.4. Automate de transmission 96 4.2.3.5. Réception 97 4.2.3.6. Niveaux de priorité 97 4.2.3.7. Les temporisateurs et les drapeaux 98

Page 14: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

X Architecture des réseaux haut débit

4.2.4. Protocole SMT et gestion des fautes 99

4.2.5. Services MAC 802.5 100 4.2.5.1. Service MAC pour la sous-couche LLC 100 4.2.5.2. Service MAC pour l'entité SMT 101

4.2.6. La couche physique 103 4.2.6.1. Composants de la couche physique 103 4.2.6.2. Rôle de la TCU 103 4.2.6.3. Le tampon de latence 104 4.2.6.4. Supports et câblage 104 4.2.6.5. Spécification des services PHY 105

4.3. Token Bus 106 4.3.1. Principe de l'accès à jeton sur bus 106

4 .3 .1 .1 . Anneau logique 106 4.3.1.2. Procédure de réveil 107 4.3.1.3. Initialisation de l'anneau logique 110 4.3.1.4. Retrait d'une station de l'anneau 110 4.3.1.5. Réception d 'une trame 110

4.3.2. Structure du standard 802.4 110 4.3.3. Le protocole MAC 802.4 111

4.3.3.1. Les trames MAC 111 4.3.3.2. Temps maximum de rotation du jeton et priorités 113 4.3.3.3. Gestion des fautes 114

4.3.4. Services MAC 802.4 115 4.3.4.1. Service MAC pour la sous-couche LLC 115 4.3.4.2. Service MAC pour l'entité SMT 116

4.3.5. La couche physique 118 4.3.5.1. Les supports 118 4.3.5.2. Le service PHY 118

Exercices 119

Chapitre 5. FDDI (Fiber Distributed Data Interface) 123

5 .1 . Introduction 123 5.2. Architecture d'une station FDDI 125 5.3. Définition d'un nœud FDDI 126 5.4. Fonctionnement du protocole FDDI 127

5.4.1. Données synchrones et asynchrones 128 5.4.2. Le jeton temporisé 129 5.4.3. Format des trames 131

5.4.3.1. La trame FDDI 131 5.4.3.2. Le jeton 133

5.4.4. Processus Claim 133 5.4.5. Fonctionnement normal 135 5.4.6. Processus Beacon 135

5.5. Services FDDI 136

Page 15: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Table des matières XI

5.5.1 Service MAC 137 5.5.2 Services PHY et PMD 137

5.6. Administration de FDDI 138 5.6.1. Blocs et entités SMT 139

5.6.1.1. Le bloc CMT 139 5.6.1.2. Le bloc RMT 140

5.6.2. Les services SMT 141 5.6.3. La MIB SMT 144

5.7. La couche physique 145 5.7.1. Couches PHY et PMD 145 5.7.2. Couche PMD et supports de FDDI 146

5.7.2.1. MMF-PMD 146 5.7.2.2. SMF-PMD 147 5.7.2.3. FDDI sur SONET 147 5.7.2.4. TP-PMD 147 5.7.2.5. LCF-PMD 148

5.8. Les dérivés 149 5.8.1 . FDDI II 149

5.8.1.1. Architecture de FDDI II 149 5.8.1.2. Mode de fonctionnement hybride 150

5.8.2. FFOL 151 Exercices 153

Chapitre 6 . DQDB (Distributed Queue Dual Bus) 157

6 .1 . Introduction 157 6.2. Architecture d'un nœud DQDB 159 6.3. Accès au support 160

6.3.1. Accès temporel synchrone 160 6.3.2. La cellule DQDB 161 6.3.3. Les trois classes de services 162

6.3.3.1. Le mode isochrone 162 6.3.3.2. Le mode asynchrone sans connexion 162 6.3.3.3. Le mode asynchrone avec connexion 163

6.3.4. Protocole de la file distribuée 163 6.3.5. Equilibrage de la charge (BandWidth Balancing) 167

6.4. Les unités de données du protocole DQDB 167 6.4.1. Fragmentation et encapsulations successives 167 6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit) 168 6.4.3. La DM-PDU (Derived MAC Protocol Data Unit) 171 6.4.4. Le segment 172

6.5. Le protocole DQDB 172 6.5.1. Fonction de convergence MAC (MCF) 173

6.5.1.1. Processus d'émission 173 6.5.1.2. Processus de réception 173

Page 16: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

XII Architecture des réseaux haut débit

6.5.2. Fonction de convergence isochrone (ICF) et entité fonctionnelle PAF 175

6.5.3. Fonction de convergence orientée connexion (COCF) 175 6.5.4. Fonctions communes (CF) 176

6.6. Les services DQQB 176 6.6.1. Primitives du service MAC 176 6.6.2. Primitives du service isochrone DQDB 177 6.6.3. Primitives du service de données asynchrones orienté connexion.. 177

6.7. La couche physique 178 6.7.1. Les différents supports 178 6.7.2. Le service physique 178

Exercices 180

Chapitre 7. LLC (Logical Link Control) 183

7.1 . Introduction 183 7.2. Services fournis à la couche réseau 184

7.2.1. Service sans connexion : LLC1 184 7.2.2. Service avec connexion : LLC2 185

7.2.2.1. Etablissement de connexion 186 7.2.2.2. Libération et refus de connexion 187 7.2.2.3. Transfert de données 188 7.2.2.4. Réinitialisation de connexion 189 7.2.2.5. Contrôle de flux 190

7.2.3. Service sans connexion avec acquittement : LLC3 191 7.2.3.1. Service avec remise garantie 191 7.2.3.2. Service de polling avec réponse garantie 192

7.3. Interface MAC/LLC 195 7.4. Protocoles LLC 196

7.4.1. Unités de données 196 7.4.2. Protocole LLC de type 1 197 7.4.3. Protocole LLC de type 2 198 7.4.4. Protocole LLC de type 3 198

Exercices 200

Chapitre 8. ATM (Asynchronous Transfer Mode) 203

8.1. Introduction 203 8.2. Nouveaux services et multimédia 203

8.2.1. Les services large bande 203 8.2.2. Caractéristiques des trafics multimédias 205

8.3. Le réseau large bande 207 8.3.1. Normalisation 207 8.3.2. Modes de transfert dans un réseau commuté 207

8.3.2.1. Le mode de transfert synchrone 208 8.3.2.2. Le mode de transfert asynchrone 208

Page 17: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Table des matières XIII

8.3.2.3. Choix de l 'ATM 209 8.3.3. Principes fondamentaux du mode ATM 210 8.3.4. Connexions ATM 211

8.3.4.1. Principe de la connexion virtuelle 211 8.3.4.2. Translation des valeurs de VCI 211 8.3.4.3. Le conduit virtuel 212 8.3.4.4. Commutation à deux niveaux 213 8.3.4.5. Exemple d'allocation de VCI/VPI dans un réseau ATM .. 213

8.3.5. Architecture du réseau large bande 215 8.3.5.1. Interfaces du RNIS-LB 215 8.3.5.2. Configuration de référence à l'UNI 216 8.3.5.3. Réseau de distribution 217 8.3.5.4. Réseau de commutation ATM 219 8.3.5.5. Réseau de transmission 220 8.3.5.6. Le système de transmission PDH 221 8.3.5.7. Le système de transmission SONET 222 8.3.5.8. Le système de transmission SDH 224 8.3.5.9. Le système de transmission en mode cellule 225

8.3.6. Modèle de référence du RNIS-LB 225 8.3.7. La gestion du réseau large bande 227

8.4. La couche PHY 229 8.4.1. Structure de la couche PHY 229 8.4.2. La sous-couche Physical Medium (PM) 230 8.4.3. La sous-couche Transmission Convergence (TC) 230

8.4.3.1. Fonctionnalités 230 8.4.3.2. Adaptation au système SDH 231 8.4.3.3. Adaptation au système PDH 232 8.4.3.4. Adaptation au mode cellule 232 8.4.3.5. Délimitation de cellules 233 8.4.3.6. Calcul et vérification du champ HEC 234 8.4.3.7. Adaptation de débit 234

8.4.4. Services de la couche PHY 235 8.5. La couche ATM 236

8.5.1. Fonctions de la couche ATM 236 8.5.2. Structure de l'en-tête de la cellule 236 8.5.3. La gestion des erreurs 238 8.5.4. Priorités 238 8.5.5. Type du contenu 239 8.5.6. Services de la couche ATM 239

8.6. La couche AAL 240 8.6.1. Rôle 240 8.6.2. Classification des services 241 8.6.3. Structuration de la couche AAL 242

8.6.3.1. La sous-couche SAR 242

Page 18: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

XIV Architecture des réseaux haul débit

8.6.3.2. La sous-couche CS 242 8.6.4. Mécanismes utilisés par l'AAL 242

8.6.4.1. Segmentation 243 8.6.4.2. Compensation de la gigue de cellule 243 8.6.4.3. Traitement des gains et pertes de cellules 244 8.6.4.4. Synchronisation des extrémités 244

8.6.5. Types d'AAL 245 8.6.6. AAL 1 246

8.6.6.1. Fonctions de la SAR 247 8.6.6.2. Fonctions de la CS 247

8.6.7. AAL 2 247 8.6.8. AAL 3/4 248

8.6.8.1. Fonctions de la SAR 249 8.6.8.2. Fonctions de la CPCS 250 8.6.8.3. Fonctions de la SSCS 251

8.6.9. AAL 5 252 8.6.9.1. Fonctions de la SAR 252 8.6.9.2. Fonctions de la CPCS 252 8.6.9.3. Fonctions de la SSCS 254 8.6.9.4. Comparaison AAL 3/4 et AAL 5 254

8.7. Réseau local ATM 255 8.7.1. Emulation de réseau local 255 8.7.2. Adaptation du format de la trame 256 8.7.3. Adressage 256 8.7.4. Service sans connexion et diffusion 257 8.7.5. Architecture et configuration du réseau local émulé 258 8.7.6. Format de la trame 260

8.8. Le contrôle de congestion 261 8.8.1. Les méthodes 261

8.8.1.1. Méthodes préventives 262 8.8.1.2. Méthodes réactives 262

8.8.2. Le contrôle de congestion dans le RNIS-LB 263 8.8.3. Gestion et réservation de ressources 264 8.8.4. Admission d'une nouvelle connexion 264 8.8.5. Contrôle d'entrée du trafic 265

8.8.5.1. Objectifs 265 8.8.5.2. Le mécanisme du seau percé (Leaky Bucket) 266 8.8.5.3. Le contrôleur-espaceur du CNET 267

8.8.6. Contrôle de priorité et destruction sélective des cellules 269 8.8.7. Gestion rapide de ressources 270 8.8.8. Notification de congestion 270

Exercices 272

Page 19: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Table des matières XV

Chapitre 9. Interconnexion 277

9 .1 . Introduction 277 9.2. Principes de l'interconnexion 278

9.2.1. Choix du niveau d'interconnexion 278 9.2.2. Techniques d'interconnexion 278 9.2.3. Classification des équipements d'interconnexion 279

9.3. Les répéteurs 279 9.4. Les ponts 280

9.4.1. Qu'est-ce qu'un pont ? 280 9.4.2. Apprentissage dynamique des adresses de routage 281 9.4.3. Les ponts MAC 802 282

9.4.3.1. Les standards IEEE 282 9.4.3.2. Architecture de pont 283 9.4.3.3. Service MAC du pont 284 9.4.3.4. Fonctionnement du pont 285 9.4.3.5. Préservation de la QoS 286

9.5. Les routeurs et l'interconnexion de niveau réseau 286 9.5.1. Introduction 286 9.5.2. Qu'est-ce qu'un routeur ? 287 9.5.3. Fonctionnement d'un routeur 287 9.5.4. Routeurs statiques et routeurs dynamiques 288 9.5.5. Le protocole Internet 288

9.5.5.1. L'adressage Internet 288 9.5.5.2. Encapsulations successives 289 9.5.5.3. Routage Internet 290 9.5.5.4. La datagramme IP 291 9.5.5.5. Service Internet 293 9.5.5.6. IPng et IPv6 294

9.6. SMDS (Switched Multimegabit Data Service) 295 9 .6 .1 . Définition 295 9.6.2. Le modèle d'interconnexion 295

9.6.2.1. Le modèle LEC 296 9.6.2.2. Le modèle SS 297

9.6.3. Fonctionnalités de SMDS 298 9.6.3.1. Les utilisateurs du service SMDS 298 9.6.3.2. Le transport de données 298 9.6.3.3. Le routage 298 9.6.3.4. Le contrôle de congestion 299 9.6.3.5. Le partage de charge 299 9.6.3.6. La gestion 300

9.6.4. Le protocole ISSIP 300 9.6.4.1. Niveau 3 du protocole ISSIP 300 9.6.4.2. Niveau 2 du protocole ISSIP 300 9.6.4.3. Niveau 1 du protocole ISSIP 301

Page 20: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

XVI Architecture des réseaux haut débit

9.7. Le relais de trames 301 9.7 .1 . Générali tés 301 9.7.2. La trame Frame Relay 301 9.7.3. Principe de l'adressage Relais de trames 303 9.7.4. Etablissement d'une connexion 303

Exercices 305

C o r r i g é s 309

Chapitre 1 309

Chapitre 2 313

Chapitre 3 320

Chapitre 4 323

Chapitre 5 328

Chapitre 6 334

Chapitre 7 336

Chapitre 8 340

Chapitre 9 348

B i b l i o g r a p h i e 363

Chapitre 1 363

Chapitre 2 365

Chapitre 3 367

Chapitre 4 368

Chapitre 5 368

Chapitre 6 369

Chapitre 7 370

Chapitre 8 370

Chapitre 9 372

Liste des acronymes 375

Index 383

Page 21: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Introduction

Administrer un pays, une collectivité, faire du commerce, fabriquer une automobile, réserver un voyage, importer des marchandises, gérer un compte bancaire... Toutes ces tâches de la vie professionnelle ou quotidienne nécessitent une collaboration entre de nombreux acteurs établis dans des entreprises, des administrations, voire des pays distincts. Pour collaborer, ces acteurs peuvent quelquefois se rencontrer mais communiquent le plus souvent à distance. Seule solution au départ, le courrier postal sert désormais de trace légale de la transaction une fois conclue tandis que pendant toute la phase de négociation et de mise au point, on lui préfère des services de télécommunication, plus rapides et plus interactifs. Le télégramme, le télex et bien sûr le téléphone consistent à envoyer des impulsions électriques codées sur un support électrique ; l'infrastructure de ces lignes couvrant toute la surface de la terre. Le téléphone a connu un succès énorme, à tel point qu'il est depuis longtemps possible d'effectuer toutes sortes de démarches sans bouger de chez soi.

Au fur et à mesure que les ordinateurs ont remplacé les êtres humains dans leurs tâches les plus répétitives, il a aussi fallu permettre à ces ordinateurs de communiquer à d is tance , de manière au tomat ique et rapide . Des télécommunications humaines, on passait à l 'ère de la téléinformatique et des réseaux d'ordinateurs, avec leurs contraintes propres. En effet, l'ordinateur ne peut comprendre qu'un nombre limité de commandes dans un cadre bien défini. La moindre interférence sur la ligne trouble le comportement de la machine destinataire car elle n'a pas la possibilité d'extrapoler. Aussi ont été développés les protocoles de communication qui définissent les règles d'échange entre ordinateurs et fiabilisent les échanges.

Les communications entre ordinateurs ont d'abord utilisé les infrastructures existantes : sur de grandes distances, le réseau téléphonique analogique, et au sein

Page 22: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 Architecture des réseaux haut débit

de l'entreprise, des lignes série reliant les terminaux à l'ordinateur de calcul. Très vite, l'utilisation du téléphone a présenté de nombreux inconvénients : tarification inadaptée, débits faibles, extrême sensibilité aux interférences électromagnétiques. Dès les années 70, de nombreux travaux ont été menés tant par les industriels que par les opérateurs de télécommunication pour développer des services publics adaptés à la transmission de données : les réseaux à commutation de paquets. Ces réseaux étaient révolutionnaires dans la mesure où ils structurent les données en paquets facilitant ainsi reprise sur erreur et multiplexage temporel, avec des débits nettement plus élevés et une tarification au volume tenant compte de l'activité discontinue du trafic de données.

Un peu plus tard, l 'essor de la micro-informatique, avec le remplacement progressif des terminaux d'ordinateur par des micro-ordinateurs puis par des stations de travail, a lui aussi révolutionné les réseaux d'entreprise. Par rapport à un simple terminal, un micro-ordinateur dispose d'un microprocesseur, d'un système et d'un disque, mais isolé, il perd certains avantages des réseaux centralisés où la communication et le partage de ressources sont aisés. L'interconnexion des stations de travail ou des micro-ordinateurs par un réseau local (LAN — Local Area Network) vise donc à retrouver les avantages des réseaux centralisés. Le contexte particulier des réseaux locaux a conduit à développer de nouvelles techniques. En effet, sur de courtes distances, le risque d'interférences est plus faible, le débit permis plus élevé, le raccordement en multipoint possible. Une autre caractéristique importante de ce type de réseau est qu'il reste dans le domaine privé de l'entreprise ; la notion de service n'est plus fondamentale comme dans le cas d'un opérateur. Les protocoles des réseaux locaux ont donc suivi une philosophie différente de celle des réseaux grande distance et sont souvent plus simples et plus efficaces.

A la fin des années 80, est apparu un troisième type de réseau, les réseaux métropolitains (MAN — Metropolitan Area Network) dont la taille est intermédiaire, à mi-chemin entre le réseau local et le réseau grande distance. Leur objectif est l 'interconnexion à haut débit (au-delà de la centaine de Mbit/s) de réseaux locaux, sur un site étendu, un campus par exemple, voire une ville. Ces réseaux métropolitains ont profité de l'expérience acquise avec les réseaux locaux et utilisent des techniques voisines. Toutefois, en plus du service de transfert de données informatiques, ils permettent de nouveaux services tels le transfert d'images ou le transfert de voix téléphonique numérisée.

Parallèlement, les réseaux grande distance ont eux aussi évolué. La numérisation de la parole par un procédé d'échantillonnage périodique du signal a conduit à la mise en place d'un nouveau réseau téléphonique complètement numérique offrant un service de transfert plus fiable, plus efficace, plus riche en fonctionnalités et plus rapide. La conséquence majeure est la possibilité d'intégrer sur un même réseau les services de transmission des données et de voix téléphonique. Le réseau numérique à intégration de services était né avec pour objectif d'offrir à terme un accès uniforme quel que soit le type de service demandé. Dans sa version large bande, ce concept sera généralisé puisqu'aux services de phonie et de données s'ajouteront les

Page 23: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 1

Architecture en couches et normalisation

1.1. Introduction

Comme nous allons le voir, il n 'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.

1.2. Les réseaux

1.2.1. Classification

La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la

Page 24: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Remerciements

De nombreux collègues et amis, membres de notre famille nous ont permis de mener à bien la rédaction de cet ouvrage.

Nous remercions tout d'abord Pascal Anelli, maître de conférences à l'Université Pierre et Marie Curie, pour sa disponibilité et ses conseils judicieux sur le chapitre 8.

Nous tenons à exprimer toute notre gratitude à Guy Pujolle, professeur à l'Université de Versailles, pour avoir su nous communiquer, par son enseignement et ses divers ouvrages, le goût des réseaux, et pour nous avoir encouragé dans les moments difficiles.

Nous témoignons une reconnaissance toute particulière à Pierre Rolin, professeur à l'ENST-Bretagne, pour sa confiance et son efficace travail de relecture.

Eric Horlait, professeur à l'Université Pierre et Marie Curie, et Ahmed Serhrouchni, maître de conférences à l'ENST, ont également accepté de nous relire. Qu'ils trouvent ici la marque de notre amitié.

Nous remercions également Bruno Bouton, chercheur à l'Université de Versailles, pour ses remarques pertinentes sur les exercices corrigés.

Enfin, nous remercions nos proches et les membres de nos familles pour le soutien, la compréhension et la patience dont ils ont fait preuve tout au long de la rédaction de cet ouvrage.

Kim-Loan THAI, Université Pierre et Marie Curie, Paris VI Véronique VÈQUE, Université Paris-Sud, Paris XI

Simon ZNATY, Ecole Polytechnique Fédérale de Lausanne

Page 25: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 1

Architecture en couches et normalisation

1.1. Introduction

Comme nous allons le voir, il n 'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.

1.2. Les réseaux

1.2.1. Classification

La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la

Page 26: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

6 Architecture des réseaux haut débit

couverture géographique du réseau. On distingue ainsi trois types de réseaux. Dans leur ordre d'apparition, ce sont :

- les réseaux grande distance (WAN — Wide Area Network), - les réseaux locaux (LAN — Local Area Network), - les réseaux métropolitains (MAN — Metropolitan Area Network).

Les réseaux grande distance ont un diamètre supérieur à 50 km et desservent des régions ou des pays entiers. Les réseaux téléphoniques commutés et les réseaux à commutation de paquets en sont des exemples. Historiquement, les réseaux grande distance sont apparus en premier. Ils répondent individuellement à un type de service. Leurs composants appartiennent à plusieurs organisations : les exploitants de réseaux publics (ou assimilés) et/ou les exploitants privés reconnus possèdent les moyens de transmission, tandis que les utilisateurs privés possèdent les équipements terminaux. La facturation des communications se fait généralement au volume de données transmises ou à la durée. Pour maintenir la connectivité sur une grande distance, ils utilisent une structure maillée composée de nœuds de commutation reliés entre eux par des liaisons. Les débits offerts sont généralement inférieurs au Mbit/s. Ces inconvénients disparaîtront avec le déploiement du futur réseau large bande.

Les réseaux locaux ne desservent qu'une seule organisation située dans un domaine privé dont la couverture géographique n'excède guère quelques kilomètres. Privés et gérés par l'organisation propriétaire, ils échappent donc aux contraintes d'un éventuel monopole des télécommunications comme à celles de la facturation. Apparus après les réseaux grande distance, ils ont profité de l'expérience acquise et du cadre particulier de la transmission sur de très courtes distances. Ainsi, le débit binaire nominal est au minimum de quelques Mbit/s et les équipements réseau se limitent au contrôleur de communication et au support de transmission. Les technologies utilisées permettent des taux d'erreurs beaucoup plus faibles que dans le cas des réseaux grande distance et une diffusion aisée de l'information.

Les réseaux métropolitains [Klessig 86] se situent, en termes d'étendue, à mi-chemin entre les réseaux locaux et les réseaux grande distance : ils desservent une zone de la taille d'une ville, de diamètre supérieur à 5 km mais inférieur à 50 km. L'objectif initialement visé est l 'interconnexion de réseaux locaux ; pour cette raison, les débits supportés sont souvent de l'ordre de la centaine de Mbit/s. Les équipements réseau peuvent appartenir à plusieurs organisations, privées (interconnexion d'un campus) et/ou publiques (s'ils traversent des voies publiques). Les réseaux métropolitains utilisent des technologies voisines de celles des réseaux locaux. Ils utilisent néanmoins de façon quasi systématique de la fibre optique pour augmenter les distances de transmission tout en maintenant un débit élevé. De plus, la fibre permet des taux d'erreurs encore plus faibles que ceux présentés par les réseaux locaux.

Page 27: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 7

Le tableau 1.1 indique le type de réseau utilisé en fonction de la distance et de la

localisation des processeurs ou des machines.

distance entre les processeurs

localisation des processeurs

type de réseau

0,1 m un circuit imprimé machine à flot de données

1 m un ordinateur multiprocesseur

10 m une salle réseau local

100 m un immeuble réseau local

1 km un campus réseau métropolitain

10 km une ville réseau métropolitain

100 km une région réseau grande distance

1 0 0 0 km un continent réseau grande distance

10 0 0 0 km la planète réseau grande distance satellite et câbles sous-marins

Tableau 1.1. Distances et types de réseaux

1.2.2. Applications

1 .2 .2 .1 . Applications des réseaux grande distance

Au départ, les premiers réseaux avaient pour but de permettre la communication entre personnes grâce au télégraphe, au téléphone et à la télédiffusion. Avec le développement de l'informatique, le besoin de communication entre les ordinateurs s'est fait sentir. Quel était l'intérêt de machines capables de traiter des millions d'informations mais de manière isolée, sans possibilité de recoupements ou de partage avec d'autres applications ? Il est d'autre part rapidement apparu que la saisie de données est l'opération la plus coûteuse d'un traitement informatique. Elle a donc été déportée au plus près de sa source : on parle de télésaisie. Par exemple, une agence bancaire saisit les opérations de ses clients qui sont traitées par les serveurs de la caisse régionale évitant ainsi le remplissage de formulaires saisis de nouveau dans le site central. La télésaisie s'est enrichie pour devenir un traitement à part entière avec l'interrogation à distance d'une base de données et la mise à jour de cette base. Le client de la banque a-t-il suffisamment d'argent sur son compte ? Oui : le compte est immédiatement débité du montant de son retrait. Le temps de réponse est primordial dans ce type d'application.

Le transfert de fichiers ou de grandes masses d'information est aussi une application classique des réseaux de télécommunication. Il n'a pas de caractère temps réel mais permet de traiter ultérieurement les données transférées ou encore de les sauvegarder sur un autre site. On privilégie ici la fiabilité du transfert.

Page 28: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

8 Architecture des réseaux haut débit

La communication entre utilisateurs d'un système informatique s'est développée sous forme de messagerie électronique rendant le même service qu'un courrier postal avec la rapidité en plus.

1.2.2.2. Applications des réseaux locaux

Les réseaux locaux sont nés des besoins de communication au sein d'une organisation (entreprise, administration, université, etc.) [Schatt 87]. Pour en comprendre l'utilité, il suffit d'imaginer le cas d'une seule imprimante disponible pour l'ensemble des ordinateurs d'un même service. La solution "réseau local" s'impose car il est impensable que chacun établisse une liaison physique de son ordinateur à l'imprimante ; de même, il serait aberrant de faire passer le document à imprimer dans un réseau public pour le faire arriver à l'imprimante qui se trouve à proximité. L'un des bénéfices majeurs offerts par le réseau local est le partage de ressources onéreuses (imprimantes, disques, accès aux réseaux grande distance, etc.). Le partage et l'échange d'informations entre systèmes est une raison supplémentaire d'interconnecter des équipements informatiques via un réseau local. En effet, un utilisateur travaille rarement seul et coupé de l'extérieur. Il a besoin de communiquer avec le reste de son environnement (messagerie, forum, etc.) : le réseau local offre un moyen de communication électronique entre les différents utilisateurs. Il peut avoir besoin, à un moment donné, d'accéder à de l'information située en divers endroits, tout comme plusieurs utilisateurs peuvent avoir besoin d'accéder au même fichier : le réseau local offre un accès partagé à l'information.

En environnement industriel, le réseau local constitue également un élément clé [Lepage 89]. Il y est surtout utilisé pour interconnecter divers équipements de contrôle et de mesure (capteurs, automates programmables industriels, robots, consoles de zone, etc.). Contrairement aux environnements bureautiques, l'exigence temps réel est forte, dans la mesure où les commandes et les mesures doivent être transmises dans un temps borné.

1.2.2.3. Applications des réseaux métropolitains

Un réseau métropolitain peut rendre les mêmes fonctionnalités qu'un réseau local. Par ailleurs, étant donné sa bande passante élevée et sa couverture géographique étendue, il peut être utilisé pour rendre d'autres types de services. Ses principales applications sont ainsi l'interconnexion de réseaux locaux, l'intégration des applications de voix et données et les communications multimédias.

Le réseau métropolitain peut interconnecter des réseaux locaux distants situés dans une aire métropolitaine, c'est-à-dire dans une aire dont le diamètre n'excède pas la centaine de kilomètres.

La large bande passante du réseau métropolitain et les fonctionnalités des protocoles mis en œuvre dans son architecture permettent de supporter aussi bien des applications classiques (données interactives, par exemple) que des applications sensibles au temps (voix ou vidéo, par exemple). De ce fait, le réseau métropolitain

Page 29: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 9

peut interconnecter des réseaux locaux voix/données au réseau numérique à intégration de services (RNIS) ou des PABX entre eux.

Pour ce qui est des applications multimédias — réputées pour être gourmandes en bande passante —, le RNIS intègre la voix, les données et les images, mais les débits offerts sont limités à 1,544 ou 2,048 Mbit/s. Le RNIS large bande (RNIS-LB) opère à des débits de 34, 155 ou 622 Mbit/s. Le réseau métropolitain est l'un des premiers réseaux à fournir l'infrastructure sous-jacente pour les services et réseaux large bande.

1.2.3. Caractéristiques fonctionnelles

Les réseaux de communication informatiques sont parfois désignés sous le terme de systèmes téléinformatiques. Un système téléinformatique est composé de plusieurs ordinateurs reliés entre eux par des moyens de télécommunication de manière à recueillir, traiter et diffuser l'information en temps réel et à tout endroit [Nussbaumer 87]. Les moyens de télécommunication, nous l'avons vu, sont de plusieurs types — réseau local, grande distance ou métropolitain — mais tous possèdent les mêmes caractéristiques fonctionnelles.

Lorsqu'une organisation se dote d'un système téléinformatique, ce dernier est généralement supposé satisfaire un certain nombre d'objectifs, tels que :

- améliorer la productivité du personnel par une automatisation de tâches

routinières ;

- faciliter la manipulation de l'information, la rendre plus accessible et éviter sa

duplication ;

- améliorer les interactions au sein du personnel, par le partage de

l'information ;

- réduire et contrôler les coûts, grâce à l'utilisation de méthodes de

communication efficaces.

Tous ces objectifs, joints à leur définition de base, permettent de définir les caractéristiques fonctionnelles des réseaux. Lesquels sont principalement :

- le partage et la diffusion aisés d'informations qui sont les objectifs

primordiaux des réseaux ; - la capacité, qui se définit par le débit que peut fournir le réseau de

télécommunication et le type d'information qu'il est capable de transporter (données, voix, images, voix téléphonique, etc.) ;

- la connectivité, qui mesure la facilité de raccordement physique des équipements au support de transmission ;

- le coût qui est fonction des l'infrastructure déployée, des communications de l'utilisateur (distance, durée et volume) et de la politique commerciale des opérateurs ;

Page 30: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 0 Architecture des réseaux haut débit

- la configuration, qui représente l'aptitude du réseau local à s'adapter aux

besoins de son propriétaire (déplacements, ajouts, retraits d'équipements) ;

- la f iabil i té , qui dépend à la fois de l 'environnement d'utilisation, des

équipements utilisés et des protocoles mis en œuvre ;

- la conf ident ia l i té des données transportées, assurée par des protocoles adéquats ;

- la disponibil ité qui mesure l'adéquation entre les équipements ou ressources mis en œuvre par rapport à leur utilisation ;

- l ' interconnexion de réseaux de types différents : local /grande distance, public/privé, de pays différents.

A titre anecdotique, le tableau 1.2 donne la liste des objectifs ayant guidé la

conception du réseau local Ethernet [DEC 80] . Il est intéressant de constater que

certains ont été aujourd'hui largement dépassés (débits, distances) et que d'autres

n'ont jamais été atteints (stabilité à forte charge) !

simplicité utilisation des mécanismes les plus simples possibles

coût modéré du raccordement au réseau

compatibilité de toutes les implantations pour ce qui est du transfert de données au niveau liaison

flexibilité de l'adressage pour supporter les envois de trame en point-à-point ou en point-à-multipoint (multicast et broadcast)

équitabilité de l'accès pour tous les équipements

débit 10 Mbit/s

délai de transfert aussi faible que possible

stabilité sous forte charge

maintenance, reconfiguration facilitées

architecture en couches pour séparer les aspects physiques des aspects logiques

distances géographiques couvrant au plus 1 km

nombre d'équipements supportés plusieurs centaines

T a b l e a u 1.2. Objectifs initiaux d'Ethernet

1.3. Les organismes de normalisation

Les télécommunications constituent un secteur industriel dont l'ampleur ne cesse

de croître, tant au niveau du revenu généré annuellement qu'au niveau de son impact

Page 31: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 1 1

sur tous les aspects de la vie professionnelle et domestique. La normalisation dans les télécommunications est devenue très vite indispensable, si l'on veut pouvoir :

- faciliter l'interconnexion et la communication entre différents utilisateurs ;

- faciliter la portabilité d'équipements fonctionnellement — dans des applications différentes — et géographiquement — dans des régions différentes. Là, le fournisseur est directement concerné puisque la taille du marché augmentant, elle donne lieu à un coût moindre du fait des économies d'échelle ;

- assurer qu'un équipement d'un vendeur A soit à même d'interopérer avec un équipement d'un vendeur B. Cela profite directement à l'utilisateur, qui peut ainsi mettre en place des environnements compétitifs.

Le chemin vers la production de normes globales n'est pas aisé. Aujourd'hui encore, il est difficile de se retrouver dans la multitude d'organismes dits "de normalisation". Aux côtés des organismes officiels, sont apparues des organisations de nature diverse qui concourent, plus ou moins directement à ce processus de normalisation, avec la production de "standards", de "recommandations", de "profils", etc. Afin de gérer au mieux les conflits d'intérêt qui se dessinent en toile de fond, les organismes de normalisation officiels se concentrent essentiellement sur la production de normes de base. Ces normes autorisent la mise en œuvre de variantes et d'alternatives dont le choix relève de l'implémenteur. Ceci a pour conséquence que la réalisation, bien que conforme à la norme, n'est pas assurée de pouvoir interfonctionner avec une réalisation issue d'un autre choix. Le problème de l'interfonctionnement est généralement traité par des organismes régionaux, bien souvent des groupements d'utilisateurs ou de constructeurs. Ceux-ci adaptent les normes internationales de base selon des besoins propres et produisent des profils fonctionnels qui ne contiennent qu'un sous-ensemble limité des variantes autorisées. En aval de ce processus, d'autres organisations réalisent des tests de conformité et d'interfonctionnement visant à garantir qu'un équipement est conforme à un profil fonctionnel et qu'il est capable d'interfonctionnement (figure 1.1).

n o r m e s d e b a s e

o r g a n i s m e s d e

n o r m a l i s a t i o n

i n t e r n a t i o n a u x

g r o u p e m e n t s d ' u t i l i s a t e u r s p r o f i l s

f o n c t i o n n e l s

o r g a n i s m e s d e n o r m a l i s a t i o n

r é g i o n a u x

g r o u p e m e n t s d e c o n s t r u c t e u r s

o r g a n i s a t i o n s

d e t e s t

t e s t s d e c o n f o r m i t é

F i g u r e 1.1. Normalisation et acteurs

Page 32: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 2 Architecture des réseaux haut débit

Le processus de normalisation n'est pas sans poser de problèmes. Pour ne citer que le principal, l'élaboration d'une norme demande un certain temps — pour ne pas dire un temps certain (plusieurs années), nécessaire pour obtenir un consensus des différents acteurs. Des techniques plus efficaces peuvent apparaître entre temps. Des standards de facto, reposant sur des solutions propriétaires, voient alors le jour bien avant les normes internationales, d'où une coexistence qui n'est pas toujours harmonieuse pour l'utilisateur.

1.3.1. Les organismes officiels internationaux

Ils sont au nombre de trois et sont :

- l'ISO (International Organization for Standardization), - le CEI (Comité Electrotechnique International), - l'UIT (Union Internationale des Télécommunications).

1.3.1.1. L'ISO

L'ISO, fondée en 1946, est chargée de la normalisation dans un éventail très large de secteurs, mais ne couvrant pas l'électronique, l'électricité et l'électrotechnique qui sont prises en charge par le CEI. Elle regroupe des organisations nationales non gouvernementales comme l'AFNOR (Association Française de Normalisation) pour la France et l'ANSI (American National Standards Institute) pour les Etats-Unis, ainsi que des organisations jouant le rôle d'observateurs et ne prenant pas part aux votes (telle l'ECMA (European Computer Manufacturer Association), association regroupant des constructeurs informatiques — à l'origine européens, mais aujourd'hui pratiquement tous les grands internationaux).

L'ISO est organisée de façon hiérarchique avec des comités techniques (TC — Technical Committee) au premier niveau, découpés en sous-comités (SC — Sub Committee), eux-mêmes découpés en groupes de travail (WG — Working Group). Ainsi les normes afférentes au modèle de référence OSI et à ses couches sont issues du comité technique TC 97 travaillant sur les systèmes d'information. Un comité technique joint, le JTC 1, a été créé en 1987 sur la technologie de l'information avec le CEI, étant donné le recouvrement des centres d'intérêt. Les normes issues du JTC 1 portent donc le double-logo de l'ISO et du CEI, y compris celles relatives au modèle OSI. A noter que le membre représentatif d'un pays au CEI est souvent le même qu'à l'ISO.

Le processus d'élaboration d'une norme est long (cinq ans, en moyenne) et passe par plusieurs phases (WD — Working Document, CD — Committee Draft, DIS — Draft International Standard) avant d'aboutir à un document définitif (IS — International Standard).

Page 33: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 1 3

1.3.1.2. LUIT

L'UIT est l'organisation internationale intergouvernementale compétente en télécommunications. Elle fonctionne sous l'égide de l'Organisation des Nations Unies et ses membres représentent les Etats. Pour le secteur qui nous intéresse, l'UIT-T (Telecommunication Standardization Sector, ex-CCITT) rassemble les administrations des télécommunications des pays membres de I'UIT et des exploitants (publics ou privés) mandatés, auxquels viennent d'ajouter des organisations régionales ou sectorielles. Le représentant français est France Télécom, le représentant américain le Département d'Etat.

L'UIT-T est organisée en groupes de travail (SG — Study Group). Lors d'assemblées plénières qui se tiennent tous les quatre ans, les différents groupes soumettent les "questions" posées par leurs membres. Ces questions sont évaluées et affectées aux groupes adéquats. Cela permet de planifier le travail de normalisation pour les quatre années à venir. Chaque groupe prépare ensuite une proposition d'avis, qui sera votée lors de la prochaine assemblée. Cette procédure d'adoption a donné lieu à la parution, tous les quatre ans, d'un Livre (jaune en 1980, rouge en 1984, bleu en 1988) regroupant tous les avis promulgués. A ce cycle de quatre ans est venue s'ajouter en 1988 une seconde procédure d'adoption, plus souple et plus rapide, qui permet d'adopter un avis avec 70% de votes favorables et sans devoir attendre l'assemblée plénière.

1.3.2. Les organismes européens

A l'échelle européenne, plusieurs organisations traitent de la normalisation dans les domaines du traitement et de la technologie de l'information. On peut citer :

- le CEN (Comité Européen de Normalisation) regroupe l'ensemble des pays européens (CEE et AELE). De même nature que l'ISO, il prépare et harmonise la normalisation au niveau européen pour tous les domaines techniques, exceptés ceux de l'électrotechnique et des télécommunications ;

- le CENELEC (Comité Européen de Normalisation Electrotechnique) traite, comme le CEI, d'électrotechnique, mais au niveau européen. Il rassemble les comités nationaux d'électrotechnique des pays de la CEE et de l'AELE. Le CEN et le CENELEC se sont rapprochés dans le secteur de la technologie de l'information pour former le CEN/CENELEC (de la même façon que l'on a le JTC 1 de l'ISO/CEI) ;

- la CEPT (Conférence Européenne des Postes et des Télécommunications) regroupe les administrations des télécommunications des pays européens. Elle établit les normes européennes et unifie les positions de ses membres auprès de l'UIT-T ;

- l'ETSI (European Telecommunications Standard Institute) est un organisme permanent, créé à l'initiative des administrations de télécommunications européennes. Il est principalement chargé de produire des spécifications techniques pour les réseaux publics.

Page 34: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 4 Architecture des réseaux haut débit

1.3.3. Autres organismes

Outre les organisations officielles — internationales, continentales ou nationales —, il convient de mentionner les organismes ou associations qui jouent un rôle également important en matière de normalisation, tout aussi bien en amont du processus de normalisation, en élaborant des spécifications qui sont susceptibles de constituer des standards de facto, voire même d'être reprises par les organismes officiels, qu'en aval, en promouvant les normes. Il est difficile d'en dresser une liste complète, et nous nous limiterons donc à ne citer que les plus significatifs, pour ce qui concerne le thème de l'ouvrage :

- l'IEEE (Institute of Electrical and Electronic Engineers) est une organisation professionnelle, dont les membres (principalement américains et d'origine industrielle aussi bien qu'académique) le sont à titre privé. C'est un forum d'échange et de réflexion qui constitue également un organisme de proposition ayant élaboré bon nombre de standards universellement utilisés : notamment, son comité 802 est à l'origine de la plupart des normes aujourd'hui officielles quant aux réseaux locaux et étendus ;

- l'EIA (Electronic Industries Association) est une association professionnelle américaine qui se distingue par l'élaboration de standards dans le secteur du matériel et des composants électriques et électroniques (la célèbre "prise" RS-232C !) ;

- ATM Forum est une organisation internationale, créée en 1991 et regroupant des opérateurs de télécommunications, des constructeurs, des fournisseurs, ainsi que des utilisateurs. Son but est d'accélérer le déploiement des services et produits ATM, en essayant d'obtenir rapidement une convergence des spécifications d'interopérabilité ;

- MAP (Manufacturing Automation Protocol) et TOP (Technical and Office Protocol) sont des groupements d'utilisateurs, le premier initié par General Motors, le second par Boeing, qui ont pour principal objectif d'établir des profils fonctionnels respectivement en environnement industriel et en environnement bureautique ;

- SPAG (Standards Promotion and Application Group) est un groupement de constructeurs européens ayant pour vocation de produire des profils fonctionnels autour du modèle OSI qui seront observés par les membres du groupe ;

- COS (Corporation for Open Systems) s'est monté en 1986. C'est un groupement de constructeurs et d'utilisateurs du monde entier qui s'est donné pour objectif de promouvoir les produits multi-vendeurs conformes aux normes internationales relatives à l'OSI et au RNIS. Une activité importante est dédiée au développement d'un ensemble cohérent de méthodes de test et de certification.

Page 35: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 1 5

1.4. Le modèle de référence OSI

Le modèle de référence pour l'interconnexion des systèmes ouverts, plus connu sous le nom de modèle OSI (Open Systems Interconnection), est le fruit de travaux entrepris par l'ISO pour répondre au problème de l'interconnexion de systèmes hétérogènes. Les architectures de communication existantes jusqu'alors étaient principalement des architectures dites "constructeur", qui, si elles permettaient à des systèmes informatiques provenant d'un même constructeur de communiquer entre eux, pouvaient créer des barrières entre systèmes de familles différentes. Dans la terminologie OSI, un système est dit ouvert lorsqu'il permet la communication entre équipements et logiciels de types différents, du moment que ces derniers sont conformes à l'ensemble des normes définies dans le cadre du modèle OSI.

L'objectif de la normalisation OSI est de permettre la constitution de réseaux téléinformatiques dans lesquels peut venir s'intégrer tout système informatique capable d'effectuer des traitements et/ou des transferts d'information. Les normes OSI, contrôlées à un niveau international, ont pour rôle de simplifier l'interconnexion des systèmes tout en préservant l'indépendance des échanges d'information vis-à-vis du milieu de transmission utilisé. Ainsi, elles se limitent à spécifier les fonctions à réaliser par chaque système et les protocoles à mettre en œuvre entre les systèmes à interconnecter. Elles n'imposent en aucune façon une technologie particulière ou un mode de réalisation donné pour ces mêmes fonctions et protocoles : seul est spécifié le comportement des systèmes lors d'échanges avec d'autres systèmes ouverts, et non pas leur fonctionnement interne (langages de programmation, systèmes d'exploitation, interfaces d'application, interfaces utilisateur, etc.).

Le modèle OSI définit l'architecture en sept couches conjointement adoptée par l'ISO et le CCITT en 1983. Cette décomposition en sept couches résulte d'un compromis : une première contrainte était d'éviter la prolifération de couches, une seconde était de limiter les fonctions à réaliser dans une couche aux fonctions possédant le même niveau d'abstraction ou s'appliquant à un même contexte. Cette structuration en couches a donc l'avantage non seulement de simplifier la compréhension globale de l'architecture de communication, mais également de simplifier sa mise en œuvre : les interfaces entre couches ont été choisies aussi simples que possible et de façon à ce qu'une modification portant sur une fonction ou un protocole d'une couche donnée n'affecte pas les autres couches. Les sept couches du modèle OSI sont les suivantes :

- couche 1 : physique, - couche 2 : liaison de données, - couche 3 : réseau, - couche 4 : transport, - couche 5 : session, - couche 6 : présentation, - couche 7 : application.

Page 36: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 6 Architecture des réseaux haut débit

Les normes OSI se séparent en deux familles, d'une part les normes d'usage général qui servent à fixer une terminologie, à définir des concepts de base et à établir des règles d'utilisation de ces concepts et d'autre part, les normes spécifiques qui s'adressent à des points précis définis dans les normes d'usage général.

Le modèle de référence OSI de base est décrit dans la recommandation X.200 du CCITT et dans la norme internationale IS 7498, composée de quatre parties auxquelles sont adjoints deux addendums :

- IS 7498-1 : Modèle de référence OSI [IS 7498-1] - IS 7498-2 : Architecture de sécurité [IS 7498-2] - IS 7498-3 : Dénomination et adressage [IS 7498-3] - IS 7498-4 : Gestion OSI — Administration de réseau [IS 7498-4] - Ad 1 : Transmission de données en mode sans connexion - Ad 2 : Transmission de données en multipoint (diffusion)

Nous présentons dans la suite les concepts généraux de la structuration en couches et donnons par la même occasion quelques définitions propres à la terminologie OSI. Nous présenterons ensuite la notion de service, avant de donner une description des sept couches.

1.4.1. Concepts de base de la structuration en couches

Les concepts de la structuration en couches du modèle OSI peuvent être classés en deux catégories : ceux portant sur l'organisation des communications et ceux portant sur le transfert de données.

1.4.1.1. Organisation des communications avec le modèle OSI

Chaque couche de rang N, dite couche (N), utilise les services (N-l) de la couche immédiatement inférieure de rang N- l , pour offrir les services (N) à la couche immédiatement supérieure de rang N+l (sauf, bien entendu, les couches d'extrémité). La couche (N-l) est dite fournisseur des senices (N-l) alors que la couche (N) est dite utilisateur des senices (N-l) (figure 1.2).

couche (N+1 ) utilisateur du

couche(N) fournisseur du

utilisateur du -

? servie (N)

couche (N-1 ) fournisseur du

service (N-l)

*

Figure 1.2. Modèle de service en couches

Page 37: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 1 7

Une couche (N) peut comporter plusieurs sous-systèmes (N), chacun d'eux pouvant à son tour se décomposer en plusieurs entités (N) (figure 1.3). Les entités représentent les éléments actifs du sous-système ; ce sont elles qui réalisent les fonctions du sous-système.

système ouvert système ouvert système ouvert

A B Ç couche de plus haut niveau

couche (N+1 ) sous-système (N+1) de A

sous-système (N+1) de B

sous-système (N+1) de C

couche (N) sous-système

(N) de A sous-système

(N) de B sous-système

(N) de C

couche(N-l) sous-système (N-l) de A

sous-système (N-l) de B

sous-système (N-l) de C

couche de plus bas niveau

support physique d'interconnexion

Figure 1.3. Systèmes ouverts, sous-systèmes et couches

Le service (N) est assuré par les entités (N), dites entités homologues. Les entités (N) communiquent et coopèrent entre elles selon un protocole (N) au travers de l'ensemble des services fournis par la couche (N-l) . Les entités accèdent aux services (N-l) à partir de points d'accès à des services (N-l) appelés (N-l )SAP

(Service Access Point) (figure 1.4). Chaque point d'accès (N) est identifié par une adresse de (N)SAP. Chaque (N)SAP ne peut être servi que par une seule entité (N) et ne peut servir qu'une seule entité (N+1). De façon dissymétrique, une entité (N) peut servir plusieurs (N)SAP et peut être servie à partir de plusieurs (N-l)SAP.

service (N)

(N)SAP

couche(N) entité (N) entité (N)

service (N-l) •

(N-l)SAP

Figure 1.4. Modèle général d'une couche

Page 38: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

I 8 Architecture des réseaux haut débit

Il est important de bien faire la distinction entre service et protocole. La notion de service correspond à une vision "verticale" du modèle OSI. dans le sens où elle met en jeu deux couches adjacentes, la couche inférieure fournissant le service et la couche supérieure l'utilisant. La notion de protocole, par contre, correspond à une vision "horizontale" du modèle de référence, puisqu'elle ne s'applique qu'aux échanges entre entités de même couche. Il y a découplage entre service et protocole.

Les entités (N+l) peuvent communiquer en établissant une connexion (N), terminée par des points d'extrémité de connexion (N) appelés (N)CEP (Connection End-Point) et qui sont situés chacun dans un (N)SAP. L'échange d'information entre ces entités (N+l) est régi par un protocole (N+l) et la communication est dite en mode connecté (figure 1.5).

couche (N+l) entité (N)+l protocole (N+l) entité (N+l)

service (N)

couche (N) - (N)SAP N(CEP)'

connexion (N)

Figure 1.5. Communication en mode connecté

Le modèle OSI a été initialement conçu pour le mode connecté, c'est-à-dire pour que la communication entre entités de même rang se fasse sous la forme de connexion logique. Selon l'approche du mode connecté, pour que deux usagers distants puissent communiquer, il faut commencer par établir une connexion au niveau le plus bas, le niveau physique, puis établir une connexion au niveau suivant, le niveau liaison de données, et ainsi de suite jusqu'au niveau le plus haut, le niveau application. Cette phase d'établissement de connexion correspond en fait à une négociation tripartite entre deux entités (N+l ) et le service (N), ce dernier devant établir la connexion (N) souhaitée par les deux premières. Elle sert à fixer un certain nombre de caractéristiques de la communication, telles que l'identité des correspondants, le protocole (N) à suivre, les services optionnels à utiliser, ou encore les paramètres de qualité de service. Après cette phase d'établissement, la connexion entre dans la phase de transfert de données pendant laquelle est échangée l'information utile entre les deux entités (N+l) . Toute cette information, structurée en blocs de données d'après le protocole (N), suit la route logique qui a été établie lors de la phase d'établissement. La communication s'achève ensuite par une phase de libération de connexion. Cette phase correspond à une libération des ressources mobilisées par la communication et à une rupture du dialogue entre les deux entités (N+l ) communicantes.

Page 39: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 19

Ce mode de communication comportant les trois phases d'établissement de connexion, de transfert de données et de libération de connexion possède plusieurs avantages : citons, entre autres, le fait d'offrir une négociation - entre les trois acteurs au moment de l'établissement de la connexion ou également le fait d'assurer un transfert de données fiable, dans la mesure où ce mode offre la possibilité de réguler le flux d'information échangé, de détecter les blocs de données manquants, en double ou déséquencés. Ce mode permet, de plus, de minimiser le volume d'information de contrôle à échanger pendant la phase de transfert de données. Si le mode connecté possède des avantages, il n'en présente pas moins des inconvénients. Tout d'abord, il nécessite la mise en œuvre de procédures très lourdes pour l'établissement et la libération des connexions, ainsi que la présence simultanée des correspondants. Il ne s'avère donc pas adéquat pour le transfert de messages isolés dans le temps. Par ailleurs, la notion de connexion, très bien adaptée aux communications en bipoint avec deux entités communicantes, convient mal dès qu'il s'agit de faire communiquer plus de deux entités.

C'est à la suite de ces considérations que l'ISO a entrepris des travaux sur les communications en mode non connecté ou datagramme. Ils ont abouti à l'additif 1 de la norme ISO 7498. Le modèle OSI en mode non connecté reprend les mêmes principes que le modèle de base en mode connecté, pour ce qui est de la structuration en couches et des fonctions de base. La principale différence repose sur le fait que les blocs de données, au lieu d'être véhiculés dépendamment les uns des autres pendant la phase de transfert, sont acheminés de façon tout à fait indépendante. Ils doivent par conséquent comporter toute l'information de contrôle nécessaire à leur acheminement vers leur destinataire. Par ailleurs, en mode non connecté, il n'y a ni établissement, ni libération de connexion. Cela implique qu'une communication entre entités (N+l) ne nécessite pas au préalable l'existence d'une communication entre entités (N). De même, il n'y a pas de négociation tripartite entre les deux entités (N+l) et le service (N). A la place, nous trouvons un type de négociation plus simple, bilatéral, puisque ne mettant en cause que deux intervenants : une entité (N+l) et le service (N), ou deux entités (N+l) . En mode non connecté, les blocs de données étant acheminés indépendamment les uns des autres, il n'est pas toujours possible de fiabiliser le transfert de données ; en particulier, les pertes, les duplications et le déséquencement des blocs de données sont possibles.

Pour terminer sur les deux modes de communication, on notera qu'une architecture mixte est souvent utilisée, dans laquelle par exemple un service non connecté (N) est construit au-dessus d'un service connecté (N-l) , ou l'inverse.

1.4 .1 .2 . Transfert de données

Nous avons vu que deux entités (N) peuvent communiquer en utilisant le service (N-l) offert par la couche inférieure, l'échange de données étant régi par le protocole (N). Ce dernier spécifie l'ensemble des règles et des formats utilisés pour la communication.

Page 40: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 0 Architecture des réseaux haut débit

Le service (N-1 ) assure le transfert d'unités de données de service (N-1 ), appelées (N-l)SDU (Service Data Unit), entre des (N-l)SAP. Les entités (N) peuvent alors s'échanger des unités de données de protocole (N), appelées (N)PDU (Protocol Data Unit), en les plaçant dans des (N-l)SDU. Chaque (N)PDU contient, d'une part, les informations de contrôle du protocole (N), appelées (N)PCI (Protocol Control Information), et d'autre part, les données utilisateur (N)UD (User Data) provenant des (N)SDU soumises par les entités (N+l) (figure 1.6).

service (N)

couche(N)

service (N-l)

(N)SDU (N)SDU

N(PCI) (N)UD N(PCI) N)UD

(N)PDU (N)PDU

(N-l)SDU (N-l)SDU

F i g u r e 1.6. Les unités de données

Le schéma de la figure 1.6 est un schéma simplifié dans la mesure où les relations entre (N)SDU et (N)PDU ou entre (N)PDU et (N-l)SDU ne sont pas forcément biunivoques. Plus précisément, plusieurs fonctions sont possibles sur les unités de données (figure 1.7). La fonction de segmentation permet d'engendrer plusieurs (N)PDU à partir d'une même (N)SDU ; en réception, la fonction inverse de réassemblage permettra de reconstituer la (N)SDU d'origine à partir des différentes (N)PDU reçues. La fonction de groupage permet le groupage de plusieurs (N)SDU dans une même (N)PDU ; la fonction inverse de dégroupage permettra de récupérer les différentes (N)SDU véhiculées dans une même (N)PDU. Enfin, la fonction de concaténation permet de concaténer plusieurs (N)PDU dans une même (N-l)SDU ; la fonction inverse de séparation permettra de séparer les différentes (N)PDU contenues dans une même (N-1 )SDU.

(N)PCI i 1

(N)SD (N)PC1

(Nvsn M)PCIr

(N)SD (N)PDU (N)PDU

(N)PDU (N)PDU (N)PDU (N-l)SDU

Segmentation Groupage Concaténation

F i g u r e 1.7. Opérations sur les unités de données

Page 41: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture e n c o u c h e s et normalisat ion 2 1

1.4.2. Définition des services

Nous avons pu voir à plusieurs reprises qu'à l'intérieur du modèle OSI, l'interaction entre couches adjacentes est représentée sous forme de services (N) offerts par la couche (N) à la couche (N+l) à partir des (N)SAP. De façon plus précise, l'ISO et le CCITT ont développé, respectivement dans la norme 8509 [IS 8509] et dans la recommandation X.210, un modèle conceptuel dans lequel fournisseurs et utilisateurs de services interagissent au moyen de primitives de quatre types, les requêtes, les indications, les réponses et les confirmations.

Une primitive de requête est envoyée par un utilisateur des services (N) à un fournisseur des services (N) pour lui demander l'activation d'un service particulier (par exemple, l'établissement d'une connexion (N)). Une primitive d'indication est envoyée par un fournisseur des services (N) à un utilisateur des services (N) pour lui signaler l'activation d'un service particulier, de sa propre initiative ou suite à une demande faite à l'autre extrémité de la communication. Une primitive de réponse est envoyée par un utilisateur des services (N) à un fournisseur des services (N), sur un (N)SAP donné, en réponse à une primitive d'indication reçue sur ce même (N)SAP. Une primitive de confirmation est envoyée par un fournisseur des services (N) à un utilisateur des services (N), sur un (N)SAP donné, pour lui signaler que le service dont il avait demandé l'activation par une primitive de demande sur ce même SAP a été exécuté.

Les services évoqués peuvent être confirmés ou non confirmés. Dans le premier cas, l'utilisateur ayant demandé l'activation du service reçoit une confirmation de la part du fournisseur sollicité après l'exécution du service. Cela fait intervenir les quatre types de primitives, selon l'enchaînement présenté en figure 1.8. Un exemple est donné par le service d'établissement de connexion. Les services non confirmés ne font intervenir qu'une primitive de requête et la primitive d'indication correspondante, un exemple possible étant le service de libération de connexion.

utilisateur du service (N)

fournisseur du service (N)

utilisateur du service (N)

requête

indication

confirmation

^réponse

Figure 1.8. Séquence des échanges de primitives de service confirmé

Page 42: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

22 Architecture des réseaux haut débit

Par convention, le nom d'une primitive est donné par l'initiale de la couche concernée, suivie du nom de service demandé, lui-même suivi du type de la primitive. Il est suivi par la liste des paramètres passés à la primitive. A titre d'exemples, la primitive de demande de connexion de transport est de la forme T_CONNECT.request (adresse de l'entité appelante, adresse de l'entité appelée, option données exprès, qualité de service, données utilisateur du service de transport) ; la primitive d'indication de données du niveau réseau est notée N_DATA.indication (données utilisateur du service de réseau).

1.4.3. Description des couches

Nous décrivons ici chacune des sept couches constituant le modèle de référence OSI (figure 1.9), en rappelant les principales fonctions réalisées.

IJ 6

•S l 3

§1 u 2

V 1

système d'extrémité

protocoles entre homologues

système d'extrémité

application ^ A P D U ^

application application application

présentation PPDU

présentation présentation présentation

session ^ S P D U

session session

transport ^ T P D U

transport transport système relais transport

réseau ^ N P D U ^

réseau reseau réseau réseau reseau

liaison de données ^ LPDU

liaison de données liaison de données liaison de données liaison de données liaison de données

physique bil

physique physique physique physique ^ • physique

support de transmission

Figure 1.9. Les sept couches du modèle OSI

1.4.3.1. La couche physique

La couche physique assure l'interface entre les systèmes et le support physique de transmission ainsi que le transport de l'information sous forme de bits sur le support, l'unité de données étant ici le bit. A ce titre, elle est responsable de l'interface électromécanique au support de communication. Elle fournit donc les moyens mécaniques, électriques, fonctionnels et procéduraux nécessaires à l'activation, au maintien et à la désactivation des connexions physiques entre entités de liaison de données. Elle peut correspondre, par exemple, à un circuit physique constitué d'une ligne et de deux modems, et définit dans ce cas les caractéristiques des jonctions modem-terminal, les caractéristiques des connecteurs, ou encore le protocole d'établissement, de maintien et de libération du circuit.

Page 43: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 23

1.4.3.2. La couche liaison de données

La couche liaison de données fournit les moyens nécessaires à l'établissement, au maintien et à la libération des connexions de liaison de données, ainsi qu'au transfert de LSDU (SDU de niveau liaison) entre entités de réseau. Elle est responsable de la transmission, de la structuration en trames (LPDU) et du contrôle d'erreur sur une seule ligne de communication. Elle utilise pour ce faire les services offerts par la couche physique. Les circuits disponibles au niveau physique présentant généralement des taux d'erreurs inacceptables, la couche liaison est chargée de détecter et de corriger ces erreurs, dans la mesure du possible, afin de présenter à la couche supérieure un taux d'erreurs résiduelles acceptable. Par ailleurs, elle réalise une fonction de contrôle de flux afin d'éviter tout engorgement des systèmes d'extrémité de connexions.

1.4.3.3. La couche réseau

La couche réseau fournit les moyens d'établir, de maintenir et de libérer des connexions de réseau entre entités de transport, ainsi que les moyens d'échanger des NSDU (SDU de niveau réseau) entre ces entités. Elle est responsable du transfert de données à travers le réseau de communication, indépendamment du médium et de la topologie du ou des sous-réseaux empruntés. Ses trois principales fonctionnalités sont l'adressage, le contrôle de congestion et le routage des paquets (NPDU). Elle assure alors à la couche transport son indépendance vis-à-vis des problèmes de routage et de relais dans le ou les sous-réseaux utilisés et lui masque la façon dont les ressources des couches inférieures sont utilisées pour obtenir des connexions de réseau.

1.4.3.4. La couche transport

La fonction essentielle de la couche transport est d'assurer un transport de l'information de bout en bout, fiable, transparent, efficace, selon un niveau de qualité demandé par l'utilisateur. C'est la première couche à ne concerner que la source et la destination finale de l'information véhiculée. Elle doit décharger les couches supérieures de tout détail concernant les moyens mis en œuvre pour la transmission de données. La couche transport assure en particulier des fonctions de reprise sur erreur, de contrôle de flux, de multiplexage ou d'éclatement de connexions pour rendre le transport fiable et efficace.

1.4.3.5. La couche session

La couche session fournit aux entités de présentation coopérantes les moyens nécessaires pour organiser et synchroniser leur dialogue et gérer leur échange de données. A cet effet, elle fournit les services nécessaires à l'établissement, au maintien et à la libération de connexions de session entre entités de présentation et à la prise en charge des interactions ordonnées d'échange de données. De plus, les

Page 44: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 4 Architecture des réseaux haut débit

services de la session assurent la délimitation, le groupement logique et la synchronisation des données.

1.4.3.6. La couche présentation

La couche présentation se charge de la représentation des informations que les entités d'application se communiquent ou auxquelles elles se réfèrent au cours de leur communication. Elle ne traite que de la syntaxe des données, et non pas de leur sémantique, et comporte des fonctions qui permettent de traduire les données échangées. Cette couche peut également assurer des fonctions de compression de données et de chiffrement.

1.4.3.7. La couche application

En tant que couche la plus haute du modèle OSI, la couche application fournit à l'usager l'ensemble des services qui lui permettent d'accéder à l'environnement OSI et donc d'exploiter le système téléinformatique. Elle est responsable de la gestion des communica t ions entre applications. Parmi les services offerts, citons l'authentification et l'identification des partenaires de la communication, les facilités de synchronisation des partenaires, le choix des règles du dialogue. De plus, cette couche comporte des fonctions de gestion des systèmes.

1.5. L'architecture DoD et ses protocoles

Cette architecture [Cerf 83] est antérieure au modèle OSI qui a puisé dans nombre de ses concepts. Elle utilise un modèle hiérarchique, avec quatre couches relativement indépendantes. La figure 1.10 montre la correspondance entre les niveaux DoD et les couches OSI.

niveau 3 processus

niveau 2 hôte-à-hôte

niveau 1 internet niveau 0

accès réseau

FTP

SM

TP

Tel

net

R-c

md

RP

C

X-W

ind

ow

SN

MP

TCP UDP

IP 1CMP EGP IGP

ARP RARP|

Ethernet Arpanet FDDI X.25 autres

5-7

4

3

1-2

Architecture du DoD Architecture OSI

F i g u r e 1 .10. Architecture DoD et ses relations avec le modèle OSI

Le niveau d'accès au réseau est le niveau le plus bas. L'idée sous-jacente ici est qu'en isolant les fonctions propres à l'accès au sous-réseau, le restant du logiciel de

Page 45: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 25

communication n'a pas à tenir compte de ses caractéristiques spécifiques. Ce niveau va donc traiter les échanges de données entre un hôte et le réseau auquel il est attaché. En particulier, il se charge du routage des données entre deux équipements rattachés au même réseau. Pour cela, l'émetteur sur ce sous-réseau doit fournir l'adresse physique du destinataire sur ce même sous-réseau et certaines informations quant aux services devant être fournis par le sous-réseau (comme la priorité, par exemple). Le protocole utilisé dépend du type de réseau utilisé : il peut s'agir de X.25 pour un réseau à commutation de paquets, de X.21 pour un réseau à commutation de circuits, d'un protocole 802.X pour un réseau local, etc.

Le niveau suivant, appelé niveau Internet, est chargé de l'interconnexion de réseaux et permet donc l'échange de données entre deux machines raccordées à des réseaux distincts. Le protocole d'interconnexion est utilisé pour le routage à travers plusieurs sous-réseaux. Par conséquent, il est implanté non seulement dans les systèmes d'extrémité mais également dans les passerelles (routeurs). Outre le protocole Internet [RFC 791], il comprend entre autres les protocoles suivants :

- ICMP (Internet Control Message Protocol) [RFC 792] : alors que IP est utilisé pour un service de datagramme dans un environnement d'interconnexion de réseaux, ICMP permet à une passerelle ou à un hôte destinataire de communiquer de façon occasionnelle avec un hôte source, notamment afin de lui signaler une erreur ou un problème dans le traitement d'un datagramme (destination impossible à atteindre, durée de vie maximum atteinte, congestion, etc.). ICMP utilise IP comme s'il était un protocole de niveau supérieur, mais constitue en fait une partie intégrante de IP et, en tant que telle, doit être implanté dans chaque module IP. Le rôle des messages de contrôle d'ICMP est de fournir un retour d'information sur les problèmes de l'environnement de communication et non pas de fiabiliser IP : il n'y a donc aucune garantie sur la remise des datagrammes ;

- IGP (Interior Gateway Protocol) [RFC 1371] et EGP (Exterior Gateway Protocol) [RFC 904] : ce sont les protocoles utilisés pour l'échange d'information d'accessibilité et de routage entre passerelles ;

- ARP (Address Resolution Protocol) [RFC 826] et RARP (Reverse Address Resolution Protocol) [RFC 903] : le protocole ARP permet d'obtenir l'adresse physique d'une station à partir de son adresse IP. Inversement, RARP permet à une station d'obtenir son adresse IP à partir de son adresse physique.

Le protocole IP, dans sa version courante — version 4 —, utilise un format d'adressage organisé sur 32 bits. Du fait de l'expansion mondiale du réseau Internet, l'espace d'adressage est à l'heure actuelle une ressource extrêmement critique et des travaux sont en cours pour spécifier la nouvelle mouture du protocole, IPv6. Cette dernière utilise des adresses codées sur 128 bits, un en-tête simplifié afin d'augmenter les performances des routeurs et offre de nouvelles fonctionnalités, telles l'identification des flots de données ou l'authentification et la protection des données.

Page 46: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

26 Architecture des réseaux haut débit

Le niveau hôte-à-hôte est très similaire à la couche transport OSI. Son rôle est de transférer les données de bout en bout entre les processus utilisateurs. Les deux protocoles les plus usuels sont TCP (Transmission Control Protocol) [RFC 7 9 3 J et UDP (User Datagram Protocol) [RFC 7 6 8 ] . Le premier est orienté connexion et comporte tous les mécanismes nécessaires à un transfert de données fiable, sans erreur, sans perte et sans duplication. Du point de vue de ses fonctionnalités, il est considéré comme équivalent au protocole de transport ISO classe 4 , même si des différences mineures existent. De même que TCP, UDP est bâti au-dessus d'IP. Protocole en mode non connecté, il utilise les services d'IP pour transporter des datagrammes d'un système d'extrémité à un autre. Il n'utilise aucun mécanisme de contrôle, le seul service supplémentaire qu'il offre par rapport à IP étant l'identification de processus à l'intérieur des hôtes (IP identifie des hôtes).

Le dernier niveau est le niveau processus. Il contient des protocoles support pour différentes applications. Nous y trouvons des protocoles tels que FTP (File Transfer Protocol) [RFC 9 5 9 ] pour le transfert de fichiers, SMTP (Simple Mail Transfer Protocol) [RFC 8 2 1 ] pour la messagerie électronique, Telnet [RFC 8 5 4 ] pour l'émulation de terminal virtuel, SNMP (Simple Network Management Protocol) [RFC 1 1 5 7 ] pour la gestion de réseaux.

1.6. L'administration de réseaux

1.6.1. Définition

L'administration de réseaux recouvre l'ensemble des activités de surveillance, d'analyse, de contrôle et de planification du fonctionnement des ressources d'un réseau de télécommunications dans le but de fournir des services de télécommunications à des usagers avec un certain niveau de qualité. Cette première définition amène son flot de questions. Que doit-on surveiller ? Qui doit surveiller ? Comment surveiller ? Quelles sont les connaissances nécessaires au diagnostic ? Comment contrôler ?

Cette définition montre principalement que les problèmes ne sont pas de même nature. En effet, les approches méthodologiques à appliquer pour répondre à "Quoi ?", "Qui ?" et "Comment ?" diffèrent. Afin de répondre à ces questions portant sur des aspects différents, l'administration de réseaux peut être étudiée à travers des modèles ou points de vue (figure 1 . 1 1 ) . Ils permettent de classer les questions ou problèmes similaires par catégorie et de traiter chaque groupe indépendamment. Pour répondre à la question "Quoi ?", il est nécessaire de considérer le modèle informationnel qui fournit une représentation de réseaux par les données ; un modèle fonctionnel est aussi requis puisqu'il définit les fonctions à appliquer aux données afin d'atteindre les objectifs de gestion. Les entités de gestion distribuées à travers le réseau de gestion répondent à la question "Qui ?". Elles définissent principalement un modèle organisationnel. Enfin, les modèles de

Page 47: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 2 7

communication et architectural permettent de répondre à la question "Comment ?", pour le premier, en permettant l'échange d'information de gestion entre les gestionnaires et les agents et pour le second, en décrivant la structure générale des entités de gestion qui réalisent les activités de gestion ainsi que leurs interfaces.

administration de réseaux

Quoi gérer ? Qui gère ? Comment gérer ?

modèles informationnel e

v fonctionnel

modèle organisationnel

modèles de communication et

V ^ ^ r c h i t e c t u r a l ^ ^ ^ ^

F i g u r e 1 .11 . Les modèles de l'administration de réseaux

Nous présentons dans la suite les travaux menés dans les organismes de normalisation et les modèles couvert par chacun d'eux.

1.6.2. Les normes d'administration

1.6.2.1. L'ISO

La première norme de gestion OSI à avoir vu le jour est le cadre architectural pour la gestion OSI, présenté dans la partie 4 du modèle de référence pour l'interconnexion de systèmes ouverts [IS 7498-4]. Une deuxième norme définit les concepts architecturaux relatifs à la gestion système [IS 10040]. Celle-ci constitue le modèle de la gestion système dans un environnement de communication ouvert et de traitements distribués.

Les normes de la gestion système peuvent être regroupées dans trois sous-ensembles :

- l'ensemble des normes spécifiant les procédures pour réaliser les activités d'administration (normes 10164 sur les fonctions de gestion spécifiques) [IS 10164-1 à 7 ] ;

- l'ensemble des normes spécifiant les objets de gestion concernés par l'administration et les opérations qui sont réalisables sur chacun d'eux (normes 10165 sur la structure des informations de gestion) [IS 10165-1] [IS 10165-2] [IS 10165-4] ;

- l'ensemble des normes spécifiant les services et les protocoles de la couche application pour échanger des informations en relation avec les procédures de gestion ([IS 9595] et [IS 9596] définissant respectivement CMIS et CMIP ainsi que les

Page 48: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 8 Architecture des réseaux haut débit

parties des normes 10164 sur les fonctions de gestion spécifiant SMAE (System Management Application Entity) et SMAP (System Management Application Process)).

La figure 1.12 récapitule l'ensemble des normes d'administration afférentes au

modèle de référence OSI.

Modèle de Référence OSI ISO/IEC IS 7498

Cadre Architectural pour la Gestion OSI ISO/IEC IS 7498-4

Aperçu général de la Gestion des Systèmes ISO/IEC IS 10040

CM1S/CMIP ISO/1EC IS 9595 ISO/IEC IS 9596

Structure de l'Information de Gestion CM1S/CMIP

ISO/1EC IS 9595 ISO/IEC IS 9596

Modélisation de l'Information de

Gestion

Définition de l'Information de

Gestion

Guides pour la Définition de l'Info, de

Gestion

ISO/IEC IS 10165-1 ISO/IEC IS 10165-2 ISO/IEC 10165-4

Fonctions de Gestion de Systèmes ISO/IEC IS 10164-1 .. 19

Figure 1.12. Les normes d'administration OSI

Le modèle fonctionnel de la gestion OSI

Afin d'exercer son activité, l'administration de réseaux s'appuie sur un certain nombre de fonctions, qui peuvent être regroupées en cinq aires fonctionnelles (SMFA — Specific Management Functional Area). Ce sont :

- la gestion de la -configuration, - la gestion des fautes, - la gestion des performances, - la gestion de la sécurité, - la gestion de la comptabilité.

Par gestion de la configuration, il faut entendre les procédures permettant de contrôler, d'identifier, de collecter et de fournir des données sur les objets de gestion, c'est-à-dire les entités du réseau gérées dans un système de communication OSI. L'objectif ici est de veiller au fonctionnement continu des services d'interconnexion. Pour cela, des outils fonctionnels s'imposent qui permettent de :

- démarrer, initialiser et arrêter le système,

Page 49: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 29

- positionner les paramètres du système ouvert, - recueillir des informations sur l'état d'un système et agir sur ces états. - modifier la configuration du système ouvert, - associer des noms aux objets gérés.

La gestion des fautes recouvre l'ensemble des fonctionnalités qui permettent la détection, l'isolation et la correction des anomalies dans un système. Les fautes proviennent des pannes de composants matériels ou logiciels et se manifestent par des événements particuliers (erreurs) dans le fonctionnement du système. Elles peuvent être passagères ou persistantes. Lorsqu'une erreur est détectée, une analyse des informations de l'état du système doit permettre de la localiser et de diagnostiquer sa cause. Une action "curative" doit s'ensuivre, pour permettre la reprise du fonctionnement du système. La gestion des fautes est une fonction d'administration vitale pour assurer aux utilisateurs un niveau de service satisfaisant du système.

La gestion des performances doit s'accompagner de fonctionnalités permettant de mesurer le niveau de performance du système (évaluation quantitative du comportement des objets administrés et de l'efficacité de la communication). Ici, des fonctions spécifiques doivent permettre le relevé de données statistiques comme de tenir un journal de bord journalier, dans un but de planification et d'analyse.

La gestion de la sécurité est la collection des fonctions relatives à l'administration de réseaux et requises pour supporter les politiques de sécurité dans un réseau de télécommunication. Les fonctions essentielles de la gestion de sécurité comprennent la distribution des informations relatives à la sécurité, telles que les clés de cryptage et les privilèges d'accès, et le compte rendu des événements relatifs à la sécurité, tels que les intrusions dans un réseau, les tentatives d'accès à des informations ou à des services privilégiés par des processus non autorisés ou encore l'accès à des données et à des services protégés.

La gestion de la comptabilité réalise un tri et des statistiques sur les informations de configuration. Elle n'a, de façon instantanée, aucune influence sur le maintien de la qualité de service et l'obtention de bonnes performances. Elle permet en particulier d'établir des relevés de taxation et de surveiller l'évolution de l'utilisation du réseau et prévoir les développements nécessaires.

Le modèle architectural

Le modèle architectural décrit la structure générale des entités accomplissant la tâche de gestion, leurs interfaces et les mécanismes de communication utilisés.

Le modèle informationnel

En association avec la normalisation des services et protocoles pour l'échange d'information entre deux systèmes, il est nécessaire d'obtenir la compréhension des objets, attributs et opérations associés à cette information. C'est pourquoi, un modèle d'information, le SMI (Structure of Managed Information), a été établi par l'ISO, définissant la structure logique et la sémantique de l'information de gestion.

Page 50: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 0 Architecture des réseaux haut débit

Le SMI est fondé sur le concept d'objets stockés dans la MIB (Management Information Base).

Les principes de conception du SMI sont basés sur une approche orientée objet. Les objets présentant mêmes structure et comportement sont regroupés dans des classes d'objet. Une classe possède une partie statique (structure) et une partie dynamique (comportement). Des relations d'héritage peuvent exister entre classes. Cela conduit donc à étendre les caractéristiques des superclasses. Une classe d'objet peut aussi bien hériter des caractéristiques (attributs et méthodes) d'une superclasse (héritage simple), que de plusieurs superclasses en même temps (héritage multiple). Un autre concept, Yallomorphisme, permet à un objet de gestion de se comporter de la même façon qu'un objet appartenant à une classe d'objet supérieure. Cela signifie que toutes les caractéristiques (structure et comportement) ajoutées pendant la phase de dérivation seront supprimées par l'objet de gestion ou par le système de gestion. Cette option a pour but de prendre en compte différentes phases de développement d'équipements ou différentes versions de logiciels.

Afin de manipuler les objets, deux types d'opérations ont été définies, les premières applicables aux attributs de l'objet, les secondes à l'objet lui-même. Les opérations sur les objets incluent la création et la suppression. De plus, une opération "action" est possible. Elle est utilisée afin de définir des opérations arbitraires. La définition de ces actions et l'information nécessaire afin de les exécuter font partie de la spécification de la classe d'objet correspondante. Ce mécanisme est prévu afin de réaliser des activités de gestion complexes. Les opérations sur les attributs sont émises aux objets de gestion (MO — Managed Objects), afin de lire ou de modifier les valeurs d'attributs. Selon leur structure, les attributs peuvent être soit des attributs simples, soit des attributs multi-valués, soit des attributs de groupe. Un attribut simple, possède une valeur unique, alors qu'un attribut multi-valué est composé d'un ensemble de valeurs qui peuvent être manipulées individuellement. Un attribut de groupe se réfère à un groupe d'attributs à l'intérieur d'une classe d'objet. Une opération sur un groupe d'attributs est réalisée sur chaque attribut de manière individuelle dans ce groupe. Différentes opérations sont possibles, en fonction du type d'attribut à manipuler :

- get attribute value, - set-to-default value, - replace attribute value, - add member, - remove member.

Les deux dernières opérations ne sont applicables qu'à des attributs multi-valués, alors que les deux premières sont les seules à pouvoir s'appliquer sur des attributs de groupe.

Afin d'indiquer les objets sur lesquels appliquer une opération, un mécanisme de filtre peut être utilisé. Il sélectionne les MO souhaités à partir d'un ensemble de MO, en vérifiant la présence de certaines valeurs d'attributs. L'opération est

Page 51: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 3 1

appliquée si l'évaluation a réussi. Les MO sont structurés selon une relation de contenance. Une structure hiérarchique, appelée arbre de contenance, est déduite à partir de cette relation entre objets. Les MO sont nommés sur la base de cet arbre : un objet doit être nommé de façon à être identifié et référencé sans ambiguïté. Le nommage se fait en fonction de la position de ce MO dans l'arbre de contenance, grâce à une séquence de noms appelés noms de distinction relative (RDN — Relative Distinguished Name).

Les informations d'administration sont décrites à l'aide de formulaires appelés "Templates" décrivant chacun un type d'information. Des formulaires ont été définis pour les types suivants : classe, package, paramètre, lien de nommage, attribut, groupe d'attributs, comportement, action et notification.

Le modèle de communication

Le service commun d'information d'administration CMIS (Common

Management Information Service) permet la communication d'informations

d'administration. Ces services sont :

- les services d'opérations :

• opérations sur les attributs : M-GET qui permet à un gestionnaire de demander à un agent la lecture d'informations concernant ses objets administrés ; M-SET qui permet à un gestionnaire de demander à un agent la mise à jour d'informations concernant ses objets administrés ;

• opérations sur les objets : M-CREATE qui permet à un gestionnaire de demander à un agent la création d'un objet administré ; M-DELETE qui permet à un gestionnaire de demander à un agent la destruction d'un de ses objets administrés ; M-ACTION qui permet à un gestionnaire de demander à un système l'exécution d'une action spécifique plus complexe qu'une consultation, création ou suppression ;

- le service de notification, M-EVENT-REPORT qui permet à un agent de

signaler à un gestionnaire l'occurrence d'un événement concernant ses objets

administrés.

Le protocole commun d'administration CMIP (Common Management Information Protocol) fournit le support nécessaire à la communication entre entités d'applications utilisatrices du service CMIS. La syntaxe utilisée pour spécifier les éléments de protocole CMIP, ainsi que les informations qu'il transporte, est la syntaxe abstraite normalisée ASN.l (Abstract Syntax Notation One) [IS 8824].

Le modèle organisationnel

La norme ISO 10040 fait reposer son modèle organisationnel sur les deux concepts importants que sont le manager (gestionnaire). Les correspondants administratifs (manager/ agent) sont représentés par des processus qui échangent des

Page 52: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 2 Architecture des réseaux haut débit

informations selon un protocole. L'échange entre agent (administré) et manager (administrateur) se fait soit par un mécanisme de demande du manager et réponse de l'agent, soit par un compte rendu spontané de l'administré à l'administrateur lors d'un événement. Chaque agent gère sa propre MIB sur laquelle le manager peut travailler Nous obtenons ainsi le modèle de la gestion système de la figure 1.13.

-manager système ouvert 2

-SMAP-

SMAE (CMIS)

- a g e n t

!>MAr-

SMAE (CMIS)

objets

administrés

ressources à

administrer

SMAP - System Management Application Protocol SMAE - System Management Application Entity

F i g u r e 1.13. Le modèle de gestion système

1.6.2.2. L'U1T-T

opérations

système ouvert 1

notifications

L'UIT-T (ex-CCITT) a élaboré le concept de Réseau de Gestion des Télécommunications (RGT ou TMN pour Telecommunications Management Network) IM.3010] pour définir une architecture fonctionnelle d'un système de gestion de réseaux souple, complet et évolutif. La notion de RGT est purement fonctionnelle. Elle ne préjuge en rien de la taille et des particularités des implantations physiques la réalisant. Il s'agit d'une architecture modulaire constituée de groupements fonctionnels dédiés à la réalisation de tâches particulières relatives au transport et au traitement des informations de gestion. Aussi, des points de référence ont été définis qui constituent des points de passage d'informations entre des groupements fonctionnels. L'UIT-T traite aussi de l'aspect informationnel avec la définition d'un modèle informationnel générique [M.3100].

1.6.2.3. Le monde TCP/IP

Le nombre important de réseaux TCP/IP ainsi que le besoin crucial de leur gestion a entraîné le développement d'un premier protocole de gestion, le protocole SGMP (Simple Gateway Monitoring Protocol) [RFC 1028], conçu à l'origine pour gérer les passerelles Internet des réseaux grande distance. Le protocole actuel SNMP (Simple Network Management Protocol) [RFC 1157] y trouve ses bases tout en intégrant certains concepts de gestion développés à l'ISO. En fait, les standards

Page 53: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 33

SNMP, établis depuis 1990, sont axés autour de deux aspects, la définition des

protocoles d'échanges SNMP et la définition des informations d'administration des

MIB.

Le modèle de communication

SNMP définit essentiellement les protocoles permettant l'envoi de messages d'administration entre des managers et des agents. Un agent est un logiciel opérant à l'intérieur d'un équipement à gérer (terminal, serveur de terminaux, passerelle, pont, routeur, unité centrale, etc.) alors qu'un manager est un logiciel résidant dans une station de gestion de réseaux ayant la possibilité d'adresser des requêtes vers des agents.

Le protocole SNMP fournit aux applications un ensemble très simple de

commandes, qui sont :

- GetRequest et GetNextRequest qui permettent à un manager de demander à un

agent la lecture des informations concernant ses objets administrés ;

- SetRequest qui permet à un manager de demander à un agent la mise à jour

d'informations concernant ses objets administrés ;

- GetResponse qui permet à un agent de renvoyer des informations à un manager

lui ayant adressé un GetRequest, un GetNextRequest ou un SetRequest ;

- Trap qui permet à un agent de signaler à un manager qu'une condition a été

détectée localement dans son équipement.

Chaque message SNMP, autre que les "traps", contient un identificateur de requête, une liste de variables (nom et valeur), un champ pour les types d'erreur (tooBig, noSuchName, badValue, readOnly, genErr) et un index d'erreur (indiquant le numéro de la variable en erreur). A travers un message SNMP, on ne peut adresser qu'une seule instance d'un objet spécifique. La répartition des rôles agent/manager n'est pas dynamique comme dans le modèle OSI.

Une des principales faiblesses du protocole SNMP réside dans son manque de

sécurité. Cet aspect a été amélioré avec la seconde version du protocole, SNMPv2

[RFC 1441].

Le modèle informationnel

SNMP définit une collection d'objets "standards" à administrer à travers la spécification des MIB-I [RFC 1158] et MIB-II [RFC 1213] et récemment de la RMON MIB (Remote MONitoring MIB) [RFC 1271]. Les objets définis par SNMP ont une structure particulièrement simple. En effet, la définition d'un objet est limitée à un type simple ou à une table d'objets de types simples.

La MIB-I correspond au premier lot de définitions d'objets SNMP. Elle contient une centaine d'objets, rangés par groupes fonctionnels au nombre de huit : "System", "Interfaces", "Address translation", "Internet Protocol (IP)", "Internet

Page 54: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 4 Architecture des réseaux haut débit

Control Message Protocol (ICMP)", "Transmission Control Protocol (TCP)", "User Datagram Protocol (UDP)", "External Gateway Protocol (EGP)". Ces huit groupes permettent de gérer uniquement un réseau TCP/IP.

Dernièrement, l'horizon des MIB-I et MIB-II s'est élargi avec l'introduction de la RMON MIB, dans laquelle neuf nouveaux groupes ont été définis ("Statistics", "History", "Alarms", "Hosts", "Host top N", "Traffic matrix", "Filters", "Packet capture" et "Events") afin d'apporter de nouvelles fonctionnalités (statistiques, historiques, détection de seuils d'alarme, gestion des hosts, estimation de flux, filtrage de capture de paquets, gestion des notifications d'événements, etc.). Cela confère un rôle plus important à l'agent qui exécute des tâches plus complètes afin de décharger le manager.

Nous pouvons ainsi constater que les normes OSI de l'ISO couvrent les différents aspects importants de l 'administration. De son côté, l 'UIT-T s'intéresse principalement aux aspects fonctionnel et informationnel. Quant à SNMP, il permet de répondre rapidement aux premières préoccupations de l'administrateur et traite donc en priorité les modèles informationnel et de communication.

Page 55: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Architecture en couches et normalisation 35

Exercices

Exercice 1.1

A quels types de besoins essaie de répondre le modèle OSI ?

Exercice 1.2

Dans le modèle OSI, est-ce les TPDU qui encapsulent les paquets, ou le

contraire ?

Exercice 1.3

Dans quel(s) type(s) de trame achemine-t-on des paquets d'acquittement ? Même

question pour les paquets d'établissement de connexion ?

Exercice 1.4

Rappelez les avantages et inconvénients respectifs du mode de communication

orienté connexion et du mode sans connexion.

Exercice 1.5

Quel(s) problème(s) peut-on rencontrer lorsque, dans une architecture mixte, on superpose deux couches, l'une en mode connecté, l'autre en mode non connecté ?

Exercice 1.6

Dans quelle(s) couche(s) du modèle OSI un contrôle d'erreur est-il mis en place ?

Peut-il y avoir redondance ?

Exercice 1.7

1. Que faut-il définir en premier, le protocole (N) ou le service (N) ?

2. Deux protocoles différents peuvent-ils rendre le même service ?

3 . Un protocole en mode connecté peut-il rendre un service en mode non connecté ?

Si non, pourquoi ? Si oui, comment ?

Exercice 1.8

Un utilisateur du service de session situé sur une machine A souhaite établir une connexion avec un autre utilisateur situé sur une machine B. On suppose que toutes les couches de communication opèrent en mode connecté, qu'aucune connexion n'est établie à quelque niveau que ce soit et qu'aucun incident ne se produit.

Page 56: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 6 Architecture des réseaux haut débit

1 . Complétez le schéma suivant en indiquant les primitives de service invoquées sur la machine A.

interface 6/5 interface 5/4 interface 4/3 interface 3/2 S CONNECT.

request

S. CONNECT. confirmation

2 . Donnez les primitives invoquées sur la machine B.

Page 57: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 2

Caractéristiques générales des réseaux locaux

et des réseaux métropolitains

2.1. Introduction

Comme nous l'avons défini au chapitre précédent, un réseau local est un réseau de taille réduite couvrant un domaine privé. Cette évidence a eu en fait énormément de conséquences sur les protocoles de communication d'un tel réseau. Un câble d'une longueur d'un kilomètre présente un taux d'erreurs moindre qu'un câble similaire d'une longueur de 100 km : cela permet d'utiliser des protocoles sans reprise sur erreur et donc plus simples et plus rapides. De plus, le temps de propagation très court permet d'envisager des techniques reposant sur la détection d'un signal en ligne ou sur un tour de rôle entre les stations. Enfin, sur des distances courtes, le signal peut être transféré à un débit plus important que sur de longues distances. Le développement des réseaux d'entreprise a donc conduit à développer de nouveaux protocoles adaptés à leurs besoins propres. De manière générale, on caractérise un réseau local par :

- son support de transmission, - sa topologie, - sa méthode de contrôle d'accès au support.

Il est important de définir précisément ces caractéristiques car chacune est étroitement dépendante des autres. Prenons l'exemple d'un réseau qui utilise la fibre optique, la topologie en bus multipoint et l'accès aléatoire y sont impossibles ; si

Page 58: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 8 Architecture des réseaux haut débit

l'on veut tout de même un accès aléatoire, la topologie sera alors l'étoile que l'on qualifie souvent de "bus logique". Après avoir défini le cadre de développement des réseaux locaux et métropolitains, nous décrivons dans ce chapitre les principaux supports utilisés, les différentes topologies employées ainsi que les méthodes d'accès qui permettent de gérer le partage de la bande passante du réseau.

2.2. L'architecture IEEE

Le besoin de normalisation au niveau des réseaux locaux s'étant très vite fait ressentir dès la fin des années 70, le comité 802 de l'IEEE a été formé afin d'élaborer et de proposer des spécifications relatives à un réseau local standard. L'approche adoptée par le comité pour son modèle architectural est une approche en couches, conforme au modèle de référence OSI de l'ISO. Le but visé étant de produire un standard permettant à des équipements informatiques interconnectés par un support physique unique, d'échanger des trames d'information, le comité 802 s'est restreint à l'étude des niveaux physique et liaison. Les standards produits correspondent ainsi à une implementation particulière des couches 1 et 2 du modèle OSI. La figure 2.1 illustre les relations entre le modèle OSI et le modèle IEEE.

contrôle de liaison logique (LLC)

contrôle d'accès au support (MAC)

physique

Modèle IEEE

F i g u r e 2 .1 . Modèle OSI et modèle IEEE

La couche physique est fonctionnellement la même que son équivalent dans le modèle OSI et traite essentiellement de la transmission de bits entre deux équipements informatiques. Sa particularité est qu'il est défini une couche physique par technique d'accès au support.

La couche liaison de données est divisée en deux sous-couches :

- la sous-couche MAC (Medium Access Control) : à la différence d'un réseau grande distance où les communications s'effectuent généralement sur des lignes point à point, les stations d'un réseau local partagent un seul et unique support de transmission, ce qui rend nécessaire un contrôle d'accès. La sous-couche MAC a

application

présentation

session

transport

réseau

liaison de donnée;

physique

Modèle OSI

Page 59: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 3 9

ainsi pour rôle d'assurer le partage du support entre tous les utilisateurs. Elle se situe immédiatement au-dessus de la couche physique ;

- la sous-couche LLC (Logical Link Control) : sous-couche supérieure, elle a pour rôle de gérer les communications — les liaisons logiques — entre stations. Elle assure également l'interface avec les niveaux supérieurs.

Le comité 802 n'a en fait pas donné lieu à un standard unique, mais plutôt à une série de standards visant à mieux couvrir l'ensemble des besoins. Plusieurs sous-comités ont été créés, chacun traitant d'un sujet particulier pour lequel un standard spécifique est élaboré. La figure 2.2 montre les relations entre ces différents standards.

802.

1 O

verv

iew

Arc

hit

ectu

re a

nd

Man

agem

ent

802.10 Security and Privacy

802.2 Logical Link Control

802.1 Bridging

802.10 Secure Data Exchange

: S M A / C E Token Bus

Token Rine

MAN IVD AnyLan Fast Ethernet

802.3 802.4 802.5 802.6 802.9 802.12 802.14 ap

pli

cati

on

liai

son

PH

Y

MA

C

802.7 Broadband T A G

802.8 Fiber Optic T A G

F i g u r e 2 . 2 . Les standards IEEE

Le groupe 802.1 a été chargé de définir le cadre général de l'architecture. Ses travaux ont permis, dans le standard 802.1, la définition d'un glossaire, la définition des interfaces avec les niveaux supérieurs (la couche réseau), la spécification des outils de gestion de réseau et la spécification des règles d'interconnexion. Le service MAC est spécifié dans la norme ISO IS 10039. Le document 802.2 définit la sous-couche LLC, tant au niveau des services fournis que des protocoles à utiliser. Les standards 802.3, 802.4, 802.5 et 802.6 définissent la sous-couche MAC et la couche physique des réseaux CSMA/CD, Token Bus et Token Ring et du réseau métropolitain DQDB respectivement. La méthode d'accès au support y est décrite et des recommandations sont données pour sa mise en œuvre. L'activité des groupes (TAG — Technical Advisory Groups), 802.7 et 802.8 sort du cadre initial des réseaux locaux : ils ne spécifient pas de standards mais donnent des conseils pratiques sur l'utilisation des supports large bande ou de la fibre optique. Les groupes 802.9, 802.12 et 802.14 ont été créés récemment. Le premier traite de

Page 60: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

4 0 Architecture des réseaux haut débit

l'intégration de la voix et des données (IVD — Integrated Voice/Data) et de l'accès au réseau RNIS, les deux derniers travaillent sur de nouvelles spécifications d'Ethernet à 100 Mbit/s.

Comme dans le modèle OSI, les transferts de l'information entre couches adjacentes d'un même système ou de même niveau sur des systèmes différents s'effectuent à l'aide de primitives de service. Pour chaque standard, on trouvera des spécifications relatives au service offert aux travers des primitives et des spécifications relatives au protocole. Les travaux ayant abouti au sein des sous-comités 802.x de l'IEEE ont été adoptés par l'ISO en tant que normes de la série 8802-x [IS 8802-2, 8802-3, 8802-4, 8802-6, 8802-7J.

2.3. Supports de transmission

L'élément de base d'un réseau local est le support physique de transmission. On y connecte les différents équipements terminaux au travers d'une prise qui est elle-même reliée à un adaptateur (figure 2.3). Ce dernier est responsable de l'interface équipement/réseau. A ce titre, il réalise le codage/décodage des signaux électriques. De plus, il gère le mécanisme d'accès au support et le mécanisme de détection d'erreurs de transmission.

support de i l prise transmission

adaptateur transmission électrique

COmmunicateUT protocole d'accès

traitement source ou puits de données

Figure 2.3. Les composants d'accès

2.3.1. Caractéristiques

Chaque type de support possède ses propres caractéristiques, ces dernières s'exprimant essentiellement en termes de :

- bande passante, - technique de transmission, - atténuation, - poids et encombrement,

- fiabilité (insensibilité aux perturbations électromagnétiques, résistance mécanique et thermique, etc.),

Page 61: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 4 1

- coût (du support et des équipements nécessaires au transfert, de l'installation, de la maintenance, etc.).

La bande passante, également appelée largeur de bande, représente la gamme de fréquences que peut transmettre le support. Si cette gamme correspond à l'intervalle [f], f i ] , la bande passante est alors définie par W = ij - f]. La caractérisation d'un support en bande passante est très importante, car d'elle dépend directement le débit binaire maximum ou capacité de transmission maximale. La relation est donnée par la formule de Shannon :

C = W . log 2 ( 1 + S/B)

où C est exprimé en bit/s, W est exprimé en Hz. S/B représente le rapport signal sur bruit, S étant la puissance moyenne du signal et B celle du bruit ; ce rapport n'étant pas quantifié, on choisit généralement de l'exprimer en décibels (dB) sous la forme 10 . log jo (S/B). Notons toutefois que C constitue une borne supérieure théorique et qu'il est extrêmement difficile, dans la pratique, d'approcher cette limite.

La technique de transmission détermine la manière dont le support de transmission est employé pour véhiculer l'information. Les techniques les plus couramment utilisées pour les réseaux locaux sont la transmission en bande de base (numérique) et la transmission par modulation d'une porteuse (analogique).

A titre d'exemple, le codage bande de base le plus utilisé dans les réseaux locaux est le codage Manchester ou biphase. Le codage consiste à représenter un bit de valeur binaire " 1 " par une transition montante au milieu de l'intervalle tandis qu'un bit de valeur binaire "0" est représenté par le symbole inverse (figure 2.4). L'intérêt de ce codage est qu'il assure au moins une transition du signal par symbole, permettant ainsi une bonne synchronisation de l'horloge du récepteur.

horloge

signal . binaire

code Manchester 0

-a -

Figure 2.4. Exemple de codage Manchester

Page 62: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

42 Architecture des réseaux haut débit

Dans les transmissions numériques, les bits de données sont véhiculés sur le support de transmission sous la forme d'impulsions discrètes électriques. Au fur et à mesure que les impulsions de données progressent sur le médium, le signal perd de sa puissance et les impulsions se déforment ; c'est le phénomène d'atténuation. Pour pallier ce problème, on utilise alors des répéteurs dont le rôle est de recevoir les signaux numériques et de les retransmettre avec leurs puissances et leurs formes originales. Les répéteurs régénèrent totalement les signaux et contribuent, de ce fait, à résoudre le problème des bruits.

La transmission analogique requiert une bande passante plus importante que la transmission en bande de base. Le signal employé est de type analogique : il est continu et non discret. En fait, il se propage sur le médium sous la forme d'onde électromagnétique, caractérisée par son amplitude (niveau de voltage pour un support électrique, intensité du faisceau lumineux pour une fibre optique), sa fréquence et sa phase. Le signal de données est superposé à une porteuse en faisant varier (en modulant) l'une de ses trois caractéristiques. De la même façon qu'en codage bande de base, le signal électrique est atténué au cours de sa propagation sur le support, rendant nécessaire l'utilisation d'amplificateurs, dont le rôle est de recevoir les signaux et de les retransmettre à leur puissance originale. Malheureusement, si des bruits sont venus altérer ces signaux, ils seront eux aussi amplifiés. C'est pour cette raison qu'en transmission analogique, la qualité du signal tend à se dégrader avec la distance, même en utilisant des amplificateurs.

Nous présentons dans la suite de ce paragraphe les différents supports de transmission. Bien que la plupart des supports employés dans l'industrie des télécommunications conventionnelles pourraient l'être dans le domaine des réseaux locaux et métropolitains, trois supports sont principalement retenus : les paires torsadées, le câble coaxial et la fibre optique. Même si l'utilisation systématique des supports métalliques a pu être remise en cause avec l'apparition de la fibre optique et les progrès faits en la matière, ils demeurent des supports d'avenir.

2.3.2. Les paires torsadées

Une paire torsadée est constituée de deux brins de cuivre, de diamètre inférieur au millimètre, isolés et agencés en spirale pour limiter les phénomènes d'interférences électromagnétiques parasites dues à l'environnement (diaphonie). Plusieurs paires sont groupées dans une même gaine protectrice pour former généralement un câble de 2, 4 ou 8 paires (4 le plus souvent).

De façon générale, ce type de support possède une bande passante de quelques centaines de kHz permettant le transfert d'un signal modulé à un débit d'environ 10 kbit/s sur des distances de 5 à 6 km. Il est aussi possible de transférer directement un signal numérique à des débits allant jusqu'à 100 Mbit/s sur des distances courtes. 100 m au maximum. La connexion des équipements peut se fait soit en point à point soit en multipoint.

Page 63: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 4 3

L'une des raisons pour lesquelles ce type de support est largement utilisé provient du fait que la plupart des installations téléphoniques l'utilisaient déjà (réutilisation de l'existant). Par ailleurs, il existe de nombreux produits de réseaux locaux reposant sur un câble téléphonique ordinaire et qui offrent des vitesses de transmission pouvant aller jusqu'à 10 Mbit/s. Les signaux véhiculés peuvent être numériques ou analogiques.

Il s'agit donc d'un support simple et économique. En fait, ses principaux avantages résident, d'une part, dans un coût intéressant par rapport à celui du câble coaxial ou de la fibre optique et, d'autre part, dans la possibilité d'utiliser le précâblage téléphonique des immeubles diminuant ainsi de près de 40 % le coût total du réseau. Ses principaux inconvénients résident dans sa sensibilité aux perturbations électromagnétiques de l'environnement et dans une atténuation très importante du signal, proportionnelle à sa longueur. Les paires torsadées sont de ce fait souvent caractérisées par leur produit bande passante * longueur. Elles se distinguent entre elles par leur impédance (100, 120 ou 150 ohms), ainsi que par leur nature :

- les paires non blindées (UTP — Unshielded Twisted Pair) ;

- les paires blindées (STP — Shielded Twisted Pair) : le blindage est réalisé par une partie métallique, tresse ou ruban, visant à protéger le ou les conducteurs du câble des perturbations extérieures et à limiter le rayonnement du câble. Il est efficace contre les interférences à fréquences basses (inférieures à 10 MHz). Le câble blindé doit être relié à la masse, mais il peut apparaître comme une source d'interférences dès lors que les masses ne donnent pas en permanence les mêmes mesures ;

- les paires écrantées : l'écrantage est réalisé par une fine feuille d'aluminium qui s'enroule autour du câble, le dispositif permettant de protéger le câble des interférences à fréquences hautes (supérieures à 1 MHz) tout en assurant une protection relative aux effets de masse. L'écrantage peut être utilisé en conjonction avec le blindage.

Depuis l'explosion des réseaux et en l'absence de normalisation, le câblage a souvent été développé de façon anarchique à l'intérieur des bâtiments. Plusieurs années ont été nécessaires aux associations américaines EIA et TIA (Electronic Industries Association, Telephony Industries Association) avant d'obtenir en 1991 une première mouture de la norme EIA/TIA-568. Ce standard spécifie les minimums requis pour les câblages de télécommunication dans des environnements bureautiques. En particulier, elle définit la bande passante garantie et l'affaiblissement maximum (en fonction de l'impédance) pour chaque catégorie de câble de paires torsadées (tableau 2.1 ).

Page 64: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

4 4 Architecture des réseaux haut débit

catégorie fréquence (MHz) affaiblissement (dB/km)

catégorie fréquence (MHz) 100 ohms 120 ohms 150 ohms

UTP3 16 131 68 45

UTP4 20 102 73 50,5

UTP5 100 220 180 125

Tableau 2.1. Niveau de performances par catégorie de câble UTP

L'EIA/TIA recommande un connecteur de type RJ-45 (spécifié dans la norme ISO 8877) pour les paires UTP. Cette prise comporte huit broches, une par lien physique. L'utilisation des différentes broches est donnée dans le tableau 2.2 pour les deux versions du standard EIA/TIA-568. A titre d'exemple, Token Ring utilise les paires 1 et 3 alors qu'Ethernet 10BASET utilise les paires 2 et 4.

paires 568A paires 568B broche signal

paire 3 paire 2 1 émission donnée + paire 3 paire 2 2 émission donnée -paire 2 paire 3 3 réception donnée + paire 1 paire 1 4 non utilisée paire 1 paire 1 5 non utilisée paire 2 paire 3 6 réception donnée -paire 4 paire 4 7 non utilisée paire 4 paire 4 8 non utilisée

Tableau 2.2. Utilisation des différentes paires dans EIA/TIA-568

2.3.3. Le câble coaxial

Un câble coaxial est constitué de deux conducteurs cylindriques de même axe séparés par un isolant diélectrique. Différentes études ont permis de montrer que le rapport des diamètres des deux conducteurs devait être de 3,6 : on trouvera donc des câbles 2,6/9,5 ou 1,2/4,4 mm. Moins sensible que les paires torsadées aux phénomènes électriques (atténuation, interférences et autres), le câble coaxial offre des débits potentiels beaucoup plus importants (jusqu'à 150 Mbit/s). Mais là aussi, comme pour les paires torsadées, la bande passante est fonction de la qualité des conducteurs, de celle des isolants et de la longueur.

Il y a deux types de câble coaxial qui diffèrent par leur impédance caractéristique qui correspond à la résistance du support. Le câble 50 ohms est généralement utilisé pour transmettre des signaux numériques en bande de base alors que le câble 75 ohms permet la transmission en large bande de signaux numériques ou analogiques. En particulier, le câble 75 ohms est utilisé depuis de nombreuses années dans l'industrie de la télévision câblée d'où son nom de câble CATV.

Page 65: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropol i ta ins 4 5

Le câble 50 ohms est encore appelé câble « bande de base » (baseband) par opposition avec le câble CATV qui est dédié à des services large bande. Sa bande passante est de quelques centaines de MHz permettant des débits très élevés (plusieurs centaines de Mbit/s) en point à point et de l'ordre de 10 Mbit/s en multipoint pour former un bus passif. Il existe sous deux diamètres différents appelés "thick" (diamètres de 2,6/9,5) et "thin" (diamètres de 1,2/4,4). Le câble fin, plus souple et plus maniable, est désormais le plus utilisé. Ces propriétés en ont fait le support privilégié des réseaux locaux en bus. Le connecteur le plus répandu pour le câble épais est la prise vampire : le câble est percé avec le connecteur de manière à réaliser directement la connexion physique et électrique. La connexion sur câble fin utilise une prise en T, (appelée ainsi car elle ressemble à la lettre "T"), l'une des branches permettant de relier la station, les deux autres étant connectées au deux segments de câble.

2.3.4. La fibre optique

La fibre optique peut être utilisée pour véhiculer des signaux de données sous forme de signaux optiques modulés. Elle est constituée d'un cylindre de verre extrêmement fin (le cœur) entouré d'une couche concentrique de verre (le revêtement) et joue le rôle d'un guide d'ondes lumineuses pour des longueurs d'ondes dans la gamme des infrarouges : 850 nm, 1 300 nm, 1 500 nm. L'index de réfraction du revêtement étant plus faible que celui du cœur, le faisceau lumineux est réfléchi vers le cœur dès qu'il heurte le revêtement. Une onde optique guidée par des réflexions successives peut être représentée par des faisceaux de rayons que l'on appelle "modes".

En pratique, on réunit souvent plusieurs fibres au sein d'une même gaine protectrice pour former un câble. Outre la fibre elle-même, une liaison optique comporte une source de lumière, diode électroluminescente, diode laser ou rayon laser modulé qui convertit le signal électrique à transmettre en signal optique, et un détecteur de lumière, photodiode ou phototransistor qui restitue le signal électrique à partir du signal optique reçu (figure 2.5). La diffusion du signal sur la liaison optique n'est pas bidirectionnelle. Il n'est d'autre part pas possible de connecter de manière passive des prises sur une fibre, aussi la connexion est-elle forcément point à point.

émetteur récepteur

• " t — électrique décodeur codeur électrique

Figure 2 . 5 . Connexion à une fibre optique

Page 66: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

4 6 Architecture des réseaux haut débit

Les fibres optiques offrent des bandes passantes très importantes, de l'ordre du GHz pour un débit théorique de 2 Gbit/s (mais seulement 600 Mbit/s en pratique). Leur atténuation est très faible et, les signaux véhiculés n'étant, bien entendu, pas sujets aux interférences électriques, le taux d'erreurs est également très faible (de l'ordre de 10 9 ) . De plus, le câble optique est plus léger et moins encombrant qu'un support à base de cuivre. Néanmoins, le prix d'une liaison en fibre optique reste élevé, en raison des coupleurs optoélectroniques d'une part, et de l'installation de la fibre proprement dite d'autre part. Notons également que les raccordements restent délicats à effectuer et qu'ils posent des problèmes d'affaiblissement.

Il existe plusieurs types de fibre optique :

- la fibre multimode à saut d'indice (diamètres : 50-125 um) dont la bande passante est de 40 MHz sur 1 km,

- la fibre multimode à gradient d'indice (mêmes diamètres) dont la bande passante atteint 500 MHz sur 1 km,

- la fibre monomode (diamètres : 2-8 p.m) qui est la plus fine. Elle ne transmet qu'un seul mode et présente le plus grand potentiel de bande passante, de l'ordre de 100 GHz/km. Toutefois, sa mise en œuvre délicate et son coût élevé font qu'elle n'est pratiquement employée que par les opérateurs de télécommunications pour les très grandes distances.

Pour réaliser des liaisons multipoint, on relie de multiples fibres à un coupleur particulier qui est qualifié d'étoile passive ou d'étoile active. Une étoile passive permet de fusionner plusieurs fibres optiques : tout signal venant d'une fibre est divisé et retransmis sur toutes les fibres de sortie. L'étoile active en diffère par le fait que le coupleur central est un répéteur actif qui convertit donc le signal optique en signal électrique pour le diffuser en sortie ; on évite ainsi les pertes induites par la division du signal dans l'étoile passive.

2.3.5. Supports non guidés

Les supports présentés jusqu'ici ont la caractéristique commune d'être des supports à guide physique. Des supports immatériels, dits « non guidés », peuvent être également utilisés, notamment lorsque la pose d'un câble physique est source de problèmes. Les transmissions par ondes radio-électromagnétiques, par rayons infrarouges, par rayons lasers, par faisceaux hertziens ou par satellites évitent le creusage de canalisations — et ce parfois à travers le domaine public —, l'utilisation de répéteurs, — nécessaires dès lors que la longueur des câbles devient importante — et tout risque de rupture accidentelle des câbles. Le principal inconvénient de ces systèmes de transmission réside dans leur sensibilité aux conditions atmosphériques.

Page 67: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 47

2.4. Topolog ies

La topologie d'un réseau décrit la configuration selon laquelle ses stations sont interconnectées via le support de transmission. On distingue principalement trois types de topologies : l'étoile, le bus et l'anneau.

2.4.1. L'étoile

Dans une topologie en étoile, un contrôleur central raccorde directement toutes les stations du réseau (figure 2.6). Toutes les communications entre deux stations quelconques passent par le nœud central, qui est alors chargé de les gérer et de les contrôler.

contrôleur

centraT\

F i g u r e 2 .6. Topologie en étoile

Le nœud central joue souvent le rôle d'un dispositif de commutation. Lorsqu'une station désire communiquer avec une autre station, le contrôleur établit un circuit entre elles ; les deux stations peuvent alors communiquer et les données être échangées entre elles exactement comme si elles étaient reliées par une liaison dédiée en point à point. Ce type de topologie est en fait employé depuis de nombreuses années pour les systèmes téléphoniques où les postes téléphoniques représentent les stations et le PABX (Private Auto-Branch eXchange) joue le rôle du contrôleur central. C'est une topologie simple, mais qui pose le problème de la fiabilité et de la puissance du nœud central.

Il est possible d'étendre la notion d'étoile à plusieurs niveaux : on obtient alors une configuration en « flocon de neige » (figure 2.7).

F i g u r e 2 .7 . Topologie en flocon de neige

Page 68: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

4 8 Architecture des réseaux haut débit

2.4.2. Le bus

Dans une configuration en bus, chaque station est directement attachée au canal de transmission commun. Suivant le type de support utilisé, le bus peut être bidirectionnel (figure 2.8) ou unidirectionnel. La fibre optique ne permet que des bus unidirectionnels.

terminateur terminateur

Figure 2.8. Bus bidirectionnel

Le bus bidirectionnel est utilisé principalement avec le câble coaxial et constitue une structure passive, qui présente l'avantage de ne nécessiter que des terminateurs aux extrémités du câble. Le terminateur est une résistance électrique d'impédance égale à celle du câble et qui évite les problèmes de réflexion du signal électrique qui arrive à l'extrémité du support. Les stations sont connectées via une prise (en T ou vampire) et envoient des informations grâce à une MAU (Medium Attachment Unit). Cette unité d'accès au support émet et reçoit des signaux électriques ; elle est passive et ne régénère pas le signal. Suivant le protocole d'accès, elle peut avoir d'autres fonctions.

Le support unique étant partagé par l'ensemble des stations du réseau, si deux stations ou davantage se mettent à transmettre en même temps (au temps d'émission près), les signaux générés vont se superposer et se brouiller mutuellement. Ce phénomène est comparable à ce qui se passe dans une assemblée lorsque plusieurs personnes décident de prendre la parole en même temps, ce qui conduit à une cacophonie. On parle ici de collision ou encore de contention d'accès. Il est alors nécessaire de mettre en œuvre une politique de partage pour régler ces conflits : c'est la technique d'accès au support.

Les stations étant connectées en multipoint à un support unique, lorsqu'une trame d'information est émise sur le support, elle est reçue par l'ensemble des stations ; il s'agit de la propriété naturelle de diffusion. Chaque station doit alors vérifier, d'après l'information d'adressage contenue dans la trame, si elle doit garder la copie de la trame et la traiter ou tout simplement l'ignorer.

Le signal transmis sur le support n'étant pas régénéré au passage de la prise, son affaiblissement limite la longueur maximale d'un segment de support. Par exemple, pour un câble de 50 ohms, le segment est limité à 500 m. Cette longueur peut être augmentée en connectant plusieurs segments entre eux au moyen de répéteurs. Le répéteur amplifie et régénère les signaux qu'il reçoit sur chacun des segments de câble. En aucun cas, il ne mémorise des bits. On peut ainsi obtenir une topologie en arbre (figure 2.9). Dans ce type de configuration, le canal de communication est

Page 69: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 4 9

constitué d'un câble à branches multiples, les stations étant attachées comme des feuilles aux branches. Là encore, toutes les stations reçoivent toutes les informations transmises.

répéteur répéteur

F i g u r e 2 .9 . Utilisation de répéteurs sur un bus

Dans le cas d'un bus unidirectionnel, deux supports physiques sont nécessaires, le premier pour permettre à une station d'émettre l'information vers les stations en "aval" et le second pour permettre à la même station de recevoir l'information émise par les stations en "amont". Par symétrie, chaque station est libre de communiquer avec n'importe quelle autre station, en utilisant l'un ou l'autre des deux bus. La figure 2.10 montre la topologie utilisée par le réseau métropolitain DQDB avec deux bus unidirectionnels réalisés en fibre optique.

F i g u r e 2 . 1 0 . Topologie utilisant deux bus unidirectionnels

2.4.3. L anneau

Le câble forme ici une boucle, à laquelle vient s'attacher chacune des stations par l'intermédiaire d'un répéteur. Les différents répéteurs sont reliés deux à deux par des liens en point à point de manière à former la boucle (figure 2.11). Les liens sont unidirectionnels et les répéteurs se contentent de recevoir bit à bit sur le lien d'entrée et de retransmettre sur le lien de sortie. Par conséquent, les informations circulent toujours dans le même sens. De façon similaire à ce qui se passe avec une topologie en bus, une trame envoyée par une station est reçue par l'ensemble des stations et c'est l'adresse qu'elle contient qui permet de déterminer si une station donnée doit en

Page 70: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

5 0 Architecture des réseaux haut débit

tenir compte ou non. La diffusion d'information est ainsi supportée de façon naturelle. Il est également nécessaire de prévoir une politique de partage du support de transmission.

F i g u r e 2 . 1 1 . Topologie en anneau

Le signal étant régénéré par chaque répéteur, contrairement au bus, l'anneau est une structure active le rendant très sensible aux pannes, puisqu'une seule coupure suffit à mettre fin à son bon fonctionnement. D'autre part, cela implique le retrait explicite des informations (par l'émetteur, par le récepteur ou par une station de supervision).

Le manque de fiabilité peut être pallié par un anneau doublé (figure 2.12). Les deux anneaux peuvent transmettre dans le même sens ou en sens inverse. Dans les deux cas, lorsqu'une coupure survient pour l'un des anneaux, l'autre peut prendre le relais, garantissant ainsi le bon fonctionnement de l'anneau en cas de coupure simple.

boucle primaire

boucle secondaire

F i g u r e 2 . 1 2 . Anneau doublé

Les topologies de base pour les réseaux locaux présentent des propriétés identiques, telles que la diffusion et le partage du support entre toutes les stations connectées. Ce partage sera arbitré, le plus souvent de manière distribuée, par ce qu'on appelle le mécanisme ou encore le protocole d'accès au support.

Page 71: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 5 1

2.5. Les familles de contrôle d'accès

L'une des principales particularités des réseaux locaux et métropolitains est le partage d'un support de transmission unique entre les différents utilisateurs du réseau. La méthode de contrôle d'accès décrit comment les stations raccordées au réseau contrôlent leur accès au support de transmission, afin de prévenir ou de régler tout conflit possible [Rubin 90] . De nombreuses techniques, plus ou moins sophistiquées, ont été proposées (et continuent de l'être). Elles peuvent être centralisées, avec l'existence d'une station primaire chargée de régler les conflits d'accès, ou distribuées, avec une répartition du contrôle sur l'ensemble des stations. Elles peuvent être statiques ou dynamiques, déterministes ou non, équitables ou non (vis-à-vis des possibilités d'accès au support données à chacune des stations), avec ou sans contention d'accès. La technique d'accès retenue a des répercussions sur les caractéristiques du niveau physique. Inversement, une topologie particulière impose les composants d'accès et va donc plus ou moins bien s'adapter à une technique d'accès donnée.

Un classement possible des différents mécanismes d'accès est le suivant, avec trois grandes familles :

- l'accès statique, - l'accès déterministe, - l'accès aléatoire.

Nous présentons par la suite les grands principes et quelques exemples pour chacune de ces familles, la liste des techniques présentées étant loin d'être exhaustive.

2.5.1. L'accès statique

Cette famille de protocoles d'accès se caractérise par l'allocation statique de la bande passante. En d'autres termes, la bande passante est répartie de façon définitive entre les stations, soit temporellement, soit fréquentiellement.

2.5.1.1. Accès multiple à répartition dans le temps

Cette méthode, appelée l'AMRT (Accès Multiple à Répartition dans le Temps) ou TDMA (Time Division Multiple Access), consiste à découper le temps en périodes 7", elles-mêmes découpées en n tranches de temps IT. Une unité spécifique est chargée de fournir la synchronisation et de générer périodiquement des trames de durée T. n étant le nombre total de stations, chaque station se voit allouer nominativement une tranche de temps à l'intérieur de chaque trame ou intervalle T. Elle obtient ainsi un droit d'accès périodique et exclusif au canal. La figure 2.13 illustre cette technique appliquée au cas d'un réseau avec quatre stations.

Page 72: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

5 2 Architecture des réseaux haut débit

fréquence

capacité du -

canal

Figure 2.13. La technique AMRT

temps

Le terme de "multiplexage temporel" est parfois utilisé pour désigner cette méthode. Elle est surtout utilisée dans le cadre des applications téléphoniques pour le transfert de la voix numérique.

2.5.1.2. Accès multiple avec repartition en fréquence

Cette méthode, appelée l'AMRF (Accès Multiple à Répartition en Fréquence) ou FDMA (Frequency Division Multiple Access), consiste à découper la bande passante en sous-bandes, chacune étant affectée à une seule station qui en possède l'usage exclusif et qui ne peut en aucun cas utiliser les autres sous-bandes. Cette technique est également connue sous le nom de "multiplexage fréquentiel". La figure 2.14 illustre le cas d'un réseau avec quatre stations. Cette technique est principalement utilisée dans les réseaux large bande, comme par exemple, pour la distribution de programmes de télévision sur câbles.

fréquence capacité i

du i canal

temps

F i g u r e 2.14. La technique AMRF

Les techniques statiques de partage du support sont bien adaptées à des environnements où les ajouts/retraits de stations sont rares (comme dans les réseaux satellites) mais ne conviennent pas à des environnements aussi vivants que les réseaux locaux. En effet, les ajouts/retraits de stations y sont fréquents (parfois toutes les semaines) et nécessiteraient avec de telles techniques d'accès de redéfinir à chaque fois soit la structure de la trame soit la répartition en fréquence, opérations non aisées. Leur deuxième inconvénient est la perte de bande passante lorsqu'une station est inactive. On leur préfère donc des techniques dynamiques, qu'elles soient déterministes ou aléatoires.

Page 73: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 5 3

2.5.2. L'accès déterministe

Cette famille de protocoles d'accès se caractérise, entre autres, par une allocation dynamique de la bande passante. En d'autres termes, la bande passante n'est allouée à une station que si cette dernière en a réellement besoin. Une station doit donc pouvoir solliciter l'utilisation du canal chaque fois qu'elle souhaite émettre. Un mécanisme de décision permet d'élire parmi l'ensemble des stations celle qui sera invitée à émettre tout en veillant à l'équité d'accès entre les stations (à tour de rôle). A l'issue de la transmission ou si la station interrogée n'a rien à émettre, le même scénario d'élection recommence. Sur ce principe de base, deux approches sont possibles, selon la manière dont les demandes d'accès sont gérées :

- le contrôle centralisé, par polling, - le contrôle décentralisé, par jeton.

2.5.2.1. Le polling

Bien que la plupart des techniques de contrôle centralisé soient associées aux réseaux grande distance, il existe quelques réseaux locaux pour lesquels toutes les fonctions de contrôle sont centralisées à l'intérieur d'un seul et même équipement. Plus précisément, le polling constitue une méthode d'accès qui se prête particulièrement bien aux topologies en étoile ou en bus.

Cette technique suppose l'existence d'une station dite "primaire" qui gère l'accès au support. Elle invite les autres stations, dites "secondaires", à émettre en leur envoyant un message de poil, selon un ordre établi dans une table de scrutation. Si la station secondaire interrogée a un message à émettre, elle l'envoie. Dans le cas d'une topologie en étoile, le message transite par la station primaire, qui se charge de le relayer vers la ou les stations destinataires, selon l'adresse véhiculée dans le message. Si la station interrogée n'a rien à envoyer, elle répond de manière négative au poil. Lorsque la station primaire en a fini avec une station secondaire, elle consulte la table de scrutation pour déterminer la prochaine station à interroger. La complexité de l'approche tient essentiellement dans la station primaire : la fiabilité et les possibilités d'extension du réseau reposent sur sa fiabilité et sa puissance. A faible charge, le temps d'accès peut s'avérer long puisqu'il faut tout de même scruter chaque station.

On peut améliorer ce protocole de la façon suivante : après l'émission d'une trame ou lorsqu'elle n'a rien à émettre, une station secondaire passe la main à la station secondaire suivante. En cas de panne de la station primaire (détectable par un silence prolongé), une autre station peut prendre le relais et le réseau peut ainsi continuer à fonctionner. Cette variante est très proche des techniques à jeton.

2.5.2.2. Accès par jeton

Selon cette technique, le contrôle d'accès s'effectue de manière répartie au moyen d'une trame particulière appelée jeton. Ce jeton matérialise le droit à la parole : à

Page 74: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

5 4 Architecture des réseaux haut débit

tout instant, seul son possesseur peut émettre. Le jeton passe de station en station dans un ordre donné, distribuant ainsi le droit d'accès à toutes les stations. Le bon déroulement du protocole exige la participation de toutes les stations. La nature répartie de cette approche implique de prendre de nombreuses précautions ; en particulier, il faut pouvoir éviter qu'une station ne monopolise le jeton et être capable de détecter la perte ou la duplication du jeton.

La complexité réside dans chaque station, ce qui rend cette approche plus robuste que celle centralisée du polling.

On distingue deux méthodes d'accès par jeton, selon la topologie du réseau :

- le jeton non adressé, - le jeton adressé.

Jeton non adressé sur anneau

Lorsque le réseau local a une configuration en anneau, la méthode d'accès généralement employée est le passage de jeton entre les stations de proche en proche suivant le sens de transmission de l'anneau [Bux 81a].

Le fonctionnement de base est le suivant : le jeton, représenté par une configuration binaire particulière, circule en permanence sur l'anneau. Il représente le droit à émettre. Une station qui souhaite émettre doit attendre que le jeton marqué libre passe au niveau de son répéteur et s'en saisir. Une fois en possession du jeton, la station peut émettre ; elle marque le jeton occupé et l'insère dans la trame d'information. La trame circule ensuite le long de l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie au vol et positionne des bits dans la trame pour indiquer le statut de réception. Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de l'anneau (le répéteur associé ne répète pas la trame) et rend le jeton en le marquant libre. Le jeton est alors émis sur l'anneau à destination de la station voisine en aval et ainsi de suite, jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre. Le jeton étant passé entre les différentes stations de l'anneau de proche en proche, il n'y a pas lieu de lui associer une adresse de destination ; c'est pourquoi on parle de jeton non adressé.

Il peut se produire des erreurs qui vont, par exemple, altérer le jeton et donc provoquer sa perte ou encore altérer l'adresse source d'une trame et donc empêcher la station émettrice de la reconnaître et de la retirer de l'anneau. La gestion de ces conditions d'exception est réalisée soit de manière centralisée par une station moniteur désignée soit de manière distribuée par un protocole coopératif entre toutes les stations.

Plusieurs variantes du protocole peuvent être mises en œuvre quant à l'instant de relâche du jeton et quant à la station chargée de retirer la trame d'information de l'anneau.

Page 75: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 55

La station émettrice peut libérer le jeton :

1. lorsqu'elle a reçu sa trame dans son intégralité : cette solution permet de vérifier des bits d'acquittements positionnés par le récepteur mais on limite le nombre de trames en circulation sur l'anneau à une seule en même temps ;

2. dès qu'elle reçoit l'en-tête de sa trame : on obtient un gain de temps par rapport à la première solution mais introduit une limitation sur la longueur de la trame ;

3. tout de suite après avoir transmis sa trame : le gain de temps est encore plus appréciable. De plus, l'utilisation de la bande passante est optimisée puisque plusieurs trames de sources différentes, peuvent être simultanément en circulation sur l'anneau.

Par ailleurs, une trame circulant sur l'anneau peut en être retirée par l'un des deux protagonistes de l'échange :

a. soit l'émetteur, sur reconnaissance de sa propre adresse (soit après réception complète de la trame, soit après réception de l'en-tête de trame seulement) ;

b. soit le récepteur, auquel cas les acquittements au vol ne sont bien évidemment plus possibles. Cela n'est pas possible si le récepteur est multiple.

A titre d'exemple, le Token Ring utilise la combinaison 2a et FDDI la combinaison 3a.

Jeton adressé sur bus

Le concept de passage de jeton peut également être utilisé sur un réseau ayant une topologie en bus ou en arbre. La différence provient du fait que le jeton ne peut plus circuler implicitement de station en station. Il faut par conséquent utiliser un jeton adressé, qui sera envoyé explicitement à une station donnée selon une relation d'ordre définie sur les adresses des stations. Bien que la topologie physique soit en bus ou en arbre, la topologie logique est un anneau en ce qui concerne le passage du jeton. L'anneau virtuel est défini indépendamment de la situation physique des stations sur le câble. Chaque station connaît les adresses de son prédécesseur et de son successeur sur l'anneau virtuel.

Sur la figure 2.15, les stations sont attachées au support de transmission selon une séquence linéaire : A, B, C, D puis E. Toutefois, le jeton est passé selon la séquence représentée par les pointillés, à savoir : A, C, D, E et B, avant de revenir à A. On a ainsi un anneau logique, implanté sur la base d'adresses de stations

Figure 2.15. Bus physique et anneau virtuel

Page 76: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

5 6 Architecture des réseaux haut débit

décroissantes. Le jeton est toujours passé à la station dont l'adresse est celle immédiatement inférieure, jusqu'à ce que la station avec l'adresse la plus faible le reçoive. Il est alors passé à la station avec l'adresse la plus grande, et ainsi de suite. Cette technique a été retenue pour Token Bus.

2.5.3. L'accès aléatoire

Les mécanismes d'accès aléatoire mettent en jeu des concepts très simples, issus des techniques utilisées sur les réseaux radio. Leur caractéristique commune est qu'une station désirant émettre n'a pas besoin d'autorisation pour le faire : la sollicitation est matérialisée par l'accès direct au canal. Il peut alors se produire des conflits d'accès dès lors que le nombre de stations en compétition dépasse l'unité. Différentes techniques de résolution ont été proposées pour qu'en cas de conflit, une seule des stations en compétition soit autorisée à émettre. Ce type de mécanisme est particulièrement bien adapté aux topologies en bus.

2.5.3.1. Le protocole Aloha

A l'origine de la famille de mécanismes d'accès aléatoire se trouve le protocole Aloha, initialement développé en 1970 pour relier les îles d'Hawaï par faisceaux hertziens [Abramson 70]. Dans Aloha, une station émet dès qu'elle a de l'information à envoyer. A l'émission de la trame, un temporisateur est armé avec une durée correspondant au délai de transfert aller et retour pris entre les deux stations les plus éloignées du réseau. Si le temporisateur parvient à expiration sans qu'aucun acquittement n'ait été reçu pour la trame, cette dernière est retransmise. Au bout de n retransmissions restées sans réponse, la station abandonne. A la réception de la trame, la station destinataire effectue une vérification du champ total de contrôle afin de vérifier que la trame n'a subi ni erreurs de transmission ni collision et renvoie un acquittement à la station émettrice si la trame est correcte.

Ce principe est extrêmement simple à mettre en œuvre, totalement décentralisé et ne nécessite aucune synchronisation entre les stations. L'inconvénient est qu'il se produit des collisions dès que plusieurs stations émettent en même temps. Les stations impliquées dans la collision doivent alors retransmettre après une temporisation aléatoire (figure 2.16).

SI

J temporisation

col l i s ion

S 2

temps

temporisation

F i g u r e 2 .16 . Collision avec Aloha

Page 77: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 5 7

Intuitivement, on peut voir que cette anarchie totale au niveau de l'utilisation du support ne permet pas d'obtenir de bonnes performances. En fait, des analyses mathématiques ont montré que seules 18 % des trames candidates à la transmission pouvaient être émises avec succès [Schwartz 87]. Ce manque d'efficacité s'explique en partie par le fait qu'il suffit que le dernier bit d'une trame se superpose avec le premier bit d'une autre trame pour qu'il y ait collision et donc retransmission de deux trames ; de plus, la transmission des trames en collision n'est pas interrompue.

Une version améliorée, dite « Aloha en tranches », consiste à découper le temps en tranches et à n'autoriser l'émission de trame qu'en début de tranche. Une conséquence immédiate est que, s'il se produit une collision, elle se produit sur l'ensemble de la tranche et des trames impliquées (figure 2.17).

S I S3 temporisation collision i

S 2 temporisation

F i g u r e 2 .17. Collision avec Aloha en tranches

Cette discrétisation du temps permet de doubler le taux de réussite en l'amenant à 36 % [Lam 75]. Cette amélioration du débit a été obtenue en réduisant le nombre de collisions en les regroupant sur une tranche, ce qui évite de perturber les transmissions proches de cette tranche. Par contre, cette technique présente l'inconvénient de nécessiter une synchronisation au niveau de toutes les stations.

Il faut également noter que pour les deux versions d'Aloha, le système devient instable (on a un débit qui tend vers 0) lorsque le nombre de stations tend vers l'infini.

2.5.3.2. CSMA (Carrier Sense Multiple Access)

Au début des années 70, R. Metcalfe eut l'idée de reprendre la technique Aloha pour l'exploiter sur un réseau de micro-ordinateurs reliés par un seul câble coaxial [Metcalfe 76] [Lam 80]. Un prototype de ce qui allait devenir Ethernet fut ensuite construit au centre de recherche de Xerox de Palo Alto. Partant du constat que, pour cet environnement, le temps de transmission des trames est largement supérieur au temps de propagation et que, par conséquent, toute émission de trame peut être détectée quasi instantanément par les différentes stations du réseau, R. Metcalfe introduisit le principe d'écoute de la porteuse avant transmission : une station doit écouter le canal avant de transmettre et elle ne peut transmettre sa trame que si le canal est libre. Tout comme dans Aloha, la détection de la collision se fait par non-

temps

Page 78: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

5 8 Architecture des réseaux haut débit

retour d'acquittement. Ce principe d'écoute de la porteuse, connu sous le nom de CSMA (Carrier Sense Multiple Access), permet de réduire sensiblement le nombre de collisions de trames. Néanmoins et malgré l'écoute au préalable, des collisions peuvent encore se produire et ce, à cause du délai de propagation.

Le taux d'utilisation obtenu est meilleur que pour les deux versions d'Aloha. Il dépend en fait :

- du temps de propagation du signal : plus il est faible, plus c'est efficace ;

- de la longueur de la trame : une station qui a réussi à transmettre une trame a tout intérêt à l'envoyer la plus longue possible car la probabilité de collision est la même pour une trame longue que pour une trame courte.

Il existe plusieurs variantes de la technique CSMA, selon le type de décision prise lorsque le canal est détecté occupé par une station souhaitant émettre :

- CSMA non persistant : lorsque la station détecte un signal, elle attend un délai aléatoire avant de réitérer la procédure (écoute de la porteuse, et ainsi de suite...) ; ce temps choisi au hasard permet de réduire le nombre de collisions mais il diminue aussi le taux d'utilisation du canal ;

- CSMA persistant : la station "persiste" à écouter le canal jusqu'à ce que celui-ci devienne libre et elle émet alors (c'est la variante de base retenue au niveau de la normalisation IEEE 802.3) ; cette méthode permet un gain de temps par rapport à la précédente, mais augmente malheureusement la probabilité de collision puisque les trames qui se sont accumulées pendant cette phase d'attente active vont toutes être transmises en même temps ;

- CSMA p-persistant : lorsque le canal devient libre, la station émet avec une probabilité p et diffère son émission avec une probabilité (l-p) ; ceci permet de diminuer la probabilité de collision par rapport au CSMA persistant. L'efficacité de cette variante dépend de la valeur de p : si n stations attendent pour transmettre et que np > 1, il y aura certainement des transmissions multiples et des collisions. Les stations retransmettront alors avec le risque d'entrer de nouveau en collision ; il faut donc estimer n (la charge) et faire en sorte que np < 1. Si p est petit, les stations attendent plus longtemps mais les collisions sont réduites. A faible charge, le canal est mal utilisé.

Ces variantes donnent des performances plus ou moins bonne, selon l'environnement d'utilisation de la technique (nombre de stations, répartition géographique des stations, répartition de la charge soumise entre les différentes stations, valeur de p , etc.).

2.5.3.3. CSMA/CD (CSMA with Collision Detection)

Il s'agit d'une amélioration de la technique CSMA persistant, où une station qui émet continue à écouter le canal pendant sa propre transmission. L'efficacité du

Page 79: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 59

mécanisme est accrue grâce à une détection précoce des collisions. Dès qu'une collision est détectée par une station émettrice, elle arrête sa transmission, elle émet une séquence de bourrage qui sert à renforcer la collision et à la rendre détectable par toutes les stations du réseau puis elle attend un délai aléatoire au bout duquel elle tentera de nouveau d'émettre sa trame. Cette technique ainsi que la norme afférente sont décrites dans le chapitre 3.

Les principaux inconvénients du protocole CSMA/CD résident dans son instabilité à forte charge (le débit tend vers 0) et dans son indéterminisme : un délai maximum d'accès au support ne peut être garanti, la probabilité de subir une collision n'étant jamais nulle.

2 .5 .3 .4 . CSMA/CA (CSMA with Collision Avoidance)

Le principe est le suivant : tout comme dans CSMA/CD, chaque station écoute la porteuse lorsqu'une transmission est en cours. Lorsque la transmission prend fin, chaque station attend un délai spécifique qui dépend de sa position à l'intérieur d'une liste logique de stations. Si aucune autre station n'a commencé à émettre à l'expiration de ce délai, la station peut commencer à émettre. Cette technique met implicitement en place un système de priorités.

Différentes méthodes peuvent être utilisées pour gérer le cas où, à la fin du délai, aucune station n'a de trame à émettre :

- la station de plus haute priorité (celle qui a la plus haute position dans la liste) émet une trame non significative qui va déclencher un nouveau délai propre pour chacune des stations ;

- une alternative consiste à entrer dans le mode "libre pour tous", où n'importe quelle station peut alors transmettre et où l'on utilise alors les techniques de détection de collision pour résoudre les éventuels conflits.

Cette technique permet de distribuer totalement le contrôle d'accès entre les différentes stations du réseau. C'est une particularité qu'elle partage avec les techniques à jeton.

Page 80: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

6 0 Architecture des réseaux haut débit

Exercices

Exercice 2.1

Dressez un tableau récapitulant les principaux avantages et inconvénients de

chaque type de topologie.

Exercice 2.2

Dressez un tableau récapitulant les principaux avantages et inconvénients de

chaque type de mécanisme d'accès.

Exercice 2.3

Donnez les paramètres permettant, dans le cas du jeton sur anneau, d'évaluer le temps maximum entre deux possibilités d'accès au support pour une station donnée.

Exercice 2.4

Considérons le transfert d'un fichier de 1 Mo entre deux stations. Quels sont, s'il

y a lieu :

- le temps de propagation entre les deux stations (7>), - le temps d'émission d'une trame (Te), - le temps de transfert avec acquittement d'une trame (7), - le temps total de transfert (Tlol),

- le débit utile (Du).

réseau

31U

BJJ

IU3U

i3]]

inb3e

dans les cas suivants :

1. Le réseau local est en étoile et utilise la commutation de circuits. Le temps d'établissement est négligeable et la vitesse sur le support est de 64 kbit/s. Les deux stations sont distantes de 10 km et la vitesse de propagation est de 100 000 km/s. Il n'y a pas de protocole de transfert ni d'acquittement.

Page 81: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Caractéristiques des réseaux locaux et métropolitains 61

2. Le réseau local est un bus et les deux stations sont éloignées d'une distance d. Le capacité du support est de C bit/s et la taille d'une trame est de L bits dont O = 80 bits d'en-tête. Chaque trame doit être acquittée par une trame d'acquittement de longueur / égale à 88 bits avant de pouvoir transférer la trame suivante. La vitesse de propagation V est de 100 000 km/s.

Donnez les équations de Te, T, Ttot et D v en fonction de d, C, O et L .

Tracez les courbes de Te t de D v pour :

- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s et L = 2 000 bi ts ;

- L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1, 5, 10, 50 Mbit/s et d = 2 km ;

3 . Le réseau local est un anneau d'une longueur totale 2*d km, les deux stations étant éloignées de d km. L'acquittement par le destinataire est réalisé en marquant un bit particulier de la trame qui retourne à l'émetteur. La taille d'une trame est de L bits dont O = 80 bits d'en-tête. Il y a N répéteurs sur l'anneau ; chacun d'eux introduit un retard de 1 temps-bit au passage d'une trame.

Donnez les équations de Te, T, Tt0, et Dv en fonction de d, C, O, N et L.

Tracez les courbes de T et de D v pour :

- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s, N = 30 stations et L = 2 000 bits ;

- N variant de 10 à 100 stations (par incrément de 10) avec d = 2 km, C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ;

- L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1,5, 10, 50 Mbit/s, N = 30 stations et d = 2 km ;

Résolvez pour les mêmes valeurs de d, C et L que précédemment avec N = 10, 100, 1 000.

Page 82: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 83: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 3

Ethernet et Ethernet 100 Mbit

3.1 . Introduction

3.1.1. Historique

Ethernet est un réseau local en bande de base développé dans les laboratoires de la société Xerox à Palo Alto à la fin des années 70 [Metcalfe 76]. Le protocole d'accès au support est inspiré du système Aloha d'Abramson, testé au début des années 70 sur un réseau radio reliant les îles d'Hawaï [Abramson 70]. En 1980, les sociétés DEC et Intel rejoignent Xerox pour promouvoir ce réseau local [DEC 80]. En 1985, le protocole est amélioré et donne naissance à Ethernet Version 2, qui servira de base à la spécification par l'IEEE [IEEE 802.3].

Le principe de fonctionnement d'Aloha consiste à émettre dès qu'une donnée est prête, ce qui présente comme inconvénient l'apparition de collision entre deux transmissions simultanées et la perte des données transmises. Une station n'ayant pas reçu d'acquittement tente alors une retransmission de sa trame au bout d'un délai aléatoire. L'absence de règles d'accès au support partagé conduit à de très mauvaises performances.

Le réseau Ethernet consistait en un réseau de micro-ordinateurs reliés par un même câble coaxial passif (d'où le nom d'Ether) selon une topologie en bus. Le principe d'Aloha a été amélioré de deux manières. Tout d'abord, une station désirant émettre écoute le canal avant toute transmission, évitant ainsi de nombreuses collisions. Ensuite, la détection d'une collision est accélérée car la station émettrice

Page 84: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

6 4 Architecture des réseaux haut débit

écoute aussi sa propre transmission. Ce protocole d'accès a été normalisé par l'IEEE dans le standard 802.3 sous le nom de CSMA/CD.

L'abréviation CSMA/CD signifie "Carrier Sense Multiple Access with Collision Detection", traduit littéralement par "accès multiple avec détection de présence de porteuse et détection de collision". Par abus de langage, Ethernet désigne un réseau local, c'est-à-dire un ensemble {support, services, protocoles} utilisé pour la mise en place d'un réseau local. La confusion entre le protocole CSMA/CD et Ethernet est souvent faite alors que des différences, même minimes, existent.

3.1.2. Le standard 802.3

Cette spécification concerne :

- l'équivalent de la couche physique de l'OSI qui prend ici le nom de "accès au support physique" (PMA — Physical Medium Access). De par les contraintes techniques imposées par la détection des collisions, les fonctions de cette couche peuvent être réparties entre le dispositif de raccordement à la paire coaxiale et la station proprement dite ;

- la partie inférieure de la couche liaison de données prenant le nom de "contrôle de l'accès physique" (MAC — Medium Access Control). Cette sous-couche permet à la station de chercher à acquérir le droit à émettre et résout par conséquent les situations de contention. De plus, elle dirige les échanges avec la couche "accès au support physique".

La figure 3.1 détaille l'architecture de ce standard.

couches hantes

LLC Logical Link Control

r li

ais

on

-p

hys

iqu

e-

MAC Medium Access Control

FLS Physical Layer Signalling

DTE

PMA

DTE - DataTerminal Equipment

AUI - Attachmenl Unit Interface

MAU - Medium Attachment Unit

MDI - Medium Dependent Interface

PMA - Physical Medium Attachment

AUI

MAU

MDI

médium

F i g u r e 3 .1 . Situation de la couche MAC

Page 85: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 65

La couche physique se compose d'une sous-couche PLS (Physical Layer Signalling) qui effectue l'interface entre les sous-couches MAC et physique et de deux composants, une interface d'attachement (AUI — Attachment Unit Interface) et une unité d'accès au support (MAU — Medium Attachment Unit). L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble et des connecteurs. La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU.

Le plan du chapitre s'articule autour des cinq points essentiels du standard IEEE

802.3 :

- le protocole MAC, - les services MAC, - le protocole PHY, - les services PHY, - les différents supports de transmission.

La dernière partie concerne les extensions d'Ethernet vers les hauts débits,

souvent dénommées "Ethernet 100 Mbit/s".

3.2. Le protocole MAC

3.2.1. Principe de fonctionnement de CSMA/CD

Le protocole CSMA/CD est un protocole aléatoire où les stations peuvent émettre à tout instant, ce qui donne lieu à des contentions d'accès. Pour diminuer les risques de contention, le protocole impose des règles minimales avant la transmission d'une trame, pendant sa transmission et en cas de contention.

3.2.1.1. Transmission d'une trame

La transmission d'une trame ne peut commencer que si le canal est libre. Avant de transmettre, une station se met à l'écoute du canal. Si elle ne détecte aucune porteuse sur le support, elle transmet (figure 3.2 (a)). Si elle détecte un signal en ligne, elle attend que le canal devienne libre pour émettre sa trame (figure 3.2 (b)). Avec cette technique, une station évite d'émettre lorsqu'une autre station est déjà en cours d'émission, ce qui réduit le nombre de collisions, sans pour cela les supprimer toutes !

Page 86: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

6 6 Architecture des réseaux haut débit

SI émet S2 émet S3 écoute

SI émet

S3 émet

S2 écoute S2 émet

temps

S2 écoute

(b) collision de transmissions (a) écoute avant transmission

Figure 3.2. Principe du CSMA

La figure 3.2 illustre deux scénarios de transmission. Dans les deux cas, une station SI écoute le support, le détecte libre et transmet. Une station S2 veut émettre à son tour et détecte le canal occupé. Tout au long de la transmission de S1, elle continue son écoute et transmet dès qu'elle détecte le canal libre. Dans le cas (a), S2 émet à la fin de la transmission de SI , après avoir attendu un délai inter-trame destiné à garantir un intervalle de silence minimum afin de faciliter la gestion du niveau physique. Dans le cas (b), une station S3 s'était mise à l'écoute du canal pendant la transmission de SI. A la fin de celle-ci, les stations S2 et S3 transmettent simultanément et entrent par conséquent en collision.

3.2.1.2. Détection des collisions

La collision se produit lorsqu'au moins deux stations constatent en même temps que le support de transmission est disponible et transmettent simultanément. Physiquement, une collision est donc un signal brouillé violant les règles du codage en bande de base. Pour pouvoir détecter une éventuelle collision, la station écoute aussi le canal pendant sa propre transmission. Si elle détecte un signal non conforme (i.e. une collision), elle stoppe immédiatement sa transmission et transmet une séquence de bourrage (Jamming Signal), pour avertir les autres stations. Cette séquence doit être suffisamment longue pour être notée par les autres stations du réseau ; le paramètre JamSize définit sa taille minimale.

La figure 3.3 illustre le cas extrême où deux stations transmettent simultanément malgré l'écoute préalable. Nous définissons At le temps de propagation d'un signal entre les deux stations SI et S2, situées à chaque extrémité du support. Le scénario est le suivant :

- à to, la station SI commence à émettre une trame.

- à to + At - e, la station S2, à l'autre extrémité, détecte le canal libre et émet sa propre trame.

- à to + At, la station S2 détecte la collision, elle stoppe sa transmission et envoie une séquence de bourrage,

- à to + 2 At, S1 détecte la collision à son tour.

temps

Page 87: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 67

On définit :

- la période de vulnérabilité qui représente la durée pendant laquelle une station éloignée peut détecter le canal libre et transmettre à son tour ; elle est au maximum égale à un temps de propagation entre les deux stations les plus éloignées sur le support ;

- la fenêtre de collision ou slot-time qui représente le délai maximum qui s'écoule avant qu'une station détecte une collision ou encore, le délai après lequel une station peut être certaine d'avoir réussi sa transmission ; elle est égale à deux fois le temps de propagation d'un signal sur le support. C'est l'unité de temps du protocole.

tO

SI

S1 commence sa transmission

S2

tO + At - e

SI

S2 commence sa transmission

S2

t 0 + At

SI

S2 détecte la collision, arrête sa transmission et émet la séquence de bourrage

tO + 2 At

SI

SI détecte la collision

F i g u r e 3.3. Période de vulnérabilité et fenêtre de collision

Nous nous sommes placés dans le pire cas en considérant les stations les plus éloignées. Si on considère une station émettrice quelconque, elle est assurée, au bout de la fenêtre de collision, soit de la réussite de sa transmission, soit d'une collision subie par sa trame.

La durée de la fenêtre de collision a une influence sur la taille minimale d'une trame. En effet, pour que l'on puisse détecter la collision, il faut que la station écoute et donc qu'elle soit encore en train d'émettre. Il faut, par conséquent, que le temps d'émission d'une trame de longueur minimale soit supérieur au slot-time. Sur un réseau Ethernet classique, à 10 Mbit/s, le slot-time dure 51,2 us et la taille minimale d'une trame est de 64 octets.

Page 88: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

68 Architecture des réseaux haut débit

3.2.1.3. Reprise après collision

Après avoir détecté la collision, la station doit retransmettre la même trame au bout d 'un temps aléatoire qui dépend à la fois du slot-time et du nombre n de collisions successives déjà subies pour cette trame.

L'algorithme qui calcule ce délai aléatoire, l'algorithme Binary Exponential Backoff, a été conçu de façon à minimiser le temps d'attente en cas de faible trafic et à minimiser le nombre de collisions successives en cas de trafic important. Il consiste à tirer une variable aléatoire entière M : 0 < M < 2k, où k = min (n, 10) et où n est le nombre total de collisions subies par la station pour la trame considérée. Le délai d'attente avant de tenter une nouvelle transmission est alors pris égal à M fois la fenêtre de collision. Lorsque n atteint 16, il y a abandon de la transmission.

La technique CSMA/CD ne permet pas de garantir un délai maximum d'attente avant transmission. Ce n'est pas un protocole déterministe.

Nous résumons les étapes d'une transmission de trame :

0. Le nombre de collisions est remis à zéro.

1. Si le support est libre, alors étape 3, sinon étape 2.

2. Ecouter en continu le canal jusqu'à ce qu'il se libère, puis étape 3.

3. Transmettre la trame et écouter le canal. Si une collision est détectée pendant la transmission, arrêter la transmission, diffuser une trame de signal de collision sur le réseau, puis étape 4. Sinon, étape 0.

4. Incrémenter le nombre de collisions subies, dérouler l'algorithme de backoff, attendre le temps tiré et retourner à l'étape 1.

3.2.1.4. Réception d'une trame

La topologie du réseau sous-jacent est équivalente à un support à diffusion où toutes les stations reçoivent tous les signaux transportés. La station est toujours à l'écoute du support ; dès qu'elle détecte un signal de porteuse, elle recopie les bits jusqu'à reconnaissance du délimiteur de fin de trame. Le champ de contrôle d'erreur est ensuite vérifié, puis l'adresse de destination comparée à celle de la station. Si la trame est correcte et qu'elle est bien destinée à la station, elle est remise au niveau supérieur (LLC normalement) ; dans le cas contraire, elle est simplement détruite.

3.2.2. Modèle fonctionnel de la couche MAC

Ce modèle décrit les principales opérations de transmission et de réception entre les couches MAC et PHY ainsi qu'entre les couches MAC et LLC. Ces opérations nous donnent les idées de base pour réaliser l'implantation des fonctions du niveau MAC. Il faut considérer deux niveaux au sein de la couche MAC pour que celle-ci soit performante. Le niveau supérieur est dédié à l'encapsulation/désencapsulation des trames entre les couches MAC et LLC et le niveau inférieur à la gestion de l'accès à

Page 89: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 69

la couche PHY par le niveau MAC. A l'intérieur de chacun de ces niveaux, il faudra différencier les fonctions de transmission de trames et celles de réception de trames, qui sont indépendantes les unes des autres. L'organisation de ces opérations est décrite en figure 3.4.

LLC

MAC

PLS

MA DATA.req MA_DATA.conf

— 4

TRANSMIT DATA ENCAPSULATION

la 11

MA.DATA.ind

RECEIVE DATA DECAPSULATION

2b 2c 12

TRANSMIT MEDIA ACCESS MANAGEMENT

l b 3 4 6 7 8 9

RECEIVE MEDIA ACCESS MANAGEMENT

2a 5 10

+ PLS_DATA.cc.nf

PLS_SIGNAL.ind

PLS_DATA.req PLS_CARRIER.ind

PLS.DATA.ind

Figure 3.4. Modèle fonctionnel de la couche MAC

Nous examinons maintenant les différentes fonctionnalités conduisant à la

réalisation du service de cette sous-couche.

1) Transmission d'une trame a) elle accepte les données de la sous-couche LLC b) elle présente une série de bits à la couche physique pour transmission sur

le support

2) Réception de la trame a) elle reçoit une série de bits provenant de la couche physique b) elle présente à la couche LLC les trames reçues soit avec une adresse de

groupe/diffusion soit avec l'adresse de la station c) elle élimine les trames qui ne portent pas l'adresse de la station

3) Attente avant transmission si le support est occupé

4) Ajout du FCS aux trames sortantes

5) Vérification des trames entrantes : FCS, longueur des différents champs de la trame et cohérence entre la valeur du champ longueur des données et la longueur effective des données au sein de la trame reçue

6) Attente de la fin du délai inter-trame avant transmission

7) Arrêt de la transmission dès qu'une collision est détectée

Page 90: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

7 0 Architecture des réseaux haut débit

8) Tentative de retransmission après une collision au bout du délai calculé par l'algorithme de reprise (backoff)

9) Envoi de caractères de bourrage pour renforcer la collision et assurer sa propagation dans tout le réseau

10) Destruction des trames trop courtes

11 ) Construction de la trame

12) Extraction de la partie données des trames reçues

3.2.3. Structure de la trame

Le format de la trame MAC défini dans le standard IEEE 802.3 est représenté en figure 3.5. Du fait du protocole de détection des collisions qui impose à la station de surveiller la bonne propagation de sa trame sur tout le réseau, il a été défini une taille minimale de trame égale à 64 octets. Cette longueur correspond pour un débit de 10 Mbits/s au temps de propagation maximum aller et retour sur un réseau de 2,5 km (spécification de base). Une taille maximale a également été définie, qui est de 1 518 octets.

7 octets 1 octet 2 ou 6 octets 2 ou 6 octets 2 octets 4 octets

marqueur adresse adresse octets de amorce de début destination source longueur données bourrage FCS

Figure 3.5. Format de la trame MAC

La signification des différents champs est la suivante :

- Amorce : elle est présente au début de chaque trame et comporte 7 octets initialises à 10101010. L'amorce permet de synchroniser les horloges des stations réceptrices.

- Marqueur de début de trame (Start Frame Delimiter) : l 'octet a la valeur 10101011 pour indiquer le début de la trame. Il permet la synchronisation par caractère.

- Adresse destination (Destination Address) et Adresse source (Source Address) : ce sont des adresses physiques du réseau codées sur 2 ou 6 octets (figure 3.6). Les adresses de 16 bits ne sont administrées que localement, tandis que celles de 48 bits peuvent l'être soit localement soit globalement (adresse universelle normalisée par l'IEEE). Dans le champ destination, le bit de plus haut rang indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe :

Page 91: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 7 1

1 bit 15 bits

I/G adresse

adresse sur 16 bits 1 bit 1 bit

I/G U/L

adresse sur 48 bits

46 bits

adresse

l/G = 0 - adresse individuelle I/G = 1 - adresse de groupe U/L = 0 - adresse administrée globalement U/L = 1 - adresse administrée localement

Figure 3.6. Format des adresses

L'utilisation d'une adresse de groupe permet à plusieurs stations de recevoir la même trame, on parle alors d'adressage multicast. Si la diffusion est faite sur tout le réseau, le champ destination ne comporte que des bits à 1, l'adressage est de type broadcast.

- Longueur du champ d'information (Length) : sur 2 octets, ce champ indique la longueur effective des données LLC en nombre d'octets, compris entre 0 et 1 500. Il permet de distinguer les données des éventuels octets de bourrage.

- Données (Data) : champ de données LLC.

- Bourrage (Pad) : des octets de bourrage sont ajoutés par la sous-couche MAC lorsque la taille des données est inférieure à 46 octets de données, ce afin de satisfaire la contrainte sur la taille minimale des trames.

- FCS (Frame Control Sequence) : constitué d'un mot de 32 bits, ce champ contient la séquence de contrôle de redondance longitudinale, calculée sur tous les champs exceptés le préambule, le délimiteur de début de trame et le champ de contrôle lui-même. Ce contrôle permet de détecter les erreurs apparues lors de la transmission, dues généralement à des parasites.

Le standard IEEE 802.3, bien qu'issu d'Ethernet, présente quelques différences ; ainsi la trame Ethernet ne comporte pas de champ Length, mais un champ Type qui sert à indiquer par quel point d'accès (SAP) passer pour que les données arrivent au niveau supérieur. Pour la trame 802.3, cette information est véhiculée dans le premier octet du champ information. D'autre part, la trame Ethernet ne propose que des adresses sur 6 octets.

3.2.4. Paramètres du protocole MAC

Le paramétrage est destiné à obtenir, de toutes les stations raccordées, un comportement identique qui est indispensable au bon enchaînement du protocole résolvant les collisions inévitables par nature. Il est le même pour tous les supports

Page 92: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

72 Architecture des réseaux haut débit

normalisés. Les paramètres recommandés par le standard IEEE 802.3 sont donnés en tableau 3 . 1 .

paramètre signification valeur SLOT TIME fenêtre de collision 512 temps-bit INTERFRAME GAP attente entre deux transmissions 9,6 fis ATTEMPT LIMIT nombre maximal de retransmissions 16 BACKOFF LIMIT limite maximale de l'intervalle de tirage 10 JAM SIZE taille de la séquence de bourrage 4 octets MAX FRAME SIZE longueur maximale de trame 1518 octets MIN FRAME SIZE longueur minimale de trame 64 octets ADDRESS SIZE longueur du champ d'adresse 48 bits

Tableau 3 .1 . Paramètres CSMA/CD

3.3. Service M A C

Le service MAC est utilisé par les entités de la couche LLC pour permettre l'échange des données entre les couches MAC et LLC. Le protocole CSMA/CD étant en mode non connecté, le service de la couche MAC ne concerne que le transfert de données.

Les primitives de service de la sous-couche MAC sont au nombre de deux :

- MA_DATA.request, - MAJDATA.indication.

L'enchaînement de ces primitives est montré en figure 3.6. Dans cette figure, la primitive de requête est considérée comme une fonction qui retourne un status. De manière plus abstraite et moins dépendante des considérations d'implantation, on aurait pu tout aussi bien considérer l'existence d'une troisième primitive, MA_DATA.confirmation ou MA_DATA_STATUS.indication.

émetteur récepteur

M A J J A T A . r e q

M A _ D A T A . i n d

F i g u r e 3.7. Enchaînement des primitives du service MAC

Page 93: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 7 3

3.3.1. La primitive MA_DATA.request

Elle permet de transférer des données d'une entité LLC émettrice vers une ou plusieurs (en cas d'adresse de groupe) entités LLC réceptrices. Quand cette primitive arrive au niveau MAC de la station émettrice, une trame est constituée à partir des paramètres de cette primitive et des valeurs propres au niveau MAC, telles que l'adresse source, la longueur des données et la séquence de contrôle qui sont calculées.

La sémantique de la primitive est la suivante :

MA_DATA.request (dest_address, length_data, m_sdu, service_class) :

transmit_status ; où :

- le paramètre destination_address spécifie l'adresse de destination qui peut être

une adresse individuelle ou une adresse de groupe ;

- le paramètre length_data indique la longueur des données LLC ;

- le paramètre m_sdu contient l'unité de données du service MAC, c'est-à-dire la

trame LLC ;

- le paramètre service_class indique la qualité de service demandée par la couche

LLC ou un niveau supérieur. Il n'est pas utilisé dans la cas du protocole CSMA/CD

qui ne fournit qu'une seule classe de service.

La fonction retourne un compte-rendu sur le déroulement de la transmission dans transmit _status qui peut prendre deux valeurs, transmitOK pour signaler que la transmission s'est correctement déroulée et excessive jcollisionjerror pour signaler que la trame a subi un nombre excessif de collisions et que la transmission a été abandonnée.

3.3.2. La primitive MA _D AT A.indication

Cette primitive indique à la couche LLC qu'une trame MAC vient d'arriver au niveau MAC. Elle n'est envoyée vers le niveau supérieur que si son format et son FCS sont corrects et qu'elle est réellement destinée à la station.

Sa sémantique est :

MA_DATA.indication (dest_address,source_address,m_sdu) : reception_status ;

où :

- destination_address définit l'adresse destination de la trame reçue, soit l'adresse individuelle de la station, soit celle d'un groupe de stations auquel elle appartient ;

- le paramètre source_address désigne la station émettrice de la trame reçue ;

- le paramètre m_sdu contient les données de la trame MAC reçue.

Page 94: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

74 Architecture des réseaux haut débit

Le paramètre de retour Reception_status est utilisé pour communiquer au récepteur l'état de l'information après sa transmission. La valeur ReceiveOK permet d'indiquer que la trame ne comporte pas d'erreur et les données sont transmises au niveau LLC dans le paramètre m_sdu. LengthError signale que la valeur du champ longueur (Length) de la trame n'est pas cohérente avec la longueur des données réellement reçues. FrameCheckError indique qu'il n'y a pas égalité entre la valeur du champ FCS de la trame et le mot de contrôle calculé à la réception de la trame. Enfin, AlignmentError signale que la trame reçue est erronée : non seulement le champ de contrôle (FCS) n'est pas valide mais de plus, la longueur de la trame ne correspond pas à un nombre entier d'octets.

3.4. La couche physique

Le niveau physique est essentiellement divisé en trois parties (figure 3.1) :

- la sous-couche PLS (Physical Layer Signalling) gère l'interface avec la couche MAC, permet de générer les signaux électriques pour les bits issus de la sous-couche MAC et inversement de coder les signaux physiques du support en signaux logiques pour la sous-couche MAC ;

- 1'AUI (Attachment Unit Interface) n'est pas forcément physiquement présente et permet à la station d'être éloignée du support ;

- la MAU (Medium Attachment Unit) réalise les principales fonctions du niveau physique et diffère selon le support de transmission utilisé.

Cette configuration permet ainsi d'attribuer un minimum d'éléments électroniques au point d'accès au support physique et tous les aspects matériels et logiciels à la station (carte de contrôleur). Une station peut être alors distante du point d'accès au support.

La transmission est le plus souvent en bande de base sur un câble coaxial (10BASE5, 10BASE2).

3.4.1. Sous-couche PLS

La sous-couche PLS a pour tâche principale de transformer la suite de bits de la trame MAC en signaux électriques qui vont être véhiculés sur le support physique. En même temps, elle surveille le support et peut générer un signal de détection de collision.

Page 95: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 75

3.4.2. Interface AUI

L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble de 50 mètres au maximum avec un connecteur à chaque extrémité. Le câble comporte cinq paires symétriques blindées individuellement. Si la MAU se trouve physiquement sur la même carte que la fonction MAC, l 'AUI n'est pas physiquement présente. L'AUI comporte deux circuits de données {Data_In et Data_Out) et deux circuits de contrôle pour commander la MAU {Control_Out) et pour donner l'état de la MAU (Control_In) ; un dernier circuit permet l'alimentation de la MAU.

Le circuit Control_In véhicule l'un de ces trois messages :

- mau-available : la MAU est prête à envoyer une donnée sur le support et le

canal est libre ;

- mau-not-available (optionnel) : la MAU n'est pas prête à envoyer une donnée sur le support ;

- signal-quality-error : il est envoyé en réponse à l'une de ces trois causes : un signal impropre, une collision ou l'achèvement d'un envoi de données pour confirmer que la signalisation de collision fonctionne correctement.

Le circuit ControljOut véhicule l'un de ces trois messages :

- normal : met la MAU en mode normal, la transmission et la réception sont

possibles ;

- mau-request : demande à la MAU d'être disponible, la station souhaitant

émettre des données ;

- isolate : met la MAU en mode de surveillance, la MAU est isolée du support et la station peut ainsi observer le support en exécutant ses fonctions locales.

Les signaux sont codés selon le procédé de codage Manchester. Le débit du câble est le même que celui du support physique utilisé, aucun tampon n'est alors nécessaire dans la MAU.

3.4.3. Fonctions de la MAU

La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU.

La MAU est une unité d'accès au support qui assure les fonctions suivantes :

- transmission d'un signal sur le support, - réception d'un signal en provenance du support,

Page 96: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

7 6 Architecture des réseaux haut débit

- reconnaissance de la présence d'un signal sur le support physique, - reconnaissance d'une collision, - interruption automatique d'une trame anormalement longue.

Physiquement, c'est un "boîtier d'accès" rattaché au câble ou encore un circuit sur une carte en fond de panier directement connecté aux bus de la machine.

3.5. Service PHY

3.5.1. Les primitives de service

Deux catégories de primitives sont présentes dans la couche physique :

- deux primitives pour le transfert de données entre l'utilisateur MAC et le fournisseur de service PLS :

• PLS_DATA.request (output_unit), • PLS_DATA.indication (input_unit) ;

- deux primitives qui n'ont qu'une signification locale à l'interface MAC-PLS : • PLS_CARRIER.indication (carrier_status), • PLS_SIGNAL.indication (signal_status).

Il est à noter qu'il n'y a pas de primitive de confirmation de transfert de données vers l'entité MAC émettrice.

Les paramètres output_unit et input_unit représentent un seul élément binaire qui peut prendre l'une de ces valeurs :

- ONE, ZERO : valeur binaire de la donnée, - DATA_COMPLETE : transmission terminée (seulement pour output_unit).

Le paramètre carrier_status peut prendre les valeurs suivantes : - CARRIER_ON : signal de porteuse détecté par la MAU, - CARRIER_OFF : aucun signal de porteuse détecté par la MAU.

Le paramètre signal_status peut prendre les valeurs suivantes : - SIGNAL_ERROR : la MAU a détecté une collision, - NO_SIGNAL_ERROR : la MAU n'a détecté aucune collision.

3.5.2. Génération et effets

La primitive PLS_DATA.request est générée par la sous-couche MAC lorsque celle-ci demande à transmettre un bit de données sur le support physique ou à arrêter la transmission. A la réception de cette primitive, l'entité de la sous-couche PLS encode et transmet un seul bit de données ou indique la fin de la transmission, selon le cas.

Page 97: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 77

La primitive PLS_DATA.indication est générée par la sous-couche PLS à destination de toutes les entités MAC du réseau après qu'une primitive de service PLS_DATA.request ait été reçue.

La primitive PLS_CARRIER.indication rend compte de l'activité sur le support à la sous-couche MAC. Elle est générée par la sous-couche PLS à chaque changement de valeur du paramètre carrierjstatus.

La primitive PLS_SIGNAL.indication indique l'état de la couche physique. Elle est générée par la sous-couche PLS dès qu'il y a un changement de la valeur du paramètre signal_status.

3.6. Les supports

Ces dernières années ont vu la multiplication des supports CSMA/CD. La plupart des supports sont utilisés en respectant le protocole CSMA/CD tel qu'il est spécifié dans le standard 802.3. Cependant pour augmenter le débit jusqu 'à 100 Mbit/s, de nouveaux protocoles d'accès ont été développés et qui sont appelés abusivement "Ethernet 100 Mbit". Nous détaillons d'abord le support de base de la spécification — le câble coaxial à 50 ohms ainsi que les répéteurs — et ensuite le support à base de paires torsadées. Nous récapitulons ensuite dans un tableau les principales caractéristiques des autres supports. Dans le paragraphe 3.7, nous présentons les propositions concurrentes pour un réseau Ethernet à 100 Mbit/s.

Les différents supports adoptent une notation en trois parties :

- débit du support en Mbit/s, - type de support, - longueur maximale d'un segment (unité = 100 m).

Ainsi, le support noté 10BASE5 indique que le débit est de 10 Mbit/s, que le support est constitué de câble coaxial bande de base et qu'un segment de ce câble fait au maximum 500 m.

3.6 .1. Supports à base de câble coaxial

Trois spécifications à base de câble coaxial ont été définies : 10BASE5, 10BASE2 [IEEE 802.3a] et 10BROAD36. La spécification du support physique de type 10BASE5 (câble épais), basée sur Ethernet, fut la première spécification introduite dans le standard IEEE 802.3. Le support est donc le câble coaxial à 50 ohms blindé de bonne qualité (câble jaune de type RG11). Le support de type 10BASE2 utilise un câble coaxial fin et non blindé (câble noir RG 58), plus souple et plus simple à manipuler [IEEE 802.3a].

Page 98: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

7 8 Architecture des réseaux haut débit

Le débit est de 10 Mbit/s, ce qui n'est pas sans conséquences sur les paramètres du protocole CSMA/CD (cf. 3.2.4).

Chaque segment de câble est terminé par un terminateur d ' impédance, communément appelé "bouchon", qui évite la réflexion du signal à son arrivée à l'extrémité du câble.

Sur ce support, le codage des signaux se fait en bande de base. L'espacement entre deux stations adjacentes est un multiple de 2,5 m, cela afin d'assurer que les stations adjacentes ne sont pas en phase entre elles. Le nombre maximum de stations connectées par segment est de 100 sur le câble blindé et de 30 sur le câble fin.

La taille d 'un segment est limitée à 500 mètres. Cependant, il est possible d'étendre la longueur du réseau en interconnectant plusieurs segments par l'intermédiaire de répéteurs (unités d'interconnexion permettant d'amplifier le signal), l'ensemble de ces interconnexions se comportant comme un support physique unique. Le standard limite à 4 le nombre de répéteurs sur un chemin de données entre 2 stations, ce qui a pour effet de limiter la longueur totale du réseau à 2,5 km.

La spécification 10BROAD36 [IEEE 802.3b] concerne la transmission des services large bande (d'où son nom). Le câble utilisé est le câble CATV à 75 ohms. La transmission se fait par modulation de fréquence sur des segments de 3.6 km maximum.

3.6.2. Les répéteurs

Nous nous intéressons ici aux répéteurs utilisés pour le réseau 10BASE5 qui est spécifié dans le standard [IEEE 802.3c]. Les répéteurs permettent d'étendre le réseau en juxtaposant deux brins (figure 3.8). Ils sont constitués de deux MAU, chaque MAU étant connectée à un segment différent. Le répéteur est transparent pour le réseau, c'est-à-dire qu'il n'y a pas de mémorisation et que les deux brins ne sont pas isolés l'un de l'autre. En conséquence :

- les signaux numériques sont transmis dans les deux directions entre les deux segments ;

- au passage, les signaux sont amplifiés et régénérés ;

- si un répéteur détecte une collision sur un segment, il transmet des caractères de bourrage sur l'autre segment ;

- si deux stations sur deux segments différents émettent en même temps, il y aura collision.

Le débit maximum fournit par le réseau est de 10 Mbits/s.

Un répéteur permet aussi de connecter des supports de types différents, par exemple : câble épais et câble fin ou câble coaxial et fibre optique. Cependant, les débits doivent être identiques puisqu'il n'y a aucune mémorisation dans un répéteur.

Page 99: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 79

station répéteur

terminateur

câble

transceiver

Figure 3 . 8 . Réseau comportant trois segments de câble

Il est aussi possible de raccorder via une fibre optique deux segments de câble distants d'au plus 1 km (figure 3.9). La fibre est désignée par le terme de liaison inter-répéteur. Le répéteur contient deux MAU de types différents, d'un côté, la MAU pour câble coaxial et de l'autre, la FOMAU (Fiber Optic Medium Access Unit). Le débit sur la fibre optique sera de 10 Mbit/s.

réseau 10BASE5

ou 10BASE2

répéteur

segment de

fibre optique répéteur réseau

10BASE5 *" ou 10BASE2 AUI AUI

FOMAU FOMAU

Figure 3 . 9 . Raccordement de deux câbles distants par une fibre optique

3.6.3. Supports à base de paires torsadées

L'utilisation du câble coaxial entraîne un coût non négligeable, de par le support lui-même et l'installation du câblage. L'utilisation de la paire torsadée remédie à ces inconvénients du fait de son coût et du pré-câblage téléphonique des immeubles. Deux spécifications ont vu le jour : 1BASE5 [IEEE 802.3e] et 10BASET (où T signifie Twisted Pair).

Les stations sont raccordées en étoile à un équipement appelé hub qui joue le rôle de diffusion du bus passif. Le « hub » est un équipement de niveau physique comme le montre la figure 3.10. Il possède une multitude de ports, un port par connexion à une station. Son architecture comporte deux niveaux : le niveau MDI (Medium Dependent Interface) avec une entité par port d'accès et le niveau PLS pour la communication entre les ports.

Page 100: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

80 Architecture des réseaux haut débit

HUB PLS

MDI MDI MDI

station station hub

supérieur

vers les stations vers un hub de niveau supérieur

Figure 3.10. Architecture simplifiée d'un hub

Chaque station est connectée en point à point au hub grâce à deux paires torsadées, une pour chaque sens de transmission. La différence entre 1BASE5 et 10BASET vient du type de paires utilisées : 1BASE5 utilise des câbles UTP catégorie 3 (qualité téléphonique) alors que 10BASET utilise généralement des câbles UTP catégorie 5 (qualité données) et plus rarement des câbles UTP3 ou UTP4. L'utilisation de câbles STP n'est pas définie dans la spécification quoique certains produits les proposent. La longueur de ces paires est au maximum de 250 m pour 1BASE5 et de 100 m pour 10BASET (jusqu'à 150 m en fonction de l'atténuation du signal sur le support qui doit être au maximum de 11,5 dB).

Le hub joue le rôle du bus passif : il retransmet les données qu'il reçoit d'une station vers toutes les autres stations. Par ailleurs, si au moins deux stations émettent simultanément vers le hub, il retransmet un signal de présence de collision à toutes les stations.

Il est possible d'utiliser plus d'un hub dans un réseau de manière à former une hiérarchie de hubs (figure 3.11). Dans ce cas, un hub de niveau intermédiaire retransmet les données reçues d'une station vers le hub de niveau supérieur. Il retransmet les données reçues d'un hub supérieur à tous les hubs inférieurs et toutes les stations qui lui sont raccordées. Il est spécifié cinq niveaux de hubs au maximum pour satisfaire la contrainte de durée maximale sur le slot-time. Les hubs assurent également la fonction de répétition du signal.

hub supérieur

hub intermédiaire

hub intermédiaire

stations stations

F i g u r e 3 . 1 1 . Réseau comportant une hiérarchie de hubs

Page 101: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 8 1

3.6.4. Supports à base de fibre optique

Trois types de supports à base de fibre optique ont été normalisés et sont regroupés sous l'appellation 10BASEF ; chaque type correspondant à une topologie différente [IS 8802-3-14]. La transmission de l'information se fait avec un débit de 10 Mbit/s en bande de base.

La spécification 10BASEFP (P pour Passive Star) définit une topologie en étoile passive qui fusionne les fibres optiques s'y raccordant et permet l'éclatement du signal lumineux. Le cœur de l'étoile ne comporte aucun composant électronique et son temps de traversée est quasi nul. La distance transmetteur-étoile ne doit pas dépasser 500 m.

Le support 10BASEFL (L pour Link) spécifie un type particulier de répéteurs, les répéteurs FOIRL (Fiber Optic Inter Repeater Link) qui permettent l'interconnexion de deux segments de câble ou de fibre optique à distance (figure 3.12). Cette liaison inter-répéteurs est de 1 km dans la première spécification et peut aller jusqu'à 2 km avec la nouvelle. Elle peut aussi servir à bâtir une topologie en étoile autour d'un répéteur multi-port.

réseau 10Base5 réseau 10Base5

fibre optique

i répéteur \FOIRL

répéteur F O I R L /

Figure 3.12. Interconnexion de deux câbles par une fibre optique

Le support 10BASEFB (B pour Backbone) définit une topologie en étoile active permettant la mise en œuvre d'un réseau fédérateur. Il utilise des transmetteurs optiques FOMAU (Fiber Optic Medium Access Unit). La distance étoile-transmetteur peut aller jusqu'à 2 km.

Page 102: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

8 2 Architecture des réseaux haut débit

3.6.5. Récapitulatif

normes 10BASE5 10BASE2 10BROAD36 10BASET 10BASEF support coaxial 50 coaxial fin câble CATV paires

torsadées fibre optique

débit 10 Mbit/s 10Mbit/s 10Mbit/s 10 Mbit/s 10 Mbit/s

longueur segment

500 m 185 m 1 800 m 100 m 1 km

taille réseau 2 500 m 925 m 3 600 m 5 hubs en cascade

interstations

2,5 m min 0,5 m min — 250 m max —

nb stations par segment

100 30 — — —

codage Manchester Manchester modulation Manchester — remarque MAU

intégrée sur carte contrôleur, compatible 10BASE5

pour les services large bande

utilise un hub

utilise un hub

topologie bus bus bus étoile étoile

Tableau 3.2. Récapitulatif des différents supports

3.7. Ethernet 100 Mbit/s

Les nouveaux services multimédias sont gourmands en bande passante et le réseau local devient le goulot d'étranglement du système. Pour cette raison, tant les constructeurs que les utilisateurs ont la volonté de faire évoluer le réseau Ethernet vers les hauts débits, c'est-à-dire les 100 Mbit/s.

Issues des travaux du comité 802.3, deux propositions d'évolution d'Ethernet s'affrontent et ont eu pour résultat la création de deux nouveaux comités : les comités 802.12 et 802.14. Ces deux propositions sont :

- Fast Ethernet qui est l'évolution de la spécification 10BASET, définie par le comité 802.14 ;

- lOOVGAnyLan utilise un nouveau protocole MAC, défini par le comité

802.12.

Parallèlement à ces travaux, des approches totalement différentes mais toutes aussi opérationnelles voient le jour :

- commutateur Ethernet, - Ethernet Isochrone.

Page 103: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 83

3.7.1. Fast Ethernet

Cette proposition est soutenue par 3COM et a conduit à la création d'un nouveau groupe de travail à l'IEEE, le 802.14. La spécification est en cours de finition.

Encore appelé 100BASET, Fast Ethernet est l'évolution naturelle de 10BASET. Le protocole reste identique à CSMA/CD et la topologie est en étoile.

Fast Ethernet spécifie en fait trois supports différents :

- 100BASETX utilise comme 10BASET des paires torsadées non blindées (UTP catégorie 5) mais sur des longueurs de câble réduites (100 m au maximum) pour permettre le débit de 100 Mbit/s. La couche physique est la même que celle de FDDI avec paires torsadées.

- 100BASEFX utilise la fibre optique multimode sur des longueurs de plus de 200 m. La couche physique est la même que FDDI pour ce type de fibre.

- 100BASET4 (anciennement 4T+) utilise des câbles comprenant 4 paires torsadées catégories 3, 4 ou 5. Trois paires sont utilisées pour les données et une paire pour détecter la collision. La longueur d'un tel câble ne devrait pas dépasser 100 m. Le codage utilisé est cette fois-ci, le codage 8B/6T qui code 8 bits dans 6 "trits" qui est un code à 3 états et permet une fréquence de transmission des symboles de seulement 25 MHz.

Le point fort de ces propositions est de rendre possible la migration de 10BASET vers 100BASET en utilisant le même câblage mais avec cependant, de nouveaux composants d'accès. Le codage et le mode de transmission étant le même qu'en 10BASET. il est cependant possible de procéder à une migration progressive du réseau : équiper d'abord les serveurs en cartes 100 Mbit/s puis les stations de travail au fur et à mesure de leur renouvellement.

3.7.2. lOOVGAnyLan

Cette proposition est supportée par Hewlett-Packard, IBM et AT&T Microelectronics. Elle est à l'étude au sein d'un nouveau groupe de travail, le groupe IEEE 802.12.

Son nom « 100VG » provient de "Voice Grade" c'est-à-dire l'utilisation de paires torsadées de qualité téléphonique. Son objectif est, tout comme pour Fast Ethernet, d'augmenter le débit binaire des réseaux 10BASET sans devoir tout recâbler mais aussi d'améliorer l'accès au réseau.

La compatibilité avec 10 BASET est assurée pour les points suivants :

- topologie en étoile-arbre : hub et liens point à point, - hiérarchie d'au maximum 5 hubs,

Page 104: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

84 Architecture des réseaux haut débit

- câblage identique (soit qualité données soit qualité téléphonique), spécifications de pose, de faisceaux et de connecteurs,

- même format des trames Ethernet, - même fréquence de transmission (15-16 MHz).

Les différences sont :

- transmission et signalisation sur les 4 paires au lieu de 2 pour 10BASET, - signalisation Quartet pour la transmission sur les 4 paires à une fréquence

faible (30 MHz), - codage plus efficace (5B/6B au lieu du codage Manchester), - un nouveau protocole d'accès au support, le protocole DPAM, - hub intelligent réglant les conflits d'accès grâce au protocole DPAM.

Le protocole DPAM (Demand Priority Access Method) vise à améliorer l'utilisation du support qui est très faible avec CSMA/CD (moins de 50 %) . Il appartient à la famille de protocoles de type polling [Watson 95]. Le partage d'accès au réseau est maintenant centralisé et concentré dans le hub. Une station qui désire transmettre une trame fait une requête vers le hub indiquant son niveau de service. Le niveau de service dépend du type de trafic : synchrone ou asynchrone. Si le réseau est libre, le hub acquitte la requête de la station et celle-ci peut envoyer sa trame vers le hub. Le hub retransmet directement cette trame vers la station destinataire avec une latence et un délai minimaux ; il n 'y a pas diffusion.

Si plus de deux requêtes arrivent simultanément au hub, il sert d'abord la requête de plus haute priorité. Si elles ont le même niveau de priorité, le hub sert ces requêtes à tour de rôle en allouant la bande passante de manière équitable.

Ce protocole ne présente pas de dégradation de ses performances même lorsque la charge augmente. Simplement, le hub retransmet des trames en continu. La bande passante est donc garantie pour les applications de nature critique.

Les supports préconisés sont de deux types :

- le câble de 4 paires torsadées blindées (STP) avec une longueur maximale de segment limitée à 100 m,

- la fibre optique multimode avec une longueur maximale de segment limitée à

1 km.

Quoique utilisant un câblage identique à celui de 10BASET, la transmission sur les 4 paires ne permet pas de conserver les équipements de connexion aux paires.

Page 105: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 85

3.7.3. Ethernet Full Duplex

Ethernet Full Duplex est encore désigné sous les termes de "Switched Ethernet" ou de "commutateur Ethernet". Dans cette solution, le hub d'une étoile 10BASET est remplacé par un commutateur à très haut débit en vue d'améliorer l'utilisation des équipements par rapport à 10BASET. En effet, lorsqu'un nœud transmet une trame vers son hub de rattachement, ladite trame remonte la hiérarchie puis est rediffusée par le hub racine vers tous ses nœuds et tous les hubs inférieurs et ce, même si les deux nœuds sont connectés au même hub.

Le commutateur évite ces transferts inutiles en agissant comme un pont multi-port ; il ne retransmet une trame que sur son port de destination et effectue ainsi un routage de la trame. Il est toutefois beaucoup plus rapide qu'un pont car il utilise une technologie de commutation rapide permettant le décodage des adresses au vol sans avoir reçu l'intégralité de la trame puis sa propagation immédiate. Cette technique prend les noms de "retransmission rapide" (fast forward) ou de "routage au vol" (routing on the fly) et diffère donc de la commutation de paquets classique qui utilise le "stockage avant retransmission" (store-and-forward). L'apprentissage des adresses est comparable à celui d'un pont intelligent. Le commutateur améliore encore l'utilisation des équipements, d'une part, en évitant les collisions, chaque station étant connectée à un port différent et d'autre part, en permettant la commutation en parallèle de plusieurs communications. Cette dernière fonctionnalité est liée à l'architecture du commutateur (figure 3.13).

port 5

bulfer de sortie

interface Ethernet

buffer d'entrée

buffer de sortie

interface Ethernet

buffer d'entrée

traitement lié à une interface

décodage adresse au vol apprentissage adresse

source routage

butter de sortie

interface Ethernet

buffer d'entrée

port 4

buffer de sortie

interface Ethernet

buffer d'entrée

CPU

table de routage adresse port

buffer de sortie

interface Ethernet

buffer d'entrée

port 1

port 2

port i

F i g u r e 3 . 1 3 . Architecture interne d'un commutateur Ethernet

i o i u r r u t U i i u i i i

Page 106: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

86 Architecture des réseaux haut débit

station 16 ports commutés

\— 10 Mbit/s

station

1 0 Mbit/s

O - 2 Mbit/s

| | - 2 Mbit/s

D -

Les paires torsadées raccordées au commutateur sont utilisées en full duplex (bidirectionnel simultané) avec le même débit d'accès dans chaque sens pouvant aller de 2 Mbit/s à 20 Mbit/s, voire 100 Mbit/s sur certaines implantations (figure 3.14).

Par rapport à un pont, un commutateur Ethernet est moins cher mais il ne permet pour l'instant de connecter que des réseaux ou des équipements utilisant le même protocole d'accès. Tout comme les propositions d'Ethernet 100 Mbit/s, il permet de conserver le câblage 10BASET. Les performances varient d 'un commutateur à l 'autre et dépendent de sa puissance ; celle-ci est définie par sa rapidité de commutation et également par le nombre de communications qu'il peut traiter en parallèle.

e r v e u r

1 serveur

J I

0 Mbit /s -

serveur

Figure 3 .14 . Schéma simplifié d'un commutateur Ethernet

3.7.4. Ethernet isochrone

Une autre proposition est actuellement à l'étude dans le groupe de travail IEEE 802.9. Elle est désignée sous le terme alléchant d"'Ethernet isochrone" bien que le protocole utilisé n'ait rien à voir avec celui d'Ethernet. En effet, le protocole d'accès est de type Slotted et se rapproche donc de celui de DQDB. La topologie est une étoile et le support physique serait compatible avec 10BASET. L'avantage de ce protocole est qu'il permet le transfert de données isochrones.

Page 107: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Ethernet et Ethernet 100 Mbit 87

Exercices

Exercice 3.1

Soit un réseau local en bus de longueur D km. La vitesse de propagation du signal sur le support est de V km/s. La capacité de transfert du support est de C bit/s. Donnez la forme de L, longueur minimale d'une trame pour que le protocole CSMA/CD fonctionne.

A. N. : C = 10 Mbit/s, D = 2,5 km, V = 100 000 km/s

Exercice 3.2

Le protocole CSMA/CD spécifie une longueur minimale de trame de 512 bits. Quelle est la distance maximale d'un chemin de données entre 2 stations pour un réseau à 100 Mbit/s et une vitesse de propagation de 100 000 km/s ? Déduisez la longueur maximale d'un segment de paires torsadées sachant qu'un chemin de données est composé de 2 segments de paires torsadées.

Exercice 3.3

Soit un réseau local en bus utilisant un protocole de type CSMA/CD et comportant 4 stations notées A, B, C et D. A l'instant t = 0, la station A commence à transmettre une trame dont le temps d'émission dure 6 slots. A t = 5, les stations B, C et D décident chacune de transmettre une trame de durée 6 slots.

L'algorithme de reprise après collision est le suivant :

PROCEDURE b a c k o f f ( a t t e m p t s : I N T E G E R ;

VAR m a x b a c k o f f : I N T E G E R ) ;

{ a t t e m p t s : c o m p t e u r d e t e n t a t i v e s d e t r a n s m i s s i o n }

{ m a x b a c k o f f : b o r n e s u p . d e l ' i n t e r v a l l e d e t i r a g e }

C O N S T s l o t _ t i m e = 5 1 , 2 ; { m i c r o - s e c o n d e s }

b a c k o f f _ l i m i t = 1 0 ;

VAR d e l a y : i n t e g e r ; { a t t e n t e a v a n t r e t r a n s m i s s i o n }

B E G I N

I F a t t e m p t s = 1

THEN m a x b a c k o f f : = 2

E L S E

I F a t t e m p t s < = b a c k o f f _ l i m i t

T H E N m a x b a c k o f f : = m a x b a c k o f f * 2

E L S E { m a x b a c k o f f = 2 1 0 } ;

d e l a y : = i n t ( r a n d o m * m a x b a c k o f f ) ;

w a i t ( d e l a y * s l o t _ t i m e ) ;

E N D ;

Page 108: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

8 8 Architecture des réseaux haut débit

r a n d o m est une fonction qui tire de manière aléatoire un nombre réel dans [0,1 [. i n t est une fonction qui rend la partie entière par défaut d'un réel. Dans l'exercice, on considérera que la fonction random rend respectivement et successivement les valeurs données par le tableau suivant :

stations B C D

1 e r tirage 1/4 1/2 3/4

2 e tirage 3/5 1/4 1/4

3 e tirage 1/3 1/2 1/8

1. Dessinez un diagramme des temps gradué en slots décrivant le déroulement des différentes transmissions de trames, en adoptant la légende suivante :

A

slot occupé par A

x slol occupé par une collision slol inoccupé

slot : 0 1 2

A A A A A A

2. Calculez sur la période allant de t = 0 à la fin de la transmission de la dernière trame le taux d'utilisation du canal pour la transmission effective de trames.

Exercice 3.4

1. Deux stations entrent en collision. Pour A, il s'agit d'une première collision, alors que pour B, il s'agit de la seconde collision. Quelle est la probabilité qu'il y ait une nouvelle collision ?

2. En vous basant sur l'algorithme de Backoff, calculez le temps moyen Dn d'attente cumulé pour l'accès au support pour une station lorsqu'elle a subi n collisions successives pour une trame donnée.

Exercice 3.5

On considère un réseau métropolitain sur fibre optique de débit 100 Mbit/s et qui couvre une distance de 100 km. Avec ces paramètres, quelles seraient les valeurs des principaux paramètres du protocole CSMA/CD : temps de propagation, taille minimale d'une trame, durée du slot-time ? Avec ces valeurs, montrez pourquoi le protocole CSMA/CD n'a pas été retenu comme protocole de réseau métropolitain.

Exercice 3.6

Un réseau Ethernet à 10 Mbit/s vous paraît-il apte à transférer :

- des images numérisées fixes (une photo satellite, par exemple), - des images animées (un film, par exemple) ?

Justifiez votre réponse.

Page 109: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 4

Accès à jeton : Token Ring et Token Bus

4.1. Introduction

Contrairement aux méthodes d'accès aléatoire, les méthodes d'accès à base de jeton évitent toute contention d'accès au support en garantissant qu'une seule station à la fois peut émettre sur le support. Deux protocoles normalisés par l ' IEEE utilisent cette technique de partage du support et diffèrent par la topologie du réseau : Token Ring (anneau à jeton) et Token Bus (bus à jeton). Dans ces deux approches, le droit à émettre est matérialisé par une trame particulière appelée jeton (token) qui est transmise de station en station, garantissant ainsi un accès équitable au support. La distribution d'un droit à émettre est héritée de la méthode de polling (cf. chapitre 2) mais contrairement à celle-ci, le passage du droit à émettre est ici complètement décentralisé.

La solution Token Ring a été initialement commercialisée par la compagnie IBM, avec un plan de câblage original [Bux 83]. Le protocole a d'abord été spécifié dans le standard IEEE 802.5, puis repris tel quel dans la norme internationale IS 8802-5. Il s'agit d'un protocole d'accès sur un anneau unidirectionnel. Il utilise complètement les propriétés de la topologie physique du réseau : sachant que le jeton est une trame unique qui circule sur le réseau tant qu'aucune station ne s'en est saisie, l'équité est garantie par la structure d'anneau unidirectionnel qui implique le passage du jeton à tour de rôle au niveau de chaque station.

La technique Token Bus a été mise en place dans des produits pour pallier l 'indéterminisme d'Ethernet. Elle utilise le concept d'anneau logique pour la circulation du jeton entre les stations. Ses spécifications sont données dans le

Page 110: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

90 Architecture des réseaux haut débit

standard IEEE 802.4 et la norme internationale IS 8802-4. Il faut également noter que cette technique a été retenue pour la couche MAC dans le profil d'architecture MAP (Manufacturing Automation Protocol). Le protocole Token Bus, bien que reposant sur le même principe d'accès que le Token Ring, utilise une topologie plus générale, le bus bidirectionnel. Pour conserver la propriété d'équité du protocole, l 'accès au jeton par les stations est toujours fait à tour de rôle, au moyen d'un anneau logique.

Les deux protocoles n'ont pas connu le même succès commercial. Token Bus a été retenu dans le profil d'architecture défini par le groupement MAP [Minet 89] mais n'est à ce jour mis en œuvre que dans un seul produit. De son côté, Token Ring est le réseau local le plus répandu après Ethernet, avec de nombreux produits disponibles sur le marché — IBM et non-IBM.

4.2. Token Ring

4.2.1. Principe de l'accès à jeton

Un anneau à jeton consiste en un ensemble de stations connectées en série par un support de transmission (figure 4.1). L'information est transférée séquentiellement, bit à bit, d'une station active à la suivante et toujours dans le même sens. Une station peut être active et donc connectée à l'anneau (les stations A, C, D, E, F, G et H de la figure 4.1) ou inactive (station B) et ne participant pas aux échanges ; on dit que la station est dans l'état by-pass.

Figure 4.1. Configuration physique de l'anneau

Une trame particulière, appelée jeton, circule en permanence sur l'anneau. Le jeton représente le droit à émettre. Pour émettre, la station doit obtenir le jeton ; en d'autres termes, le jeton doit passer au niveau de son répéteur pour que la station s'en saisisse. Une seule station possède le jeton à un instant donné, évitant ainsi tout risque de collision (figure 4.2). La station détentrice du jeton émet alors une ou plusieurs trames et ce, pendant un temps limité. La trame émise circule le long de l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie et positionne au vol un ou plusieurs bits de son suffixe pour indiquer sa bonne ou sa mauvaise réception.

Page 111: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 9 1

T : jeton Fi : trame i

les stations sont dans l'état Idle (repos) ; seul le jeton circule sur l'anneau

la station A souhaite émettre : elle retire le jeton de l'anneau et commence à émettre sa trame Fl

3/ la station A finit sa transmission

4/ la station C recopie au vol la trame Fl qui lui est adressée

6/ la station A remet le jeton sur l'anneau

F i g u r e 4 . 2 . Accès à l'anneau à jeton

Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de l'anneau (son répéteur ne la répète pas) et rend le jeton. Le jeton circule alors sur l'anneau jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre.

4.2.2. Structure du standard 802.5

Le standard 802.5 spécifie non seulement les couches MAC (Medium Access Control) et physique mais aussi une couche transversale aux deux premières qui concerne la gestion de la station et de l'anneau, réalisée par le protocole SMT (Station ManagemenT) (figure 4.3).

Page 112: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

9 2 Architecture des réseaux haut débit

LLC Logical Link Control

liaison

physique

MAC Medium Access Contre

H 2

V

J

PHY Physical

Station 4anagemenT

support

F i g u r e 4 .3 . Architecture Token Ring

4.2.3. Le protocole MAC 802.5

4.2.3 .1. Les trames MAC

Deux formats de trame différents sont utilisés par le protocole : le jeton et la

trame.

Le format du jeton est défini en figure 4.4. Chaque champ ne comporte qu'un seul octet. Cette trame représente le droit à transmettre sur l'anneau. Les champs du jeton ont la même signification que pour la trame mais ne sont pas positionnés de la même façon.

SD AC ED SD - Starting Delimiter AC - Access Control ED - Ending Delimiter

F i g u r e 4 .4 . Format du jeton

Le format de la trame est défini dans la figure 4.5. Une trame peut transmettre des données ou des informations de contrôle de l'anneau. Par rapport aux standards 802.3 et 802.4, on remarque d'abord l'absence du champ "Préambule", rendu inutile par le fait que toutes les stations sont actives, donc synchronisées en permanence.

-SFS -couverture du FCS—

SE AC FC DA SA RI INFO FCS ED

EFS-

FS

SFS - Start of Frame Sequence FCS - Frame Check Sequence EFS - End of Frame Sequence SD - Starting Delimiter

AC - Access Control FC - Frame Control DA - Destination Address SA - Source Address

RI - Routing Information INFO - Information ED - Ending Delimiter FS - Frame Status

F i g u r e 4 .5 . Format d'une trame

Page 113: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 93

Les champs constituant la trame sont les suivants :

- SD (Starting Delimiter), champ codé sur 1 octet, sert à délimiter le début d'une trame ou d'un jeton. Il a un format de type "JK0JK000", où J et K sont des symboles non binaires (ni 0, ni 1) ne pouvant apparaître ainsi dans le champ de données de la trame ;

- l'octet AC (Access Control) permet l'accès au support car il contient le Token Bit qui est le discriminant entre les deux types de trame (positionné à 0 dans un jeton et à 1 dans toutes les autres trames) (figure 4.6). AC permet d'autre part de mettre en place la surveillance du retrait des trames grâce au bit M (monitor bit). Les bits P de priorité indiquent la priorité du jeton courant. Les bits R de réservation permettent à une station de plus grande priorité d'augmenter la priorité du prochain jeton (cf. 4.2.3.6) ;

P P P T M R R R PPP - priority bits T - token bit M - monitor bit RRR - reservation bits

Figure 4.6. Le champ AC

- FC (Frame Control) décrit le type de trame et ses particularités. Les deux premiers bits, FF, définissent le type de trame (tableau 4.1). Les six bits suivants permettent de différencier les différents types de trame MAC (tableau 4.2). Dans une trame de données (trame LLC), on peut indiquer la priorité de la transmission dans les trois derniers bits du champ FC (ce qui donne un codage du type "01000PPP") ;

FF type de trame

1 x non défini

0 1 trame LLC

0 0 trame MAC

Tableau 4.1. Les bits FF du champ FC

champ FC type de trame MAC

00000000 Test Address Double

00000001 Express Buffer

00000010 Beacon

00000011 Claim Token

00000100 Ring Purge

00000101 Active Monitor Present (AMP)

00000110 Standby Monitor Present (SMP)

Tableau 4.2. Le champ FC

Page 114: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

94 Architecture des réseaux haut débit

- les adresses de destination (DA — Destination Address) et de source (SA — Source Address) sont des champs de 2 ou 6 octets. Elles ont la même signification que pour les autres types de réseaux locaux normalisés (figure 4.7). Le bit I/G donne le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1 ). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale (U/L= 1).

1 bit 1 bit 46 bits

I/G U/L adresse de la station

adresse sur 48 bits

1 bii 15 bits

I/G adresse de la station

adresse sur 16 bits

Figure 4.7. Structure des champs d'adresse

Pour identifier facilement des fonctions d'administration, il est défini des adresses fonctionnelles telles que '01' (en hexadécimal) pour le moniteur actif, '02' pour le serveur de paramètre de l'anneau, '08' pour le moniteur d'erreur de l'anneau ou encore '10' pour le serveur de rapport de configuration ;

- le champ d'information de routage (RI — Routing Information) n'était pas présent dans les spécifications initiales de 1985. Il permet le routage de la trame par la station source, notamment lorsque la trame est appelée à traverser une succession de ponts. La longueur de l'information de routage étant variable (mais néanmoins comprise entre 2 et 30 octets), cinq des bits du premier octet permettent de la représenter (figure 4.8) ;

8 bits de 2 à 30 octets

000 longueur Routing Information

Figure 4.8. Format du champ RI

- le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets. Bien qu'aucune taille maximale ne soit définie, le temps de transmission d'une trame ne doit pas dépasser le temps maximum de détention du jeton de la station. La sémantique de ce champ est déterminée grâce au champ FC : les trames de données contiennent une trame LLC tandis que pour les trames MAC, le format de ce champ dépend du type précis de la trame ;

- le champ de vérification (FCS — Frame Control Check), codé sur 4 octets, permet de vérifier l'intégrité de transmission de la trame ;

Page 115: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 95

- le délimiteur de fin (ED — Ending Delimiter) est une séquence particulière, tout comme le délimiteur de début de trame, qui contient des symboles non binaires (J et K) (figure 4.9). De plus, le bit I positionné à 1 indique qu'il s'agit d'une trame intermédiaire dans une transmission multiple ; il est à 0 dans une trame unique ou sur la dernière trame d'une transmission multiple. Le bit E est transmis initialement à 0, il est positionné à 1 par la première station qui détecte une erreur lors du passage de la trame et n'est plus modifié par les autres stations ;

I 1 — 1 — I J, K - symboles non binaires T fC M I f I i p 1-élément binaire 1

J ' I - bit de trame intermédiaire E - bit d'erreur détectée

Figure 4.9. Le champ ED

- le status de la trame (FS — Frame Status) rend compte des conditions de réception de la trame. Deux indicateurs sont définis, A (adresse du destinataire reconnue) et C (trame copiée par le destinataire). Ces indicateurs sont répétés afin de sécuriser leur transmission.

A C r r A C r r A - bit d'adresse reconnue C - bit de trame copiée r - réservé

Figure 4.10. Le champ FS

Une trame de moins de trois octets est invalide.

4.2.3.2. Transmission d'une trame de données

Le jeton circule de station en station et représente le droit à émettre. Une station qui ne désire pas émettre se contente de répéter les bits entrants en aval de l'anneau.

Pour se saisir du jeton, la station arrête de répéter le signal entrant : elle modifie le Token Bit du champ AC et transmet ensuite les champs nécessaires à une trame : FC, adresses, données, FCS, etc. Pour pouvoir être pris, le jeton doit avoir un niveau de priorité inférieur ou égal à celui de la transmission en cours. Un temporisateur THT (Timer Holding Token) contrôle le temps maximum de détention du jeton par une station.

4.2.3.3. Remise du jeton et retrait de la trame

Après avoir transmis ses trames de données, la station attend l'en-tête de sa première trame ; elle vérifie que le champ SA (Source Address) est égal à sa propre adresse (My_Address) et retransmet le jeton dès qu'elle a fini de transmettre. Après avoir remis le jeton, la station continue à retirer de l'anneau toutes les trames qu'elle y avait émises.

Page 116: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

9 6 Architecture des réseaux haut débit

erreur

0 Répétition

bits r

fin ou expiration de TRR

données et jeton

Transmission _ de trames y

expiration de TRR

Retrait de trames

fin

Attente de retour ^V^d£jrames^-^ /

" O K

Figure 4.11. Automate de transmission

La machine d'états est initialement dans l'état 0 (Répétition). Dans cet état, la station n 'a pas de trame à transmettre et se contente de répéter les bits entrants. Sur réception d'une requête de transmission de données ou d'une trame SMT, elle cherche à détecter le jeton. Dès réception du jeton, elle arme le temporisateur THT et passe dans l'état 1. Dans l'état 1 (Transmission de trames), la station émet toutes les trames de priorité supérieure ou égale à celle du jeton jusqu'à ce qu'il n'y ait plus de PDU à transmettre ou que le temporisateur THT ait expiré. La station émet ensuite une séquence de fin de trame (champs ED et FS) avec un bit I à 0 pour indiquer qu'il s'agit de la dernière trame, arme le temporisateur TRR et passe dans l'état 2. Après avoir détecté le jeton (Token Bit = 0), la station peut détecter des situations d'erreurs, telles que l'absence du champ ED pour le jeton ou la réception d'une trame de réinitialisation du réseau. La détection d'une anomalie provoque le retour à l'état 0. Dans l'état 2 (Attente de retour de trames), la station attend le retour de sa propre trame. Sur réception d'un champ SA (Source Address) contenant sa propre adresse, la

4.2.3.4. Automate de transmission

Le standard spécifie les différentes fonctions MAC sous forme de trois automates d'états finis :

- automate de fonctionnement (operational machine), - automate du moniteur en veille (standby monitor machine), - automate du moniteur actif (active monitor machine).

Nous donnons ici une version simplifiée (sans le mécanisme de priorités) de la machine opérationnelle (figure 4.11). Elle correspond à la partie "transmission" d'une station et inclut donc les deux points décrits précédemment. Deux temporisateurs sont utilisés. Le premier, TRR (Timer Return to Repeat), définit le temps maximum de propagation sur l'anneau ; le second, THT (Timer Holding Token) définit le temps maximum de possession du jeton par la station.

Page 117: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 97

station réémet le jeton sur l'anneau et passe à l'état 3. Si le temporisateur TRR expire sans qu'elle n'ait reçu de trame portant son adresse, le compteur de trames perdues est incrémenté et la station retourne à l'état 0. Dans l'état 3 (Retrait de trames) : la station retire les trames émises jusqu'à réception de sa dernière trame (bit I positionné à 0) et retourne à l'état 0. Si elle ne reçoit pas la dernière trame, elle s'arrête lorsque TRR expire et retourne à l'état 0.

4.2.3.5. Réception

Chaque station, tout en répétant les bits entrants, vérifie si la trame répétée lui est destinée, auquel cas, elle copie les bits en même temps qu'elle les répète. Deux types de trames peuvent lui être destinés, des trames de contrôle de l'anneau en provenance de la station moniteur ou des trames de données dont l'adresse de destination correspond à celle de la station. La station vérifie également si la trame répétée a subi des erreurs de transmission ; dans ce cas, elle positionne au vol le bit E du champ ED de la trame à 1 afin de signaler une erreur détectée. De plus, la station destinataire d'une trame positionne dans le champ FS de la trame les bits A et C à 1, indiquant ce faisant qu'elle a reconnu son adresse et qu'elle a pu copier la trame.

4.2.3.6. Niveaux de priorité

IEEE 802.5 permet huit niveaux de priorité différents. Le mécanisme de priorités intervient entre les stations, certaines stations étant plus prioritaires que d'autres ; il permet, par exemple, à un pont d'écouler plus de trafic qu'une station ordinaire. A l'intérieur d'un niveau de priorité donné, l'accès au jeton est équitable entre les stations. La priorité d'un transfert est définie dans un des paramètres de la primitive de demande de transfert de données MA_DATA.request. Une station ne peut se saisir du jeton que si la priorité de ses PDU prêtes à être transmises est supérieure ou égale à celle du jeton.

Chaque station gère un certain nombre de variables :

- Pm : priorité du message (PDU) qui doit être transmis par la station,

- Pr et Rr : registres qui contiennent respectivement la valeur des bits de

priorités (PPP) et celle des bits de réservation (RRR) du champ AC de la dernière

trame reçue,

- Sr et Sx : piles utilisées pour stocker respectivement l'ancienne et la nouvelle

valeur de priorité d'un jeton,

- R : niveau de réservation transmis par une trame.

Une station qui désire augmenter la priorité d'un jeton commence par réserver la priorité du prochain jeton lors du passage d'une trame. Tout en répétant les bits de la trame, la station va alors positionner les bits de réservation (RRR stockés dans Pr) avec sa propre priorité (Pm) dans le champ AC. Si celle-ci est plus grande (Rr < Pm), alors la station sauvegarde Pm dans R, sinon R reste inchangé. Si c'est

Page 118: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

9 8 Architecture des réseaux haut débit

un jeton qui passe, la station peut modifier le champ de réservation du jeton uniquement si Rr < Pm < Pr.

Quand la station capture le jeton (Pm > Pr), elle transmet toutes ses PDU de niveau de priorité supérieur ou égal à celui du jeton capturé (jusqu'à épuisement des PDU ou expiration de THT). Ensuite, la station remet le jeton avec la même priorité et une valeur de réservation égale au maximum de (Rr, Pm).

Une station qui augmente le niveau de priorité du jeton a la responsabilité de restituer cette priorité au niveau précédent. Pour cela, elle gère deux piles Sx et Sr qui lui permettent de restituer cette priorité le moment venu. Un exemple de ce mécanisme de priorités est traité dans l'exercice 4.2.

4.2.3.7. Les temporisateurs et les drapeaux

Chaque station gère un certain nombre de temporisateurs dont les valeurs sont établies par défaut ou suite à un accord mutuel entre les utilisateurs du réseau local :

- TRR (Timer Return to Repeat) sert à s'assurer que la station peut retourner à l'état de répétition (Repeat). Il est supérieur au temps de latence maximal de l'anneau, soit le délai de propagation d'un signal autour d'un anneau de longueur maximale augmenté des temps de latence de chaque station (par défaut, TRR = 4 ms) ;

- THT (Timer Holding Token) sert à contrôler la période maximale pendant laquelle la station peut transmettre des trames après avoir pris le jeton. La transmission d'une trame ne peut commencer que si la station est "sûre" qu'elle peut être terminée avant l'expiration du THT (par défaut, THT = 8,9 ms) ;

- TQP (Timer Queue PDU) détermine le délai avant envoi d'une trame SMP après réception d'une trame AMP ou SMP (par défaut, TQP = 20 ms) ;

- TVX (Timer Valid Transmission) est utilisé par le moniteur actif pour détecter l'absence de transmission valide (par défaut, TVX = 10 ms) ;

- TNT (Timer No Token) est utilisé pour détecter la perte du jeton (par défaut, TNT = 2,6 s) ;

- TAM (Timer Active Monitor) est utilisé par le moniteur actif pour déterminer la période d'envoi d'une trame AMP (par défaut, TAM = 7 s) ;

- TSM (Timer Standby Monitor) est utilisé par les moniteurs en veille pour vérifier qu'il y a bien un moniteur actif sur l'anneau et pour détecter si un jeton circule en continu (par défaut, TSM = 15 s) ;

- TER (Timer Error Report) sert à reporter les valeurs des compteurs d'erreurs dans des trames Report Error transmises au serveur d'erreurs (par défaut, TER = 2 s) ;

Page 119: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 9 9

- TBT (Timer Beacon Transmit) définit le temps pendant lequel une station émet des trames Beacon avant de passer à l'état by-pass (par défaut, TBT= 16 s) ;

- TBR (Timer Beacon Receive) définit le temps pendant lequel une station peut

recevoir des trames Beacon de son voisin en aval avant de passer à l'état by-pass (par

défaut, TBR = 160 ms).

Les drapeaux sont utilisés pour mémoriser un événement particulier :

- I-FLAG est positionné sur réception d'un champ ED avec le bit I mis à 0 ;

- SFS-FLAG est positionné sur réception d'une séquence SFS ;

- MA-FLAG est positionné sur réception d'un champ Source Address (SA) égal

à l'adresse de la station ;

- SMP-FLAG est positionné par les moniteurs en veille sur réception d 'une

trame SMP ou AMP avec les bits A et C à 0 ;

- NN-FLAG est positionné par le moniteur actif sur réception d'une trame SMP

ou AMP avec les bits A et C à 0 signifiant que le processus de notification est

complet ;

- BR-FLAG est positionné sur réception d'une trame Beacon et remis à zéro dès

réception de toute autre trame.

4.2.4. Protocole SMT et gestion des fautes

La gestion est centralisée dans une station appelée moniteur actif (Active Monitor). Les autres stations sont en veille (Standby Monitor), capables de détecter à tout moment une défaillance du moniteur actif et de prendre la relève du contrôle.

Le moniteur actif est la station qui a gagné le processus d'appel du jeton (Claiming Token) lors de l'initialisation de l'anneau. Pendant cette phase, chaque station arme son temporisateur TVX. S'il arrive à expiration, elle arme alors le temporisateur TNT. S'il expire aussi, elle peut transmettre une trame de contrôle de recherche de jeton (trame Claim Token). Si cette trame effectue une rotation de l'anneau sans que la station ait reçu de trames similaires en provenance d'autres stations (pour le vérifier, elle examine l'adresse source des trames MAC qu'elle reçoit et la compare à sa propre adresse), elle devient alors le moniteur actif et génère un nouveau jeton. Les autres stations deviennent moniteurs en veille et sont à l'écoute.

Le moniteur actif reprend les erreurs portant sur le jeton et sur ce qui circule sur l'anneau. Pour cela, il positionne le bit M (Monitor) à 1 sur toutes les trames qu'il voit passer et réarme le temporisateur TVX à chaque nouveau passage de trame ou de jeton. L'absence de jeton est détectée par l'expiration de TVX ; le compteur d'erreurs est alors incrémenté et une purge de l'anneau est effectuée. Les trames non valides (moins de 3 octets) ou orphelines (trames dont le bit M est déjà positionné à 1) sont

Page 120: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 00 Architecture des réseaux haut débit

retirées de l'anneau et donnent également lieu à une purge pendant TRR. Un jeton circulant de façon persistante avec une certaine priorité est retiré de l'anneau et remplacé par un jeton de priorité la plus faible.

Les moniteurs en veille ont un rôle plus limité. A l'initialisation de l'anneau, chacun s'assure que son adresse de station est unique et qu'elle est connue de son voisin, chaque moniteur notant l'adresse de son voisin direct en amont. A l'état de veille, les moniteurs vérifient qu'il y a toujours un moniteur actif et signalent leur présence à leurs voisins grâce à un protocole coopératif appelé procédure de notification à ses voisins (Neighbor Notification). Cette procédure permet de vérifier la connexité de l'anneau. Elle se déroule de la façon suivante :

- le moniteur actif commence par diffuser une trame AMP (Active Monitor Present) ;

• la station immédiatement en aval effectue les opérations suivantes : • armement de TSM,

• copie de la trame AMP et stockage de l'adresse de cette station (voisin en amont),

• positionnement à 1 des bits A et C de la trame AMP, • armement du temporisateur TQP,

• à expiration de TQP, transmission de sa trame SMP (Standby Monitor Present) ;

- la station voisine effectue le même travail sur réception de la trame SMP et ainsi de suite.

Si son temporisateur TSM expire, un moniteur en veille commence à transmettre une trame Claim Token pour reprendre le rôle du moniteur actif. Si TNT expire ensuite, la station transmet une trame Beacon qui a pour objet de signaler une panne grave conduisant à une réinitalisation de l'anneau.

4.2 .5. Services MAC 802.5

Les services MAC spécifient deux interfaces différentes, la première étant celle avec LLC et la seconde avec celle de l'entité de gestion SMT.

4.2.5.1. Service MAC pour la sous-couche LLC

L'interface MAC/LLC est définie au moyen de trois primitives de service, MA_DATA.request, MA_DATA.indication et MA_DATA.confirmation. Elle est spécifiée dans la norme IS 10039.

La primitive MA_DATA.request permet de demander un transfert de trame LLC à l'entité sous-jacente MAC. Elle possède les paramètres suivants :

Page 121: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 101

- contrôle_de_trame : il donne la valeur de l'octet FC à utiliser pour la trame

MAC ;

- adresse_destination : elle peut être individuelle ou de groupe ;

- m_sdu : c'est la trame LLC à émettre ;

- classe_de_ser\ice_demandée : il s'agit du niveau de priorité Pm à utiliser pour

le transfert.

MA_DATA.indication indique qu'une trame de format valide et à destination de

la station a été reçue par la sous-couche MAC. Elle comporte les paramètres

suivants :

- contrôle_de_trame : il donne la valeur de l'octet FC de la trame reçue ;

- adresse_destination : elle peut être individuelle ou de groupe ;

- adresse_source : elle identifie l'émetteur de la trame ;

- m_sdu : c'est la trame LLC reçue et délivrée ;

- état_de_réception : il indique le succès ou l'échec de la réception, le compte rendu portant sur l'état de la trame reçue (FR_GOOD ou FR_WITH_ERROR (la raison de cette erreur est signalée)), la valeur du bit E (zéro, un ou invalide), les valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou invalide) ;

- classe _de ^service Journie : c'est le niveau de priorité qui a été utilisé pour le

transfert.

MA_DATA_confirmation n'a qu'une signification locale. Elle constitue pour l'entité LLC émettrice une réponse à la primitive MA_DATA_request, indiquant le succès ou l'échec de la transmission (mais pas de la réception). Ses paramètres sont :

- état_de_transmission : il indique le succès ou l'échec de la transmission après le retour de la trame à l 'émetteur, avec l'état de la trame (FR_GOOD ou FR_WITH_ERROR (la raison de cette erreur est signalée)), la valeur du bit E (zéro, un ou invalide) et les valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou invalide) ;

- classe_de_servicefournie : c'est le niveau de priorité Pm effectivement utilisé

pour le transfert.

4.2.5.2. Service MAC pour l'entité SMT

L'interface entre la sous-couche MAC et l'entité SMT est purement locale à la station. Elle est utilisée par le moniteur pour contrôler les opérations de la sous-couche MAC d'une ou de plusieurs stations. Les primitives de ce service sont les suivantes :

-MA_INITIALIZE_PROTOCOL.request, - MA_INITIALIZE_PROTOCOL.confirmation,

Page 122: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 02 Architecture des réseaux haut débit

- MA_CONTROL.request, - MA_STATUS.indication, - MA_NMT_DATA.request, - MA_NMT_DATA.indication, - MA_NMT_DATA.confirmation.

M A J N I T I A L I Z E _ P R O T O C O L . r e q u e s t est utilisée par l'entité SMT pour initialiser ou modifier les paramètres opérationnels de la sous-couche MAC chaque fois qu'i l y a réinitialisation de celle-ci. Les paramètres fournissent une adresse de station (individuelle, de groupe ou de diffusion) et une ou plusieurs valeurs de paramètres MAC (temporisateurs, priorité de la trame AMP, etc.). La réception de cette primitive oblige la sous-couche MAC de la station réceptrice à modifier les valeurs de ses paramètres.

MA_INITIALIZE_PROTOCOL.confirmation est utilisée par la sous-couche MAC pour informer le SMT que la requête précédente est acceptée. Son paramètre status rend compte du succès ou de l'échec de la requête.

MA_CONTROL.request est utilisée par le SMT pour contrôler les opérations de la sous-couche MAC définies dans le paramètre action_de_contrôle.

MA_STATUS.indication est utilisée par la sous-couche MAC pour informer le SMT des erreurs et des changements d'états survenus. Son paramètre rapport_état peut prendre l'une des valeurs suivantes :

- FRAME_CONDITION,

- TX_CLAIM_TOKEN_STATE,

- TX_BEACON_STATE,

- RECEIVE_FRAME_BEACON,

- ENTER_ACTIVE_STATE,

- ENTER_STANDBY_STATE,

- DUPLICATE_AND_DETECTED.

Cette primitive est invoquée par la sous-couche MAC à la suite d'opérations des moniteurs en veille, du moniteur actif ou de la machine opérationnelle.

MA_NMT_DATA.reques t , MA_NMT_DATA. ind ica t ion , MA_DATA. confirmation ont les mêmes rôles respect ivement que les primitives MA_DATA.request , MA_DATA.indication et MA_DATA.confirmation de l'interface LLC/MAC, si ce n'est qu'elles portent, non pas sur des trames LLC, mais sur des trames de contrôle MAC. Elles permettent donc l'envoi, la réception et la confirmation d'envoi de trames de contrôle MAC.

Page 123: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 103

4.2.6. La couche physique

4.2.6.1. Composants de la couche physique

La couche physique est divisée en plusieurs fonctions (figure 4.12).

-^-l

iais

on

-^

LLC Logical Link Control

MAC Medium Access Control

PHY Physical

Medium Interface Cable

MIC

PHY/MIC Cable

Medium Interface Connector

MIC/TCU Cable

TCU Trunk Coupling Unit

Trunk Cable

Figure 4.12. Structure de la couche physique

La sous-couche PHY (physical) est responsable de l'interface avec la couche MAC. Le support (Trunk Cable) permet de transférer un signal en bande de base codé selon le procédé Manchester. La TCU (Trunk Coupling Unit) relie la station via un connecteur (Medium Interface Connector) au support qui peut être physiquement éloigné ou non de la station.

4.2.6.2. Rôle de la TCU

La connexion effective de la station au support est assurée par la TCU que l'on appelle quelquefois répéteur, sa fonction essentielle consistant à répéter les bits entrants. En tant que point d'attache à l'anneau, la TCU assure l'insertion de données, la réception de données, la destruction de données et l'amplification des signaux.

La figure 4.13 présente ses trois principaux états. Dans l'état By-Pass, la station est inactive et la TCU répète les bits entrants de l'amont vers l'aval. Dans l'état Listen, la station est active et la TCU copie chaque bit entrant vers la station tout en retransmettant vers l'aval. Dans cet état, on peut modifier un bit au vol. Enfin, dans l'état Transmission, la station transmet une trame et peut recevoir des bits depuis l'amont de l'anneau ; lorsque ces derniers appartiennent à une autre transmission, la station les stocke, le temps de sa transmission, avant de les retransmettre.

ph

ysi

qu

e

Page 124: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 04 Architecture des réseaux haut débit

état By-Pass

vers la station

anneau amont

de la station

délai 1 bit anneaul

aval

état Listen

vers la • station!

de la station

anneau| amont délai 1 bit

anneau aval

anneau amont

état Transmission

vers la de la station A I station

I a i

délai 1 bit anneau|

aval

Figure 4.13. Fonctionnement de la TCU

4.2.6.3. Le tampon de latence

Le tampon de latence est utilisé par le moniteur actif à deux fins. Tout d'abord, lorsque toutes les stations sont dans l'état de répétition, le jeton ne doit pas revenir trop vite et l'anneau doit donc avoir une certaine latence exprimée en nombre de temps-bit (inverse du débit). Pour cela, un tampon de latence est inséré sur l'anneau, au niveau du moniteur actif, afin de mémoriser temporairement les bits entrants. Sa taille varie d 'un système à l'autre mais un tampon d'au moins 24 bits paraît convenable. Par ailleurs, le tampon de latence sert aussi à compenser les variations de propagation du signal sur l'anneau (gigue), les stations étant synchronisées sur ce signal. Suivant la déviation du signal (en avance ou en retard), le moniteur actif insère ou retire des bits de l'anneau.

4.2.6.4. Supports et câblage

La solution de câblage la plus souvent retenue est celle spécifiée par IBM qui définit une étoile physique. Chaque station est reliée en dérivation à un point de concentration actif (AWC — Active Wiring Concentrator) ou lobe, via des paires torsadées. La figure 4.14 montre une configuration de câblage avec trois concentrateurs. Si la paire torsadée est de type téléphonique (catégorie 3), la distance concentrateur-station ne peut excéder 45 m et une boucle ne peut contenir au total

Page 125: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

A c c è s à je ton : T o k e n Ring et Token B u s 1 0 5

pas plus de 72 stations. Si la paire torsadée est blindée et de qualité donnée (STP 1), la distance concentrateur-station est de 100 m maximum et la boucle peut contenir jusqu'à 260 stations. Ce dernier type de câble est celui préconisé par IBM. Il permet des débits de 4 ou 16 Mbit/s. Il est recommandé de l'utiliser pour des liaisons interconcentrateurs.

msm station

station

concentrateur

A W C

station

Figure 4.14. Plan de câblage IBM

4.2.6.5. Spécification des sen'ices PHY

Comme pour la couche MAC, la couche physique de Token Ring spécifie deux types de service, l'un à l'interface PHY/MAC, l'autre à l'interface PHY/SMT.

L'interface PHY/MAC est composée des trois primitives de service, PH_DATA.request, PH_DATA.indication et PH_DATA.confirmation. Chaque primitive ne spécifie qu'un seul paramètre appelé symbole, dont les valeurs possibles sont 0 (zéro binaire), 1 (un binaire), J (non_data_J) et K (non_data_K).

La primitive PH_DATA.request permet le transfert d'un symbole de données de l'entité MAC vers la couche physique chaque fois que l'entité MAC a des signaux à émettre. La couche physique fournit un service de type synchrone, dans le sens où l'entité MAC ne peut soumettre de nouvelle primitive de requête tant qu'elle n'a pas reçu la confirmation associée à la requête précédente. Sur activation d'une demande de transfert, l'entité physique encode et transmet le symbole. Quand l'entité physique est de nouveau prête à accepter une autre requête de transmission, elle retourne à la sous-couche MAC une PH_DATA_confirmation lui signifiant la fin de la transmission du symbole. Le but de PH_DADA.confirmation est de synchroniser les envois de données de la sous-couche MAC avec le taux de réception de la couche physique. La primitive PH_DATA.indication représente le transfert de données de la couche physique vers l'entité réceptrice de la sous-couche MAC chaque fois que l'entité physique a décodé un symbole.

Page 126: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

106 Architecture des réseaux haut débit

Le service de la couche physique défini à l'interface SMT permet à l'entité SMT de contrôler le fonctionnement de la couche physique. Il est défini au moyen de deux primitives, PH_CONTROL.request et PH_STATUS.indication. La première sert à demander à l'entité physique soit une insertion dans l'anneau (état insert), soit un détachement de l'anneau (état by-pass). La seconde est utilisée par la couche physique pour informer le SMT des erreurs éventuelles et des changements d'états significatifs qui se sont produits (détection de silence sur le support, tampon de latence trop grand ou trop petit, etc.).

4.3. Token Bus

Pour les applications à caractère temps réel, le déterminisme de l'accès au support est impératif. Cependant, la topologie en anneau implique un surcroît de fonctions de gestion — retrait des trames, vérification de la connexité de l'anneau, etc. — qui ne sont pas nécessaires avec une topologie en bus. La raison d'être du protocole Token Bus est donc de cumuler les avantages d'un protocole déterministe avec ceux d'une topologie simple à mettre en œuvre, d'où l'idée d'un accès avec jeton sur bus.

Le protocole d'accès n'est cependant pas le même que celui de Token Ring. L'équité du protocole nécessite la mise en place d'un tour de rôle explicite entre les stations pour l 'accès au support ; ce tour de rôle était implicite avec l'anneau physique. Le jeton est ici explicitement adressé à une station qui en sera le futur détenteur. Enfin, la gestion des stations est réalisée de manière totalement décentralisée entre toutes les stations, aucune n'ayant de rôle privilégié.

4.3.1. Principe de l'accès à jeton sur bus

Comme dans le Token Ring, la station détentrice du jeton conserve le jeton au maximum jusqu'à expiration d'un temporisateur THT (Token Holding Timer) et peut transmettre une ou plusieurs trames. De plus, elle peut demander des réponses à ces trames (poil) de la part des récepteurs. Les récepteurs peuvent donc, sur invitation, envoyer des trames au détenteur du jeton.

Le jeton est figuré par une trame MAC d'un type particulier. Il contient une adresse destinataire et est passé explicitement de l'émetteur de la trame (détenteur actuel du jeton) au récepteur (nouveau détenteur). On parle de jeton adressé.

4 .3 .1.1. Anneau logique

Le tour de rôle entre les stations pour l 'accès au jeton est réalisé grâce au mécanisme d'anneau virtuel (ou anneau logique) qui détermine à qui une station doit remettre le jeton après l'avoir utilisé. L'anneau virtuel définit en fait une relation d'ordre sur les adresses des stations connectées au réseau et actives à un moment

Page 127: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 107

donné. Cette relation correspond à l'ordre décroissant des adresses physiques des

stations sur le bus.

Chaque station connaît l'anneau virtuel grâce aux deux variables PS (Previous Station) donnant l'adresse de la station précédente sur l'anneau et NS (Next Station) donnant l'adresse de la station suivante sur l'anneau. Une troisième variable définit la propre adresse de la station. L'anneau virtuel est défini indépendamment de la situation physique des stations sur le câble. En figure 4.15, la station d'adresse 5 a comme prédécesseur sur l'anneau la station d'adresse 9 et comme successeur, la station d'adresse 3.

station 9 PS = 1 NS = 5

station 5 PS = 9 NS = 3

station 1 PS = 3 NS = 9

stjation 3 PS = 5 NS = 1

station 4 PS = .. . NS = .. .

F i g u r e 4 . 1 5 . Exemple d'anneau virtuel sur un bus

Le maintien de ces variables ne peut se faire dans un connecteur passif sur le bus car il nécessite des mémoire vives ou des registres ; la station doit donc être active c'est-à-dire sous tension. Elle peut alors faire partie de l'anneau à condition de pouvoir y entrer.

4.3.1.2. Procédure de réveil

L'ajout d'une nouvelle station active sur l'anneau se fait par la procédure dite de réveil et d'ajout de stations dans l'anneau. Cette procédure est complètement distribuée et elle est spécifiée dans le protocole.

La procédure de réveil est lancée à l'instigation du détenteur actuel du jeton, avec pour but de faire entrer dans l'anneau un éventuel successeur. La station qui possède le jeton lance périodiquement (tous les N passages du jeton, 16 < N < 255) la procédure de réveil, juste avant de remettre le jeton à la station voisine et ce, seulement si le temps écoulé depuis la dernière fois où elle a eu le jeton n'est pas supérieur à un maximum appelé target_rotationjime (temps maximum de rotation cible du jeton). Cette condition vise à borner le temps maximum de rotation du jeton.

Page 128: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 08 Architecture des réseaux haut débit

La procédure de réveil utilise les objets suivants :

- la fenêtre de réponse ou slot-time est l'intervalle de temps pendant lequel une station peut entendre le début d'une réponse provenant d'une autre station. Sa durée est égale au temps d'émission d'une trame augmenté du temps maximum de propagation aller et retour d'une trame sur le bus ;

- la trame solicit_successor communique à des stations désirant entrer dans l'anneau l'intervalle dans lequel doivent se trouver leurs adresses (délimité par l'adresse source et l'adresse successeur de cette source) ;

- la trame set_successor constitue la réponse à la trame précédente et donne l'adresse du nouveau successeur de celui qui l'a sollicitée ;

- le temporisateur TRT (Token Rotation Timer) définit le temps maximum de rotation du jeton.

Pour illustrer le fonctionnement de la procédure de réveil, nous nous situons dans la configuration donnée en figure 4.15 pour laquelle nous supposerons que la station 4 est de nouveau active et qu'elle désire entrer sur l'anneau. Elle ne pourra le faire effectivement que lorsqu'une station la sollicitera et que cette station aura pour adresse celle de son prédécesseur naturel. Autrement dit, la station 4 devra attendre que la station 5 lance la procédure de réveil. Avant de remettre le jeton, la station 5 envoie donc une trame solicit_successor d'adresse source égale à 5 et d'adresse destinataire 3, ce qui définit un intervalle d'adresses [3, 5]. Elle attend ensuite une fenêtre de réponse ou slot-time. La station 4 se reconnaît et répond à la station 5 par une trame set_successor qui donne son adresse ; elle met à jour ses variables PS et NS (PS = 5, NS = 3). La station 5 reçoit alors la trame set_successor et met à jour sa variable NS (NS = 4). La station 5 transmet le jeton à la station 4. La station 4 est maintenant insérée sur l'anneau (figure 4.16).

station 9 P S = 1

NS = 5

station 5 PS = 9 N S = 4

station 1

PS =3 N S = 9

I

station 3 PS = 5 N S = 1

sjation 4 PS = 5 Us =3

F i g u r e 4 . 1 6 . L'anneau virtuel après insertion d'une nouvelle station

Page 129: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 109

Nous avons décrit le cas où une seule station, à un instant donné et dans un intervalle d'adresses donné, désirait s'insérer dans l'anneau. Prenons maintenant le cas où deux stations satisfont la contrainte d'intervalle d'adresses. Toujours avec l'exemple de la figure 4.15, supposons que les stations d'adresses 6 et 7 souhaitent entrer sur l 'anneau : elles ne le pourront que lorsque la station 9 lancera une procédure de réveil. La station 9 envoie donc une trame solicit_successor spécifiant un intervalle [5, 9]. Dans la même fenêtre de réponse, les stations 6 et 7 envoient chacune une trame set_successor. La station 9 va donc détecter une collision de trames au lieu d'une seule trame valide. Elle entame alors une reprise avec l'envoi d'une trame resolve ^contention et attend cette fois quatre slots-time. Se déroule alors entre les stations en compétition une procédure d'arbitrage réparti qui a pour objet de les départager. L'arbitrage se fait sur la valeur des deux premiers bits de l'adresse de chaque station candidate. Plus précisément, après réception de la trame resolve contention, l'instant d'émission de la trame set_successor sera déterminé par la valeur des deux premiers bits de l'adresse de chacune des stations en compétition :

- 00 : émission immédiate, - 01 : début de la deuxième fenêtre, - 10 : début de la troisième fenêtre, - 11 : début de la quatrième fenêtre.

Si une station doit reporter son émission d'une ou de plusieurs fenêtres, elle écoute pendant ce temps le canal. Si elle détecte une transmission, elle n'enverra pas de trame set_successor pour cette procédure de réveil. De cette façon, une seule station à la fois entre dans l'anneau. Ici, les adresses sont 7, de valeur binaire "0111", et 6, de valeur "0110". Les deux premiers bits étant les mêmes, 6 et 7 vont encore émettre en même temps, en début de la deuxième fenêtre. La station 9 va retransmettre une trame resolve contention, mais l'arbitrage se fait cette fois-ci sur la deuxième paire de bits de l'adresse et uniquement pour les stations ayant émis la fois précédente. Dans notre exemple, les deux bits suivants sont respectivement "10" pour la station 6 et "11" pour la station 7. C'est donc la station 6 qui enverra une trame set_successor dans la troisième fenêtre, la station 7 se retirant. La station 9 mettra ensuite à jour ses variables et enverra le jeton à la station 6.

Le protocole utilise des adresses représentées sur 48 bits ; par conséquent, le processus peut être répété au pire 24 fois. Néanmoins, les temps de propagation étant très courts, la durée de cette procédure n'est pas pénalisante. Le processus d'arbitrage et d'envoi de trames set_successor est tenté jusqu'à ce qu'une trame set_successor arrive bien ou jusqu'à ce qu'il n'y ait aucune réponse pendant quatre fenêtres ou encore jusqu'à ce qu'on ait épuisé tous les bits de l'adresse. Il est important de noter que cet arbitrage suppose l'unicité des adresses.

Un cas particulier est celui où la station de plus petite adresse lance une procédure de réveil. Elle attend deux fenêtres de réponse et peut ainsi faire entrer deux stations dans l'anneau car elle seule peut faire entrer des stations d'adresses plus petites en plus de ses successeurs. Dans notre exemple, quand la station 1 envoie

Page 130: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 10 Architecture des réseaux haut débit

une trame solicit_successor, la première fenêtre sert à faire entrer la station 0 (d'adresse inférieure à 1 ) et la deuxième fenêtre sert à faire entrer la station 10(1 > 9 > 10) si évidemment elle ne détecte aucune autre transmission. La suite du processus est la même.

4.3.1.3. Initialisation de l'anneau logique

Elle a lieu après une panne de la station qui possède le jeton ou lors de l 'installation du réseau. Chaque station arme un temporisateur de détection d'inactivité. A expiration, chaque station envoie une trame Claim Token et attend un slot-time. S'il se produit des collisions, on procède comme précédemment : une station réémet au bout de 2, 4 ou 6 slots-time en fonction de ses deux premiers bits d'adresse. Lorsque la station a épuisé chaque paire de bits de l'adresse sans entendre d'autres transmissions que la sienne, elle considère qu'elle a réussi et qu'elle est détentrice du jeton. Elle lance alors une procédure de réveil pour faire entrer les autres stations dans l'anneau.

4.3.1.4. Retrait d'une station de l'anneau

Une station souhaitant se retirer de l'anneau avant sa mise hors tension, attend de recevoir le jeton et envoie alors une trame de contrôle de type set_successor à son prédécesseur. Elle transmet ensuite le jeton à son successeur. La station quitte ainsi l'anneau tout en maintenant la connexité de celui-ci.

4.3.1.5. Réception d'une trame

Le récepteur ne reçoit que les trames dont il est destinataire. L'émetteur a la possibilité d'activer le service d'interrogation du récepteur (Request with Response). A la réception d'une telle trame, le récepteur peut alors envoyer une trame de réponse, bien qu'il ne possède pas le jeton.

4.3.2. Structure du standard 802.4

L'architecture du standard 802.4 est similaire à celle de 802.5. Le protocole spécifie donc le protocole MAC qui décrit la gestion de l'anneau logique et l'accès par jeton, la couche PHY avec son interface avec la couche MAC, la TCU, les supports ainsi que l'entité de gestion SMT transversale aux deux couches MAC et PHY.

Page 131: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 1 11

LLC Logical Link Control

MAC Medium Access Control

s M T

Station ManagemenT

PHY Physical

-lia

ison

-ph

ysiq

ue-

Drop Cahle

TCU Trunk Coupling Unit Trunk Cable

F i g u r e 4 . 1 7 . Architecture Token Bus

4.3.3. Le protocole MAC 802.4

Les principales fonctions du protocole MAC sont :

- la constitution de l'anneau logique à l'aide de "tronçons virtuels",

- l'ajout et le retrait individuels de stations,

- la mise à jour des variables des stations,

- la supervision et la maintenance du "jeton logique" (Logical Token) via :

• le transfert du jeton de tronçon en tronçon, • la détection de jetons multiples ou de jeton perdu, • la vérification de l'adressage.

Ces différentes fonctions sont mises en œuvre au travers de trames échangées «

le bus, entre les entités MAC des différentes stations de l'anneau.

4 .3 .3 .1 . Les trames MAC

Le format général de la trame MAC est donné en figure 4.18.

—couverture du FCS-

Preamble SD FC DA SA INFO FCS ED

SD - Starting Delimiter FC - Frame Control

DA Destination Address SA - Source Address

INFO - Information ED - Ending Delimiter

F i g u r e 4 . 1 8 . Format de la trame Token Bus

Page 132: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

11 2 Architecture des réseaux haut débit

FF type de trame

11 non défini

10 trame de gestion

01 trame LLC

00 trame de contrôle MAC

Tableau 4.3. Les bits FF du champ FC

champ FC type de trame MAC

00000000 Claim token

OOOOOOOl solicit_successor_ 1

00000010 solicit_successor_2

00000011 who_follows

00000100 resolve_contention

OOOOIOOO token

00011000 set_successor

Tableau 4 . 4 . Le champ FC

Le champ FC des trames LLC suit un codage du type "01MMMPPP", où les bits MMM permettent d'identifier le type de service demandé : un transfert de données sans réponse, un transfert de données avec réponse (polling du récepteur) ou encore une réponse à une requête. Les bits PPP permettent de définir le niveau de priorité du transfert de données ; huit niveaux sont théoriquement possibles mais seuls quatre sont utilisés ;

- les adresses de destination DA (Destination Address) et de source SA (Source Address) sont des champs de 2 ou 6 octets. Ils ont la même signification que pour

Les champs constituant la trame sont les suivants :

- le préambule est une séquence arbitraire d'au moins un octet qui précède toute trame MAC ;

- le délimiteur de début de trame SD (Starting Delimiter) de 1 octet sert à délimiter le début d'une trame. Il a le format "NN0NN000", où N est un symbole non binaire (ni 0 ni 1 ) ;

- le contrôle de trame FC (Frame Control) décrit le type de trame et ses particularités. Les deux premiers bits, FF, définissent le type de trame : trame de données (LLC), trame de contrôle MAC ou trame de gestion de la station (tableau 4.3). Les six bits suivants permettent de différencier les différents types de trame MAC (tableau 4.4) ;

Page 133: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 1 13

les autres types de réseaux locaux normalisés (cf. figure 4.7). Le bit I/G donne le type d'adresse — individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale (U/L = 1) ;

- le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets. La sémantique de ce champ est déterminée grâce au champ FC ;

- le champ de vérification FCS (Frame Control Sequence) permet de vérifier l'intégrité de transmission de la trame. Il représente 4 octets ;

- le délimiteur de fin ED (Ending Delimiter) est une séquence particulière, tout comme le délimiteur de début de trame, qui contient des symboles non binaires (symboles N). Le bit I qu'il contient indique, lorsqu'il est positionné à 1, qu'il s'agit d'une trame intermédiaire dans une transmission multiple ; il est donc à 0 dans une trame unique ou sur la dernière trame d'une transmission multiple. Le bit E est transmis initialement à 0, il est positionné à 1 par la première station qui détecte une erreur lors du passage de cette trame et n'est plus modifié par les autres stations.

N N 1 N N 1 I E

N - symbole non binaire 1 - élément binaire 1 I - bit de trame intermédiaire E - bit d'erreur détectée

Figure 4.19. Le champ ED

4 .3.3 .2. Temps maximum de rotation du jeton et priorités

La bande passante du réseau est allouée en utilisant un jeton temporisé. Les principes en sont les suivants :

- les trames de plus haute priorité sont transmises de toute façon dans la limite d'un temps maximum défini pour toutes les stations par le protocole de gestion ;

- à chaque classe de priorité est associé un temps de rotation maximal du jeton ;

- pour chaque classe, la station mesure le temps mis par le jeton pour faire le tour de l'anneau ;

- si le jeton revient avant son temps maximal, la station peut envoyer des trames de cette classe jusqu'à expiration du temporisateur ;

- si le jeton arrive après son temps maximal, la station ne peut envoyer de trames de ce niveau de priorité et elle relâche le jeton.

IEEE 802.4 n'offre que quatre niveaux de priorité numérotés dans l'ordre croissant 0, 2, 4 et 6. Le niveau de priorité souhaité est un paramètre de la primitive de demande de transfert de données MA_DATA.request. La priorité intervient entre les trafics issus d'une même station, découpant ainsi la bande passante disponible lorsque la station possède le jeton en sous-bandes dédiées à chaque niveau de priorité.

Page 134: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 14 Architecture des réseaux haut débit

Pour mettre en œuvre ce mécanisme de priorités, chaque station utilise quatre temporisateurs. Le temporisateur THT (Token Holding Timer) définit le temps maximal de possession du jeton pour envoyer des données de niveau 6. Les temporisateurs TRT4, TRT2 et TRTO (Token Rotation Timer for class 4, 2 and 0) définissent le temps maximum qu'un jeton peut mettre pour effectuer une rotation pour la transmission respectivement en classe 4, 2 et 0. La classe 6 est utilisée pour le trafic temps réel, puisqu'un accès est garanti tous les n* THT (n étant le nombre de stations). Lorsqu'il n'y a pas de données synchrones à transmettre, on peut transférer des données asynchrones. »

4.3.3.3. Gestion des fautes

La gestion des fautes liées au jeton est assurée par la station qui détient le jeton. Ces fautes concernent la duplication du jeton, les erreurs sur le jeton, les pannes de la station détentrice du jeton, les pannes du récepteur et enfin la perte du jeton.

passage du

jeton

écoute pendant 1 slot-time

trame valide collision aucune transmission

attente pendant 4 slots-time

renvoi du jeton

2 e fois who-follows

réception de

set-successor

aucune réponse

renvoi du jeton

processus solicit-successor

succès renvoi

du jeton

aucune réponse

panne grave

F i g u r e 4 . 2 0 . Surveillance du jeton par la station qui le possédait

Page 135: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 1 15

Lorsque la station détentrice du jeton détecte une autre transmission sur le bus, elle en déduit qu'une autre station possède aussi le jeton (ceci peut se produire lorsque deux stations ont la même adresse). Dans ce cas, elle détruit son propre jeton et retourne à l'état d'écoute. Les trois fautes suivantes (erreur sur le jeton, panne du détenteur et panne du récepteur) apparaissent lors du passage du jeton. Aussi, après avoir transmis le jeton, l'émetteur du jeton écoute le support pendant un slot-time afin de détecter la transmission d'une trame ou d'un jeton par le nouveau détenteur du jeton. Dans ce cas, il retourne à l'état d'écoute. S'il entend une collision, il écoute de nouveau le support pendant quatre slot-times. S'il n'entend rien, il renvoie le jeton à son successeur et écoute de nouveau. S'il n'entend toujours rien, il transmet une trame who-follows qui demande l'identité de son successeur sur l 'anneau logique. Cette trame est acquittée par une trame set-successor en provenance de son successeur. S'il ne reçoit rien, il entame une procédure de réveil qui va déterminer son nouveau successeur. Si cette procédure ne donne aucun résultat, il cesse toute transmission et lance une réinitialisation de l'anneau. La figure 4.20 résume les différentes actions liées à la surveillance du jeton.

Il faut également prévoir le cas où le jeton se perd. Pour pouvoir détecter ce problème, chaque station qui passe le jeton arme un temporisateur bus Jdle Jimer. Si celui-ci arrive à échéance sans que la station n'ait détecté d'activité sur le canal, elle en conclut que le jeton a été perdu et entame alors un processus de régénération du jeton.

4.3.4. Services MAC 802.4

4 .3 .4.1. Service MAC pour la sous-couche LLC

Le protocole Token Bus, comme les autres protocoles MAC, opérant en mode non connecté, le service de la couche MAC ne concerne que le transfert de données. Ce dernier peut s'effectuer en point à point ou point à multipoint, avec acquittement ou sans acquittement.

Les primitives de service de la sous-couche MAC sont au nombre de trois. Il s'agit de MA_DATA.request, de MA_DATA.indication et de MA_DATA. confirmation. Leur sémantique est identique à celle des primitives de service du Token Ring (cf. 4.2.5). L'enchaînement de ces primitives est montré en figure 4.21. Le standard IEEE les définit sous forme de procédures. La primitive de confirmation donne à l'entité LLC émettrice un compte rendu à signification purement locale.

Page 136: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 1 6 Architecture des réseaux haut débit

Emetteur

MA_DATA.request

MA_DATA.confirmation

Récepteur

MA DATA.indication

Figure 4.21. Enchaînement des primitives du service MAC

L'activation du service de confirmation autorise le récepteur de la trame de données à envoyer lui aussi une trame de données en réponse, même si l'entité MAC de celui-ci ne possède pas le jeton (figure 4.22). Ceci se fait grâce à la primitive MA_DATA.request pour laquelle le paramètre service_class indique et le niveau de priorité demandé par la couche supérieure et le service de confirmation de remise. Ce dernier peut prendre l'une de ces trois valeurs : request_with_no_response, request_with_response et response.

Emetteur

MA_D ATA.request (request_with_response)^

MA_D ATA.confirmation

MA_D ATA.indication

Récepteur

MA_DATA.indication (request_with_response)

MA_DATA.request (response)

MA_DATA.confirmation

Figure 4.22. Service de confirmation de remise

La primitive MA_DATA.indication possède un paramètre quality qui définit le niveau de priorité du transfert et qui peut aussi indiquer l'activation du service de remise garantie. Dans ce cas, l'entité LLC peut transmettre une MA_DATA.request en réponse avec le paramètre senice_class positionné à la valeur response.

4.3.4.2. Sen'ice MAC pour l'entité SMT

Les primitives de service MAC offertes à l'entité de gestion de la station (Station ManagemenT) sont décrites dans le tableau 4.5. Le passage de ces primitives est seulement local à l'entité MAC.

Page 137: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 117

Primitives Paramètres Effet

MA INIT PROTOCOL.request MA_INIT_PROTOCOL.confirmation

protocole désiré, status qui indique la réussite de la réinitialisation

requête et confirmation pour réinitialiser la sous-couche MAC

MA_SET_VALUE.request MA_SET_VALUE.indication

nom_de_ vari able (adresse de la station, slot_time, temporisateurs de chaque niveau de priorité, TRT), sa valeur

permet de modifier la valeur d'une variable du protocole

MA_EVENT.indication événements (changement d'adresse du successeur, ... )

indique l'arrivée d'un événement

MA_READ_VALUE.request MA_READ_VALUE.indication

variables (adresse du successeur, adresse du prédécesseur, nombre de stations dans l'anneau, temps de rotation du jeton mesuré, nombre de trames correctes reçues, nombre de trames erronées reçues, .. .)

permet de lire la valeur d'une variable du protocole

MA_GROUP_ADDRESS request MA_GROUP_ADDRESS.indication

adresse de groupe définit une nouvelle adresse de groupe

MA_FAULT_REPORT.indication type de faute (adresse dupliquée, émetteur en panne, .. .)

indique une faute au niveau MAC suite à une collision ou à un comportement incorrect

MA_CDATA.request MA_CDATA.indication MA_CDATA. confirmation

paramètres habituels pour un transfert de données

permet à l'entité SMT de transférer des trames SMT

Tableau 4.5. Récapitulatif des primitives MAC/SMT

Ces services permettent :

- de réinitialiser l'entité MAC,

- de sélectionner la longueur des adresses MAC dans le réseau,

- de spécifier les valeurs des temporisateurs et des temps utiles au protocole

MAC,

- de lire les valeurs des paramètres courants de l'entité MAC,

- de notifier des changements dans ces valeurs,

- de spécifier à quel(s) groupe(s) d'adresses la station appartient,

- d'envoyer et de recevoir des trames de contrôle.

Page 138: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 1 8 Architecture des réseaux haut débit

4.3.5. La couche physique

4.3.5.1. Les supports

Le standard IEEE 802.4 a retenu trois types de supports à base de câble coaxial 75 ohms (tableau 4.6). Les deux premiers sont appelés "carrierband", ce qui signifie que la bande passante du support est dédiée à une seule transmission analogique sur une seule fréquence porteuse. Il en résulte une simplification et un coût moindre des connexions sur le support. Les débits autorisés sont de 1, 5 ou 10 Mbit/s. Le troisième type de support est dédié au système large bande et permet trois canaux de données à des débits respectifs de 1, 5 et 10 Mbit/s avec des bandes passantes de 1,5 MHz, 6 MHz et 12 MHz ; il utilise un câble coaxial unique divisé en sous-bandes de fréquences. Le support le plus récent est la fibre optique qui offre des débits de 5, 10 ou 20 Mbit/s. Les caractéristiques de la transmission du signal spécifient une bande passante de 270 nm et la longueur d'onde porteuse est située entre 800 et 910 nm. Ce support peut être utilisé avec n'importe quelle topologie logique en bus, c'est-à-dire possédant les propriétés de diffusion et de contention d'accès. Il est recommandé l'utilisation d'étoile active ou passive.

Carrierband Carrierband Broadband Fibre optique

débit (Mbit/s) 1 5 - 10 1 - 5 - 1 0 5 - 1 0 - 2 0

bande passante — — 1 , 5 - 6 - 12

MHz

270 nm

modulation Manchester

Phase continue

Phase coherent/

FSK

AM/PSK on-off

topologie bus

bidirectionnel

bus

bidirectionnel

arbre étoile passive

ou active

support câble 75 ohms câble 75 ohms câble 75 ohms fibre optique

Tableau 4.6. Les supports Token Bus

4.3.5.2. Le service PHY

Les primitives de service qui définissent l'interface PHY/MAC sont au nombre de quatre :

- PHY_DATA.request, - PHY_DATA.indication, - PHY_MODE.request, - PHY_NOTIFY.request.

Les deux premières permettent respectivement d'émettre et de recevoir un symbole (0, 1 ou N) vers/de la couche physique. La primitive PHY_MODE.request permet de mettre l'entité physique dans l'un des modes émetteur (la station émet elle-même des symboles) ou répéteur (l'entité MAC de la station répète les bits d'un segment sur un autre). La primitive PHY_NOTIFY.request permet de notifier à la couche physique la fin de la transmission en cours.

Page 139: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

A c c è s à je ton : Token Ring et Token B u s 1 1 9

Exercice 4.1

On considère le réseau local de la figure suivante, comportant quatre stations désignées par A, B, C, et D. Chaque station accède au support en utilisant le protocole Token Ring. Lorsqu'une station possède le jeton, elle peut transmettre au plus une trame de données.

Exercices

c

B

Sur cet anneau, le temps de propagation entre chaque station est de 1 ms, le temps de transmission d'une trame est de 4 ms, le temps de transmission du jeton est de 1 ms.

1. Dessinez un diagramme des temps gradué en milliseconde décrivant le déroulement des différentes transmissions de trames selon le scénario suivant :

- à t = 0, la station D possède le jeton - à t = 0, B veut transmettre 2 trames - à t = 4, A veut transmettre 1 trame - à t = 8, D veut transmettre 1 trame

- à t = 23, C veut transmettre 2 trames

2. Quelle est la durée totale de l'exécution de ce scénario ?

3. Quel est le temps d'accès moyen au support ?

Exercice 4.2

Le protocole Token Ring met en œuvre un mécanisme de priorités entre les stations de l'anneau. Le champ AC de la trame contient deux sous-champs pour ce faire :

- P : priorité actuelle du jeton.

- R : priorité réservée par une station pour le prochain jeton.

A l'initialisation, P cl R ont pour valeur 1 (priorité la plus basse).

Chaque station ;' gère 2 variables : - pj : priorité de la station i,

Page 140: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 20 Architecture des réseaux haut débit

- Sj : priorité sauvegardée et à restituer.

La modification de la priorité du jeton et la prise du jeton suivent les règles des

trois algorithmes suivants :

Algorithme de résen'ation de la priorité : la station / examine les champs P el R

de la trame de données qui passe au niveau de son répéteur :

si p ; > R alors s, := R ;

R := p, ;

Algorithme de remise du jeton : lorsqu'une station reçoit sa propre trame avec R * 1, elle remet le jeton sur l'anneau avec une nouvelle priorité telle que P := R

Algorithme de prise du jeton : une station / ne peut prendre qu'un jeton tel que p , = P et elle émet alors une trame telle que :

P •= Pi ;

R ••= Sj ;

la station / positionne alors s, := 1 ;

On considère l'anneau représenté dans l'exercice 4.1 et comportant quatre stations désignées par A, B, C et D ; les priorités p : respectives de chacune des station sont : p A = 1, p B = 2, p c = 3 et p D = 1. Lorsqu'elle possède le jeton, une station ne peut transmettre qu'une seule trame.

Les stations A, B et C désirent envoyer chacune trois trames à D. D n'émet rien. Le temps d'émission est nul et le temps de propagation est de 1 ms entre deux stations voisines. A t = 0, la station A possède le jeton et transmet une trame avec les valeurs P = 1 et R = 1.

1. Tracez un diagramme des temps où chaque axe des temps représente la transmission d'une station à sa voisine sur l'anneau. Indiquez l'ordre de réception des trames par D.

2. Donnez le temps total de transmission de toutes les trames.

Exercice 4 .3

Comparez les comportements de Token Bus et de CSMA/CD en fonction de la

charge.

Exercice 4.4

Un réseau local sur bus comporte quatre stations actives d'adresses respectives 2, 5, 6 et 7. On utilise le protocole Token Bus pour le partage du support. L'anneau logique est formé par une relation décroissante sur les adresses de station. Une station qui possède le jeton ne peut émettre exactement qu'une seule trame pendant THT (Token Holding Time). On prendra les hypothèses suivantes :

Page 141: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Accès à jeton : Token Ring et Token Bus 121

- les trames et le jeton ont la même taille, - un slot-time correspond au temps de transmission d'une trame ou du jeton, - le temps de traitement du jeton est négligeable.

1. Dessinez l'anneau logique en faisant figurer pour chaque station son adresse, la valeur des variables P (Prédécesseur) et S (Successeur).

2. Dessinez un diagramme des temps gradué en secondes (une seconde = un slot-time) décrivant le déroulement des différentes transmissions de trames selon le scénario suivant :

- le jeton est possédé par la station 7 - à t = 0, la station 5 a une trame à envoyer à la station 6 et autorise 6 à répondre ; cette dernière répond par une trame de réponse - à t = 1, la station 5 a une trame à émettre - à t = 6, la station 7 a deux trames à émettre et la station 2 aussi.

3 . A quel moment la station d'adresse 4 pourra-t-elle entrer dans l'anneau logique ?

Exe rc i ce 4.5

On considère une station connectée sur un réseau Token Bus ayant un débit de 10 Mbit/s. Le protocole permet de découper la bande passante du support en plusieurs sous-bandes, chaque sous-bande étant associée à un niveau de priorité de trafic. Les différents niveaux sont notés 6, 4, 2 et 0, le niveau 6 étant le plus prioritaire. Les valeurs utilisées pour les temporisateurs sont :

- TRT = TTRT6 = 2 ms

- TTRT4 = 1,8 ms

- TTRT2 = 1,6 ms

- TTRTO = 1 ms

Lorsque le jeton arrive de nouveau à la station, le temporisateur TRT a un reliquat de 504 us. Quelle est la quantité de données que l'on peut transférer pour les niveaux de priorité 2 et 0, sachant que le trafic de niveau 6 nécessite l'envoi de 50 octets et celui de niveau 4 20 octets ?

Page 142: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 22 Architecture des réseaux haut débit

Exercice 4.6

Sur un bus fonctionnant selon le protocole IEEE 802.4, quatre stations deviennent actives en même temps (par exemple, suite au démarrage des équipements d'une chaîne de montage). Que se passe-t-il ? Donnez l'ordre selon lequel les stations s'insèrent dans l'anneau logique.

station 4 P = S =

station 1 P = S =

station 2 P = S =

station 9 P = S =

Page 143: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 5

FDDI (Fiber Distributed Data Interface)

5.1. Introduction

A l'origine, les protocoles IEEE 802.3, IEEE 802.4 et IEEE 802.5 étaient conçus pour fonctionner sur des supports "électriques", paires torsadées ou câbles coaxiaux, dont les débits sont de l'ordre de quelques dizaines de Mbit/s. Le progrès des technologies aidant, on peut désormais utiliser la fibre optique comme nouveau support à haute performance pour les réseaux locaux. Grâce à elle, les débits de l'ordre de la centaine de Mbit/s ne sont plus hors de portée. De plus, les propriétés physiques du support lui-même permettent d'atteindre des distances de transmission de l'ordre de la centaine de kilomètres. De nouvelles applications sont désormais envisageables.

La solution la plus simple pour intégrer cette nouvelle technologie consiste à remplacer purement et simplement, au niveau physique, les anciens supports électriques par des câbles de fibre optique. Token Ring se prête particulièrement bien à cette opération, puisqu'il utilise des liaisons point à point. Malheureusement, si l'adaptation du nouveau médium permet d'atteindre de plus hauts débits, le protocole IEEE 802.5 ne permet plus d'optimiser la bande passante. En effet, sur un réseau de type Token Ring à 10 Mbit/s, le temps de transmission d'une trame de 1 000 bits est de 100 us. Sur un réseau de 20 km, pour un taux de propagation de 5 us/km, la trame va occuper l'ensemble de l'anneau durant sa transmission. C'est la raison pour laquelle le protocole IEEE 802.5 oblige une station émettant une trame à l'ôter elle-même de l'anneau avant de redonner un jeton, afin d'éviter tout risque de

Page 144: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 24 Architecture des réseaux haut débit

collision. Dans le cas d'un réseau en fibre optique à 100 Mbit/s et d'une longueur de 100 km, le temps de transmission de cette même trame est de 10 us, alors que le délai de propagation sur l'anneau est de 500 us. Pour de tels débits de transmission, chaque trame n'occupe qu'une petite partie du support. Il devient alors inefficace de lui réserver la totalité de l'anneau.

Pour cette raison et pour d'autres encore, il est rapidement apparu nécessaire de faire évoluer les protocoles couramment utilisés dans le cadre des réseaux locaux afin de les adapter aux fibres optiques et aux très hauts débits qu'elles permettent d'atteindre. FDDI est une réponse à cette attente [Ross 89], [Ross 90].

L'ANSI a proposé en 1987 les spécifications de FDDI qui ont été ensuite normalisées par l'ISO avec l'IS 9314. La norme spécifie les services et un protocole pour un réseau local à haut débit (100 Mbit/s) utilisant la fibre optique comme support. La topologie retenue est un anneau doublé contre-rotatif. Chaque station est reliée à la précédente par deux fibres optiques en point à point. L'anneau primaire est utilisé pour la transmission normale des données dans un sens, alors que l'anneau secondaire sert de secours inactif dans l'autre sens ; il n'est utilisé qu'en cas de coupure de l'anneau, suite à une reconfiguration automatique de l'anneau par rebouclage. Si plusieurs défaillances apparaissent simultanément, le réseau se scindera en plusieurs sous-anneaux indépendants.

FDDI offre des distances de raccordement pouvant aller jusqu'à 200 km (en comptant les deux anneaux) et la possibilité d'interconnecter jusqu'à 1 000 stations. La distance maximale entre deux stations est de 2 km. Ces caractéristiques apparentent FDDI à la fois aux réseaux locaux et aux réseaux métropolitains.

Ethernet

Token Ring

FDDI

Ethernet

station de travail

pont ou routeur

F i g u r e 5.1. Utilisation de FDDI comme réseau fédérateur

On est en droit de se demander quelle est la réelle utilité d'un réseau local haut débit comme FDDI. Le surplus de bande passante offert par la fibre optique peut bien sûr servir à transmettre des données en temps réel, de la voix, du son ou encore des images mais l'utilisation principalement visée est la fédération de réseaux locaux à moyen débit. Un tel réseau fédérateur est souvent qualifié de réseau backbone car il

Page 145: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 1 25

constitue l'épine dorsale du système de communication (figure 5.1). La capacité importante de transmission rend ainsi "transparent" à l'utilisateur le passage par le réseau fédérateur.

5.2. Architecture d'une station FDDI

La figure 5.2 présente l'architecture générale d'une station FDDI. Nous verrons plus loin qu'il n'y a pas que des stations à être rattachées à l'anneau ; c'est pourquoi, d'une manière générale, on préfère le terme de nœud à celui de station.

[ , p Logical Link L L U Control

S M T

Station ManagemenT

\ * Medium Access Control S

M T

Station ManagemenT

PHY PHYsical

S M T

Station ManagemenT

p i m Physical Medium rmu Dependent

Figure 5.2. Architecture d'une station FDDI

La couche physique est divisée en deux sous-couches, PMD (Physical Medium Dependent) [IS 9314-3] et PHY [IS 9314-1]. Elle a pour rôle la transmission de bits sur le support physique. Plus précisément, PMD spécifie toutes les caractéristiques optiques et physiques des équipements employés pour assurer une connexion entre deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques) ; elle offre tous les services nécessaires aux communications numériques point à point entre les stations et permet surtout d'assurer l'indépendance du reste de l'architecture vis-à-vis des caractéristiques physiques du support.

La sous-couche PHY (physique) assure l'interface entre la sous-couche MAC et la couche PMD. Elle est responsable du codage/décodage et de la synchronisation.

La sous-couche MAC [IS 9314-2] (Medium Access Control) définit la méthode d'accès au support. Le protocole utilisé est très proche de celui spécifié pour l'IEEE 802.5 et pour le Token Ring. L'information, transmise sous forme de trames, est acheminée séquentiellement et unidirectionnellement comme un flot de symboles d'une station à la suivante. Pour transmettre des données, une station doit être en possession du jeton — le droit à émettre.

Page 146: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 26 Architecture des réseaux haut débit

SMT [IS 10608-14] (Station ManagemenT) est une entité de gestion présente au sein de chacune des stations. Elle intervient à tous les niveaux de FDDI (PMD, PHY et MAC) et elle est responsable de l'initialisation, de la configuration et éventuellement de la reconfiguration de l'anneau (détection, isolation et reprise sur erreur, actions à entreprendre en cas d'incidents sur l'anneau).

5.3. Définition d'un nœud FDDI

Il existe différentes configurations internes pour un nœud FDDI. Chaque nœud ne comporte qu'une entité SMT mais peut posséder différentes instances de MAC, PHY et PMD.

Deux classes de nœuds sont définies : les nœuds à attachement simple et les nœuds à attachement double. Seuls les nœuds à attachement double sont directement reliés au double anneau, également appelé anneau principal. Un attachement double possède au minimum deux entités PHY et deux entités PMD alors qu'un attachement simple possède au minimum une entité PHY et une entité PMD.

Un nœud est soit une station, soit un concentrateur. La différence est qu'une station comporte au moins une entité MAC (deux si elle est à attachement double) alors qu'un concentrateur n'en comporte pas. Une station à attachement double est appelée station de classe A et est directement reliée à l'anneau principal. Une station à attachement simple est dite de classe B et n'a pas par conséquent la possibilité de se rattacher directement à l'anneau principal. Elle est alors reliée à l'anneau via un concentrateur.

Un concentrateur peut lui aussi avoir un attachement double ou simple. Un concentrateur à attachement double se trouve par conséquent sur le double anneau et offre à des nœuds à attachement simple la possibilité d'y être reliés. Ces nœuds sont alors les "esclaves" de ce concentrateur. Un concentrateur à attachement simple n'est pas rattaché au double anneau mais à un concentrateur à double attachement ou bien à un de ses homologues. Il est aussi le père d'une ou de plusieurs stations de classe B ; de cette manière, des arbres de concentrateurs sont créés tout autour de l'anneau principal et ce dans le but de relier les stations de classe B à ce dernier. Enfin, des concentrateurs à attachement nul sont également envisageables.

Nous obtenons finalement les différents types de nœuds suivants :

- station à double attachement (DAS — Dual Attachment Station) - station à simple attachement (SAS — Single Attachment Station) - concentrateur à double attachement (DAC — Dual Attachment Concentrator) - concentrateur à simple attachement (SAC — Single Attachment Concentrator) - concentrateur à attachement nul (NAC — Null Attachment Concentrator)

Page 147: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 1 27

Un exemple de topologie de réseau FDDI comportant les principaux types de

nœuds décrits précédemment est présenté en figure 5.3.

réseau FDDI

DAS

SAS

DAC

SAC

F i g u r e 5.3. Exemple de topologie de réseau FDDI

Les DAS sont divisées en DAS à simple MAC et DAS à double MAC. Un concentrateur doit avoir une entité PHY et une entité PMD supplémentaire pour chacune des connexions qu'il offre aux nœuds à simple attachement ou bien pour la connexion le reliant à son père (s'il n'est pas la racine de l'arbre de concentrateurs). Il possède une entité MAC pour les connexions avec ses esclaves. Leur présence n'étant pas systématique, un concentrateur pourra ne pas avoir d'entité MAC.

5.4. Fonctionnement du protocole FDDI

De la même manière que pour Token Ring et Token Bus, l'anneau FDDI est géré au niveau MAC par la circulation d'un jeton de station en station. La possession de celui-ci donne le droit d'émettre des données sur le support. En assurant la présence d'un seul jeton sur l'anneau à un instant donné, il est assuré qu'il n'y aura pas deux stations accédant au support au même moment.

Une station désirant émettre, capture le jeton, le retire de l'anneau, transmet ses trames et retransmet le jeton. Chaque station régénère, répète et transmet les informations à la station suivante. La station destinataire recopie la trame dans sa mémoire tampon et la retransmet après avoir modifié les bits "adresse reconnue" et "trame copiée" du champ d'état. Il est de la responsabilité de la station émettrice de retirer de l'anneau les trames qu'elle y a placées. Cela est réalisé en plaçant à la suite de l'adresse source des symboles particuliers (Idle). La figure 5.4 illustre le fonctionnement de l'anneau : prise du jeton, émission, remise du jeton et retrait des trames.

Page 148: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 28 Architecture des réseaux haut débit

T : jeton Fi : trame /'

'./ la station A souhaite émettre : elle retire le jeton de l'anneau et commence à émettre

x sa trame Fl

1/ les stations sont dans l'état Idle (repos) ; seul le jeton circule sur l'anneau

3/ la station A génère et émet un nouveau jeton après la transmission de sa trame Fl

4/ la station C recopie au vol Fl qui lui est adressée

5/ la station B récupère le jeton et émet une trame F2

la station A retire de l'anneau sa trame Fl et recopie F2 qui lui est adressée

Il la station B retire la trame F2 de l'anneau

8/ les stations sont de nouveau dans l'état Idle

F i g u r e 5 . 4 . Fonctionnement de l'anneau FDDI

5.4.1. Données synchrones et asynchrones

La couche MAC FDDI supporte deux classes de transmission de données : les

données synchrones et les données asynchrones. La classe de transmission synchrone

correspond à des données pour lesquelles le temps de transit doit être aussi bref que

possible. Il s'agit dans la plupart des cas de données temps réel. Par opposition, la

Page 149: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 129

classe asynchrone recouvre des flots de données plus sporadiques, en tout cas moins prioritaires que les informations dites synchrones. Huit niveaux de priorités sont dédiés à cette deuxième classe. De plus, toujours pour la classe asynchrone, il est possible de limiter l'accès à un groupe de stations en utilisant un jeton de type restreint. Par opposition, un jeton non restreint peut être capturé par n'importe quelle station du réseau.

5.4.2. Le jeton temporisé

Quand une station est en possession du jeton, elle ne peut le garder indéfiniment. En fait, elle ne le possède que pour une durée limitée, pendant laquelle les données synchrones sont émises en premier, suivies éventuellement de données asynchrones si le temps imparti ne s'est pas écoulé. On parle alors comme pour Token Bus, de jeton temporisé. Ainsi, afin de pouvoir gérer l'anneau, le jeton et l'émission des différents types de données, la norme FDDI spécifie l'emploi d'un certain nombre de temporisateurs et de compteurs.

- TTRT (Target Token Rotation Time). Il indique le temps moyen permis au jeton pour faire un tour complet de l'anneau. Sa valeur est négociée entre toutes les stations lors de la phase d'initialisation de l'anneau. Chaque station propose une valeur selon ses contraintes de temps de réponse. La valeur la plus faible parmi toutes les propositions est retenue comme référence commune : le protocole prendra en compte les conditions de la station la plus exigeante. La valeur opérationnelle du TTRT est T_OPR. Des études ont montré qu'une valeur de 8 ms pour T_OPR procure dans la majorité des cas une efficacité de 80 % tout en garantissant un temps d'accès inférieur à 1 s [Jain 90].

- T_MAX. C'est la valeur maximum que peut prendre TTRT. Si l'initialisation de l'anneau ne peut se faire pendant T_MAX, cela signifie que l'anneau présente un problème. La valeur par défaut est 165 ms.

- T_MIN. C'est la valeur minimum que peut prendre TTRT. La valeur par défaut

est 4 ms.

- TRT (Token Rotation Timer). Chaque station mesure le temps de rotation réel du jeton à l'aide de ce temporisateur. Il reflète le temps à attendre avant de voir arriver le jeton ; il couvre donc le temps utilisé par les stations pour émettre des trames, pour faire circuler le jeton et le temps de propagation de l'anneau. A chaque fois qu'une station relâche le jeton, elle réarme ce temporisateur, sa valeur étant initialisée à T_OPR. Lors de la prochaine réception du jeton, le temps restant dans TRT permet de mesurer l'avance ou le retard du jeton. Si TRT expire avant le retour du jeton, le compteur LATE_CT est incrémenté de 1 pour indiquer une arrivée tardive du jeton.

- THT (Token Holding Timer). Quand le jeton arrive en avance, le temporisateur THT est initialise avec son avance (soit TTRT - TRT). THT donne le temps qu'il reste à une station pour émettre des trames d'information de type asynchrone. C'est donc le temps restant avant que le temps maximum TTRT ne soit atteint pour la circulation du jeton.

Page 150: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 30 Architecture des réseaux haut débit

- LATE_CT (Late Counter). Ce compteur enregistre le nombre d'expirations de TRT depuis la dernière réception du jeton. Sa valeur ne doit pas dépasser 1 en condition normale. Si le jeton revient avant que TRT n'expire et que LATE_CT = 0, cela signifie que le jeton est en avance sur sa date de retour attendue et il est alors possible de transmettre en mode synchrone et en mode asynchrone. D'un autre côté, si TRT expire alors que LATE_CT = 1 (le jeton a par conséquent un retard d'au moins 2 * T_OPR), la station déclenche une réinitialisation de l'anneau (via un processus Claim). Lorsque le jeton est en avance, LATE_CT est remis à zéro.

- TVX (Timer Valid Transmission). Ce temporisateur est initialise à chaque réception d'un jeton (non restreint) ou d'une trame valide. Il permet de s'assurer que l'anneau reste opérationnel. L'expiration du TVX d'une des stations déclenche une reconfiguration de l'anneau. On peut s'interroger sur l'utilité de TVX, puisque, comme nous l'avons vu, tout retard du jeton de 2 * T_OPR déclenche automatiquement une réinitialisation de l'anneau. La réponse est très simple : si la valeur de TVX est plus petite que celle de T_OPR, TVX détecte plus rapidement les problèmes de transmission, ce qui améliore d'autant l'efficacité du réseau. De plus, TVX permet de détecter un problème que TRT n'est pas en mesure de repérer. Quand les stations ont terminé d'utiliser un jeton restreint (bande passante asynchrone réservée à un nombre limité de stations), la dernière station doit réémettre un jeton non restreint (bande passante asynchrone répartie de manière équitable entre toutes les stations de l'anneau). Si elle émet par erreur un jeton restreint, l'expiration de TVX évitera que ce jeton circule sur l'anneau indéfiniment, en bloquant tout autre trafic. La valeur à laquelle est initialise TVX doit cependant être suffisamment importante pour que son expiration soit synonyme de problème important. La norme FDDI spécifie que la valeur par défaut de TVX doit être supérieure à 2,35 ms. Cette valeur correspond au temps maximum autorisé de parcours sur l'anneau pour une trame de longueur maximale.

La figure 5.5 illustre l'utilisation des variables THT et TRT au niveau d'une station FDDI [Stallings 93]. On suppose que TTRT = 100 ms et que le temps alloué aux émissions de trames synchrones est égal à 30 ms.

TRTj THT (ms)

TRT

THT

F i g u r e 5.5. Utilisation des temporisateurs et compteurs FDDI

Page 151: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

F D D I (Fiber Distributed Data Interface) 1 3 1

A Un jeton arrive à la station. La station n'a aucune trame à envoyer. La station

laisse passer le jeton.

B Le jeton revient à la station. A cet instant, TRT = 40 et LATE_CT = 0. Le jeton est donc en avance. THT est initialise avec la valeur de TRT soit 40 ms et TRT est réinitialisé à la valeur de TTRT soit 100 ms.

C 30 ms après l'événement B, la station a épuisé son temps d'émission synchrone. Elle a des données asynchrones à transmettre. Elle déclenche donc THT et commence à émettre.

D 40 ms après l'événement C, THT expire, (à C, THT valait 40 ms). La station est alors dans l'obligation de stopper ses émissions de trames asynchrones. Elle génère un jeton qu'elle transmet sur l'anneau.

E TRT expire sans que le jeton ne soit de retour. La valeur du temporisateur TRT est positionnée à 100 (TRT= TTRT = 100 ms) et LATEjCT = 1.

F Le jeton réapparaît. Puisque LATE_CT = 1, il n'est pas possible d'émettre de

données asynchrones.

5.4.3. Format des trames

Comme dans tous les protocoles de niveau MAC, les données sont envoyées sur le support sous forme de trames. Il existe deux types de trames, les jetons et les trames d'information ; ces dernières pouvant en fait contenir ou non des données issues des couches supérieures.

5.4.3.1. La trame FDDI

FDDI ne fournit qu'un seul format de trame pour transmettre aussi bien des trames LLC que des trames MAC ou encore des trames SMT (figure 5.6).

SFS- - couverture du FCS- EFS

PA SD FC DA SA INFO EE ED FS

SFS - Start of Frame Sequence FCS - Frame Check Sequence EFS - End of Frame Sequence PA - Préambule

SD - Starting Delimiter FC - Frame Control DA - Destination Address SA - Source Address

INFO - Information ED - Ending Delimiter FS - Frame Status

Figure 5 .6 . Format de trame FDDI

Page 152: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 32 Architecture des réseaux haut débit

Les champs constituant la trame sont les suivants :

- le préambule (PA) est constitué d'au moins 16 symboles I (Idle). Il permet l'acquisition de la synchronisation-bit. Par rapport à l'émetteur, les stations en aval qui répètent la trame ou le jeton avec leur propre horloge peuvent modifier la taille de ce champ ;

- le délimiteur de début (SD) est constitué de deux symboles, J et K ;

- le contrôle de trame (FC) décrit le type de trame et ses particularités. Le bit C, bit de classe, indique si le service est asynchrone (C = 0) ou synchrone (C = 1). Le bit L, bit de longueur d'adresse, indique si les adresses MAC sont codées sur 16 bits (L = 0) ou 48 bits (L = 1). Les bits FF, bits de format de trame, permettent, conjointement avec les bits ZZZZ de caractériser le jeton et de distinguer les trames MAC, LLC et SMT. Les bits ZZZZ permettent, quant à eux, d'associer à la trame un éventuel niveau de priorité. Le tableau 5.1 donne la signification des différents codages possibles du champ FC ;

C L F F Z Z Z Z type de trame

0 L O 0 O 0 O O trame vide

1 0 0 0 0 0 0 0 jeton non restreint

1 1 0 0 0 0 0 0 jeton restreint

d e O L O O O O O l

à 0 L 0 0 1 1 1 1

trame SMT

de 1 L O O O O O l

à 1 L 0 0 1 1 1 1

trame MAC

de C L 0 1 r 0 0 0

à C L 0 1 r 1 1 1

trame LLC

de C L 1 0 r 0 0 0

à C L 1 0 r 1 1 1

trame d'implantation

C L 1 1 r r r r réservé L et C peuvent prendre les valeurs 0 ou 1 r est réservé et mis à 0

Tableau 5.1. Le champ FC

- les adresses de destination (DA) et de source (SA) ont la même signification que pour les autres types de réseaux locaux normalisés (figure 5.7). Le bit I/G donne le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale (U/L= 1) ;

Page 153: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 13 3

1 bit

I/G

1 bit

U/L

Mbits

N° anneau

32 bits

sous-adresse de station

adresse sur 48 bits

1 bit 7 bits

N° anneau

8 bits

sous-adresse VG

7 bits

N° anneau de station

adresse sur lo Dits

Figure 5.7. Structure des champs d adresse

- le champ de données (INFO) peut être vide ou contenir un nombre pair de

symboles. Sa taille est limitée à 9 000 symboles (4 500 octets). La sémantique de ce

champ est déterminée grâce au champ FC ;

- le champ de vérification (FCS), codé sur 32 bits, permet de vérifier l'intégrité

de transmission de la trame ;

- le délimiteur de fin (ED) est constitué d'un symbole T (Terminate) ;

- le status de la trame (FS) contient les indicateurs de contrôle qui reflètent la validité de la trame et ses conditions de réception et qui utilisent les symboles R (Reset) et S (Set). Trois indicateurs sont définis : E (erreur détectée), A (adresse reconnue), C (trame copiée). D'autres indicateurs peuvent être ajoutés, éventuellement suivis d'un symbole T.

5.4.3.2. Le jeton

Le format du jeton est tout à fait similaire à celui d'une trame d'information (figure 5.8). Bien entendu, on ne retrouve pas le champ INFO, mais simplement les champs de préambule (16 symboles I minimum), de délimitation de début de trame (symboles JK), de contrôle (2 symboles, 10 000 000 pour un jeton non restreint et 11 000 000 pour un jeton restreint) et de délimitation de fin de trame (2 symboles T).

1 PA SD FC ED

PA - Préambule SD - Starting Delimiter

FC - Frame Control ED - Ending Delimiter

Figure 5.8. Format du jeton FDDI

5.4.4. Processus Claim

Contrairement à Token Ring, FDDI ne donne pas de privilèges à une station particulière qui deviendrait ainsi "monitrice de l'anneau". Chaque station surveille l'anneau en permanence afin de détecter des conditions d'anomalie qui nécessiteraient

Page 154: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 34 Architecture des réseaux haut débit

une (ré)initialisation de l'anneau. Lorsque cette éventualité se produit, la station entre dans une phase appelée processus Claim. Cette phase permet de négocier la valeur du TTRT et de déterminer la station qui engendrera le premier jeton.

Pour cela, chaque station émet continuellement des trames dites de négociation (Claim frame), contenant dans le champ t_req la valeur du TTRT qu'elle aimerait voir appliquer. Bien entendu, plus une station a besoin d'émettre des données urgentes, plus elle aura tendance à réclamer un TTRT de faible valeur. Chaque station écoute également le support et analyse les trames de négociation qu'elle reçoit. Si le TTRT reçu est plus élevé que le sien, la station rejette la trame et continue de négocier pour sa propre valeur. En revanche, si le TTRT reçu est inférieur à celui qu'elle réclame, elle se retire de la négociation et répète la trame reçue. La première station qui reçoit une de ses propres trames Claim remporte la négociation. Elle peut alors initialiser son compteur T_OPR avec le TTRT finalement négocié et qui est celui qu'elle réclamait. Dans l'exemple proposé en figure 5.9, c'est la station S3 qui remporte la négociation.

SA = 2 T_req = 4 T reo. = 4 S A = 1 T_req = 5

SA = 3

2/

6/ r_req = 3 S2

5/ SA = 3 n_req = 3

S3 FDD] SI

T_req = 5 T_req = 3

3, SA = 3 T_req = 3 S4 4/ SA = 3 T_req = 3 T_req = 5

F i g u r e 5 .9 . Processus Claim

Sa première action est ensuite d'émettre un jeton. Dès réception du premier jeton, les autres stations savent qu'une station a remporté la négociation. Elles initialisent, elles aussi, leur compteur T_OPR à la valeur du TTRT négocié, mais aucune d'elles n'a encore le droit d'émettre des données ; elles se contentent de répéter le jeton. Lorsque ce dernier a effectué un tour complet de l'anneau et qu'il revient à la station qui l'a généré, la station sait que l'anneau est prêt à fonctionner ; elle peut commencer à émettre des données ou relâcher le jeton immédiatement.

Page 155: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

F D D I (Fiber Distributed Data Interface) 13 5

5.4.5. Fonctionnement normal

Le but du protocole MAC de FDDI est d'éviter que des données moins urgentes soient émises par une station alors qu'une autre aurait du trafic plus prioritaire à émettre sur le support. Il faut que le temps d'accès au support soit équitablement réparti entre toutes les stations et ce pour les différents niveaux de priorité.

Une première solution est de garantir un temps de rotation minimal pour le jeton. Il ne faut pas qu'une station le monopolise, même si elle doit traiter du trafic urgent.

L'émission des données asynchrones est conditionnée par l'arrivée en avance du jeton. De plus, une station ne peut les émettre que durant le temps mesuré par THT, c'est-à-dire pour une période équivalente à l'avance du jeton.

Par ailleurs, même si l'on peut émettre des données synchrones dès réception d'un jeton en avance ou non, la durée d'émission ne peut excéder une borne fixée à l'avance par la couche SMT. Celle-ci doit être calculée de telle sorte que la somme des bornes pour toutes les stations n'excède pas le TTRT. Ainsi, pour un tour de jeton, on est sûr que le temps d'émission synchrone global ne dépassera pas le TTRT négocié. C'est ainsi que l'on peut montrer que le temps de rotation maximal pour un jeton est en fait égal à 2 * T_OPR.

5.4.6. Processus Beacon

Quand une station détecte que le processus de négociation initial a échoué ou alors sur simple requête de la couche SMT, elle met en place un processus Beacon. C'est le cas lors d'une coupure physique de l'anneau. Le processus Beacon a pour objet de localiser la panne afin d'entamer les actions de recouvrement qui s'imposent.

S A = : Beacon 4 / 31 S A = 3 Beacon

11 S A = 2 B e a c o n

S 3 FDDI SI

D 5/

S A = 3 Beacon

S A = 2 Beacor

S 4 21 S A = 3 Beacon

S A = 2 Beacon

F i g u r e 5.10. Processus Beacon

Page 156: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 36 Architecture des réseaux haut débit

I/ MA_UNITDATA.request (FC[ 1 ]. DA[ 1 ], MSDU[ 1 ], classe_service[ 1 ], suite! ']>••• FC[n], DA[n], MSDU[n]. classe_service|n], 0. classe jeton)

2/ PH_UNITDATA.request (ph_request(symbole)) 3/ PM_UNITDATA.request (bit) 4/ PIvLSIGNAL.indication (status_transmission) .V PH_UNITDATA_STATUS.indication (status_transmission) 6/ MA_UNITDATA_STATUS.indication (nb_SDU. status^transmission. classe_service) 7/ PM.UNITDATA.indication (bit) 8/ PH_UNITDATA.indication (ph_indication(symbole)) 9/ MAJJNITDATA.indication (FC. DA. SA. MSDU. statusjéceplion)

F i g u r e 5 .11 . Utilisation des primitives de service

Durant ce processus, chaque station émet continuellement des trames Beacon. Si elle reçoit d'autres trames Beacon, elle cesse d'émettre les siennes et recopie celles en provenance de l'amont. Ainsi, la station suivant immédiatement la liaison défectueuse va remplir l'anneau avec ses propres trames, identifiées par l'adresse source. Par ailleurs, s'il y a coupure, aucune autre station ne va recevoir les trames Beacon qu'elle avait émises. De cette manière, le problème est localisé précisément sur la liaison en amont de la station remplissant l'anneau de ses trames Beacon. Les actions nécessaires au recouvrement de l'erreur peuvent alors être entamées, grâce à la couche SMT. Dans l'exemple de la figure 5.10, la station S3 est la première à détecter une anomalie de fonctionnement de l'anneau. Elle commence à envoyer des trames Beacon. Chaque station répète les trames Beacon reçues. La trame Beacon reçue et répétée par la station SI est perdue. La station S2 est la seule à ne pas recevoir de trames Beacon. On a donc isolé le segment défaillant.

5.5. Services FDDI

Nous nous intéressons ici aux services, en d'autres termes aux interactions intercouches LLC/MAC, MAC/PHY et PHY/PMD. La figure 5.11 montre les différentes entités constituant une station FDDI ainsi que leurs interactions. Les échanges de primitives réalisés entre ces entités sont expliqués ci-après.

LLC LPDU LLC LPDU LLC

s M T

MAC

s M T

MSDU MAC

MSDU

s M T

MPDU MAC

MPDU

s M T

MAC

s M T

2 / ^ ^ 5/ s M T PHY

s M T

3/j f 4/ !"

s M T

PMD

i

Page 157: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 13 7

5.5.1 Service MAC

L'originalité du service MAC est que la primitive d'émission de données, MA_UNITDATA.request, permet de demander le transfert de plusieurs SDU dans un même appel pour rentabiliser le haut débit du canal. Pour la transmission d'une ou plusieurs SDU d'une sous-couche LLC à une autre sous-couche LLC (voire plusieurs LLC), la sous-couche MAC construit par encapsulation la ou les trames (MPDU — MAC Protocol Data Units) à émettre, à partir de la ou des MSDU (MAC Service Data Units) passées en paramètres de la primitive MA_UNITDATA.request. Chaque sous-ensemble de paramètres {FC, adresse_destination, MSDU, classe_service, suite} caractérise une trame et est en fait traité comme une sous-requête. L'ensemble des paramètres de la primitive permet de créer les MPDU correspondantes aux différentes MSDU. A la réception et capture d'un jeton approprié, la station commence à émettre ses trames dans l'ordre précisé par la primitive et en accord avec les règles de temps de maintien du jeton (THT) et de temps de rotation du jeton (TRT). Lors de la transmission, une séquence de contrôle (FCS) est calculée pour chaque trame et est insérée en fin de trame. Si TRT ou THT expire ou qu'une trame ne peut être émise du fait de son paramètre classe_service (si TRT a expiré ou THT = 0 seules les trames synchrones peuvent être émises), alors la transmission cesse et un jeton est généré, en fonction du paramètre classejeton (restreint ou non).

La primitive MA_UNITDATA_STATUS.indication fournit une réponse locale à la primitive MA_UNITDATA.request précédemment invoquée, signifiant le succès ou l'échec de cette dernière via le paramètre status_transmission. Elle est équivalente à la primitive de confirmation des protocoles IEEE. Le paramètre nb_SDU détermine le nombre de MSDU transmises. Si la requête portait sur plus d'une MSDU, status_transmission s'applique à toutes les MSDU transmises ; il indique en fait si les indicateurs A et C de la trame MAC ont été correctement positionnés par l'entité distante MAC. Le paramètre classe_service indique la classe de service qui a été fournie pour le transfert (synchrone ou asynchrone).

La primitive MA_UNITDATA.indication indique le transfert de données de la sous-couche MAC à la sous-couche LLC au niveau des entités réceptrices. Il y a une indication générée pour chaque trame reçue. Ses paramètres sont FC — la valeur du champ FC de la trame MAC, DA — l'adresse du destinataire, MSDU — le champ d'information de la trame — et le paramètre status_réception qui indique si la trame reçue par la couche MAC est correcte ou non.

5.5.2 Services PHY et PMD

La primitive PH_UNITDATA.request définit le transfert de données d'une sous-couche MAC à l'entité physique locale. Le symbole spécifié par le paramètre ph_request (symbole) est l'un des suivants : J, K, T, R, S, I ou alors l'un des symboles de données appartenant à {0..9, A, B, C, D, E, F} .

Page 158: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

138 Architecture des réseaux haut débit

L'entité physique envoie à son entité MAC utilisatrice une primitive PH_UNITDATA.indication chaque fois que la couche physique décode un symbole.

La primitive PH_UNITDATA_STATUS.indication fournit un acquittement local à la primitive PH-UNITDATA.request. Le paramètre status_transmission indique le succès ou l'échec de la requête.

La primitive PM_UNIDATA.request permet à une entité PHY de transmettre un code-bit NRZI à une entité PMD.

Inversement, l'indication correspondante, PM_UNITDATA.indication, est utilisée par une entité PMD pour transmettre un code-bit NRZI à une entité PHY.

La primitive PM_SIGNAL.indication permet à une entité PMD d'indiquer à une entité PHY le niveau du signal optique reçu par cette même entité PMD. Le status est correct si le niveau du signal est en dessus d'une valeur seuil minimum.

5.6. Administration de FDDI

Toute la difficulté du protocole FDDI réside dans la gestion de l'anneau. Il faut qu'en cas de problème, la continuité de l'anneau soit préservée, que l'allocation des ressources reste équitable, que la prise du jeton soit renégociée, les erreurs détectées et corrigées, etc.

Le protocole Token Ring (cf. chapitre 4) utilise une station particulière, appelée moniteur, ayant en charge la totalité de la gestion du réseau. Cependant, à la suite d'un incident, l'anneau FDDI peut être partitionné en plusieurs sous-anneaux. L'approche moniteur centralisé nécessiterait alors un gestionnaire par sous-anneau. De plus, une station à double attachement peut, le cas échéant, constituer un anneau à elle seule et elle doit par conséquent être en mesure de s'autogérer. C'est pourquoi il a été décidé qu'une entité de gestion serait présente dans chacun des nœuds FDDI — station ou concentrateur. Cette entité de gestion locale qui fait partie intégrale d'une station FDDI est appelée SMT (Station ManagemenT) [IS 10608-14]. Chaque station est gérée par un agent qui décide des actions à entreprendre. Il donne des ordres ou demande des informations à la station et reçoit des notifications d'elle. Les différents agents du réseau FDDI peuvent s'échanger des informations via des protocoles prévus à cet effet. A titre d'exemple, l'un des protocoles permet à une station d'obtenir l'adresse MAC de la station adjacente.

Chaque entité SMT gère sa propre MIB (Management Information Base) qu'elle met à jour régulièrement grâce aux réponses aux requêtes qu'elle envoie et aux notifications reçues lors de changements significatifs des paramètres opérationnels. Un protocole offre la possibilité à une entité SMT de consulter, voire de modifier des objets d'une entité SMT distante.

SMT contrôle le fonctionnement des couches MAC, PHY et PMD, fournit des services au système de gestion du réseau NMS (Network Management System) et

Page 159: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 139

communique avec d'autres agents SMT. Son rôle principal est la gestion de la configuration du réseau, ce qui regroupe la gestion des connexions, du bypass, de l'initialisation, de la détection d'erreurs ou de pannes, de la reconfiguration, de la détection d'adresses dupliquées, etc. SMT doit initialiser la couche MAC en lui transmettant les paramètres dont elle a besoin et peut à tout moment effectuer des modifications selon le comportement du réseau. De façon plus générale, on a deux types de communications :

- les communications inter-stations : elles utilisent des protocoles de gestion distante (cf. 5.6.2) ;

- les communications intra-station qui concernent l'ensemble des informations échangées entre SMT et les différentes couches composant une station FDDI ainsi que les échanges mis en œuvre pour le fonctionnement et la synchronisation des automates constituant l'entité SMT. Le travail à effectuer par SMT est décomposé et réalisé par des sous-entités. Il n'est en effet pas concevable qu'une entité de gestion s'occupe de l'attachement au lien, de la connexion des différents ports, de la configuration et de la couche MAC. SMT est donc découpé en plusieurs entités auxquelles sont associés des automates décrivant leur fonctionnement.

5.6.1. Blocs et entités SMT

SMT est composé de deux grands blocs : CMT (Connection ManagemenT) et RMT (Ring ManagemenT).

5 .6 . 1 .1 . Lé- bloc CMT

CMT est responsable de la gestion des composants de la couche physique et de leurs interconnexions ainsi que de la configuration des entités MAC et PHY à l'intérieur d'une station pour réaliser l'attachement logique de cette station au réseau FDDI. Un attachement physique à FDDI comprend un ou plusieurs ports, une entité PHY et une entité PMD par port ainsi qu'une ou plusieurs entités MAC. Une entité port implémente les sous-couches PHY et PMD et garantit le codage et décodage des symboles ainsi que leur transmission à travers le support optique. CMT réalise l'insertion et le retrait de port, la connexion des entités de port PHY aux entités MAC. Il contrôle et dirige l'établissement de l'attachement du média au réseau FDDI et les connexions physiques avec les ports des autres stations et concentrateurs.

Les fonctions de CMT sont :

- l'établissement et l'initialisation des connexions physiques : • lancement du test du chemin, • contrôle du commutateur optique de dérivation (bypass), • test de continuité de la connexion, • refus des connexions illégales ou indésirables, • signaux sur la topologie physique,

Page 160: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

140 Architecture des réseaux haut débit

• boucle locale de configuration avec le MAC voisin ;

- le contrôle de la configuration de la station : • placement des entités MAC valides ;

- la détection des fautes au niveau physique : • surveillance de la continuité du lien, • reconfiguration sur faute de niveau physique ;

- le support des fonctions de traçage des fautes ;

- le test de fiabilité des liens ;

- le contrôle de la qualité des liens ;

- le support des états de maintenance de ligne ;

- l'indication de disponibilité de connexion.

CMT est composé de trois entités :

- l'ECM (Entity Coordination Management) porte sur l'interface entre le média et le réseau FDDI (coordination de tous les ports associés avec cet attachement physique et contrôle de la fonction de dérivation de la couche PMD). Elle avertit l'entité PCM lorsque le médium est disponible et lance le test du chemin pour localiser les fautes (MAC local et MAC amont). Il n 'y a qu'une seule instance d'ECM présente dans une station ou un concentrateur FDDI ;

- l'entité PCM (Physical Connection Management) gère la connexion physique entre un port local et un port d'une autre station. Elle initialise la connexion des ports voisins et gère les signaux entre ces ports. Elle fournit les signaux nécessaires à l'initialisation d'une connexion, au refus d 'une mauvaise connexion et à la maintenance. Il n'y à qu'une instance de PCM par port d'attachement ;

- l'entité CEM (Configuration Element Management) gère la configuration des entités MAC et des ports à l'intérieur d 'une station ou d'un concentrateur. Elle réalise l'interconnexion des entités PHY et MAC pour configurer les ports et les entités MAC dans un nœud. Afin de réaliser ces interconnexions, des "commutateurs", appelés CCE (Configuration Control Element), sont nécessaires. On peut les voir comme des aiguillages qui relient des ports et des entités MAC à l'intérieur d'une station. Les commutateurs réalisent donc la notion de chemin (path), un chemin étant l'interconnexion entre une entité port et une entité MAC. CEM connecte et déconnecte les ports selon les drapeaux de PCM. Il y a une instance de CEM par port.

5.6.1 .2 . Le bloc RMT

RMT est responsable de la gestion de la couche MAC. Il reçoit des informations d'état en provenance de MAC et CMT et rapporte l'état de MAC. Il y a une instance de RMT par entité MAC.

Page 161: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

F D D I (Fiber Distributed Data Interface) 141

Les fonctions de RMT sont :

autr

es e

ntit

és d

e ge

stio

n de

sta

tion

E C

M / par nœud

CMT

Figure 5.12. L'architecture de SMT

5.6.2. Les services SMT

Les fonctions et services de trames SMT peuvent être utilisés par des fonctions de gestion de plus haut niveau qui rassemblent des informations et exercent un contrôle sur le réseau FDDI.

En effet, SMT sert d'interface entre les stations de l'anneau FDDI et le système de gestion du réseau NMS (Network Management System). SMT transmet à NMS les informations recueillies tout au long de l'acheminement des trames, comme par exemple les taux d'erreurs ou le nombre de trames envoyées ou reçues. Des protocoles de communication inter-stations permettent d'établir des statistiques sur le réseau, de détecter, d'isoler et de résoudre les fautes survenues sur un anneau, de surveiller la configuration du réseau et les paramètres opérationnels, tout cela pour satisfaire les exigences de performance et de connectivité des applications :

R M T / par MAC

CEM pkrpo*

PCM

contrôle du commutateur opt

de dérivation

/ pkrpoM

mm

M A C

C C E

PHY

P M D

port

- la détection des fautes dans la couche MAC : • identification d'un échec de Beacon, • détection des duplications d'adresses qui empêchent l'anneau de devenir

opérationnel, • résolution des duplications d'adresses pour rendre l'anneau opérationnel ;

- l'initialisation des fonctions de traçage d'erreurs ;

- la notification de la disponibilité de MAC pour l'envoi de données.

La figure 5.12 résume l'architecture de SMT au niveau d'une station FDDI.

Page 162: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 42 Architecture des réseaux haut débit

- Neighbor Notification Protocol permet :

• à MAC de déterminer l'adresse logique de la station en amont et celle de la station en aval, • de détecter les duplications d'adresses MAC SMT sur un anneau opérationnel, • de vérifier périodiquement les opérations du MAC local (chemins d'émission et de réception).

Ces fonctions sont réalisées périodiquement en échangeant des trames NIF (Neighbor Information Frame) entre MAC et son voisin en aval le plus proche ;

- Status Report Protocol permet à une station d'annoncer périodiquement son état. Lorsque des compteurs ont dépassé des seuils donnés, des conditions sont signalées à l'aide de trames SRF (Status Report Frame). Par exemple, une condition d'erreur de trame MAC est activée si le taux d'erreurs des trames MAC excède un seuil prédéfini ou, encore, une condition de duplication d'adresse est signalée si une entité MAC détecte qu'elle ou sa voisine en amont possède une adresse dupliquée ;

- Parameter Management Protocol permet une gestion à distance des stations en agissant sur l'ensemble des attributs de la MIB FDDI d'une station par l'intermédiaire d'opérations Get, Add, Change et Remove. Les trames PMF (Parameter Management Frame) permettent de réaliser ces opérations.

Bien que SMT ait défini ses propres protocoles pour la gestion à distance de stations FDDI, d'autres protocoles de gestion système peuvent être utilisés, tels que SNMP d'Internet ou CMIP de l'ISO. De plus, la communauté Internet a développé une MIB FDDI SNMP pouvant être manipulée par le protocole SNMP.

Il existe entre SMT et les différentes couches de FDDI (MAC, PHY et PMD) des primitives de services permettant à SMT de contrôler et de gérer ces couches. Ces primitives sont internes à la station :

- entre SMT et MAC :

• SM_MA_INITIALIZE_PROTOCOL.request est utilisée pour une demande de reconfiguration de la couche MAC acquittée par une indication qui indique le succès ou l'échec de la primitive ; • SM_MA_UNITDATA.request permet le transfert de données vers une ou plusieurs entités SMT homologues acquittée par une indication qui indique le succès ou l'échec de la primitive ;

• SM_MA_TOKEN.request est utilisée par SMT pour demander le jeton lorsque des données doivent être transférées alors qu'elles présentent des contraintes de temps ;

Page 163: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 143

- entre RMT et MAC :

• SM_MA_CONTROL.request permet de contrôler des opérations de l'entité MAC locale. Une indication permet alors à MAC d'informer SMT des changements d'états significatifs étant survenus ;

- entre CMT et PHY :

• SM_PH_LINE_STATE.request correspond à une demande d'émission pour un flot continu de symboles identiques (lors de l'insertion ou du retrait d'une station) ; • SM_PH_CONTROL.request permet le contrôle des opérations de PHY. Une indication permet ensuite à PHY d'avertir CMT des changements d'états ;

- entre SMT et PMD :

• SM_PM_Signal.Indication permet à PMD de renseigner SMT sur l'état du niveau du signal optique entrant ;

- entre CMT et PMD :

• SM_PM_CONTROL.request permet l'activation/désactivation de l'émetteur optique par SMT ; • SM_PM_BYPASS.request permet l'insertion ou le retrait de SMT de l'anneau ;

- entre SMT et RMT :

• SM_RM_CONTROL.request permet à SMT de contrôler RMT. Une indication permet alors à RMT d'informer une entité SMT locale de changements significatifs (machine à états, MAC_Avail, Loop_Avail, Trace_started, DA_Flag, NO_Flag) ;

- entre SMT et CMT :

• SM_CM_CONNECT.request : SMT, par cette primitive, demande à CMT d'entamer une séquence de connexion ou de déconnexion ; • SM_CM_CONTROL.request permet à SMT de contrôler CMT. Une indication émise par CMT notifie SMT de changements d'états significatifs (machine de ECM ou CFM, Path_test, etc.).

D'un point de vue administration de réseaux (modèle organisationnel), MAC est un Agent pour RMT et RMT est un Manager pour MAC. Aussi, PHY et PMD sont des Agents pour CMT et CMT est un Manager pour PHY et PMD. De la même façon, RMT et CMT sont des Agents pour SMT et SMT est un Manager pour RMT et CMT.

Page 164: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

144 Architecture des réseaux haut débit

5.6.3. La MIB SMT

Dans la spécification de SMT, un certain nombre d'objets de gestion sont définis, avec leurs attributs, les actions qu'ils supportent et les notifications qu'ils émettent, dans le but de faciliter l'administration d'un réseau FDDI dans un environnement OSI. La figure 5.13 décrit le modèle de gestion de FDDI. Elle montre les relations entre les objets de gestion d'un réseau FDDI et les composants de SMT. Les objets de gestion dans SMT sont ceux de la station (ou du concentrateur), de ses entités MAC, de ses chemins et de ses ports.

chemins de données

en transmission

chemins de données •n réception

agent de gestion

nnérntinns

notifications

trames SMT

objet SMT

RMT >pérations _

lOtifications

abjet(s) MAC

objet(s) D A T U

opérations

notifications

CMT

opérations objet(s) PORT notifications

station FDDI

Figure 5.13. Le modèle de gestion de SMT

La classe d'objets SMT modélise l'ensemble des informations nécessaires à la gestion d'un nœud FDDI. Une seule entité SMT y est présente. La classe d'objets SMT contient des attributs (identificateur de la station, numéro de version, nombre de MAC dans la station, chemins disponibles dans la station, possibilités de configuration, états des automates ECM et CFM, etc.), des opérations (actions sur SMT) et des notifications.

La classe d'objets MAC modélise l'ensemble des informations nécessaires à la gestion d'entités MAC à l'intérieur d'un nœud FDDI. Plusieurs entités MAC peuvent y être présentes (jusqu'à 255). A chaque entité MAC est associée une instance de la classe d'objets MAC. La classe d'objets MAC contient des attributs (nombre de trames reçues ou transmises, valeurs maximales pour T_MAX et TVX, état de l'automate de RMT, etc.), des opérations (actions sur MAC) et des notifications.

Page 165: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 145

La classe d'objets PORT modélise l'ensemble des informations nécessaires à la gestion d'entités PORT à l'intérieur d'un nœud FDDI. Plusieurs entités PORT peuvent y être présentes (jusqu'à 255). A chaque entité PORT est associée une instance de la classe d'objets PORT. La classe d'objets PORT contient des attributs (type du port, état des automates de CEM et de PCM, taux d'erreurs sur le lien, raison du refus de la connexion, etc.), des opérations (actions sur PORT) et des notifications.

La classe d'objets PATH modélise l'ensemble des informations nécessaires à la gestion d'entités PATH à l'intérieur d'une station — les chemins. A chaque entité PATH est associée une instance de la classe d'objets PATH. Un PATH permet d'interconnecter les PORT et les MAC. La classe d'objets PATH contient des attributs (status du chemin, configuration du chemin, allocation de la bande passante synchrone pour ce chemin, valeurs maximales de T_MAX et TVX pour le chemin, etc.), des opérations (actions sur PATH) et des notifications.

5.7. La couche phys ique

Comme nous l'avons vu en figure 5.2, la couche physique est divisée en deux sous-couches, PMD (Physical Medium Dependent) et PHY.

5.7.1. Couches PHY et PMD

La sous-couche PHY a pour principal objectif d'offrir une interface identique à la sous-couche MAC quelle que soit la PMD sous-jacente c'est-à-dire quel que soit le support. Elle est responsable de la transmission de bits sur le support physique, du codage/décodage et de la synchronisation.

La technique de codage adoptée, pour des raisons d'efficacité, est le codage 4B/5B NRZI qui consiste à associer à tout groupe de 4 bits un mot de code de 5 bits appelé symbole. L'intérêt de ce type de codage est d'éliminer les longues suites de 0 (qui pourraient empêcher le récepteur de se synchroniser sur l'horloge de l'émetteur) et de permettre l'introduction de symboles supplémentaires utiles au protocole. Les symboles de 5 bits sont ensuite codés selon le procédé NRZI (Non Return to Zero Inverted) qui consiste à produire une transition du signal sur la ligne chaque fois et uniquement lorsqu'un bit à 1 est transmis, afin de maintenir la synchronisation du récepteur sur l'émetteur. La figure 5.14 (a) montre un exemple de codage NRZI.

Page 166: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 46 Architecture des réseaux haut débit

1 1 1 1 1 1 1 1

— p é r i o d e — 2 bits par période (62,5 Mhz)

(a) NRZI

1 1 i i î i ! i

- période- 4 bits par période (32,25 Mhz)

(b) MLT-3

Figure 5.14. Codage d'une suite de "I"

5.7.2. Couche PMD et supports de FDDI

La couche PMD spécifie toutes les caractéristiques optiques et physiques des équipements employés pour assurer une connexion entre deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques). Au départ, une seule PMD a été normalisée, basée sur une fibre multi mode. Du fait du coût de son raccordement, des propositions plus économiques ont été faites utilisant soit une fibre moins chère (Low-Cost Fiber) ou la paire torsadée.

Ces propositions sont conçues par l 'ANSI et en cours de normalisation à l'ISO. Cependant des produits sont d'ores et déjà disponibles sur le marché.

5.7.2.1. MMF-PMD

Initialement, PMD [IS 9314-3] spécifie les caractéristiques de la station et le câblage sur la base de fibre multimode (à gradient d'indice 62,5/125 um de préférence) ou monomode (8-10 um). D'autres fibres multimodes peuvent être utilisées, aussi la norme spécifie les paramètres de qualité du signal à respecter de manière à assurer l'interopérabilité. Le choix de ce support a été motivé par sa qualité, tant au niveau de sa bande passante (autorisant des débits élevés) que de sa faible atténuation (autorisant des distances de transmission importantes) et que de son immunité aux bruits (limitant le taux d'erreurs de transmission). PMD spécifie un connecteur optique duplex à base de LED (cf. 2.3.4) transmettant sur une longueur d'onde nominale de 1 300 nm sur des liens d'au plus 2 km.

Page 167: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 147

5.7.2.2. SMF-PMD

Certains réseaux FDDI nécessitent des connexions inter-stations supérieures à 2 km c'est pourquoi il a été spécifié une couche SMF-PMD (Single Mode Fiber-PMD) [ANSI 184]. Sur fibre optique monomode, l'émission se fait grâce à des diodes lasers permettant l'extension de la distance inter-stations jusqu'à 60 km sur des réseaux privés.

5.7.2.3. FDDI sur SONET

Pour fédérer des réseaux locaux relativement distants, il a été proposé une alternative au lien direct par câble privé en utilisant le système de transmission public sur fibre optique, SONET (Synchronous Optical NET work) [ANSI Tl-105] . SONET est un système de transmission optique numérique utilisé dans les réseaux publics qui définit une hiérarchie de débit ainsi qu'une structure d'enveloppe — il est décrit en détail dans le chapitre 8. FDDI sur SONET (SPM — SONET Physical-layer Mapping) utilise le niveau STS-3 à 155 Mbit/s.

5.7.2.4. TP-PMD

Malgré ses performances, la méthode d'accès FDDI est restée marginale, avec une utilisation principalement confinée à la fédération de réseaux locaux classiques. Pour basculer de la dizaine de Mbit/s offerte par Ethernet ou Token Ring à la centaine de Mbit/s offerte par FDDI, il est nécessaire de procéder à un recâblage des locaux, d'installer des concentrateurs FDDI, d'installer des cartes à composants optiques onéreux, etc. En fait, le coût élevé des composants optiques s'est avéré être le principal obstacle à un déploiement rapide de FDDI, même s'il a diminué de plus de 50 % dans ses quatre premières années. Tout cela a amené un bon nombre de constructeurs à démarrer des développements de FDDI sur paires torsadées, avec des appellations diverses : générique avec CDDI (Copper DDI) ou plus spécifiques avec TP-DDI (Twisted Pair DDI) ou SDDI (Shielded twisted pair DDI). Parallèlement, un projet de normalisation du protocole sur câblage en cuivre était lancé à l'ANSI et devrait être validé sous le nom de TP-PMD (Twisted Pair — Physical Medium Dependent) [ANSI 201].

Les principaux problèmes engendrés par l'utilisation de supports métalliques sont liés à la puissance du signal et aux interférences électromagnétiques. En effet, l'atténuation augmente avec l'élévation de la fréquence du signal et, pour maintenir un bon rapport signal sur bruit, il faut soit augmenter le niveau de signal (davantage de puissance), soit avoir recours à des techniques de codage qui produisent des signaux à fréquence plus faible. L'augmentation de puissance entraînant une augmentation des interférences, il est alors préférable d'utiliser des techniques de codages adaptées.

Page 168: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 48 Architecture des réseaux haut débit

Les supports retenus sont la paire torsadée blindée (STP) type 1 et la paire torsadée non blindée (UTP) catégorie 5. Dans le cas du premier, le blindage présente l'avantage de prévenir les interférences électromagnétiques et l'utilisation du codage 4B/5B NRZI reste possible. Dans le cas de la paire non blindée, la technique de codage qui a été retenue est le MLT-3 (MultiLevel Transmission 3). Ce codage peut être vu comme une extension du NRZI sur trois niveaux. Ces trois niveaux sont représentés par +1, 0 et - 1 . Comme dans le NRZI, un bit à 0 est codé par l'absence de transition, et un bit à 1 par la présence d'une transition. Les transitions successives vont dans le même sens (elles sont soit ascendantes, soit descendantes) mais changent de sens dès que le signal atteint le niveau +1 ou - 1 . La figure 5.14 donne l'exemple du codage d'une suite de huit bits à "1" dans le cas du NRZI à deux niveaux et du MLT-3 à trois niveaux.

Après le codage 4B/5B, le signal FDDI a un débit binaire brut de 125 Mbit/s (100 Mbit/s utiles * 5/4). Avec le codage NRZI, chaque période de signal consistant en 2 bits, on obtient une fréquence de signal à 62,5 MHz. Avec le codage MLT-3, la période est de 4 bits et conduit à une fréquence de 32,25 MHz. Pour renforcer la protection contre les interférences électromagnétiques, l'ANSI a également adopté un mécanisme d'embrouillage chargé de répartir uniformément l'énergie du signal sur tout son spectre.

Depuis la mi-93, les annonces de produits TP-PMD sont nombreuses. Malheureusement, le standard n'étant pas définitivement figé, ces offres restent plus ou moins propriétaires (attention à l'inter-opérabilité !). Par ailleurs, la baisse continuelle du prix de la fibre et des composants optiques ainsi que la limitation en distances (100 m au lieu de 2 km pour FDDI) expliquent en partie le peu d'intérêt porté à cette technologie par les constructeurs et les utilisateurs.

5.7.2.5. LCF-PMD

Toujours dans l'optique de diminuer les coûts de FDDI, l'ANSI, parallèlement à ses travaux sur TP-PMD, a créé un comité appelé LCF-PMD (Low-Cost Fiber — Physical Medium Dependent) [ANSI 237]. Comme le nom le suggère, le comité s'était donné comme objectif de trouver une fibre moins chère que la fibre multimode 62,5/125 um spécifiée dans la norme FDDI. D'autres alternatives, telles que la fibre plastique ou la fibre 200/300 um, ont été considérées avant d'être abandonnées dès lors qu'il fut admis que le coût réel portait, non pas sur la fibre elle-même, mais sur les équipements. La suite des travaux a donc porté sur la spécification d'émetteurs et de récepteurs optiques à moindre coût. Ces derniers sont moins chers car d'une part, la distance maximale entre deux équipements a été ramenée à 500 m et d'autre part, les contraintes de qualité (puissance d'émission et de réception) ont été rendues moins strictes.

Page 169: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 1 4 9

5.8. Les dérivés

5.8.1. FDDI II

FDDI II est une extension de FDDI qui lui reste compatible [IS 9314-5]. II ajoute à FDDI la possibilité d'acheminer du trafic isochrone (véhiculé traditionnellement grâce à une technique de commutation de circuits) en sus des trafics asynchrone et synchrone (généralement véhiculés par commutation de paquets). En effet, FDDI ne se prête pas à la transmission de flux continus à débit constant. Même si la classe de service synchrone permet de garantir un débit minimum, elle ne permet pas de traiter et de restituer un flux de données uniforme sans aucune variation. Les services visés sont ceux qui nécessitent un accès strictement périodique, tels que la voix, le son ou encore les images numériques.

La technique utilisée dans FDDI II pour rendre un service en mode circuit consiste à imposer une structure de trame toutes les 125 us. Une connexion en mode circuit repose alors sur un intervalle de temps donné dans la trame récurrente. Les canaux sont établis par SMT.

5.8.1.1. Architecture de FDDI II

La couche physique et SMT sont semblables à ceux de FDDI. La différence porte sur la sous-couche MAC. Deux nouveaux composants y sont introduits (figure 5.15) :

- HMUX (Hybrid Multiplexer) se charge de multiplexer les trames MAC et les données isochrones soumises par IMAC,

- IMAC (Isochronous MAC) fournit une interface entre FDDI et le service isochrone (représenté par le multiplexeur de circuits commutés).

LLC multiplexeur de circuits commutés

MAC IMAC

s M T

HMUX

PHY

PMD

Figure 5.15. Architecture de FDDI II

Page 170: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 50 Architecture des réseaux haut débit

5.8.1.2. Mode de fonctionnement hybride

Un réseau FDDI II peut fonctionner selon deux modes :

- en mode de base : seul le service en mode paquet est disponible et on retrouve

alors un fonctionnement strictement identique à celui de FDDI ;

- en mode hybride : les services en mode paquet et en mode circuit sont

simultanément offerts.

Quand des stations FDDI et FDDI II coexistent sur un même réseau, seul le

mode de base peut être utilisé.

Lorsque le mode de fonctionnement hybride est utilisé, une station primaire est chargée de générer un cycle toutes les 125 us . Un cycle est en fait une trame circulant sur l'anneau et dont le contenu est visible par toutes les stations du réseau. Il sera retiré de l'anneau par cette même station primaire. A 100 Mbit/s, la longueur d'un cycle est de 12 500 bits. Sa structure est donnée en figure 5.16. On y trouve un préambule de 5 symboles, soit 20 bits, servant à assurer la synchronisation, l'en-tête de cycle, codé sur 12 octets et contenant des informations sur l'utilisation du reste du cycle, 16 canaux à haut débit (WBC — Wide Band Channel) de 96 octets chacun et, enfin, le DPG (Dedicated Packet Group) constitué de 12 octets dédiés uniquement au trafic de type paquet et entrelacés avec les 16 WBC. A un instant donné, l'anneau peut contenir plusieurs cycles.

préambule en-tête de cycle

DPG 0[

DPG 1

DPG 11L

WB

CO

^

WB

C 1

WB

C 2

WB

C 3

WB

C 4

WB

C 5

WB

C 6

WB

C 7

WB

C 8

WB

C 9

WB

C 1

0

WB

C 1

1

WB

C 1

2

WB

C 1

3

WB

C 1

4

WB

C

is

%

rang

ées

• 16 octets ~

F i g u r e 5 .16 . Structure d'un cycle FDDI II

Page 171: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 15 1

Chaque canal à haut débit offre une capacité de 6,144 Mbit/s et peut être utilisé en mode circuit comme en mode paquet. En regroupant tous les canaux utilisés en mode paquet avec le DPG, on obtient un canal de paquets de données, dont la capacité varie alors de 768 kbit/s à 99,072 Mbit/s par pas de 6,144 Mbit/s et dont l'accès est contrôlé par le mécanisme de jeton temporisé. La répartition des octets sur les différents canaux est réalisée par le multiplexeur hybride HMUX. La sous-couche IMAC peut diviser un canal WBC en sous-canaux. Le tableau 5.2 donne la répartition de la capacité entre les différents canaux.

nombre de bits par cycle débit (Mbit/s)

surdébit (préambule + en-tête) N canaux en mode circuit canal de paquets de données

116 N * 7 6 8 96 + ( 1 6 - N ) * 768

0,928 N * 6,144 0.768 + ( 1 6 - N ) * 6,144

total 12 500 100

Tableau 5.2. Répartition de la capacité entre les canaux

5.8.2. F FOL

FDDI et FDDI II fonctionnent tous deux à 100 Mbit/s et il faudrait un réseau fédérateur offrant un débit encore plus élevé pour interconnecter plusieurs réseaux FDDI. Aussi a-t-il été ressenti, au sein de l'ANSI, le besoin d'une suite au réseau FDDI qui serait à FDDI ce que FDDI est aux réseaux tels que Token Ring. Le projet FFOL (FDDI Follow-On Lan) a ainsi démarré sur une nouvelle génération de réseaux à hauts débits [Ross 92], [Hamstra 92], [Fink 92].

Les objectifs visés initialement étaient de :

- servir de réseau fédérateur, de la même façon que FDDI, dans un premier temps ;

- servir de réseau local d'attachement de stations, dans un deuxième temps, ce pour répondre aux besoins d'interconnexion de stations de travail à très hautes performances ;

- tirer profit de l'expérience acquise avec FDDI ;

- anticiper le besoin (FDDI a mis 8 ans pour être complètement spécifié) ;

- être prêt pour 1995 (!!!).

Pour atteindre ces objectifs, la démarche qui a été choisie a été, non pas une mise à niveau de FDDI, mais plutôt une refonte complète des protocoles et des services, notamment pour des raisons de compatibilité avec les débits des transporteurs internationaux (SDH) et les systèmes de transmission de cellules.

Page 172: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

I 52 Architecture des réseaux haut débit

Les besoins qui ont été identifiés pour FFOL sont nombreux et portent sur

différents points :

- les services : FFOL doit présenter bien évidemment une compatibilité ascendante avec ses prédécesseurs FDDI (services asynchrone et synchrone) et FDDI II (service isochrone des canaux à large bande). Il doit permettre aisément l'interconnexion de plusieurs réseaux FDDI, aussi bien que l'interconnexion avec SMDS ou le BISDN. Enfin, l'éventail des applications à supporter est très large et va des applications traditionnelles (transfert de fichiers, transactionnel) aux nouvelles applications multimédias, en passant par les applications temps réel.

- les débits : 1,25 Gbit/s sur de la fibre optique multimode, les débits de charge utile devant être conformes à ceux définis dans la hiérarchie SDH ;

- la topologie et les considérations de câblage : la topologie de câblage en anneau double est à conserver pour pouvoir utiliser des réseaux FDDI existants ou des pré-câblages d'immeubles en fibre optique ;

- le codage : il est sujet à discussion, un codage de type 4B/6B ou de type 8B/10B — qui autoriserait davantage de codes de contrôle — ou un autre procédé qui permettrait d'augmenter le parallélisme sur l'interface électrique ?

- les modes d'accès au support : FFOL doit supporter le mode paquet pour les services asynchrone et synchrone, le mode circuit pour le service isochrone et aussi le mode asynchrone (type ATM) pour les services avec ou sans connexion ;

- les méthodes d'accès au support : les techniques envisagées sont l'anneau ou le bus avec temps discrétisé, l'anneau ou le bus à insertion de registre ou encore l'anneau ou le bus à jeton ;

- la topologie logique : l'anneau et le bus permettent un point de contrôle centralisé pour générer des tranches de temps ou allouer des ressources. L'anneau permet de plus un mécanisme de reprise réparti et de son côté, le bus ne pose pas de problème de retrait de trames ;

- les propriétés de l'accès au support : il s'agit principalement de mécanismes de réservations, de pré-allocations et de priorités, du mécanisme utilisé pour retirer les trames dans le cas d'un anneau et du multicast (envois multi-destinataires) ;

- la reprise sur erreur et sur panne : elle est vue au travers d'un mécanisme de redondance et de temps maximum pour la reprise et la reconfiguration.

Les travaux au sein de l'ANSI sont en cours mais ils ont été récemment ralentis par la mise en concurrence avec d'autres standards visant le gigabit (ATM, HIPPI (High Performance Parallel Interface), etc.) [Tolmie 92].

Page 173: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 1 5 3

Exercices

Exercice 5.1

Comparez les réseaux FDDI et Token Ring en termes de débit, codage, taille maximale de trame, format de trame, système de priorités, relâche du jeton, topologie, distance inter-stations et de couverture géographique.

Exercice 5.2

Indiquez la signification des bits A, C et E situés dans le champ FS de la trame FDDI et précisez leur rôle.

Exercice 5.3

La couche physique du protocole FDDI utilise le codage 4B/5B NRZI, chaque symbole étant codé sur 5 bits. Comme le codage Manchester, il assure suffisamment de transitions pour éviter une dérive de phase entre les horloges de la station émettrice et de la station réceptrice. Quel est donc l'avantage d'un tel codage par rapport au codage Manchester habituellement utilisé ?

Exercice 5.4

Remplacez les ... par les mots manquants :

Lorsque le jeton arrive et T R T o 0:

THT := . . . (1) . . . ;

si LATE_CT = . . . ( 2 ) . . . alors TRT := TTRT ;

émission synchrone ;

si LATE_CT = 0 et THT > 0

alors émission asynchrone pendant THT ;

LATE_CT : = . . . ( 3 ) . . . ;

Lorsque le jeton arrive et TRT = 0 :

LATE_CT : = . . . ( 4 ) . . . ;

TRT : = . . . (5) . . . ;

Exercice 5.5

Quels types d'erreurs peuvent entraîner la circulation de plusieurs jetons sur l'anneau ?

Exercice 5.6

Des données isochrones peuvent-elles être transmises grâce à la classe de service synchrone de FDDI ?

Page 174: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 54 Architecture des réseaux haut débit

Exercice 5.7

On considère une station connectée à un réseau FDDI de débit 100 Mbit/s. Le temps de rotation du jeton sur l'anneau est de 2 ms. Dans l'implantation considérée, seuls trois niveaux de priorités sont possibles pour les données asynchrones, notés 0. 2 et 4, où 4 représente la priorité la plus élevée. La station génère plusieurs types de trafic, répartis comme suit :

- t r a f i c synchrone : 10 connexions synchrones transférant 25 octets à chaque passage de jeton ;

- trafic asynchrone de priorité 4 : 1 3 Mo de données temps réel ; - trafic asynchrone de priorité 2 : transfert d'une image de 1 Mo ; - pas de trafic de niveau 0.

Sachant que le surdébit d'une trame FDDI (préfixe et suffixe) est de 28 octets et que le temps de possession du jeton (THT) est toujours de 50 us :

1. Quelles sont les valeurs respectives des temps de transmission pour chaque type de trafic ?

2. Combien d'octets de l'image seront envoyés à chaque passage du jeton ?

3. Quel sera le temps total de transfert de l'image ?

4. Combien de stations au maximum peuvent être actives simultanément ?

Exercice 5.8 [Walrand 93]

Montrez qu'en l'absence de trafic synchrone à transmettre, la durée entre deux passages du jeton est inférieure à TTRT + THT. On considérera pour cela deux stations A et B sur un anneau FDDI, où A est le prédécesseur de B et on notera tp le temps de propagation de A à B. En supposant que l'assertion est vraie pour A, on montrera qu'elle est vraie pour B.

Exercice 5.9

On considère un réseau FDDI à 100 Mbit/s et comportant 300 nœuds. Chaque nœud introduit un délai d de 16 temps-bit lors du passage d'une trame. Le jeton a une longueur de 100 bits. Le temps de propagation sur la fibre est de tp = 3 ,9 .10 4 s. L'efficacité du réseau est définie comme étant le temps utile sur le temps d'un cycle lorsque toutes les stations transmettent. En d'autres termes, c'est le ratio entre le temps passé par les stations à transmettre des trames et le temps de rotation du jeton. Exprimez l'efficacité du réseau en fonction de TTRT.

A.N. : TTRT = 10 ms.

Page 175: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

FDDI (Fiber Distributed Data Interface) 1 5 5

Exerc ice 5.10

On désire comparer deux mécanismes de priorités entre plusieurs types de trafic d'une même station utilisant un protocole de jeton temporisé. On considère 4 niveaux de priorité : 1 > 2 > 3 > 4. Les deux algorithmes sont :

Algorithme 1 :

TTRT : durée cible de rotation du jeton TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT

THT : temporisateur armé à l'arrivée du jeton et initialise avec le reliquat de TRT SA : durée de la transmission des données de haute priorité

1) à l'arrivée du jeton, THT = TRT 2) transmission du trafic de priorité 1 pendant SA 3) pour les niveaux de priorité /, i = 2, 3, 4, transmission des données de

niveau i jusqu'à épuisement des données à transmettre ou expiration de THT

4) armer TRT 5) rendre le jeton

Algorithme 2 :

TTRT : durée cible de rotation du jeton (la même pour toutes les stations) Chaque station définit 3 durées et utilise 4 temporisateurs : TTRTj : durée limite de rotation du jeton pour la classe de priorité /, i = 2, 3, 4

TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT

TRTj : temporisateur de la classe de priorité i, i = 2, 3, 4, réarmé à chaque relâche du jeton et initialise avec la valeur de TTRTj

1) arrivée du jeton 2) émission des trames de niveau 1 jusqu'à expiration de TRT ou épuisement

des données à transmettre 3) émission des trames de niveau 2 jusqu'à expiration de TRT2

4) émission des trames de niveau 3 jusqu'à expiration de TRT3

5) émission des trames de niveau 4 jusqu'à expiration de TRT4

6) armer les temporisateurs 77? 7\ TRT2, TRT3 et TRT4

7) rendre le jeton

1. Dans l'algorithme 2, on désire garantir un temps de cycle d'au plus TTRT. Quelle relation existe-t-il entre les durées TTRT, TTRT2, TTRT, et TTRT4 ?

2. Sur un diagramme des temps, montrez le fonctionnement des deux algorithmes, en expliquant les conditions de votre exemple.

3. Ces deux mécanismes sont-ils équivalents ? Si oui, pourquoi ? Si non, donnez les conditions pour avoir une équivalence.

Page 176: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 177: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 6

DQDB (Distributed Queue Dual Bus)

6.1. Introduction

DQDB (Distributed Queue Dual Bus) [IEEE 802.6] a été adopté par 1TEEE sous le nom de protocole MAN (Metropolitan Area Network) dans le standard 802.6. Rappelons que les caractéristiques des réseaux métropolitains sont proches de celles des réseaux locaux, puisqu'ils permettent multi-accès et diffusion. Cependant, ils couvrent des distances plus importantes, de plusieurs dizaines de kilomètres, et ont pour objectif principal l'interconnexion à haut débit (de l'ordre de 100 Mbit/s) de réseaux locaux. Le protocole DQDB est issu des travaux menés par Telecom Australia dans le projet QPSX (Queued Packet and Synchronous Switch) [Newman 88]. Il a été retenu comme standard MAN car il présente une bonne stabilité de ses performances sous forte charge et fournit un service isochrone orienté connexion tout en permettant le transfert de trafic asynchrone en mode connecté ou non. Le service isochrone s'appuie sur une trame de cellules répétée toutes les 125 us dans laquelle certaines cellules sont réservées au transfert isochrone en fonction du débit de la connexion. Le mode asynchrone utilise la bande passante restante.

FDDI est le principal concurrent de DQDB même si FDDI est de plus en plus utilisé comme réseau local haut débit sur paires torsadées plutôt que comme réseau fédérateur. DQDB en conjonction avec le service SMDS (cf. chapitre 9) s'est développé principalement aux Etats-Unis mais n'a pas vraiment réussi à s'implanter en Europe où le choix du réseau support pour l'interconnexion de réseaux locaux s'est davantage orienté vers des liaisons haut débit et le relais de trames, puis à moyen terme, vers le réseau large bande.

Page 178: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 58 Architecture des réseaux haut débit

Les débits retenus pour DQDB sont de 45 Mbit/s, évoluer ultérieurement jusqu'à 600 Mbit/s.

155 Mbit/s et pourront

La topologie du réseau DQDB est constituée d'une paire de bus unidirectionnels de sens inverse. Pour pouvoir émettre et recevoir vers/de l'ensemble des stations du réseau, chaque station est connectée en émission et en réception sur chaque bus. La figure 6.1 montre la configuration logique d'une telle topologie. Par convention, le bus supérieur est noté bus A et le bus inférieur est noté bus B.

bus A

nœud

±1

nœud

±1

i T

nœud

±1 bus B

J générateur de trames

^ terminateur de trames

Figure 6.1. Topologie du réseau DQDB

Sur chaque bus, le temps est discrétisé en tranches de temps appelées slots ou cellules. A l'extrémité amont de chacun des bus, un générateur émet une suite finie de cellules contenue dans une trame ; cette trame est répétée toutes les 125 LIS pour permettre le transfert de trafic isochrone. Le nombre de cellules dans la trame dépend du débit physique sur le bus.

Le partage entre les stations se fait au moyen d'un tour de rôle réalisé de manière distribuée et garantissant une équité d'accès entre les stations, un temps d'accès déterministe et une bonne utilisation de la ressource de transmission. Les performances du protocole de la file distribuée sont stables quelle que soit la charge. Sous faible charge, le temps d'accès est négligeable. Sous forte charge, le taux d'utilisation est proche de 100 % car toute la bande passante est utilisée et le surplus de gestion du protocole est faible. N'utilisant pas de mécanisme de type jeton, le protocole n'est pas sensible aux erreurs et nécessite peu de gestion des fautes. Pour peu qu'un générateur de cellules puisse émettre périodiquement une trame de cellules, le protocole fonctionne sur tous types de supports. Enfin, la structure de la cellule DQDB est compatible avec celle du protocole ATM définie pour le réseau large bande. On verra aussi que les mécanismes de fragmentation/réassemblage des entités asynchrones ainsi que les mécanismes de stockage de l'entité isochrone sont comparables avec les mécanismes fournis par les AAL (ATM Adaptation Layer) pour ces mêmes services.

Page 179: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 159

6.2. Architecture d'un nœud DQDB

Comme les autres standards IEEE, le standard DQDB spécifie deux couches de protocoles. Il s'agit ici de la couche physique et de la couche DQDB. L'architecture fonctionnelle d'un nœud DQDB est présentée en figure 6.2.

La couche physique possède les fonctionnalités de la couche physique OSI et spécifie la manière d'utiliser différents supports de transmission. L'entité PLCF (Physical Layer Convergence Function) permet de présenter un service uniforme à la couche DQDB et ce quel que soit le support utilisé. Contrairement à FDDI, la couche physique n'est pas divisée en deux sous-couches.

LLC Logical Link Control

LME Layer

Management Entity

MCF MAC

Convergence Function

COCF Connection

Oriented Convergence

Function

QAF Queue Arbitrated

Functions

M I

ICF Isochronous

Convergence Function

PAF Pre-Arbitrated

Functions

LME Layer

Management Entity

CF Common Functions

PLCF Physical Layer Convergence Function

medium 1

-5 o o U

3 S2 O

medium

Figure 6.2. Architecture fonctionnelle d'un nœud DQDB

La couche DQDB assure les différents modes d'accès au support et correspond à la sous-couche MAC définie dans les autres standards de réseaux locaux. Contrairement à ces derniers, elle fournit en plus du service sans connexion habituel, deux services supplémentaires à la sous-couche LLC, soit les trois services suivants :

- un service asynchrone sans connexion qui permet le transfert de données

n'ayant pas de contraintes temporelles,

Page 180: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 6 0 A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t

- un service asynchrone orienté connexion qui permet le transfert de données sporadiques,

- un service isochrone orienté connexion qui permet le transfert de trafic ayant de fortes contraintes temporelles.

Les entités MCF (MAC Convergence Function), COCF (Connection Oriented Convergence Function) et ICF (Isochronous Convergence Function) permettent de présenter le service attendu par les couches supérieures indépendamment de la méthode d'accès utilisée. Pour les services asynchrones, DQDB met en œuvre la méthode de la "file d'attente distribuée", réalisée dans l'entité fonctionnelle QAF (Queued Arbitrated Functions). Pour le service isochrone, DQDB emploie une méthode d'accès avec réservation préalable, réalisée par l'entité fonctionnelle PAF (Pre-Arbitrated Functions)(cf. 6.3). Enfin, les entités LME (Layer Management Entity) fournissent les fonctions de gestion propres à chaque couche.

6.3. Accès au support

6.3.1. Accès temporel synchrone

L'accès à la transmission se fait par l'intermédiaire d'un train continu de cellules ou slots de taille fixe qui circule sur chaque bus. En réception, les stations lisent et copient les données depuis les cellules. En émission, les stations écrivent dans les cellules sous le contrôle du protocole d 'accès, la SDU étant fragmentée puis transmise dans autant de cellules que nécessaire. Comme les bus A et B sont unidirectionnels et fonctionnent en sens inverse, les stations du réseau effectuent un routage en fonction de la destination de leur émission ; par exemple, dans la configuration de la figure 6.3, la station j écrit dans une cellule du bus A pour transmettre vers la station k et inversement, dans une cellule du bus B pour transmettre vers la station i. Pour diffuser de l'information, la station émet sur les deux bus simultanément.

bus A

station station station

bus B

Figure 6.3. Train de cellules

Page 181: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 161

Les générateurs placés à l'extrémité de chacun des bus émettent le train de cellules (encore appelé trame de synchronisation) toutes les 125 us ce qui correspond à une trame de 2 430 octets maximum pour un débit normalisé de 155 Mbit/s. De la longueur de la trame de synchronisation dépend le nombre de cellules transportées.

6.3.2. La cellule DQDB

La cellule DQDB a une taille fixe de 53 octets. Notons que la longueur et la structure des cellules DQDB sont compatibles avec celles des cellules utilisées dans la technique ATM. La figure 6.4 donne le format général de la cellule DQDB. Le premier octet véhicule le champ de contrôle d'accès à la cellule (AC — Access Control) ; celui-ci se décompose en cinq sous-champs :

- le bit BB (Busy Bit) indique l'état d'occupation de la cellule ; une valeur à 1

signifie que la cellule est occupée par un transfert de données, une valeur à 0 signifie

qu'elle est libre ;

- le bit Type indique le type de la cellule et par conséquent le type de service autorisé à l'utiliser : il est positionné à 0 pour les cellules QA (Queued Arbitrated) utilisables par le service asynchrone et à 1 pour les cellules PA (Pre-Arbitrated) utilisables par le service isochrone ;

- le bit PSR (Previous Slot Reserved) vise à permettre la réutilisation de la même cellule grâce au retrait du segment par le précédent récepteur. Il n'est pas encore utilisé pour le moment ;

- les deux bits Res (Reserved) sont inutilisés et réservés pour un usage ultérieur.

Ils sont positionnés à 00 par défaut ;

- les trois bits RQ, de requête, servent à mettre en œuvre le protocole de la file d'attente distribuée. Ce dernier utilise trois niveaux de priorité possibles pour le trafic asynchrone. A chaque niveau de priorité est associé un bit de requête (request bit) de poids compris entre 0 (basse priorité) et 2 (haute priorité).

1 octet AC (Access Control)

1 bit 1 bit 1 bi 2 bits 3 bit:

BI type mm Res RO

BB • Busy Bit PSR - Previous Slot Reserved Res - Reserved RQ - Request Bits 52 octets segment

Figure 6.4. Format de la cellule DQDB

Page 182: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 62 Architecture des réseaux haut débit

6.3.3. Les t ro i s classes de services

La trame de synchronisation contient différents types de cellules (PA ou QA) utilisables par l'un ou l'autre des services offerts par la couche DQDB. Dans la suite, nous décrivons l'utilisation des cellules par les trois classes de service, à savoir isochrone, asynchrone avec ou sans connexion.

6.3.3.1. Le mode isochrone

Le mode isochrone est orienté connexion. Préalablement à tout transfert de données, un protocole de signalisation permet d'établir une connexion isochrone ou circuit. La connexion peut être point à point ou point à multipoint. La demande d'établissement de la station définit le débit moyen désiré, ce qui est traduit par l'entité de gestion par une périodicité de transfert associée à un nombre d'octets isochrones transférés à chaque période. La connexion isochrone est identifiée par un identificateur appelé VCI (Virtual Channel Identifier) transporté dans l'en-tête du segment de la cellule. Le générateur de cellules a la charge de réserver suffisamment de cellules pour satisfaire aux contraintes de la connexion (période) ; elles sont forcément de type PA (Pre-Arbitrated) et le champ VCI de leur segment est initialise avec celui de la connexion isochrone.

Une cellule PA contient 48 octets de charge utile (cf. 6.4.4) qui peuvent être partagés par des stations différentes. Lors de l'établissement d 'une connexion isochrone, une station se voit donc attribuer par la gestion du réseau une quantité d'octets dans la cellule PA d'un certain VCI ainsi que la position de ces octets à l'intérieur de la cellule (position relative par rapport au début du champ de données du segment PA). La station mémorise alors VCI, position des octets et l 'identificateur (CEP — Connection End Point) de la connexion isochrone correspondante dans une table. Pour accéder à une cellule PA, la station examine tout d'abord son VCI puis écrit ou lit les octets à partir de la position indiquée dans sa table. Ce multiplexage des connexions isochrones dans une même cellule évite la gaspillage de bande passante ; en effet, une communication téléphonique ne nécessite qu 'un octet toutes les 125 u.s, il est alors possible de multiplexer 48 communications téléphoniques dans une même cellule. Une cellule PA dont le VCI n'est pas défini dans la table de la station est ignorée par la station.

6.3.3.2. Le mode asynchrone sans connexion

Le mode asynchrone sans connexion utilise les cellules de type QA (Queued Arbitrated). Etant sans connexion, le champ VCI n'est pas utilisé et tous ses bits sont positionnés à 1. Sur réception d'une requête de transmission LLC, l'entité MCF encapsule la SDU dans une IM-PDU (Initial MAC PDU). Ensuite, elle la fragmente en blocs de 44 octets pour l'adapter à la taille réduite de la cellule. Elle ajoute un préfixe et un suffixe aux fragments qui deviennent ainsi des segments. Le préfixe permet notamment d'associer un segment à une IM-PDU au moyen du champ MID (Message IDentifier). Le MID est unique sur le réseau et se retrouve

Page 183: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 1 6 3

dans tous les segments constituant un même message évitant ainsi le transport de l'adresse destinataire dans chaque segment. Le préfixe sert aussi à indiquer la position du fragment dans la PDU (début, milieu, fin) ainsi que son numéro de séquence. Enfin, la station place dans l 'ordre d'arrivée des SDU et dans l 'ordre de fragmentation, les segments dans une file d'attente locale des segments à transmettre.

La station qui a au moins un segment à transmettre prend alors part au protocole de la file distribuée où toutes les stations désirant transmettre concourent pour l'accès aux cellules QA vides. Ce protocole ne concerne que l'envoi du segment placé en tête de la file d'attente de la station. Ce qui signifie que la station ne peut émettre qu'un segment à la fois. Elle entrera de nouveau en compétition pour l'envoi du segment suivant.

En réception, chaque station examine toutes les cellules QA qui passent. Si le segment reçu est un segment de début de message, elle examine aussi l'adresse de destination : si le segment lui est destiné, la station enregistre alors la valeur de MID. Elle continue alors à scruter les cellules QA et copie tous les segments contenant le MID enregistré jusqu'à réception d'un segment de fin de message.

6.3.3.3. Le mode asynchrone avec connexion

Le mode asynchrone avec connexion utilise, à l'instar du mode précédent, les cellules de type QA. Ce mode orienté connexion permet de transférer des données sur des canaux virtuels. La procédure de segmentation et réassemblage est la même que celle utilisée par le mode asynchrone sans connexion.

Les connexions établies après une procédure de signalisation sont caractérisées par leurs valeurs de VCI contenues dans l'en-tête de segment. L'accès aux cellules vides se fait aussi grâce au protocole de la file distribuée que nous décrivons dans le paragraphe suivant. A la différence du mode isochrone, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.

6.3.4. Protocole de la file distribuée

L'accès aux cellules QA est contrôlé par deux bits du champ AC, le bit d'occupation (busy bit) qui indique si la cellule est vide ou occupée et le bit RQ du niveau de priorité considéré qui sert à signaler aux autres stations une requête de transmission d'un segment et à prendre position dans la file distribuée.

La file distribuée est une fonction qui permet la formation et le fonctionnement d'une file de segments QA distribuée à travers le réseau. La file distribuée détermine l'instant d'émission d'une station en fonction de l'instant de sa requête et des requêtes des autres stations ; elle évite le phénomène de famine où une station en

Page 184: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

164 Architecture des réseaux haut débit

amont du bus utiliserait tous les slots disponibles. Ce protocole donne des performances analogues à celles d'une file centralisée, avec la garantie d'un temps d'accès borné.

La file distribuée est contrôlée par des compteurs dans chaque nœud. Une file distribuée séparée fonctionne pour chacun des bus avec des compteurs propres à l'intérieur du sous-système MAC de chaque nœud. Ces compteurs sont contrôlés même si la station n'a aucun segment à envoyer.

Voyons maintenant le fonctionnement de la file distribuée. Dans un souci de simplicité, nous ne considérerons qu'un seul niveau de priorité. Lorsqu'elle a un segment à transmettre, une station doit d'abord le signaler aux autres stations en envoyant une requête aux stations placées en amont du bus sur lequel elle désire transmettre. Si la station veut émettre sur le bus A, elle prévient alors les stations en amont d'elle-même (sur le bus A) grâce à une requête sur le bus B. Elle modifie alors le bit RQ du premier slot qui passe sur le bus B si celui-ci était initialement à 0. Pour gérer la formation d'une file sur le bus A, il faudra alors gérer d'une part, le bit d'occupation BB sur le bus A et d'autre part, le bit de requête RQ sur le bus B.

Dans le même temps, toutes les stations gèrent une file des segments à transmettre pour le bus A. Cette file est matérialisée par deux compteurs internes à chaque station :

- le compteur de requêtes RC (Request Counter) est incrémenté à chaque nouvelle demande d'émission d'une station située en aval sur le bus A, c'est-à-dire à chaque passage d'un bit RQ positionné à 1 sur le bus B. Il est décrémenté à chaque passage d'une cellule vide (bit d'occupation à 0) sur le bus A car cela signifie qu'une requête pour un nœud en aval va être satisfaite (figure 6.5 (a)) ;

- le compteur d'émission CD (CountDown counter) indique le nombre de requêtes d'émission faites par les stations en aval à satisfaire avant que la station puisse transmettre ses propres informations. Il est décrémenté à chaque passage d'une

bus A. bus A

. slot vide slot vide

compteur de requêtes

RC

compteur de requêtes

RC

compteur à rebours

CD

requête requête

busB bus B

(a) comptage des requêtes (b) attente avant transmission

Figure 6.5. Gestion des compteurs de la file distribuée

Page 185: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 165

cellule vide (bit d'occupation à 0) sur le bus A (figure 6.5 (b)). Lorsqu'il atteint zéro, le tour de la station est arrivé et elle peut transmettre dans le prochain slot vide qui passe sur A.

Le compteur RC est géré en continu, que la station ait ou non un segment à

transmettre. Le compteur CD n'est utilisé que lorsque la station a un segment à

transmettre.

Récapitulons les opérations exécutées par un nœud qui désire envoyer un

segment sur le bus A :

- envoyer une requête sur le bus B ;

- transférer la valeur courante du compteur de requêtes RC dans le compteur à rebours CD et remettre le compteur RC à 0. Le compteur CD contient donc le nombre de requêtes à satisfaire avant que le nœud puisse transmettre ;

- décrémenter de 1 le compteur CD chaque fois qu'un slot vide passe sur le bus

A ;

- incrémenter de 1 le compteur RC chaque fois qu'une requête pour le bus A passe sur le bus B. Le compteur RC contient donc le nombre de nouvelles requêtes c'est-à-dire transmises après que le nœud ait fait la sienne ;

- si le compteur CD est égal à zéro, écrire le segment dans le prochain slot vide

qui passe sur A.

A noter qu'un nœud ne peut pas enregistrer une requête venant d'un nœud en amont sur le bus A. La file distribuée garantit que les nœuds en amont auront accès au moment approprié du fait de leur position sur le bus.

Considérons l'exemple de la figure 6.6 où un sous-réseau contient 4 nœuds en attente de transmission. Les compteurs de requête (RQ) et à rebours (CD) sont initialement à zéro et tous les slots passant sur le bus A sont occupés (par des segments PA, par exemple). Les nœuds S4, S2 et S3 effectuent chacun une requête dans cet ordre. Les figures (a), (b) et (c) montrent le déroulement de chaque requête et la mise à jour des compteurs. Sur la figure (d), un slot vide passe sur le bus A entraînant la décrémentation des compteurs et la transmission du nœud S4 dont le compteur était déjà à zéro. Les prochains slots vides seront affectés au nœud S2 puis au nœud S3, ce qui respecte l'ordre de leurs requêtes.

En outre, DQDB gère en option trois niveaux de priorité différents, chacun d'eux étant associé à l'un des trois bits du sous-champ RQ du champ AC de la cellule. Le mécanisme de priorité permet à un segment de priorité haute d'être émis avant un segment de priorité plus faible. La station effectue donc une requête en fonction du niveau de priorité de son segment dans le bit RQ adéquat. Chaque station ne gère

Page 186: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

66 Architecture des réseaux haut débit

bus A

bus B

(a) le nœud S4 effectue une requête

bus A -

bus B

(b) le nœud S2 effectue une requête

bus A

bus B

(c) le nœud S3 effectue une requête

bus A •

bus B -(d) le nœud S4 transmet son segment

F i g u r e 6 .6 . Fonctionnement de la file distribuée

donc plus deux compteurs par bus, mais deux compteurs par niveau de priorité et par bus soit trois files distribuées par bus et six files en tout. Le passage d'un slot vide consistera à décrémenter d'abord le compteur de plus haute priorité. La priorité est

Page 187: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 167

absolue en ce sens qu'un segment de priorité faible ne peut être transmis que s'il n'y

a pas de segment de priorité supérieure à transmettre par une station du réseau, même

si la requête pour le segment de haute priorité a été faite après celle du segment de

faible priorité.

6.3.5. Equilibrage de la charge (BandWidth Balancing)

De nombreuses études ont montré que cette méthode induit un partage de la bande passante qui n'est pas équitable sous des conditions de forte charge et pour un réseau très étendu. Le protocole n'est plus équitable car les nœuds situés près du générateur de tranches ont accès plus facilement au canal de transmission. En effet, lorsque le réseau est étendu, le temps de propagation sur le bus n'est plus négligeable et la requête d'un nœud aval arrive après un délai au nœud le plus en amont. Ce délai laisse à ce dernier le temps d'utiliser la première cellule QA vide puisqu'il ne fait jamais de requête. Cette inéquité s'accentue avec la distance et le débit du réseau.

Proposé par AT&T et adopté par 1TEEE, le mécanisme de Bandwidth Balancing permet de contourner ce problème [Hahne 90], [Sumita 92). Il consiste, pour chaque station qui a transmis successivement n segments, à laisser passer une cellule vide bien que son compteur CD soit à zéro. Un compteur supplémentaire (BWB_CNT) est alors nécessaire pour compter le nombre de cellules vides successives utilisées par la station. Dès que ce compteur atteint un seuil, la station laisse passer la cellule vide suivante et remet ce compteur à zéro. Une station n'utilisera donc qu'un pourcentage de la bande passante qu'elle aurait pu utiliser (90 % pour n = 9).

De nombreuses autres variantes ont été proposées pour pallier le problème de

I'inéquité de DQDB [Sadiku 94].

6.4. Les unités de données du protocole DQDB

6.4.1. Fragmentation et encapsulations successives

Dans les entités des services asynchrones (MCF et COCF), la SDU transmise à la couche MAC subit des adaptations qui consistent tout d'abord à ajouter les informations nécessaires à la gestion du protocole, puis à ajuster sa taille à celle de la cellule (figure 6.7). Ainsi, la SDU est d'abord encapsulée dans une IM-PDU (Initial MAC PDU) qui est ensuite fragmentée, chaque fragment étant encapsulé dans une DM-PDU (Derived MAC PDU). Chaque DM-PDU est à son tour encapsulée dans un segment qui correspond à la zone de données de la cellule.

Page 188: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 6 8 A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t

BOM - Beginning Of Message COM - Continuation Of Message EOM - End Of Message

Figure 6.7. Fragmentation et encapsulations de la SDU

6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit)

L'IM-PDU est utilisée par le mode de transfert asynchrone. Elle peut être assimilée à une trame de niveau MAC. Une IM-PDU comprend un en-tête, une zone de données, des octets de bourrage pour amener F IM-PDU à un multiple de 4 octets, un champ de contrôle d'erreur ainsi qu'un suffixe (figure 6.8).

Figure 6.8. Format de l'IM-PDU

L'en-tête de l ' IM-PDU comprend un champ de 4 octets, commun aux deux services asynchrones, et un champ de 20 octets, spécifique au service sans connexion, le champ MCP (MAC Convergence Protocol) ainsi qu'un champ Header Extension qui n'est pas encore défini à ce jour.

24 octets Oà 9188 octets 0 à 3 octets 0 ou 4 octets 4 octets

IM-PDU Header

Data PAD CRC32 Common PDU Trailer

4 octets 20 octets -

" 0 à 20 octets 1 octet 1 octet 2 octets

Common PDU Header

MCP Header

Header Extension

Res BEtag Length

1 octet 1 octet 2 octets 8 octets 8 octets 6 bits 2 bits f octet - - • 2 octets

Res BEtag BAsize DA SA PI PL QoS/HEL Bridging

, . -- '4 bits - -

(60 - N) bits ATbits- 3 bits 1 bit 1 bit 3 bits

Address Type

Padding MSAP Address

Delay Loss CIB HEL

SDU

IM-PDU

fragment 1 fragment 2 fragment 3 fragment 4

--• V " -

DM-PDU DM-PDU DM-PDU —

DM-PDU BOM COM ; COM EOM

segment segment segment segment

Page 189: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

D Q D B (Distributed Queue Dual Bus) 1 6 y

Le champ commun contient un octet réservé à une utilisation future et positionné à zéro. Le champ BEtag (Beginning-End Tag) est un numéro de séquence de IM-PDU incrémenté de 1 à chaque émission, modulo 256, qui permet de contrôler les opérations de segmentation et de réassemblage effectuées sur la SDU. Le champ BAsize (Buffer Allocation size) indique la taille minimale du tampon nécessaire à la réception de la SDU.

Le champ MCP Header ne concerne que le mode sans connexion et fournit donc tous les renseignements nécessaires à la transmission d'une telle PDU. Ainsi, on trouve les adresses de destination (DA — Destination Address) et de source (SA — Source Address) ainsi que des indications concernant le service de transfert désiré. Le format des adresses est différent de celui utilisé par les réseaux locaux car la longueur de l'adresse peut aller jusqu'à 60 bits, permettant ainsi d'adresser un plus grand nombre de stations. Les champs adresses peuvent contenir trois types d'adresse de MSAP (MAC Service Access Point) qui diffèrent de par leur longueur ( 16, 48 ou 60 bits). Sur 60 bits, il est permis des adresses au format E.164 qui définit le plan d'adressage RNIS sur 15 digits. Si l'adresse est gérée par une administration publique, les trois premiers chiffres désignent le pays (défini par l'UIT) et les deux champs suivants, de longueur variable, désignent respectivement le réseau public et le numéro d'abonné à ce réseau. Les quatre premiers bits précisent le type et la longueur d'adresse. Les différents codes du champ Address Type sont donnés dans le tableau 6.1.

code signification

0100 adresse sur 16 bits

1000 adresse sur 48 bits

1100 adresse sur 60 bits, individuelle, publique

1101 adresse sur 60 bits, individuelle, privée

1110 adresse sur 60 bits, de groupe, publique

1111 adresse sur 60 bits, de groupe, privée

autre réservée

T a b l e a u 6 . 1 . Le champ Address type

Tous les bits du champ Padding sont positionnés à 0. Prenons comme exemple le cas d'une adresse de MSAP codée sur 48 bits. Le champ Padding est alors constitué de 60 - 48 = 12 bits, tous égaux à 0. Le champ MSAP Address se décompose, selon un schéma similaire à celui utilisé par les réseaux locaux, en un bit I/G (égal à 0 lorsque l'adresse est individuelle et à 1 lorsqu'elle est de groupe), un bit U/L (égal à 0 lorsque l'adresse est gérée globalement et à 1 lorsqu'elle l'est localement), suivis des 46 bits proprement dits d'adresse.

Page 190: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 70 Architecture des réseaux haut débit

Le champ PI (Protocol Identifier) identifie l'utilisateur du service MAC (LLC ou entités de gestion). Le champ PL (Pad Length) indique la longueur du champ de bourrage de l'IM-PDU qui est de 0,1,2 ou 3 octets, de telle sorte que la longueur totale des champs données et bourrage soit un multiple de 4 octets. Le champ QoS/HEL de MCP Header est divisé en quatre sous-champs dont la sémantique est la suivante :

- Delay (délai) permet d'activer le service de transfert avec priorité au délai court ;

- Loss (perte) est actuellement inutilisé et est positionné à 0. Son rôle vise à définir une priorité à la perte des trames en cas de congestion ;

- CIB (CRC32 Indicator Bit) indique la présence (CIB = 1 ) ou l'absence (CIB = 0) du champ CRC32 dans l'IM-PDU ;

- HEL (Header Extension Length) indique la longueur en unité de 32 bits du futur champ Header Extension.

Le dernier champ du MCP Header, Bridging, est réservé pour une utilisation future dans le cadre de l'interconnexion au niveau de la couche MAC. Il définirait alors le nombre maximum de ponts que l'IM-PDU aurait le droit de traverser ; décrémenté à chaque pont traversé, une valeur nulle provoquerait la destruction de l'IM-PDU.

Le champ de données (Data) contient l'unité de données MAC, la SDU. Sa longueur est comprise entre 0 et 9 188 octets inclus.

Le champ PAD possède une longueur égale à 0, 1, 2 ou 3 octets. Sa longueur exacte est telle que : nb_octets(PAD) = 3 - modulo (3 + nb_octets(Data) + nb_octets(MCP Header) + nb_octets(Header Extension), 4). La longueur d'une IM-PDU doit être multiple de 4. Le champ PAD permet donc de rajouter des octets de bourrage afin d 'obtenir cette condi t ion nécessaire à la fonction de fragmentation/réassemblage de l'IM-PDU en DM-PDU.

Le champ CRC32 permet de détecter les éventuelles erreurs de transmission. Il est optionnel.

Le champ de suffixe, Common PDU Trailer, répète le champ BEtag d'en-tête afin de fournir une sécurité supplémentaire. Une condition nécessaire mais non suffisante de validité de l'IM-PDU est que les deux champs BEtag présentent la même valeur. Le champ Length contient la longueur totale en octets des champs Data, MCP Header, Header Extension et CRC32. La valeur de ce champ permettra de contrôler la longueur de L'IM-PDU après fragmentation et réassemblage.

Page 191: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 171

6.4.3. La DM-PDU (Derived MAC Protocol Data Unit)

La taille de l'IM-PDU pouvant être trop longue pour être directement insérée dans un slot pour sa transmission, elle est fragmentée en un ou plusieurs fragments d'au plus 44 octets. Un préfixe (DM-PDU Header) et un suffixe (DM-PDU Trailer) de 2 octets chacun sont ajoutés à chaque fragment pour former une DM-PDU (figure 6.9).

Figure 6.9. Format de la DM-PDU

L'en-tête contient l'information nécessaire au réassemblage dune IM-PDU et représentée dans trois champs : le type de segment (Segment_Type), le numéro de séquence (Sequence Number) et l'identificateur de message (MID) :

- le champ SegmentJType est codé en fonction de la longueur de l'IM-PDU et de la position du fragment dans celle-ci (tableau 6.2) ;

longueur de l'IM-PDU position du fragment Segment Type

< 44 octets un fragment unique SSM (Single Segment Message)

> 44 octets

premier fragment

fragment intermédiaire

dernier fragment

BOM (Beginning Of Message)

COM (Continuation Of Message)

EOM (End Of Message)

Tableau 6.2. Type de DM-PDU

- le champ Sequence Number contient un numéro de séquence incrémenté

modulo 16 qui permet au moment du réassemblage de l'IM-PDU de vérifier l'ordre et

la réception effective de toutes les DM-PDU ;

- le champ MID permet au récepteur de reconnaître à quelle IM-PDU appartient

chaque DM-PDU reçue.

Le suffixe de la DM-PDU (DM-PDU Trailer) contient les informations nécessaires à la détection d'erreurs au niveau de cette DM-PDU :

- le champ Length indique le nombre d'octets qui occupent le champ Segmentation Unit de la DM-PDU. Ce nombre est un multiple de 4 et inférieur ou

2 octets 44 octets 2 octets

DM-PDU Header Segmentation Unit DM-PDU Trailer

2 bits 4 bits 1 Obits - - 6 bits 10 bits

Segment Type

Sequence Number

MID Length CRC

Page 192: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 72 Architecture des réseaux haut débit

F i g u r e 6 . 1 0 . Format d'un segment

L'en-tête du segment est composé des champs suivants :

- l 'identificateur de canal virtuel (VCI) auquel appartient la cellule, utilisé uniquement en mode connecté ;

- le type des données transportées (Payload Type) : pour les données utilisateur, ce champ est positionné à 00, les autres valeurs étant réservées ;

- le champ de priorité (Segment Priority) n'est pas utilisé pour l'instant et est positionné à 00 ;

- le champ HCS (Header Check Sequence) permet de détecter les erreurs sur l'entête de segment.

6.5. Le protocole D Q D B

La couche DQDB comprend un ensemble de blocs fonctionnels (cf. figure 6.2). Il s'agit de la fonction de convergence MAC (MCF), de la fonction de convergence orientée connexion (COCF) et de la fonction de convergence isochrone (ICF) qui fournissent les différents types de service DQDB. Nous allons détailler le fonctionnement de ces différentes entités.

égal à 44. Pour les DM-PDU de type BOM et COM, la valeur de ce champ est toujours égale à 44. Les DM-PDU de type SSM ont une longueur comprise entre 28 et 44 octets, et les DM-PDU de type EOM, une longueur comprise entre 4 et 44 octets ;

- le champ CRC permet de détecter les erreurs apparues lors de la transmission.

6.4.4. Le segment

Le segment constitue la charge utile (payload) de la cellule DQDB. Un segment QA inséré dans un slot QA transporte des données QA, alors qu'un segment PA encapsulé dans un slot PA, transporte des données PA. Chaque segment est composé d'un en-tête de 4 octets et d'un champ de données de 48 octets (figure 6.10).

4 octets 48 octets

Segment Header

Data

20 bits 2 bits ~ '2 bits - - - - 8 bits

VCI Payload Type

Segment Priority

HCS

Page 193: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 17 3

6.5.1. Fonction de convergence MAC (MLh)

Ce bloc fonctionnel fournit à la couche LLC le service MAC DQDB pour les

services asynchrones.

6.5.1.1. Processus d'émission

Le processus d'émission du bloc MCF est responsable de la création d'une IM-

PDU à partir des paramètres de la primitive MA-UNITDATA.request reçue de la

couche LLC. Il assure ensuite la fragmentation de cette IM-PDU ainsi que

1'encapsulation des fragments obtenus dans des DM-PDU. Chaque DM-PDU est

ensuite passée à l'entité QAF (Queue Arbitrated Function) qui effectue la

transmission des DM-PDU dans des segments QA, à la priorité demandée (figure

6 .11).

LLC - Logical Link Control

M A_UN1TD ATA.request

MCF - MAC Convergence Function

création d'une IM-PDU

IM-PDU

segmentation de l'IM-PDU

unité de segmentation

création d une DM-FDL

DM-PDU, VCI, type de charge utile, priorité de segment

OAF - Queue Arbitrated Functions

F i g u r e 6 . 1 1 . Le processus d'émission du bloc de convergence MAC

6.5.1.2. Processus de réception

Ce processus de réception a pour but de réassembler une IM-PDU à partir des fragments contenus dans les DM-PDU reçues par le bloc MCF. Le réassemblage est réalisé à partir des DM-PDU effectivement adressées à la station et sous les conditions suivantes : Segment_Type de type QA, VCI identiques dans l'en-tête de segment (en mode connecté), DM-PDU reçues sans erreur, MID identiques dans l'entête de la DM-PDU. Le processus de réception initialise une nouvelle IM-PDU à chaque fois qu'il reçoit une DM-PDU de type BOM (Beginning Of Message) destinée à la station. Il enregistre alors VCI et MID, puis il concatène les DM-PDU

Page 194: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 74 Architecture des réseaux haut débit

LLC - Logical Link Control

MAJJN1TDATA. indication

MCF - MAC Convergence Function

extraction de MSDU

validation de 1'IM-PDl DM-PDU (SSM;

IM-PDU

réassemblage de l'IM-PDl

DM-PDU (BOM, COM, EOM)

sélection du processus de réassemblage

D M - P D U , VUl, type de charge utile, priorité de segment

QAF - Queue Arbitrated Functions

Figure 6.12. Le processus de réception du bloc de convergence MAC

Chaque IM-PDU reconstituée est validée si elle vérifie les quatre critères suivants :

- la valeur du sous-champ Length est égale au nombre d'octets reçus pour l'IM-PDU moins 8 octets (ces derniers correspondent à la longueur des champs Common PDU Header et Common PDU Trailer qui ne sont pas comptabilisés dans le champ Length) ;

- la valeur du champ BEtag de l'en-tête est égale à celle du suffixe ;

- le total de contrôle (s'il existe) est correct ;

- la valeur du champ HEL de l'en-tête MCP est comprise entre 0 et 5.

correctes correspondantes et de type COM (Continuation Of Message) dans l'ordre de leur numéro de séquence ; le réassemblage est terminé lors de la réception de la DM-PDU de type EOM (End Of Message).

Page 195: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

D Q D B (Distributed Queue Dual Bus) 1 7 5

Si l'un des critères n'est pas vérifié, 1TM-PDU est rejetée. Si ces quatre conditions sont vérifiées, la fonction d'extraction extrait le champ de données de l'IM-PDU correspondant à la MSDU et initialise les paramètres de la primitive MA_UNITDATA.indication à partir des autres champs de l 'IM-PDU (adresses et priorité). Ensuite, une primitive MA_UNITDATA.indication est transmise avec ses paramètres vers la sous-couche LLC (figure 6.12).

6.5.2. Fonction de convergence isochrone (ICF) et entité fonctionnelle PAF

L'entité fonctionnelle PAF (Pre-Arbitrated Functions) de la couche DQDB assure le contrôle d'accès aux canaux isochrones. Les canaux isochrones sont préalablement établis par un processus de signalisation qui ne fait pas partie de la couche DQDB. L'établissement définit, entre autres, la valeur de l'identificateur de la connexion, le VCI, qui permet à l'entité fonctionnelle PAF de reconnaître les segments utilisés pour cette connexion. A l'établissement, est aussi défini pour cette connexion, le déplacement des octets dans le segment pour lire ou écrire ses données. Chaque station enregistre ces paramètres (VCI et déplacement des octets) associés au point d'extrémité de connexion (CEP) dans une table des connexions isochrones établies.

Les blocs de fonctions PAF reçoivent et transmettent des octets du service isochrone, à débit moyen garanti, mais ces octets ne sont pas forcément distribués régulièrement. L'irrégularité de leurs arrivées dépend de la distribution des slots PA générés par la fonction de marquage de slots de la station d'extrémité, ainsi que du nombre d'octets portés par chaque slot PA pour chaque connexion isochrone. Le rôle de l'ICF (Isochronous Convergence Function) est, si nécessaire, de fournir une temporisation afin de lisser toute irrégularité d'arrivée des octets de service isochrone, de façon à obtenir le taux d'arrivée souhaité par l'utilisateur du service isochrone. Un bloc ICF maintient deux tampons séparés (un d'arrivée, l'autre de transmission). Il existe différents types d'ICF définis pour différents types de service isochrones, suivant les exigences de temporisation d'un utilisateur particulier de service isochrone.

6.5.3. Fonction de convergence orientée connexion (COCF)

Comme les connexions isochrones, les connexions asynchrones sont établies par une procédure de signalisation qui retourne la valeur du VCI allouée à la connexion. L'entité COCF (Connection Oriented Convergence Function) mémorise pour chaque connexion établie son point d'extrémité de connexion (CEP) qui identifie l'utilisateur, son VCI et le bus sur lequel elle émet ou reçoit des segments. Lors d'une demande de transfert de données, les procédures de fragmentation et de réassemblage sont les mêmes que pour le bloc MCF. Toute donnée émise par le

Page 196: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 76 Architecture des réseaux haut débit

bloc COCF est une IM-PDU, avec quelques différences cependant, par rapport à l'IM-PDU transférée par le bloc MCF :

- les champs réservés (Res) de l'en-tête d'IM-PDU (Common PDU Header) et du délimiteur de fin de PDU (Common PDU Trailer) peuvent contenir des valeurs non nulles ;

- le champ BAsize de l'en-tête d'IM-PDU peut contenir une valeur supérieure ou égale à celle du champ Length du délimiteur de fin de PDU pour la même donnée à transférer, pour des raisons d'allocation de tampons à la réception.

Autre différence, le champ de données des DM-PDU issues d'une telle IM-PDU, de type BOM ou COM, peut être partiellement rempli. Comme l'accès aux cellules vides est dynamique, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.

6.5.4. Fonctions communes (CF)

Le bloc de fonctions communes (CF — Common Functions) utilisé par les entités fonctionnelles QAF et PAF définit un protocole entre ces entités et la couche physique. Il réalise le relais des slots et des octets de gestion entre les deux SAP physiques.

6.6. Les services D Q D B

La couche DQDB fournit trois types de services : le service MAC (ou service asynchrone sans connexion), le service isochrone et le service asynchrone orienté connexion. Il est donc défini différents ensembles de primitives de service correspondant à chacun de ces services.

6.6.1. Primitives du service MAC

Trois primitives de services sont définies pour le service MAC fourni à la couche LLC, Rappelons que la couche LLC est responsable de l'établissement de la connexion logique entre stations. Ces primitives sont :

- MA_UNITDATA.request (adresse_source, adresse_destination, priorité, données, classe_de_service) permet le transfert d'une unité de données MAC depuis une entité LLC à une autre entité LLC ou plusieurs entités LLC dans le cas d'une adresse de destination de groupe. Les paramètres adresse_source et adresse_destination indiquent les adresses d'émission et de destination des données. Le paramètre priorité

Page 197: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 177

indique la priorité souhaitée pour le transfert de données et peut prendre une valeur parmi 8 possibles. Le paramètre données correspond à la SDU à transférer. Enfin, le paramètre classe _de ^service indique la classe de service à utiliser pour le transfert de données : synchrone, asynchrone avec connexion ou isochrone ;

- MA_UNITDATA.indication (adresse_source, adresse_destination, priorité, données, classe_de_service) indique la réception de l'unité de données MAC à une entité LLC. Si aucune erreur ne s'est produite, alors le contenu de cette primitive est identique à celui de la primitive MA_UNITDATA.request de l'émetteur ;

- MA_STATUS.indication (status) indique à l'entité LLC un changement d'état dans le fonctionnement du service MAC DQDB. Elle n'a qu'une portée locale. Les différents états de fonctionnement de la couche DQDB sont :

- fonctionnement normal, - données non transmises car le nœud est isolé du réseau, - données non transmises car le réseau est en cours d'initialisation ou de reconfiguration, - autre raison de non-fonctionnement.

6.6.2. Primitives du service isochrone DQDB

Le service DQDB isochrone permet le transfert de données entre deux utilisateurs de ce service à travers une connexion isochrone préalablement établie. Ce service fournit une période moyenne d'envoi des données ainsi qu 'une bande passante garantie sur le support. Les primitives définies pour ce service sont :

- ISU_DATA.request (ISDU) qui permet le transfert d 'un octet du service isochrone à travers une connexion préalablement établie. Le paramètre ISDU transporte un seul octet de service isochrone ;

- ISU_DATA.indication (ISDU) qui indique l'arrivée d'un octet isochrone sur une connexion.

La table des connexions isochrones établies pour ce nœud permet de déduire le VCI à partir du CEP de la primitive de requête et inversement, pour la primitive d'indication.

6.6.3 . Primitives du service de données asynchrones orienté connexion

Ce service supporte le transfert de données à travers des canaux virtuels. Il est asynchrone car il ne garantit aucune périodicité de transfert des données. Les détails de ce service et des primitives utilisées sont en cours d'étude au sein du groupe de

Page 198: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 78 Architecture des réseaux haut débit

normalisation IEEE 802.6. La figure 6.13 résume l'ensemble des primitives

utilisées par la couche DQDB.

LLC

MA_UNITDATA.request

MAJJNITD ATA. indicatior

M A _ J 1A1 U à . indication

ISU DATA.reauest

ISILDATA.indication

couche DQDB

service isochrone

F i g u r e 6 . 1 3 . Primitives de service de la couche DQDB

f i . ! . T. a r n n r h p nhvKÏnne

6 .7 .1 . Les différents supports

La couche DQDB est indépendante de la couche physique, aussi peut-on mettre en œuvre différents supports et différents débits tout en conservant le même protocole d'accès. Trois systèmes de transmission ont été retenus dans le standard 802.6 :

- le système ANSI DS-3, à un débit de 44,736 Mbit/s sur câble coaxial ou fibre

optique ;

- le système de transmission SONET/SDH, à des débits de 155,52 Mbit/s et

plus sur fibre optique monomode ;

- le système de transmission G.703, à des débits de 34,368 Mbit/s et 139,264 Mbit/s sur des supports métalliques.

Pour chaque système de transmission, une sous-couche de convergence est définie pour fournir le même service à la couche DQDB. A l'heure actuelle, seule la fonction de convergence correspondant au système de transmission DS3 est définie.

6 .7 .2 . Le service physique

Chaque station appartenant au réseau DQDB qui n'est pas en tête de bus (c'est-à-dire générateur de slots) est reliée physiquement aux deux bus, A et B. Deux points d'accès au service physique (PH-SAP) sont donc définis : PH-SAP_A permet de recevoir sur le bus A et d'émettre sur le bus B, PH-SAP_B permet de recevoir sur le bus B et d'émettre sur le bus A (figure 6.14).

Page 199: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 179

couche DQDB

PH-SAP_A PH-SAP.B

couche physique

bus A busB

bus A busB

F i g u r e 6 . 1 4 . Les services de la couche physique

Les primitives fournies par la couche physique et utilisées par la couche DQDB

sont :

- PH_DATA.request (octet, type) demande le transfert d'un octet depuis la couche DQDB locale à la couche DQDB distante. Le paramètre type indique le type de l'octet, SLOT_START pour le premier octet d'une cellule, SLOT_DATA pour un octet suivant dans la cellule et DQDB JvlANAGEMENT pour des données de gestion ;

- PH_DATA.indication (octet, [status]) est générée par la couche physique afin d'indiquer la réception d'un octet. Le paramètre status, facultatif, indique à la couche physique que l'octet proposé pour le transfert est soit valide, soit invalide ;

- PH_STATUS.indication (status) est générée par la couche physique afin d'indiquer l'état opérationnel du lien de transmission bidirectionnel associé avec l'un des SAP ;

- PH_TIMING_SOURCE.request (source) fournit l'origine de la fréquence d'horloge à la couche physique. L'horloge est fournie soit de manière externe ou interne au nœud ou encore reçue de l'un des bus ; dans ce dernier cas, une autre station fournit l'horloge au bus, par exemple, le générateur de cellules ;

- PH_TIMING_MARK.indication signale l'arrivée d'une information de

synchronisation toutes les 125 us.

Page 200: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 80 Architecture des réseaux haut débit

Exercices

Exercice 6.1

Un réseau métropolitain utilisant le protocole DQDB comporte cinq stations désignées par A, B, C, D et E.

bus A

bus B

A B C D E

On suppose que le temps de propagation de A à E est égal au temps de transmission d'un slot. On suppose aussi qu'une station incrémente son compteur avant de le décrémenter et avant d'effectuer une requête de transmission (positionnement du bit RQ sur l'autre bus). Rappelons enfin qu'une nouvelle requête ne peut être effectuée que lorsque la précédente est satisfaite et qu'une requête ne permet la transmission que d'un seul segment.

Le scénario étudié est le suivant :

- les stations ne désirent transmettre des données que sur le bus A ; - les slots 0, 1,2, 3, 5, 10 et 15 sont occupés par des transmissions isochrones

(slots PA) ; - à t = 1, D veut émettre 3 segments ; - à t = 2, B et C veulent émettre chacune 2 segments ; - à t = 5, E veut émettre 3 segments ; - à t = 9, A veut émettre 3 segments.

1. Sur un tableau, où chaque ligne représente un slot du bus A, montrez l'évolution dans le temps des compteurs RQ et CD pour chacune des stations. On utilisera les conventions suivantes :

- un slot occupé par la transmission du premier segment de la station 1 sera noté A l ;

- un slot occupé par une transmission isochrone est représenté par X (une croix).

Remarque — Il est inutile de faire figurer les compteurs de la station E car ils restent à zéro.

temps bus A

émission bus B

requêtes

A B c D commentaires temps

bus A émission

bus B requêtes RQ CD RQ CD RQ CD RQ CD

commentaires

0 X — 0 0 0 0 0 0 0 0

Page 201: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DQDB (Distributed Queue Dual Bus) 1 81

2. Pour chacune des stations, calculez le débit effectif (ou débit utile) de transmission des slots. Commentez.

Exercice 6.2

Commentez les courbes ci-dessous qui représentent le débit maximum obtenu pour les réseaux FDDI et DQDB pour différentes tailles de trames et longueurs de réseaux [Ahmad 92].

taille trame

I »1« 64 octets 1 518 octets 4 000 octets

160 200 taille réseau (km)

technologie = FDDI = DQDB

débi

t m

axim

um (

Mbi

t/s)

Page 202: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 82 Architecture des réseaux haut débit

Exercice 6.3

Commentez les courbes ci-dessous qui représentent le comportement de DQDB pour différentes stations situées à différentes positions sur le bus [Ahmad 92].

déla

i d'

accè

s (u

s)

position de l'utilisateur

10 km 50 km 100 km 200 km j

Page 203: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 7

LLC (Logical Link Control)

7.1. Introduction

Dans l'architecture IEEE, la couche liaison de données est divisée en deux sous-couches, MAC pour le niveau inférieur et LLC pour le niveau supérieur. Nous avons pu voir à plusieurs reprises que les réseaux locaux et métropolitains se singularisent par le partage du support de transmission. C'est le rôle de la sous-couche MAC que de gérer et de contrôler l'accès des stations du réseau à ce support unique. Ses fonctions ne vont pas au-delà. La sous-couche LLC intervient alors, au-dessus de MAC, afin de rendre un service comparable à un service de liaison OSI. En particulier, LLC est chargé de gérer les communications entre stations et d'assurer l'interface avec les couches supérieures (couche réseau). Ses spécifications sont données dans le standard IEEE 802.2 et sont reprises dans la norme internationale IS 8802-2 de l'ISO.

Le standard 802.2 définit :

- le protocole de la sous-couche LLC commune aux standards IEEE de niveau MAC (802.3, 802.4, etc.),

- l'interface de service fournie à la couche réseau, - l'interface de service fournie par la sous-couche MAC.

Page 204: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 84 Architecture des réseaux haut débit

7.2. Services fournis à la couche réseau

LLC offre un certain nombre de services à la couche réseau. Conformément aux principes de structuration en couches du modèle OSI, une entité de réseau désirant accéder aux services de LLC doit le faire à travers un mécanisme d'identification de service, appelé "point d'accès au service" (SAP — Service Access Point). Trois types de services sont fournis à la couche réseau :

- service sans connexion, - service avec connexion, - service sans connexion avec acquittement.

7.2.1. Service sans connexion : LLC1

Le service LLC1 est un service en mode datagramme. Le transfert de données peut se faire en point à point, en point à multipoint ou en diffusion. LLC1 n'offre donc que l'émission et la réception de trames sans :

- aucun séquencement ;

- aucune forme d'acquittement de la part du destinataire (par conséquent, pas de garantie de livraison, ni de notification en cas d'échec) ;

- aucun contrôle d'erreur.

Le service LLC 1 repose donc sur un protocole peu complexe et trouve son utilité dans les contextes suivants :

- lorsque les couches supérieures fournissent déjà un service de détection et de traitement d'erreur ainsi qu'un service de séquencement. Dans de nombreux réseaux locaux, les systèmes d'extrémité implantent les couches 3 à 7 et utilisent un service datagramme au niveau réseau et un service en mode connecté au niveau transport, par exemple TCP/IP ou TP4/CLNP. Il est donc inutile de dupliquer ce service, avec toute la lourdeur qui en découle, au niveau LLC ;

- lorsque l'application n'exige pas une garantie de transmission de chacune de ses unités de données. En particulier, il existe des applications pour lesquelles le mode connecté est injustifié voire même pénalisant. Citons, entre autres :

• la collecte de données : c'est le cas d'applications qui recueillent des données provenant de différents capteurs permettant de contrôler l'exécution d'une tâche. La perte occasionnelle d'une donnée ne compromet pas le contrôle si l'on sait que les données suivantes devraient arriver rapidement ;

• la diffusion de données : comme, par exemple, la diffusion de messages d'intérêt commun à tous les utilisateurs d'un réseau (changement de l'adresse d'un service, distribution des tops d'une horloge, etc.) ;

• le transactionnel : l'interrogation d'un serveur se limite souvent à une seule séquence de type question-réponse. L'établissement d'une connexion n'est

Page 205: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 185

généralement pas nécessaire, l'utilisation du service étant contrôlée au niveau applicatif ;

• le temps réel : pour les applications qui présentent des contraintes temporelles strictes, l'utilisation du mode connecté introduirait des délais trop longs ou trop variables.

Les primitives qui permettent d'utiliser ce service sont au nombre de deux et portent, bien sûr, sur le transfert de données. La figure 7.1 montre l'enchaînement de la primitive de requête et de la primitive d'indication.

utilisateur fournisseur , du service

DL.UNITDATA.ind ( adresse source,

adresse destination, ^ .données, priorité )

utilisateur

DL.UNITDATA.req ( adresse source,

adresse destination^ données, priorité )

Figure 7.1. Les primitives de service LLC1

Les paramètres ont la signification suivante :

- l'adresse source spécifie l'utilisateur local de LLC ;

- l'adresse destination spécifie l'utilisateur distant de LLC. Elle peut représenter une adresse individuelle ou de groupe (puisque LLC1 permet de fonctionner en point à point, en multipoint ou en diffusion) ;

- la priorité indique le niveau de priorité désiré pour le transfert de la donnée. Ce paramètre est directement passé à l'entité MAC qui a la responsabilité d'implanter ou non un mécanisme de priorité (CSMA/CD, par exemple, ne supporte pas de système de priorités). Le standard ne spécifie pas l'intervalle de valeurs possibles : cela est dicté par la sous-couche MAC et les valeurs possibles doivent être connues de l'utilisateur de LLC.

7.2.2. Service avec connexion : LLC2

Le service LLC2 utilise les trois phases de fonctionnement du mode connecté, à savoir, la phase d'établissement de la connexion, la phase de transfert de l'information ainsi que la phase de libération de la connexion. Par essence, l'existence d'une connexion logique implique que le fournisseur du service LLC, à chaque extrémité de la connexion, garde une trace des données en cours d'émission et de réception. Pendant le transfert de données, LLC2 garantit que toutes les unités de données sont correctement délivrées à leur destinataire (sans erreur, ni perte, ni duplication, ni déséquencement). S'il y a échec, LLC2 le notifie à son utilisateur.

Page 206: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 86 Architecture des réseaux haut débit

Le mode LLC2 est donc bien adapté aux applications qui nécessitent des échanges de longue durée (transfert de fichiers, accès distant à un système fonctionnant en temps partagé).

La couche réseau accède aux services LLC2 au moyen de primitives réparties en cinq groupes.

7.2.2.1. Etablissement de connexion

Pour l'établissement de connexion, les quatre primitives utilisées sont :

- DL_CONNECT.request (adresse source, adresse destination, priorité),

- DL_CONNECT.indication (adresse source, adresse destination, priorité),

- DL_CONNECT.response (adresse source, adresse destination, priorité),

- DL_CONNECT.confirmation (adresse source, adresse destination, priorité).

Dans le cas de l'établissement réussi (figure 7.2), la priorité de l'indication est la même que celle de la requête. Par contre, celle de la réponse peut lui être inférieure. La priorité de la confirmation est égale à la priorité de la réponse. La priorité est associée à l'ensemble de la connexion et peut être utilisée pour déterminer les ressources que l'entité LLC va allouer à la connexion. Elle est passée à l'entité MAC pour chaque unité de données transférée sur la connexion logique.

utilisateur fournisseur du service

DL_CONNECT.req ( adresse source,

adresse destinatiolïr priorité )

utilisateur

DL_CONNECT.ind ( adresse source,

adresse destination, priorité )

DL_CONNECT.conf ( adresse source,

adresse destination, priorité )

DL_CONNECT.resp ( adresse source,

adresse destination, priorité )

Figure 7.2. Etablissement de connexion réussi

Dans le cas d'un croisement de requêtes de connexion (figure 7.3), une seule connexion est établie, les entités LLC fournissant une confirmation à chacun des utilisateurs. La priorité la plus faible est la priorité reconnue.

Page 207: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 187

utilisateur fournisseur du service

utilisateur

DL_CONNECT.req ( adresse source,

adresse destination, priorité )

DL_CONNECT.conf ( adresse source,

adresse destination, priorité )

DL_CONNECT.conf ( adresse source,

adresse destination, priorité )

F i g u r e 7 . 3 . Croisement de requêtes de connexion

7.2.2.2. Libération et refus de connexion

La libération de connexion est un service non confirmé. Les primitives utilisées

sont donc au nombre de deux :

- DL_DISCONNECT.request (adresse source, adresse destination),

- DL_DISCCONNECT.indication (adresse source, adresse destination, raison).

Le paramètre raison indique la raison de la déconnexion et si la libération provient

du fournisseur (figure 7.4 (a)) ou de l'un des deux utilisateurs (figure 7.4 (b)).

utilisateur fournisseur du service

utilisateur

DL_DISCONNECT.ind ( adresse source,

adresse destination, raison )

DL.DISCONNECT.ind ( adresse source,

adresse destination, raison ) ^ - ^ ^

(a) par le fournisseur

utilisateur

DL_DISCONNECT.req ( adresse source,

adresse destination )

fournisseur du service

utilisateur

DL_DISCONNECT.ind ( adresse source,

adresse destination, raison )

(b) par un utilisateur

F i g u r e 7 . 4 . Libération de connexion

DL_CONNECT.req ( adresse source,

adresse destination, priorité )

Page 208: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 8 8 Architecture des réseaux haut débit

Le fournisseur peut refuser d'établir une connexion (figure 7.5 (a)). Cela arrive par

exemple, lorsque :

- l'entité LLC locale n'est pas capable d'établir la connexion (manque de ressources, mauvais fonctionnement local, etc.),

- l'entité LLC distante ne répond pas à la requête de connexion, malgré N

tentatives successives.

De même, l'utilisateur appelé a la possibilité de refuser l'appel entrant en répondant par une demande de déconnexion (figure 7.5 (b)).

utilisateur

DL_CONNECT.req ( adresse source,

adresse destination, priorité )

DL.CONNECT.conf ( adresse source,

adresse destination, raison)

fournisseur du service

utilisateur

(a) par le fournisseur

utilisateur

DL_CONNECT.req ( adresse source,

adresse destination, priorité )

DL_CONNECT.conf ( adresse source,

adresse destination, priorité )

fournisseur du service

utilisateur

DL_CONNECT.ind ( adresse source,

adresse destination, priorité )

DL_CONNECT.resp ( adresse source,

adresse destination,)

(b) par l'utilisateur distant

Figure 7.5. Refus d'établissement

7.2.2.3. Transfert de données

En mode connecté, le transfert de données se fait en point à point, soit d'un

utilisateur de LLC vers un autre utilisateur. Les primitives invoquées sont (figure

7.6) : - DL_DATA.request (adresse source, adresse destination, données),

- DL_DATA.indication (adresse source, adresse destination, données).

Page 209: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 189

utilisateur fournisseur du service

utilisateur

DL_DATA.ind ( adresse source,

adresse destination, données )

Figure 7.6. Transfert de données

Une confirmation à l'utilisateur émetteur n'est pas nécessaire, puisque le service

en mode connecté garantit la remise correcte de ses données. En cas de problème,

l'utilisateur est averti par des fonctions de déconnexion ou de réinitialisation.

7.2.2.4. Réinitialisation de connexion

utilisateur

DLJŒSET.ind ( adresse source,

adresse destination, raison )

DL_RESET.resp ( adresse source,

adresse destination )

fournisseur du service

utilisateur

DL.RESET.req ( adresse source,

adresse destination T

DLJRESET.conf

( adresse source, adresse destination )

(a) par le fournisseur

fournisseur du service

utilisateur

DL_RESET.ind ( adresse source,

adresse destination, raison ) k.

DL_RESET.resp ( adresse source,

adresse destination )

utilisateur

DL_RESET.ind ( adresse source,

adresse destination, raison )

DL_RESET.resp ( adresse source,

adresse destination )

(b) par un utilisateur

Figure 7.7. Réinitialisation de connexion réussie

A tout moment, le fournisseur ou l'un des utilisateurs peut réinitialiser la

connexion logique sur détection d'une erreur grave ; il y a éventuellement perte de

données (existence de données envoyées par une entité LLC mais non encore

acquittées par l'autre entité) puisque la connexion retrouve son état initial et que tous

DL_DATA.req ( adresse source,

adresse destination, données)

Page 210: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 90 Architecture des réseaux haut débit

les numéros de séquence utilisés par le protocole sont remis à 0. La réinitialisation constitue un service confirmé, avec les quatre primitives suivantes :

- DL_RESET.request (adresse source, adresse destination),

- DL_RESET.indication (adresse source, adresse destination, raison),

- DL_RESET.response (adresse source, adresse destination),

- DL_RESET.confirmation (adresse source, adresse destination).

Le paramètre raison indique qui est à l'initiative de la réinitialisation, le fournisseur (figure 7.7 (a)) ou l'un des utilisateurs du service LLC (figure 7.7 (b)).

7.2.2.5. Contrôle de flux

Le contrôle de flux dans le service LLC2 intervient à l'interface réseau/LLC et repose sur deux primitives :

- L_CONNECTION_FLOWCONTROL.request (adresse source, adresse destination, valeur),

- L_CONNECTION_FLOWCONTROL indication (adresse source, adresse desti

nation, valeur).

Elles servent à réguler le flot de données entre la couche réseau et la sous-couche LLC. Chaque fois que cela s'avère nécessaire, la couche réseau utilise une primitive de requête L_CONNECTION_FLOWCONTROL pour indiquer à la couche LLC la quantité de données qu'elle est prête à recevoir (figure 7.8 (b)). De même, la sous-couche LLC utilisera l'indication pour signifier à la couche réseau combien de données elle peut accepter sans risque d'en perdre (figure 7.8 (a)). Si le paramètre valeur est nul, le flot de données associé à la connexion est suspendu.

utilisateur

DL_CONNECTION_ FLOWCONTROL.ind ( adresse source,

adresse destination, valeur )

fournisseur du service

utilisateur

(a) par le fournisseur

utilisateur

DL_CONNECTION_ FLOWCONTROL.req ( adresse source,

adresse destination, valeur )

fournisseur du service

(b) par un utilisateur

utilisateur

Figure 7.8. Contrôle de flux à l'interface

Page 211: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 191

7.2.3. Service sans connexion avec acquittement : LLC3

On peut se demander quelle peut être l'utilité d'un tel type de service. Considérons le fait que le mode connecté oblige l'entité LLC à gérer une table pour chaque connexion active. Si un utilisateur émet vers un grand nombre de destinataires et qu'il souhaite une garantie sur la remise de ses données, le service en mode connecté devient très difficilement gérable à cause du nombre de tables nécessaires. Un exemple de ce type d'application est le contrôle de processus pour lequel un site central doit communiquer avec de nombreux processeurs ou contrôleurs programmables. Un autre intérêt du service LLC3 est de fournir un système de polling avec garantie de réponse. Ici encore, dans le cas d'un contrôle de processus, il peut être nécessaire d'acquérir des données de la part d'un capteur possédant une faible capacité de calcul. Dans ce cas, l'implantation de ce service est plus simple et mieux approprié que le service en mode connecté. Un dernier exemple concerne aussi l'environnement industriel pour lequel certains signaux d'alarme ou de contrôle sont très importants et possèdent des contraintes de temps. Un acquittement est alors nécessaire pour garantir à l'expéditeur que son signal a été reçu mais le caractère urgent du signal oblige l'expéditeur à ne pas perdre de temps avec l'établissement préalable d'une connexion.

LLC3 est un service qui s'utilise en point à point uniquement. On peut le voir

comme étant constitué de deux services indépendants :

- DL_DATA_ACK : service avec remise garantie ;

- DL_REPLY : service de polling avec réponse garantie, qui permet à un utilisateur de demander des données préalablement préparées par un autre utilisateur ou d'échanger des données avec un autre utilisateur.

7.2.3.1. Service avec remise garantie

Ce service repose sur l'utilisation de trois primitives :

- DL_DATA_ACK.request (adresse source, adresse destination, données, priorité,

classe_de_service),

- DL_DATA_ACK.indication (adresse source, adresse destination, données,

priorité, classe_de_service),

- DL_DATA_ACK_STATUS.indication (adresse source, adresse destination,

priorité, classe_de_service, status).

Ce service permet à un utilisateur :

- d'envoyer des données à un utilisateur distant, - de recevoir une confirmation immédiate de la remise de ses données (figure

7.9 (a)) ou de l'échec de la remise (figure 7.9 (b)).

Page 212: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 92 Architecture des réseaux haut débit

utilisateur fournisseur du service

utilisateur

DL_DATA_ACK.req ( adresse source,

adresse destination, données, priorité, classe de service )

DL_DATA_ACK.ind ( adresse source,

adresse destination, données, priorité, classe de service )

DL.DATA.ACKJ*-""""^ STATUS, ind ( adresse source,

adresse destination, priorité, classe de service, status )

(a) réussite

utilisateur fournisseur du service

utilisateur

DL_DATA_ACK.req ( adresse source,

adresse destination, données, priorité, classe de service )

DL_DATA_ACK_ STATUS.ind ( adresse source,

adresse destination, priorité, classe de service, status )

(b) échec

F i g u r e 7.9. Service avec remise garantie

Le paramètre classe_de_service indique si un service d'acquittement doit être mis

en œuvre dans la sous-couche MAC pour le transfert de la donnée. Cette option est

notamment possible avec le standard IEEE 802.4. Token Bus.

Le paramètre status indique si l'unité de données transmise a été reçue

correctement par l'entité LLC distante ou sinon la cause de l'échec. Un échec peut

avoir une cause locale ou distante telle que l'impossibilité de transmettre ou l'absence

de réponse de l'entité distante.

7.2.3.2. Service de polling avec réponse garantie

Ce service permet à un utilisateur de solliciter une donnée d'un utilisateur distant

et, optionnellement, de transmettre une unité de données en même temps.

Page 213: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 193

II utilise les primitives suivantes :

- DL_REPLY.request (adresse source, adresse destination, données, priorité,

classe_de_service),

- DL_REPLY.indication (adresse source, adresse destination, données, priorité,

classe_de_service),

- DL_PvEPLY_STATUS.indication (adresse source, adresse destination, données,

priorité, classe_de_service, status),

- DL_REPLY_UPDATE.request (adresse source, données),

- DL_REPLY_UPDATE_STATUS.indication (adresse source, status).

Considérons le cas d'un système à polling avec un utilisateur primaire et plusieurs utilisateurs secondaires. Si un utilisateur secondaire a une unité de données à transmettre, il doit attendre d'être sollicité pour le faire. Les primitives DL_REPLY_UPDATE permettent d'éviter cette attente. Un utilisateur peut, par la primitive de requête, délivrer une unité de données à son entité LLC locale qui la conserve en l'associant au SAP de son utilisateur, et qui l'enverra à un utilisateur distant chaque fois que cela lui sera demandé. Chaque fois que l'utilisateur local voudra faire une mise à jour sur la donnée qu'il met à la disposition des autres uti l isateurs, il pourra le faire en invoquant à nouveau la primit ive DL_REPLY_UPDATE.request . L'entité LLC répond à une DL_REPLY_ UPDATE.request par une DL_REPLY_UPDATE-STATUS.indication (figure 7.10). Le paramètre status indique un succès si l'unité de données a bien été associée au SAP de l'utilisateur, ou un incident si cette association n'a pu être réalisée (pour cause d'insuffisance de tampons par exemple).

utilisateur

DL_REPLY_UPDATE. req ( adresse source,

données )

DL_REPLY_UPDATE_ STATUS.ind ( adresse source,

status )

fournisseur du service

\

utilisateur

Figure 7.10. Preparation de données pour une réponse à un polling

Du côté de l'utilisateur demandeur de données, le service peut être invoqué grâce à la primitive DL_REPLY.request. Cette primitive permet, outre le fait de solliciter des données associées au paramètre adresse destination, de transférer optionnellement de l'information (paramètre données). Si l'entité locale ne peut pas traiter la requête, elle retourne immédiatement une primitive DL_REPLY_STATUS.indication avec le

Page 214: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 94 Architecture des réseaux haut débit

utilisateur fournisseur du service

utilisateur

DL_REPLY.req ( adresse source,

adresse destination, données, priorité, classe de service )~~

DLREPLY STATUS.ind

DL_REPLY.ind ( adresse source,

adresse destination, données, priorité, classe de service )

( adresse source, adresse destination, données priorité, classe de service, status )

(a) réussite

utilisateur fournisseur du service

utilisateur

DL_REPLY.req ( adresse source,

adresse destination, données, priorité,^ classe de service )

\

DL_DATA_ACK STATUS.ind ( adresse source,

adresse destination, données priorité, classe de service, status )

(b) échec

F i g u r e 7 . 1 1 . Service de polling

paramètre status indiquant la nature de l'incident (figure 7.11 (b)). Sinon (figure 7.11 (a)), la requête est transmise à l'entité destinataire avec les résultats suivants :

- l'entité LLC destinataire génère une DL_REPLY.indication vers l'utilisateur distant. Si la requête de l'utilisateur local était accompagnée d'une unité de données, cette dernière est délivrée à l'utilisateur destinataire par la primitive d'indication ;

- si une unité de données est associée au SAP du destinataire (suite à une invocation par ce dernier de la primitive DL_REPLY_UPDATE.request), elle est transmise en retour à l'entité LLC source. Si aucune unité de données n'est associée, l'entité LLC destinataire envoie un message à l'entité LLC source pour l'informer de cette absence de données.

Quand le message est reçu par l'entité LLC source, elle génère une DL_REPLY_ STATUS.indication. Si tout s'est bien passé, l'entité source délivre l'unité de données provenant de l'entité LLC distante. Sinon, le paramètre status indique la nature de l'incident comme par exemple, l'absence de réponse de l'entité destinataire ou l'absence d'unité de données associée au SAP distant.

Page 215: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 195

7.3. In te r face M A C / L L C

Cette interface, spécifiée dans le standard 802.2, est totalement sans connexion. Elle contient les primitives qui permettent à la sous-couche LLC d'accéder aux services de la sous-couche MAC :

- MA_UNITDATA.request (adresse source, adresse destination, données, priorité,

classe_de_service),

- MA_UNITDATA.indication (adresse source, adresse destination, données,

status_réception, priorité, classe_de_service),

- MA_UNITDATA_STATUS.indication (adresse source, adresse destination, status_transmission, priorité_utilisée, classe_service_utilisée).

Les paramètres ont la signification suivante :

- les adresses source et destination spécifient des adresses MAC. Une adresse

destination peut être individuelle ou de groupe ;

- le paramètre données contient la PDU LLC ;

- la priorité spécifie la priorité désirée pour le transfert de l'unité de données ;

- la classe_de_service spécifie si un mécanisme d'acquittement doit être utilisé

pour la transmission de l'unité de données ;

- le paramètre status_réception indique le succès ou l'échec de la transmission de la trame entrante : par exemple, si une erreur est détectée dans une trame entrante, cette information est reportée à la sous-couche LLC qui peut l'utiliser dans le cadre de son propre contrôle d'erreur ;

- la primitive MA_UNITDATA_STATUS.indication est passée de l'entité MAC à l'entité LLC pour confirmer le succès ou l'échec du service demandé par une requête antérieure. Si la classe_de_service indique une non-utilisation de l'acquittement (ce qui est le cas général), la primitive d'indication est générée immédiatement après la tentative de transmission et indique seulement si l'entité MAC locale a ou n'a pas réussi à transmettre la trame. Dans le cas contraire, la primitive d'indication n'est passée que lorsqu'un acquittement est reçu de l'entité MAC destinataire ou lorsque le nombre maximum de transmissions pour une trame a été atteint ou encore lorsqu'une panne locale se produit. Remarquons que cette primitive d'indication de compte rendu sert de confirmation pour l'entité émettrice ; on la retrouve ainsi dans d'autres spécifications sous le nom de MA_UNITDATA.confirmation ;

- le paramètre status transmission est utilisé pour retourner de l'information d'état à l'entité locale LLC demandante. Les types de status qui peuvent être associés avec cette primitive sont dépendants de ('implementation et du type de protocole MAC utilisé (par exemple, un nombre excessif de collisions peut constituer une information de compte rendu retourné par une entité MAC CSMA/CD).

Page 216: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 96 Architecture des réseaux haut débit

7.4. Protocoles LLC

Le protocole LLC défini dans le standard IEEE 808.2 s'apparente au protocole HDLC [IS 3309] utilisé par les réseaux grande distance : ils ont des formats et des fonctions similaires. Cela est surtout vrai dans le cas du mode connecté.

Il y a en fait trois protocoles LLC, selon le type de service offert. Il est possible, pour une station donnée, de supporter plus d'un type de service et donc d'implémenter plus d'un protocole.

7.4.1. Unités de données

Les trois protocoles LLC utilisent le même format de trames, similaire au format des trames HDLC (cf. figure 7.12).

1 octet

adresse 1 octet

adresse 1 ou 2 octets n octets (n > 0 )

information

1 octet

adresse 1 octet

adresse contrôle

n octets (n > 0 )

information DSAP SSAP

contrôle

Figure 7.12 Format des trames LLC

Les deux champs d'adresse comportent chacun une adresse de 7 bits et un bit de contrôle : dans le cas du DSAP, il indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe (autorisée uniquement en LLC1) (bit I/G) ; dans le cas du SSAP, il indique si la trame est une commande ou une réponse (bit C/R).

Le champ de contrôle identifie le type de PDU — trame d'information, trame de supervision ou trame non numérotée — et spécifie plusieurs fonctions de contrôle ; sa longueur est de 1 ou 2 octets, selon son type (figure 7.13). Les trames qui sont numérotées (champs N(S) et N(R)) le sont modulo 128. Le bit P/F (Poil/Final) permet à une trame de commande de demander une réponse et à une trame de réponse d'être associée à la commande l'ayant suscitée.

trame d'information (I)

trame de supervision (S)

trame non numérotée (U)

N(S) - numéro de séquence en émission N(R) - numéro de séquence en réception S - bit de fonction de supervision M - bit de fonction de modification P/F - bit Poil/Final

Figure 7.13. Champ de contrôle des PDU LLC

0 N(S) P/F N(R)

1 0 S S 0 0 0 0 P/F N(R)

1 1 M M P/F M M M

Page 217: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 197

Le tableau 7.1 donne l'ensemble des trames employées par la sous-couche LLC.

code commande réponse code binaire

service en mode non connecté

information non numérotée UI X 110OP0O0

échange d'identification XID X X 1111 P/F 101

test TEST X X 1100P/F111

service en mode connecté

information I X X OxxxP/Fxxx

prêt à recevoir RR X X 10000000

non prêt à recevoir RNR X X 10100000

rejet REJ X X 10010000

fonctionnement en mode équilibré SABME X 1111P110

libération ou déconnexion DISC X 1100P010

acquittement non numéroté UA X 1100F110

mode déconnecté DM X 111F000

rejet de trame FRMR X 1110F001

service en mode non connecté acquitté

information acquittée sans connexion séquence 0

ACO X X 1110P/F110

information acquittée sans connexion séquence 1

AC1 X X 1U0P/F111

Tableau 7.1. Trames utilisées par le protocole LLC

7.4.2. Protocole LLC de type 1

Le service LLC de type 1 se réduisant au minimum, le protocole qui lui est

associé est extrêmement simple, avec seulement trois PDU.

La trame UI est utilisée pour transférer des données utilisateur, qui sont fournies et délivrées via les primitives DL_UNITDATA. Il n'y a ni acquittement, ni contrôle de flux, ni contrôle d'erreur (toutefois, il y a détection d'erreur et rejet éventuel au niveau de la sous-couche MAC).

Les deux autres trames, XID et TEST, servent aux fonctions d'administration associées aux trois types de LLC. Elles sont toutes deux utilisées de la façon suivante : chaque entité LLC peut émettre une commande (bit C/R = 0) XID ou TEST. L'entité LLC destinataire doit alors envoyer en retour une réponse XID ou TEST. Le champ d'information contient de l'information d'administration.

Page 218: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

1 98 Architecture des réseaux haut débit

Le standard n'impose pas une utilisation précise de la trame XID, mais suggère plusieurs cas d'utilisation possibles, par exemple :

- une commande XID avec un LSAP nul peut être utilisé pour solliciter une réponse d'une station quelconque ("Etes-vous là ?") ;

- une commande XID avec une adresse de DSAP de groupe peut servir à déterminer l'appartenance à un groupe. En particulier, une adresse globale (diffusion) peut servir à identifier toutes les stations actives ;

- un échange de XID avec des LSAP nuls peut servir à identifier les types de protocoles LLC implémentés ;

- un échange de XID avec des LSAP différents peut servir à identifier les types de service offerts à ces LSAP ;

- une entité LLC peut annoncer sa présence avec une adresse globale.

La commande TEST est utilisée pour forcer l'entité LLC distante à répondre par une autre réponse TEST, afin de réaliser un test de base du chemin de transmission entre deux entités LLC.

7.4.3. Protocole LLC de type 2

Le principe est très similaire à celui de HDLC avec un fonctionnement en mode équilibré (ABM — Asynchronous Balanced Mode). Il utilise les trois types de trames I, S et U (figure 7.13 et tableau 7.1) :

- les trames d'information (I) permettent de transférer les données utilisateur. Les champs N(S) et N(R) servant au contrôle d'erreur et au contrôle de flux et véhiculent respectivement un numéro de séquence en émission et un numéro de séquence en réception (numéro d'acquittement) ;

- les trames de supervision (S : RR, REJ, RNR) mettent en œuvre les mécanismes d'acquittement, de contrôle d'erreur et de contrôle de flux ;

- les trames non numérotées (U : SABME, DISC, UA, DM, FRMR) réalisent principalement les fonctions d'établissement, de libération de connexion, ainsi que d'autres fonctions de contrôle.

7.4.4. Protocole LLC de type 3

Chaque PDU transmise est acquittée. Le protocole utilise deux nouvelles PDU (inexistantes dans HDLC) non numérotées : ACO (Acknowledged Connectionless, Seq. 0) et AC1, leur codage ne différant que par un seul bit. Les données utilisateur sont encapsulées dans une trame de commande AC et doivent être acquittées par une

Page 219: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 199

trame de réponse AC. Le contrôle de flux est de type send-and-wait (utilisation d'une fenêtre d'émission de taille égale à 1 ) et le contrôle d'erreur de type ARQ (utilisation d'acquittements positifs et de retransmissions sur temporisateur). Pour se prémunir contre les pertes de PDU, un émetteur alternera l'utilisation de ACO et de AC1 dans ses trames de commande ; le destinataire répondra avec une PDU ACn de numéro opposé à celui contenu dans la commande.

Il est à noter qu'un protocole LLC de type 4 fut un moment candidat à la normalisation des protocoles LLC mais qu'il n'a finalement pas été adopté.

Page 220: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

200 Architecture des réseaux haut débit

Exercices

Exercice 7.1

Pour les différents types d'application énumérés ci-après, quelle est la classe de procédure LLC qui convient le mieux ? Justifiez brièvement votre réponse.

Les types d'application sont :

- application transactionnelle, - messagerie X.400, - télécopie, - transfert de fichiers, - contrôle de processus.

Exercice 7.2

Sur un réseau local Ethernet, une station effectue la diffusion d'une trame à toutes les autres stations. Au niveau LLC, indiquez comment est réalisée la reprise sur erreur, le cas échéant, de cette trame si le protocole est de type :

- LLC1, - LLC2, - LLC 3.

Exercice 7.3

Pourquoi n'y a-t-il pas de PDU de commande associée au service de contrôle de flux de LLC2 ?

Exercice 7.4

On considère une architecture utilisant LLC3 au-dessus de Token Ring. La primitive MA_DATA.confirmation est-elle d'une réelle utilité dans le cadre du service avec remise garantie offert par LLC3 ? Que se passe-t-il lorsque des erreurs de transmission se produisent sur une trame ?

Exercice 7.5

On considère une architecture de communication en environnement manufacturier utilisant LLC3 au-dessus de Token Bus. Dans cet environnement, une console de supervision A vient scruter une variable d'état mise à jour périodiquement par un automate programmable industriel B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC et les échanges de PDU dans les couches LLC et MAC lors de l'activation du service de polling avec réponse garantie par l'utilisateur UA de LLC situé sur la console A.

Page 221: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

LLC (Logical Link Control) 201

Exerc ice 7.6

Deux stations A et B sont connectées à un réseau local 802.3. L'échange se fait avec le protocole LLC2. La station A souhaite transférer deux trames d'information à la station B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC ainsi que les LLC-PDU et MAC-PDU transmises, pendant les phases d'établissement et de transfert.

Page 222: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 223: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 8

ATM (Asynchronous Transfer Mode)

8.1. Introduction

Actuellement, les services du téléphone, de transfert de données et d'image sont supportés par des réseaux distincts. Du fait du coût de ces différents réseaux et de leur partitionnement, le réseau large bande doit offrir sur un réseau unique l'ensemble de ces services avec comme objectif l'optimisation des coûts de câblage, de maintenance et de gestion pour l'opérateur. Les moyens de réaliser cette intégration sont d'une part, la fibre optique qui offre les débits nécessaires aux services d'images numérisées et d'autre part, la technique de commutation ATM qui permet une grande souplesse dans l'allocation des débits aux connexions réseau.

8.2. Nouveaux services et multimédia

8.2.1. Les services large bande

Aux applications classiques d'interconnexion de réseaux locaux ou de supercalculateurs qui demandent de plus en plus de bande passante viennent s'ajouter de nouveaux services dits services large bande.

Les récents développements dans les technologies de traitement de l'information ont permis le développement d'applications innovantes (vidéoconférence, visiophone, bases de données géographiques, vidéodiffusion, télédiffusion haute définition, etc.) alliant informatique et télécommunications et concernant de nombreux domaines : médecine, édition, tourisme, journalisme, administration, information [Szuprowicz 95]. Les particuliers sont également visés avec le

Page 224: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

204 Architecture des réseaux haut débit

développement de nouveaux services de loisirs, tels la vidéo à la demande ou les jeux interactifs. Toutes ces nouvelles applications nécessitent des traitements complexes et variés : des systèmes d'archivage d'images fixes associés à des bases de données, des serveurs vidéo haute performance, des transmissions haut débit et des moyens d'impression de documents couleur ainsi que l'accès multiple et à distance aux banques d'informations. Dans le même temps, il a été défini de nouvelles méthodes de travail coopératif, comme l'élaboration de documents communs par des utilisateurs distants ou la mise en place de conférences où les conférenciers sont situés dans des sites différents. Au fur et à mesure que les stations de travail gagnent en puissance et en possibilités, la demande pour ces nouvelles applications croît rapidement pour s'étendre des milieux professionnels aux particuliers.

Pour s'imposer sur le marché, le réseau large bande devra proposer un vaste éventail de services. Ces derniers sont classés dans la recommandation 1.211 en deux grandes catégories :

- les services dits interactifs représentant les services de conversation, de messagerie et de consultation,

- les services de distribution comprenant les services liés à la diffusion d'information ou d'images.

Le tableau 8.1 donne des exemples d'applications associées à chacune des catégories de services. La plupart des services large bande mettent en jeu plusieurs types d'information et sont donc appelés services multimédias. Les services multimédias sont des services numérisés par un processus spécifique ; ils manipulent des données sonores, des données informatiques ainsi que des images, qu'elles soient fixes ou animées.

catégorie services applications

services interactifs conversation

messagerie

consultation

téléphonie, visiophonie,

télécopie, données interactives

courrier vidéo, courrier

électronique avec transfert de

documents

vidéotext large bande,

télévente, consultation de

journaux, d'images fixes

services de distribution sans commande de

présentation à l'usager

avec commande de

présentation à l'usager

vidéo (TV, TVHD), journal

électronique, canaux TV

multilangues

enseignement à distance,

téléenseignement

Tableau 8.1. Services large bande et applications

Page 225: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 205

8.2.2. Caractéristiques des trafics multimédias

La difficulté du transfert de toutes ces informations sur le même réseau réside dans le fait qu'aucune application ne demande le même débit et n'obéit aux mêmes contraintes. On distingue deux types de contraintes : les contraintes temporelles et les contraintes de qualité de service (QoS — Quality of Service).

Les contraintes temporelles concernent le caractère temps réel, asynchrone ou isochrone de l 'application. Les services de distribution avec commande de présentation à l 'usager ont un caractère temps réel, comme par exemple la distribution de programmes de télévision. Les services interactifs ont aussi un caractère temps réel (cas du téléphone). De par la technique de codage MIC — Modulation par Impulsion et Codage, la voix téléphonique génère un trafic isochrone (un octet toutes les 125 us) en plus de son caractère temps réel. De leur côté, les applications informatiques de transfert de données sont qualifiées d'asynchrones car elles ne présentent aucune contrainte temporelle forte (toute proportion gardée, de l'ordre de la seconde à la minute).

Les contraintes de QoS des services du réseau large bande sont définies dans la recommandation 1.356 par trois paramètres qui sont le taux de perte de cellules, le délai de transfert de la cellule et la variation du délai de transfert (également appelée gigue cellule ou encore CDV — Cell Delay Variation).

Le tableau 8.2 donne pour quelques exemples d'applications multimédias, des valeurs indicatives pour les paramètres de QoS qui leur sont associés. MPEG1 et MPEG2 (Moving Picture Expert Group) sont des normes définissant la numérisation du son et des images animées [IS 11172].

application débit taux d'erreur bit

taux de perte des cellules

délai de transfert

gigue

données 2 Mbit/s lu"7 i o 6 1 ms —

videophone 64 kbit/s -2 Mbit/s

3.10 " 1 0 8 300 ms 130 ms

vidéoconférence 64 kbit/s -5 Mbit/s

m-" 10 8 300 ms 130 ms

distribution TV 20-50 Mbit/s 3.10 1 3 4.10 " 0,8 ms 1 ms

MPEG1 1,5 Mbit/s 4 . 1 0 " io-'° 5 ms 6,5 ms

M PEG 2 10 Mbit/s 6.10 1 2 2.10 9 7 7

Tableau 8.2. Contraintes de quelques applications multimédias

Dans ce tableau, on constate que les applications citées sont plus ou moins sensibles aux pertes, les informations ayant subi une compression étant les plus sensibles. Certaines sont aussi très sensibles au délai de transfert, telle la distribution de programmes de télévision haute définition qui présente un caractère temps réel excluant toute reprise sur erreur par retransmission.

Page 226: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 0 6 Architecture des réseaux haut débit

(a) trafic CBR

(b) trafic VBR

F i g u r e 8 . 1 . Trafics CBR et VBR

Les trafics issus des services multimédias sont très différents. Ils se divisent en deux familles : les trafics à débit constant ou continu (CBR — Constant Bit Rate) et les trafics à débit variable (VBR — Variable Bit Rate) (figure 8.1). Le trafic CBR peut être caractérisé simplement par son débit maximal encore appelé débit crête ; par exemple le débit crête d'un transfert de voix numérisée est de 64 kbit/s [G.711]. Le tableau 8 .3 donne des exemples de débit crête pour les principaux services CBR. La gestion du trafic CBR est aisée pour le réseau. En général, elle consiste à allouer la bande passante correspondante au débit crête de la source pendant toute la durée de la communication, que celle-ci soit active ou pas.

Services Débit crête

Téléphone 64 kbit/s

Son HI-FI stéréo 1,4 kbit/s

Télécopie Groupe III 14.4 kbit/s

Télécopie Groupe IV 64 kbit/s

Tableau 8 . 3 . Débits crêtes de certains services CBR

Le trafic VBR est qualifié de trafic sporadique. Typiquement, il alterne des périodes d'activité pendant lesquelles des données sont générées à un débit très élevé (on parle de rafale ou de burst en anglais) avec des périodes de silence où très peu de données sont générées voire aucune ; la durée de chacune de ces périodes est aléatoire ainsi que le débit de la période d'activité. Dans certains cas, le trafic VBR peut varier de manière continue sans distinction de périodes. On est amené ainsi à définir le débit crête comme étant le débit maximum pendant la période d'activité et le débit moyen comme le débit calculé sur les deux périodes (activité et silence). Compte tenu des spécificités du processus de numérisation utilisé, les différents services à débits variables ne présentent pas les mêmes caractéristiques en termes de débit crête, de périodes d'activité et de silence ; ces paramètres dépendent pour beaucoup de l'information elle-même et sont difficilement prédictibles.

Page 227: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 207

8.3. Le réseau large bande

8.3.1. Normalisation

Dès 1990, l'UIT-T a établi un ensemble de recommandations qui définissent le cadre général et les principes de base du réseau large bande ou RNIS-LB (Réseau Numérique à Intégration de Services-Large Bande ou B-ISDN pour Broadband-Integrated Service Digital Network) (celles-ci sont notées en gras dans le tableau 8.4). D'autres recommandations concernent des points spécifiques du RNIS-LB.

Description Recommandations UIT-T

Aspects large bande du RNIS 1.121

Aspects service 1.211

Architecture fonctionnelle 1.327

Modèle de référence 1.321

Aspects réseau généraux 1.311

Couche ATM 1.150, 1.361

Couche AAL 1 . 3 6 2 , 1 3 6 3

Interface Usager-Réseau (UNI) 1 .413 ,1 .432

Principes OAM 1.610

Contrôle de congestion 1.371

Performance du transfert de cellule ATM I.35B

Services de données sans connexion 1.364

Relais de trames au-dessus d'ATM 1.555,1.365

Signalisation Usager-Réseau (en cours) Q.2931

Signalisation AAL Q.2100, Q.2110. Q.2130. Q.2140

Vocabulaire 1.113

T a b l e a u 8 . 4 . Recommandations RNIS-LB

8.3.2. Modes de transfert dans un réseau commuté

Le mode de transfert dans un réseau vise à partager la ressource réseau entre plusieurs communications simultanées en combinant deux techniques : le multiplexage et la commutation. Le multiplexage consiste à mélanger plusieurs canaux basse vitesse sur un même canal haute vitesse. La commutation aiguille une communication provenant d'un lien en entrée vers un lien en sortie. Conceptuellement, le multiplexage prend place à l'entrée du réseau tandis que la commutation est au cœur du réseau.

Page 228: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 0 8 Architecture des réseaux haut débit

Le mode de transfert utilisé sur un réseau à commutation dépend étroitement du service offert. Sur le réseau téléphonique, c'est le mode synchrone (STM — Synchronous Transfer Mode) encore appelé mode circuit. Sur les réseaux de transmission de données, c'est le mode asynchrone (ATM — Asynchronous Transfer Mode) encore appelé mode paquet.

8 . 3 . 2 . 1 . Le mode de transfert synchrone

Dans le réseau téléphonique, l'information transportée est la voix numérisée. Du fait de la numérisation par le procédé MIC, elle se présente sous la forme d'un octet émis périodiquement, toutes les 125 us. Le multiplexage temporel synchrone est alors bien adapté.

Dans cette technique, le temps est découpé en cycles, eux-mêmes découpés en tranches de temps de taille fixe. Chaque tranche de temps contient exactement un octet de voix numérisée. Le cycle est appelé multiplex. Lors de l'établissement d 'une communication, il y a réservation d'une tranche de temps nominale à l'intérieur du cycle et ce pendant toute la durée de la communication ; l'allocation de bande passante est donc statique. Le cycle est strictement synchronisé avec la voie basse vitesse, il est donc répété toutes les 125 us de manière à respecter la contrainte d'isochronisme (figure 8.2).

A-

B

C

D

E

lignes basse vitesse

M U X

- multiplex—

A B C D E : A B

ligne haute vitesse

Figure 8.2. Le multiplexage synchrone

La reconnaissance d'un canal particulier au sein d'un multiplex se fait par la position de sa tranche de temps à l'intérieur du cycle ; elle est fixe pour la durée de la communication.

La fonction de commutation est réalisée grâce à une table de translation mise à jour lors de l'établissement d'une communication. Elle indique pour chaque tranche de temps la nouvelle position qu'elle occupera dans le prochain multiplex. Du fait que les multiplex arrivent et repartent à la même vitesse au niveau d'un commutateur, il n 'y a pas de stockage de l'information (seulement un stockage transitoire de durée très brève).

8.3.2.2. Le mode de transfert asynchrone

Le trafic de données informatiques ne suit quant à lui aucune régularité, alternant l'envoi de grandes quantités de données avec des périodes de silence ; il est qualifié

Page 229: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 209

d'asynchrone. Dans ce contexte, l'allocation statique de la bande passante n'est pas très efficace, aussi a-t-on préféré une allocation dynamique en fonction des besoins instantanés de chaque communication [Doll 72]. Les unités de données sont structurées dans des paquets. L'en-tête du paquet permet d'identifier à quelle communication le paquet appartient, soit grâce aux adresses source et destination soit par un identificateur de communication délivré lors de l'établissement de cette dern ière . A la différence du mode de transfert synchrone, il n'y a aucune synchronisation entre voies basse vitesse et voie haute vitesse et par conséquent, pas de structure de cycle. L'arrivée des paquets se produisant de manière asynchrone et le débit de la voie haute vitesse pouvant être inférieur à la somme des débits des voies basse vitesse, les paquets peuvent être stockés temporairement dans des tampons avant d'être retransmis.

b) multiplexage asynchrone

Figure 8.3. Multiplexages synchrone et asynchrone

La figure 8.3 montre la différence en termes d'utilisation de la bande passante entre les techniques synchrone et asynchrone. La commutation asynchrone consiste à recevoir un paquet, à examiner son en-tête puis à le retransmettre vers un lien de sortie. Les paquets sont là aussi stockés dans des tampons avant leur commutation et également avant la retransmission en sortie. Ce mode utilise des files d'attente qui introduisent une part plus ou moins importante d'indéterminisme. Les voies basse vitesse n'étant pas toutes actives en même temps, on peut accepter davantage de voies basse vitesse en entrée du multiplexeur, on qualifie alors le multiplexage asynchrone de multiplexage statistique. Les tampons sont là pour absorber un surplus temporaire de trafic. Si toutes les voies sont actives en même temps, il peut y avoir perte de paquets par suite d'une saturation des tampons.

8.3.2.3. Choix de l'ATM

En mode synchrone, les mécanismes du réseau déterminent le débit d'une communication et le terminal doit adapter son débit à celui-ci. Si le terminal n'a rien à envoyer, il y a gaspillage de bande passante. De plus, le débit disponible sur le réseau est toujours multiple d'un débit de base. En mode asynchrone, le terminal

bande passante perdue

Al Bl B2 C2 premier ^ deuxième

cycle cycle

(a) multiplexage synchrone

en-tête

| \

bande passante gagnée

5 Al Bl - < - à t l - » -

î B2 •—à t;

C2

tp tl t2 t3

A

B

~C~

~D~

Page 230: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 10 Architecture des réseaux haut débit

en-tête 5 octets

information 48 octets

F i g u r e 8 . 4 . Format général de la cellule ATM

dicte le débit d'émission et peut envoyer des débits qui varient de quelques kbit/s à plusieurs dizaines de Mbit/s. Le mode asynchrone possède donc la propriété de multidébit nécessaire aux services décrits en 8.2. Il assure donc l'indépendance entre les terminaux et les équipements de multiplexage et de commutation ; on parle d'anisochronisme à l'accès.

La deuxième motivation provient du fait que les applications multimédias demandent, outre des débits élevés, des délais de transfert courts. Cette deuxième contrainte a conduit à simplifier au maximum le protocole de transfert. Nous présentons ses caractéristiques dans le paragraphe suivant.

8.3.3. Principes fondamentaux du mode ATM

La technique ATM spécifiée pour le réseau large bande se caractérise par :

- l 'absence de contrôle de flux à l'intérieur du réseau à partir du moment où la

communication a été acceptée ;

- l 'absence de contrôle d'erreur car d'une part, la transmission sur fibre optique

présente une bonne qualité de transmission et d'autre part, détection et reprise

diminuent le débit utile ;

- un mode orienté connexion pour faciliter la réservation des ressources et

assurer le séquencement des PDU ;

- l'absence de contrôle de perte au niveau du réseau car des ressources suffisantes

ont été allouées aux connexions lors de leurs établissements ;

- une unité de transfert appelée cellule, de taille réduite pour faciliter l'allocation

mémoire dans les commutateurs et permettre un meilleur entrelacement des flux et

une commutation rapide ;

- un en-tête de cellule de taille limitée et aux fonctions réduites pour assurer une commutation rapide.

La cellule ATM de 53 octets contient 48 octets d'information (encore appelés champ payload) et 5 octets d'en-tête (figure 8.4). La longueur de la cellule est le résultat d'un consensus technologique entre les Américains (64 octets) et les Européens (32 octets).

8 7 6 5 4 3 2 1

1 2

3 4

5

6

53

Page 231: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 11

8.3.4. Connexions ATM

8.3.4.1. Principe de la connexion virtuelle

L'acheminement des cellules dans le réseau large bande se fait par établissement préalable d'une connexion de voie virtuelle (VCC — Virtual Channel Connection) de bout en bout entre les intervenants de la communication (source et destinataire). Par abus de langage, nous appelons simplement connexion virtuelle, la connexion de voie virtuelle. Une connexion virtuelle ATM est une concaténation de tronçons de voie virtuelle (VCL — Virtual Channel Link) juxtaposés. Un tronçon de voie virtuelle est défini sur un lien entre deux nœuds. Le protocole d'établissement consiste à choisir le chemin que doit emprunter la connexion virtuelle dans le réseau en fonction de ses besoins en bande passante, de sa destination finale et des ressources disponibles. Une fois la connexion établie, les cellules transmises sont transférées en séquence sur le chemin tracé.

Le protocole d'établissement d'une connexion ATM fait partie du plan de signalisation (qui sera défini en 8.3.6). Les connexions sont de bout en bout et peuvent être point à point ou point à multipoint (d'ores et déjà pour les spécifications de l'ATM Forum et à partir de la phase 2, selon le planning établi par l'UIT-T), unidirectionnelles ou bidirectionnelles (dans ce dernier cas, symétriques ou asymétriques en termes de bande passante).

8.3.4.2. Translation des valeurs de VCI

La connexion virtuelle est identifiée sur chaque tronçon de voie virtuelle par un identificateur de voie virtuelle appelé VCI (Virtual Channel Identifier). Cet identificateur ainsi que le lien emprunté sont enregistrés au moment de l'établissement, dans chaque nœud traversé par la connexion, dans une table de translation.

Prenons comme exemple une connexion virtuelle unidirectionnelle de bout en bout établie entre deux terminaux utilisateur A et B. Quand A demande la connexion à B, le réseau initialise le VCI à la valeur a. Les cellules transmises par A seront donc étiquetées avec un VCI égal à a. D'autre part, le réseau affecte la valeur z à la connexion arrivant en B (figure 8.5).

A VCI = a ^

Ll VCI = b

L2 VCI = x

L3 VCI = y f c L4

VCI = z B A

VC Ll

VC L2

VC L3

VC L4 1 •

VC

B

connexion de voie virtuelle (VCC)

Figure 8.5. Exemple de connexion virtuelle

Page 232: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 1 2 A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t

Les valeurs des VCI en entrée et en sortie du commutateur sont enregistrées avec les informations de routage dans une table de translation. Lors de la commutation d'une cellule, le commutateur effectue la translation des valeurs de VCI en même temps qu'il route la cellule sur le lien adéquat en sortie. En reprenant l'exemple de la figure 8 . 5 , une connexion virtuelle provenant du lien de A et identifiée a sera commutée vers le nœud L 2 et portera le VCI b sur ce lien (figure 8 . 6 ) . Le nouveau VCI servira à la prochaine unité de commutation rencontrée par la cellule. A l'entrée du nœud L l , la cellule arrive sur le port A avec le VCI a et sort sur le port L 2 avec le VCI b.

F i g u r e 8.6. Translation des valeurs de VCI au nœud Ll

Comme plusieurs dizaines de milliers de connexions virtuelles peuvent traverser un commutateur, la table de translation peut occuper un espace mémoire considérable et le temps de recherche à l'intérieur de la table devenir important. Pour pallier cet inconvénient, les connexions virtuelles de l'utilisateur sont multiplexées dans des connexions de conduit virtuel (VPC — Virtual Path Connection) que nous appelons par abus de langage, conduit virtuel.

8 .3 . 4 . 3 . Le conduit virtuel

Une connexion de conduit virtuel (VPC — Virtual Path Connection) contient des faisceaux de voie virtuelle qui sont commutés ensemble comme une seule unité (figure 8 . 7 ) . De la même manière que pour la voie virtuelle, la connexion de conduit virtuel est composée d'une concaténation de tronçons de conduit virtuel (VPL — Virtual Path Link) juxtaposés. La connexion de conduit virtuel est établie par l'opérateur du réseau de manière permanente. La notion de conduit virtuel est transparente à l'utilisateur.

v r

V P

vr VP

couche physique

VP VC

VC VP

F i g u r e 8.7. Multiplexage des VC et des VP

e n t r é e s o r t i e

a A V C I a b

nœud Ll p o r t A L 2

nœud Ll

L 2 b j

Page 233: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 213

L'identification d'une connexion virtuelle se fait donc par deux champs de l'entête de la cellule :

- VCI (Virtual Channel Identifier) : l'identificateur de voie virtuelle identifie les connexions allouées dynamiquement. Avec 16 bits, le champ VCI autorise jusqu'à 64 000 connexions de voie virtuelle pour chaque conduit ;

- VPI (Virtual Path Identifier) : l'identificateur de conduit virtuel identifie les connexions statiques (semi-permanentes). Le champ VPI est codé sur 8 ou 12 bits et permet ainsi 256 ou 4 096 conduits virtuels.

8.3.4.4. Commutation à deux niveaux

Le réseau ATM s'organise en deux sous-couches comme le montre la figure 8.8.

VCI

VPI

transmission

brasseur commutateur

F i g u r e 8 .8 . Brasseur et commutateur

A chacune de ces sous-couches correspond un équipement de commutation particulier. Les commutateurs de VP (niveau inférieur) n'examinent que la partie VPI. A ce niveau, toutes les connexions de VC de même VPI sont commutées ensemble. Un tel commutateur est appelé brasseur de conduits. Seule la valeur de VPI y est translatée. Les commutateurs de VC (niveau supérieur) examinent la partie VPI + VCI. La commutation de la cellule est alors réalisée sur la base de la concaténation du VCI et du VPI. Ce type de commutateur termine un tronçon de voie virtuelle et nécessairement une connexion de conduit virtuel.

8.3.4.5. Exemple d'allocation de VCI/VP1 dans un réseau ATM

On considère le réseau RNIS-LB de la figure 8.9 :

F i g u r e 8 . 9 . Exemple de RNIS-LB

Page 234: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 1 4 Architecture des réseaux haut débit

Dans ce réseau, on suppose que :

- les usagers F et H accèdent par des accès distincts sur le nœud 2 et

communiquent avec l'usager X,

- le serveur X a un tronçon de VP avec le nœud 3,

- une connexion de VP ne comporte, dans la mesure du possible, qu'un seul

tronçon de VC.

On distingue deux cas :

a. Les deux VCC sont multiplexées sur la même VPC.

b. Chaque VCC passe dans une VPC différent.

La figure 8.10 donne un exemple de tables de routage où les nœuds 1, 2, 3 et 4 sont des brasseurs de VP et les autres nœuds des commutateurs de VC. Les contraintes pour les valeurs de VPI et VCI des deux connexions entre elles sont :

- VPI différents entre 2-4 et 4-6,

- mêmes VPI, VCI différents entre 6-1, 1-3 et 3-X (hypothèse 2).

Figure 8.10. Exemple d'allocation de VC1/VP1 dans un résea,

La figure 8.11 donne un exemple de tables de routage où les nœuds 2 et 3 sont les commutateurs de VP, les autres nœuds étant des commutateurs de VC. Les :ontraintes pour les valeurs de VPI et VCI des deux connexions entre elles :

- VPI différents entre 6-7 (hypothèse 3),

- VPI identiques, VCI différents entre 7-3 et 3-X (hypothèse 2).

Page 235: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 1 5

Figure 8.11. Exemple d'allocation de VCIA^PI dans un réseau

La configuration (a) est la plus intéressante car elle comporte le moins de commutations de VC. Les VC sont commutées en faisceaux par les brasseurs.

8.3.5. Architecture du réseau large bande

Le réseau large bande est constitué de trois parties, le réseau de distribution qui permet de relier les utilisateurs, le réseau de commutation qui réalise la commutation à haut débit et le réseau de transmission qui a la charge du transport physique de l'information.

8.3.5 .1 . Interfaces du RNIS-LB

Comme pour le RNIS-BE (Bande Etroite), la normalisation s'est dotée d'une configuration de référence de l'installation privée. La frontière avec le réseau public est définie par des interfaces normalisées à des points de référence (figure 8.12).

L'accès au réseau par un utilisateur se fait par deux points de référence, Tg et SR. Au point de référence TR , est définie l'interface usager-réseau (UNI — User-Network Interface). L'UNI fournit un service de réseau. Dans le modèle de référence du RNIS-LB, ce service est découpé horizontalement en deux couches, PHY et ATM. Au point de référence SR , l'interface de raccordement terminale est à l'étude.

La connexion de deux réseaux ATM est décrite quant à elle par la NNI (Network-Node Interface). L'interface SNI (Subscriber-Network Interface) est définie pour un réseau SMDS (Switched Multimegabit Data Service) (cf. chapitre 9).

Page 236: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 1 6 Architecture des réseaux haut débit

réseau

public 2

N N I réseau

public 1

U N I I N T 2

réseau privé

S N I » S B

S M D S V

F i g u r e 8 . 1 2 . Les différentes interfaces d'accès

8.3.5.2. Configuration de référence à l'UNI

L'utilisateur peut désigner comme terminal un ensemble de terminaux raccordés entre eux par un réseau local. L'accès au RNIS-LB est alors soit direct soit via une installation privée d'abonné c'est-à-dire un réseau local (figure 8.13).

installation d'abonné -opérateur-

toint de reterence groupement tonctionnel

F i g u r e 8 . 1 3 . Configuration de référence de l'utilisateur

Les groupements fonctionnels sont :

- B - N T 1 (Broadband Network Termination), terminaison de la liaison de raccordement, se trouve chez l'usager mais appartient à l'opérateur et comporte les équipements pour le raccordement de l'installation privée au point de référence T 3 . Ce point de référence est la limite légale du domaine privé. B - N T 1 effectue la terminaison de la ligne de transmission et les fonctions OAM (Operation And Maintenance) associées ;

- B - N T 2 constitue l'ossature de l'installation privée (réseau privé) avec des topologies possibles en étoile, bus ou anneau. Ce groupement exécute la commutation et le multiplexage des cellules ATM et comporte les fonctions de raccordement multiple de terminaux au point S B et de mise en communication

interne ;

T E 2 R —• B - T A -

SB TB ou

R —• SB

B-NT2 TB

B-NTl B-TE2

B-TE1

• B-NT2 c

B-NTl B-TE2

B-TE1

Page 237: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 17

- B-TA (Broadband Terminal Adaptor) est un module d'adaptation lorsque le terminal ne présente pas d'interface compatible à l'interface définie au point de référence S B - Il comporte en particulier les couches ATM et AAL (définies en 8.3.6) nécessaires au terminal considéré ;

- B-TE1 (Broadband Terminal Equipment), le terminal RNIS-LB lui-même.

L'installation privée a d'abord été construite autour d'un PABX. Puis, avec l'apparition de l'informatique décentralisée, les concepts de réseaux locaux et récemment de réseaux métropolitains ont émergé et se sont imposés. Pour jouer son rôle fédérateur, il est probable que l'installation privée devra s'orienter vers un mode de transfert ATM. Ainsi, elle pourrait tirer profit de tous les avantages de l'ATM (flexibilité, simplicité, rapidité, indépendance aux applications). De plus, la compatibilité avec le RNIS-LB serait assurée. Si les souhaits des opérateurs coïncident avec ceux des utilisateurs, la technique retenue doit alors être la même. On parle dans ce cas de réseau local ATM ; ce dernier est organisé en un réseau de VP.

8.3.5.3. Réseau de distribution

Le réseau de distribution est lui-même divisé en un réseau d'accès et un réseau de collecte (figure 8.14).

-réseau de distributioi

-réseau d'accès- eseau de collecte

1KC

J

TL

O

MU

X réseau

usager

TR

C

vers

le

mm

uta

tei

veis ie brasseur

r ï

5 : c -

-z

TR

O

EE

\MU

XI/

E

/ M U X I/E

F i g u r e 8 . 1 4 . Le réseau de distribution

Page 238: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

21 8 Architecture des réseaux haut débit

Les équipements du réseau de distribution sont les suivants :

- TRO : la Terminaison de Réseau Optique est placée soit chez l'usager soit

dans le réseau, au point de concentration situé à quelques centaines de mètres de

l'usager ;

- TLO : le Terminal de Ligne Optique regroupe toutes les fonctions de contrôle et de maintenance du réseau d'accès ;

- MUX I/E : le Multiplexeur d'Insertion-Extraction est capable d'insérer et d'extraire les données d'un ou de quelques usagers particuliers dans un flux de données. Il s'agit en réalité d'un brasseur dériveur ;

- MUX : le multiplexeur de collecte a le même rôle que le multiplexeur précédent mis à part qu'il ne comporte pas de fonction d'insertion/extraction ;

- brasseur de collecte : son rôle est d'aiguiller les différents flux ATM du réseau de collecte, essentiellement vers les nœuds du réseau de commutation.

Le multiplexeur peut être de type STM ou de type ATM. Le multiplexeur STM retransmet les cellules telles qu'elles arrivent. Le multiplexeur ATM extrait les cellules ATM de la trame de transmission (dans le cas d'une trame SDH (cf. 8.2.5.7)), supprime les cellules vides (et les cellules non valides) et multiplexe les cellules valides pour les mettre dans un conteneur virtuel.

Le réseau d'accès permet le raccordement des usagers au réseau de collecte. Bien que le coût des équipements optiques soit en baisse (TRO, TLO), un raccordement par câblage optique pour les particuliers reste actuellement relativement onéreux. Ce type de raccordement reste économiquement viable pour les usagers professionnels. Deux topologies du réseau d'accès sont possibles :

- en point à multipoint (anneau, bus, arbre-étoile) : le câblage optique est partagé entre plusieurs usagers (entreprises à débits d'accès faibles ou particuliers) pour diminuer le coût du câblage ;

- en point à point : pour les grands utilisateurs professionnels.

Le réseau de collecte vise à faciliter la gestion des conduits du réseau de distribution. Par son dimensionnement, il garantit à l'opérateur la souplesse d'exploitation et la possibilité d'évolution. La figure 8.15 montre la topologie maillée d'un réseau de collecte.

Page 239: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 19

reseau d'accès

réseau de collecte 7

brasseui ^ers le réseau de

transport ATM

| T | multiplexeur I/E |M | multiplexeur

F i g u r e 8 . 1 5 . Topologie maillée du réseau de collecte

8.3.5.4. Réseau de commutation ATM

Du fait de ses deux niveaux de commutation, le réseau de commutation du RNIS-LB est hiérarchisé en deux sous-réseaux : le réseau commuté qui traite les appels des utilisateurs en temps réel et le réseau brassé qui s'occupe de la commutation des conduits virtuels (figure 8.16). La couche de réseau brassé permet de constituer une infrastructure de conduits servant de support à un réseau superposé de commutateurs publics ou privés.

' reseau commuté

voie virtuelh

.commutateur/

reseau brasse

brasseur

F i g u r e 8 . 1 6 . Le réseau de commutation

Le réseau de commutation utilise comme équipements d'une part, des brasseurs numériques — qui ne commutent que des VP — et d'autre part, des commutateurs ATM — qui commutent à la fois des VP et des VC.

Page 240: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 2 0 Architecture des réseaux haut débit

La figure 8.17 illustre le fonctionnement d'un commutateur ATM. L e commutateur reçoit une cellule ATM, analyse son en-tête, effectue la translation des VCI/VPI. Grâce au routage enregistré dans la table de translation, il commute immédiatement la cellule vers le lien prédéfini de sortie. La commutation des cellules étant en fait effectuée par plusieurs modules en parallèle, il est nécessaire de veiller à ce que deux cellules n'arrivent pas au même instant en entrée du tampon de sortie (contrôle de collision). La cellule devra éventuellement avoir à attendre avant d'être multiplexée et retransmise sur le lien de sortie. Il n'y a donc aucune relation temporelle entre les instants d'arrivée et de sortie de la cellule ; on parle d'anisochronisme à la commutation.

analyse de l'en-tête

traduction de l'en-tête

commande de commutation

cellule reçue| file d'attente multiplexage de

sortie

m commutation

de cellules contrôle ue

collision

cellule émise

F i g u r e 8 . 1 7 . Fonctionnement d'un commutateur ATM

Le développement du réseau ATM se fait en deux temps, tout d'abord le déploiement du réseau brassé, puis celui du réseau commuté, ce dernier offrant les services commutés.

8.3.5.5. Réseau de transmission

L'ATM peut être utilisé sur n'importe quel système de transmission. L'UIT-T propose trois systèmes de transmission du flux de cellules (figure 8.18) :

- un système reposant sur le système hiérarchique numérique plésiochrone (PDH — Plesiochronous Digital Hierarchy),

- un système reposant sur le système hiérarchique numérique synchrone (SDH — Synchronous Digital Hierarchy),

- un système reposant sur une structure équivalente à la cellule.

Les deux premiers sont des systèmes hiérarchiques issus de systèmes existants ; le mode de transmission y est synchrone. PDH est le système de transmission numérique actuellement en vigueur. SDH provient du système SONET proposé antérieurement par Bellcore.

Page 241: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 21

système de transmission et support physique

basé sur la cellule

hiérarchie numérique

f PDH Plesiochronous

Digital Hierarchy

SDH Synchronous

Digital Hierarchy

Figure 8.18. Les trois systèmes de transmission

8.3.5.6. Le système de transmission PDH

Le système PDH est le système de transmission numérique actuel fondé sur le débit d'une voie téléphonique du RNIS à 64 kbit/s (un octet de voix transféré toutes les 125 us). Le multiplexage de voies téléphoniques consiste par conséquent en un multiplexage temporel synchrone par caractères de 8 bits chacun, avec un octet par canal transporté.

PDH repose sur deux hiérarchies différentes définies dans des recommandations de l 'UIT-T :

- en Amérique du Nord et au Japon, la hiérarchie utilise un multiplex de 24 canaux (soit 24 octets auxquels est ajouté un bit de synchronisation), soit un débit de 1,544 Mbit/s (recommandation G.733) (figure 8.19 (a)) ;

- en Europe, elle utilise un multiplex de 32 canaux (soit 32 octets), soit un débit de 2,048 Mbit/s (recommandation G.732) (figure 8.19 (b)).

^ 193 bits =125 us ^

«4—canal 1—^*—canal 2—»-> |-4-canal 24—fc» \

1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 ^ 1 2 3 4 5 6 7 g ' | '

(a) Multiplex G.733 (USA et Japon) bit 193

-256 bits = 125 us-

- canal 1 - canal 2- -canal 32-

1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8

(b) Multiplex G.732 (Europe)

1 2 3 4 5 6 7

Figure 8.19. Format du multiplex

Page 242: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

222 Architecture des réseaux haut débit

La hiérarchie du système plésiochrone comprend cinq niveaux appelés ordres

(figure 8.20).

64 kbit/s

30

1 e r ordre 2 Mbit/s

2 e ordre 8 Mbit/s

3 e ordre 34 Mbit/s

4 e ordre 140 Mbit/s

5 e ordre 1565 Mbit/s

Figure 8.20. Les cinq niveaux de la hiérarchie plésiochrone

A partir du deuxième ordre, les équipements sont des multiplexeurs numériques. Ils multiplexent les trames des systèmes d'ordre précédent reçues en entrée en une nouvelle trame appelée affluent.

8.3.5.7. Le système de transmission SONET

SONET (Synchronous Optical NETwork) a été initialement développé au sein de la société Bellcore (Bell Communication Research) avant d'être adopté par l'UIT-T dans les recommandations G.707, G.708 et G.709. Sa motivation provient du remplacement des supports électriques utilisés en téléphonie par de la fibre optique permettant des débits plus élevés. C'est l'un des protocoles les plus répandus pour la transmission sur fibre optique. Son objectif est de permettre la flexibilité du multiplex (c'est-à-dire la possibilité de le réorganiser simplement), la facilité d'exploitation, la prise en compte des évolutions futures vers les hauts débits et le raccordement par des interfaces optiques.

SONET fournit une hiérarchie des débits. Le premier niveau de la hiérarchie est désigné par STS-1 (Synchronous Transport Signal level 1) en notation numérique ou OC-1 (Optical Carrier level 1) en notation optique et fournit un débit de 51,84 Mbit/s. Les autres niveaux, notés STS-« ou OC-n, sont des multiples de n fois STS-1 ou OC-1 (tableau 8.5). Le système de transmission est synchrone.

débit (Mbit/s) désignation SONET - STS/OC désignation ITU-T - STM

51,84 1 —

155.52 3 1 622,08 12 4 1244,16 24 8 2488,32 48 16

Tableau 8.5. Hiérarchie de débits SONET-SDH

Page 243: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 2 3

Les données sont transmises dans des trames, chaque trame étant vue comme un tableau d'octets de 90 colonnes et 9 lignes d'octets (figure 8.21). SONET est un système synchrone qui répète une trame toutes les 125 us, ce qui conduit au débit de 51,84 Mbit/s. L'en-tête SOH (Section OverHead) occupe les trois premières colonnes et comprend les informations liées au transport et nécessaires aux fonctions de contrôle et de gestion du réseau. La section de régénération est prise en compte à chaque répéteur SONET. La section de multiplexage est prise en compte par les multiplexeurs SONET. La quatrième ligne comporte des pointeurs.

S O N

trame SONET en-tête (SOH)

F i g u r e 8 . 2 . La trame SONET et son en-tête

La règle est qu'une trame S T S - H est construite avec n trames S T S - 1 , ce groupe de n trames devenant ainsi l'unité de transmission du niveau n. Avec S T S - 1 , les trames de données sont émises une à une. Avec S T S - 3 , elles sont émises par groupes de trois.

S O N E T définit également une hiérarchie logique en termes de couches de fonctionnalités et une hiérarchie physique en termes d'équipements utilisés. La figure 8.22 montre les quatre couches utilisées dans la hiérarchie logique :

- la couche photonique ou couche physique proprement dite qui transfère le

signal optique modulé,

- la couche section qui convertit les signaux électriques en signaux lumineux, - la couche ligne, responsable de la synchronisation et du multiplexage et qui

comporte les fonctions de maintenance et de protection, - la couche conduit qui prend en charge le transport de bout en bout des données.

photonique lumière

terminal répéteur multiplexeur SONET

F i g u r e 8 . 2 2 . Hiérarchie logique SONET

terminal

1 2 3

î Regenerator Section 2 3

Overhead

™ 4 pointers

• •

1 5

6 Multiplexor Section

STS-l 7 8

Overhead

u

|services services] <

conduit enveloppe

conduit

ligne bloc STS-n

ligne

section trame T section

Page 244: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 2 4 Architecture des réseaux haut débit

La hiérarchie physique de SONET comporte les différents équipements indiqués dans la figure 8.23. Le multiplexeur d'insertion et extraction (ADM — Add and Drop Multiplexor) est capable d'insérer et d'extraire des canaux de la trame SONET.

multiplexeur d'insertion et d'extraction

! • — ~ ~ iC r -

• -

répéteur

multiplexeur SONET

"l igne -

(STE)

(PTE + LTE) (LTE)

- condu i t -

STE - Section Terminal Equipment LTE - Line Terminal Equipment PTE - Path Terminal Equipment

multiplexeur d'insertion et d'extraction

-o

- •

F i g u r e 8 .23 . Hiérarchie physique de SONET

8.3.5.8. Le système de transmission SDH

Comme SONET, le système de transmission SDH (Synchronous Digital Hierarchy) est un système qui peut transporter différents types de flux comme par exemple, les canaux du RNIS ou les cellules ATM. Son but est d'apporter un système planétaire unique de transmission numérique normalisée. SDH a été développé pour assurer le multiplexage sur des supports dont les débits sont de plusieurs centaines de Mbit/s. Pour cela, il propose un jeu élémentaire de normes internationales de multiplexage pour des liens à haut débit. Il vise à éviter l'apparition de plusieurs standards de multiplexage pour les liens à haut débit comme cela a été le cas pour les liens téléphoniques à faible débit utilisant PDH. Toutes les fonctions de synchronisation sont réalisées par le système SDH, générant ainsi un surdébit supplémentaire. Son avantage tient dans le fait que des produits SDH sont déjà opérationnels dans les réseaux de certains opérateurs. Par ailleurs, SDH fournit à l'ATM le support de transmission de qualité dont il a besoin en raison de la quasi absence de correction d'erreur dans l'ATM. De plus, grâce à ses capacités de gestion, SDH s'impose face à la PDH.

SDH est un dérivé de SONET, mais avec des normes et des débits différents. Les débits de l 'UIT-T commencent à 155,52 Mbit/s, débit désigné par STM-1 (Synchronous Transport Module level 1). La raison de ce choix est que STM-1 est le premier signal à s'adapter au mieux aux signaux plésiochrones, en l'occurrence au signal d'ordre 4 (139,264 Mbit/s). Chaque niveau de débit est noté STM-n. Le premier niveau STM-1 est identique au niveau STS-3 de SONET. Le tableau 8.5 montre la relation entre les niveaux SONET et SDH.

section

Page 245: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 225

La trame SDH est composée d'un SOH (Section OverHead), d'un POH (Path

OverHead) et d'une zone de données (figure 8.24).

1 9 10 2 7 0

H S O H

1 P t r charge utile

H S O H STM-1 155,52 Mbit/s

F i g u r e 8 . 2 4 . La trame SDH

La trame STM-1 est le plus petit granule de la ligne SDH ; elle a un débit de

155,52 Mbit/s, une durée de 125 us et une fréquence de répétition de 8 kHz. La

trame comporte 19 440 bits (9 * 270 octets).

8.3.5.9. Le système de transmission en mode cellule

La trame transportée par le système de transmission correspond ici à la cellule. Le système de transmission fournit une séquence de bits, transportée de manière continue, sans cadencement régulier, dans laquelle la cellule est directement transmise (figure 8.25). Comme aucune horloge n'est fournie au récepteur, l'horloge de ce dernier peut être soit dérivée du signal reçu du nœud local, soit fournie par l'horloge de l'équipement utilisateur. Des systèmes de ce type pourraient être utilisés à la périphérie du réseau pour des configurations d'accès exigeant un système de transmission optimisé.

champ

^~~de données

en-tête

Je cellule

F i g u r e 8 . 2 5 . Système basé sur la cellule

cellule vide

cellule de

maintenance

8.3.6. Modèle de référence du RNIS-LB

Dans les systèmes de communication récents, une approche en couches est utilisée pour l'organisation de toutes les fonctions de communication. Les fonctions de ces couches et les relations inter-couches sont décrites dans un modèle de référence de protocole. Ont été ainsi spécifiés :

- le modèle de référence OSI dans la recommandation X.200 en 1978,

- le modèle de référence du RNIS-Bande Etroite dans la recommandation 1.320 en

1988,

Page 246: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

226 Architecture des réseaux haut débit

plan de gestion

couches de niveaux supérieurs

couche AAL

couche ATM

couche PHY |

gest

ion

de p

lans

gest

ion

de

cou

ches

F i g u r e 8 . 2 6 . Modèle de référence du RNIS-LB

Les plans sont au nombre de trois (figure 8.26) :

- le plan d'usager décrit le transfert d'informations d'usager ; tous les mécanismes associés, tels que le contrôle de flux ou d'erreur, y sont inclus. Dans ce plan, la pile de protocoles met l'accent sur la couche ATM, qui incarne le caractère multiservice (et donc multidébit) de la technique ; cette couche est commune à double titre : différentes couches AAL (Adaptation ATM Layer) permettent de porter les différentes applications ; différentes couches PHY traduisent la compatibilité de l'ATM avec différents systèmes de transmission sous-jacents (par exemple, SDH, PDH ou transmission en mode cellule) ;

- le plan de commande matérialise le fait que les fonctions de traitement d'appels utiliseront un réseau de signalisation fondé sur l'ATM et il comporte les fonctions de signalisation nécessaires pour établir, superviser et libérer un appel ou une connexion ;

- le plan de gestion illustre le fait que des liens entre couches sont indispensables à la gestion et à l'exploitation d'un réseau. Il est scindé en deux sous-ensembles, la gestion de plans et la gestion de couches. La gestion de plans est responsable de la coordination de tous les plans et comprend, en conséquence, toutes

- le modèle de référence du RNIS-Large Bande dans la recommandation 1.321 en 1991.

Le modèle de référence du RNIS-BE a introduit le concept de plans séparés pour la distinction des fonctions de gestion, de contrôle et d'usager. Ce concept a été repris et étendu pour le RNIS-LB. Le modèle de ce dernier organise les fonctions de communication en couches et en plans en principe homogènes et indépendants les uns des autres.

Page 247: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 227

les fonctions de gestion qui portent sur le système global. Elle n'est pas structurée en couches, contrairement à la gestion de couches. Cette dernière réalise les fonctions de gestion relatives aux ressources et aux paramètres résidant dans ses entités de protocole. En particulier, elle gère les flux spécifiques d'information OAM (Operation And Maintenance) pour chaque couche.

8.3.7. La gestion du réseau large bande

Le plan de gestion est spécifié principalement dans la recommandation 1.610 qui décrit les fonctions de maintenance de l'interface UNI et les accès au réseau. Les opérations de contrôle et de maintenance (OAM — Operation And Maintenance) concernent cinq fonctionnalités (cf. tableau 8.6).

Actions Description

gestion des performances

l'entité administrée est surveillée par des fonctions de vérification continues ou périodiques

détection des pannes

les défaillances présentes ou prévisibles sont détectées par des vérifications continues ou périodiques

localisation des défaillances

la localisation de l'entité en panne est déterminée par des systèmes de test internes ou externes si l'information sur les pannes est insuffisante

protection du système

les effets d'une entité en panne sont réduits au maximum en la circonspectant ; l'entité est exclue des opérations les moyens de protection et de reconfiguration sont activés

information sur les pannes et les défaillances

l'information de panne est communiquée aux autres entités administrées

Tableau 8.6. Fonctionnalités de F OAM

Les fonctions OAM dans un environnement ATM coïncident avec les cinq niveaux hiérarchiques associés à ATM et PHY (figure 8.27). Ces dernières sont réalisées au moyen de flux de maintenance bidirectionnels composés de cellules spécifiques : les cellules OAM. Elles sont insérées ou extraites aux différents points de connexion des VCC : commutateur, brasseur, multiplexeur, répéteur. Elles permettent de réaliser des mesures de qualité sur les équipements situés entre les points d'insertion et d'extraction. Les cellules de maintenance sont véhiculées par la

Page 248: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

228 Architecture des réseaux haut débit

connexion virtuelle et sont routées comme les données normales ; elles suivent donc le même chemin physique. La distinction entre les cellules du flux de maintenance et celles du flux de données normales est faite grâce au champ PTI (Payload Type Identification) de l'en-tête de la cellule (cf. 8.5.5).

Flux OAM

Niveau Connexion de voie virtuelle

Tronçon de voie virtuelle

Voie virtuelle

F5

Cou

che

AT

M

Connexion de conduit virtuef

Tronçon de .Conduit virtuel Conduit

virtuel F4

Cou

che

ph

ysiq

ue

F3 Conduit de

transmission

Conduit de transmissio

Section numérique

F2

Fl

Point de connexion des niveaux

Extrémité des niveaux

Section de répétition

Figure 8.27. Flux de maintenance OAM

Il existe cinq types de flux de maintenance : F l , F2, F3, F4, et F5. L'ensemble des cellules Fl constitue un flux pour l'exploitation et la maintenance des répéteurs. Le flux F3 a le même rôle mais opère au niveau du conduit (cf. SONET). Le flux F2 permet la gestion du multiplexage des cellules dans une structure de trame. Les flux F4 et F5 se situent respectivement au niveau du chemin virtuel et de la connexion virtuelle. Les cellules OAM sont identifiées par le champ PTI de la cellule. La hiérarchie des flux ATM détermine une portée pour chaque flux OAM à l'interface usager-réseau (UNI) (figure 8.28).

Page 249: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

A T M (Asynchronous Transfer M o d e ) 2 2 9

ET : Exchange Termination LT : Line Termination

Figure 8.28. Portée des flux à l'interface usager réseau

8 . 4 . L a c o u c n e r n i

8.4.1. Structure de la couche PHY

La couche physique, définie dans la recommandation 1.432, est applicable à l'interface UNI (User-Network Interface). Le support souhaité est la fibre optique mais il est envisageable d'utiliser également des supports électriques.

La couche physique est responsable du transport correct de cellules et de la remise, aux couches supérieures, d'information de synchronisation afin de permettre des services tels que l'émulation de circuit.

La couche physique est divisée en deux sous-couches afin de permettre plusieurs

supports différents tout en offrant toujours le même service à la couche ATM. Il

s'agit de :

- la sous-couche TC (Transmission Convergence) qui présente à la couche ATM un service uniforme indépendamment du support de transmission utilisé. Elle assure les fonctions d'adaptation du débit, de génération de la séquence de contrôle HEC portant sur l 'en-tête, de délimitation des cellules, d'adaptation de trame et de génération/réception des trames ;

- la sous-couche PM (Physical Medium) qui dépend du support de transmission

utilisé. Elle assure principalement les fonctions de synchronisation bit et d'accès au

support.

- X h - 0 - 0 B-NT2 B-NT1 LT Brasseur LT - X h - 0 - 0 Fl Fl

-« -F2 F2 F2

F3 F3

F4

F5

Page 250: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

230 Architecture des réseaux haut débit

L'unité de données échangée entre les deux sous-couches est constituée d'un flot d'octets associé à des informations de synchronisation (figure 8.29).

ATM

cellules valides synchronisation

TC - Transmission Convergence PHY

suite d octets synchronisation

PM - Physical Medium

Figure 8.29. Flux d'information entre sous-couches physiques

8.4.2. La sous-couche Physical Medium (PM)

Cette sous-couche est responsable de la transmission et de la réception correctes des bits sur le support. Elle assure principalement la synchronisation bit en réception ainsi que les fonctions dépendantes du support (support de type optique ou électrique). L'émetteur est tenu d'insérer des bits de synchronisation et d'assurer le bon codage de l'information. Pour une interface électrique, il est recommandé d'utiliser deux câbles coaxiaux de longueur comprise entre 100 et 200 m. Pour une interface optique, la longueur de la fibre est d'au moins 800 m. Cependant, les caractéristiques du support sont encore à l'étude.

Quatre débits d'accès sont définis à l 'interface UNI [ATM Forum 94] : 44,736 Mbit/s, 100 Mbit/s et deux interfaces à 155,52 Mbit/s (STS-3c et STM1). D'autres débits et d'autres supports physiques pourront être ultérieurement définis.

8.4.3. La sous-couche Transmission Convergence (TC)

8.4.3.1. Fonctionnalités

A ce niveau, les bits sont déjà reconnus puisqu'ils proviennent de la couche PM. La sous-couche réalise cinq fonctions :

- la génération/réception de la trame de transmission,

- l'adaptation du flux ATM au système de transmission,

Page 251: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 23 1

- la délimitation (ou cadrage) des cellules,

- la génération/vérification du HEC (Header Error Control),

- l'adaptation du débit cellule.

Les deux premières fonctions permettent d'adapter le flux de cellules ATM au format utilisé par le système de transmission sur le support physique et vice versa. Elles sont donc spécifiques au système de transmission utilisé dans le réseau de transmission (PDH, SDH, mode cellule). Les autres fonctions sont identiques quel que soit le système de transmission.

8.4.3.2. Adaptation au système SDH

Le transport du flux des cellules ATM est fait par une projection dans un conteneur appelé C-4. On lui ajoute un en-tête de conteneur de 9 octets, le Path OverHead (POH), qui contient des informations de gestion de la sous-couche TC. Le conteneur C-4 et le POH constituent un conteneur virtuel appelé VC-4 qui compose la charge utile de la trame STM-1 (figure 8.30). Le champ POH est transmis de bout en bout du conduit de transmission. Un de ses pointeurs (H4) est utilisé pour déterminer le déplacement entre lui-même et la frontière de la cellule. Avec STM-1 (155,52 Mbit/s), le débit utilisable par les cellules est de 149,760 Mbit/s.

VC-4

a. O

I

C-4 149,760 Mbit/s

F i g u r e 8 . 3 0 . Format du conteneur virtuel VC-4

La longueur du champ d'information de la trame SDH n'est pas multiple de celle de la cellule. Aussi, les limites de cette dernière n'ont pas une position fixe au sein de la trame, ce qui impose une fonction de délimitation de cellules. Les cellules sont cadrées à partir de la première colonne et de la première ligne du tableau de la trame STM-1 jusqu'à remplissage de la ligne (figure 8.31). Si une cellule ne tient pas complètement sur une ligne, elle est coupée et le premier segment se trouve au bout de la ligne ; tandis que le deuxième segment est transporté au début de la ligne i+l.

1 9 10 270

1

STM-1 4

S O H

P t r

9

S O H / VC-4 /

/ VC-4 /

Page 252: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

232 Architecture des réseaux haut débit

CL

O

I

debit de

gestion conteneur

A T M conteneur

virtuel

CL

O

X

réseau SDH

I O

"D

ATM

Figure 8.31. Adaptation au format SDH

8.4.3.3. Adaptation au système PDH

La structure de trame est celle définie dans la recommandation G.751 (définition des structures de trames pour le multiplexage d'affluents). La différence avec SDH porte sur la faiblesse des moyens de maintenance offerts par cette trame. Le transport des cellules ATM dans des trames PDH présente l'avantage d'utiliser un réseau de transmission existant. La fourniture des fonctions de gestion équivalentes à celles de la SDH est en cours de normalisation.

8.4.3.4. Adaptation au mode cellule

Si le système de transmission repose sur la cellule, la trame de transmission contient exactement une cellule. La mise en trame ou cadrage ainsi que la synchronisation sont réalisées par la fonction de délimitation de trames décrite ci-dessous. Elle sert à retrouver la cellule dans le flux de bits.

Les informations pour l'exploitation et la maintenance de la couche physique elle-même (qui sont véhiculées dans le SOH et le POH dans le système SDH) sont transmises dans des cellules spéciales PL-OAM (Physical Layer-Operation And Maintenance). Ces cellules sont identifiées par un en-tête spécial (champ Payload Type de la cellule) et ne sont pas remises à la couche ATM. Il y a au maximum 26 cellules ATM consécutives qui seront suivies d'une cellule de gestion (figure 8.32).

26 cellules ATM maximum cellule vide

Figure 8.32. Séquence de cellules et délimitation

Fl F3

Page 253: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 233

Une cellule de maintenance ou une cellule vide doit être insérée toutes les 26 cellules ATM car l'interface UNI reste la même quel que soit le système de transmission (SDH ou mode cellule). Le débit utile doit donc rester le même : le ratio 26/27 est égal au ratio 149,76/155,52.

8.4.3.5. Délimitation de cellules

Il s'agit ici de délimiter les cellules à l'intérieur du flux de bits ou d'octets délivré par la sous-couche PM. Le mécanisme conventionnellement utilisé et qui consiste à délimiter par des drapeaux de début et de fin n'est pas aisé à mettre en œuvre à des vitesses élevées. Mais, comme les cellules ATM sont de longueur fixe, d'autres mécanismes de délimitation sont par ailleurs possibles. La technique qui a été retenue utilise le champ HEC (Header Error Control) de la cellule.

Le principe en est le suivant : si un champ HEC est reconnu correct pour n cellules consécutives, la synchronisation est considérée comme obtenue ; inversement, la synchronisation est considérée comme perdue si ce champ a été trouvé incorrect pour m cellules consécutives. L'algorithme de délimitation de cellules utilise le diagramme à trois états de la figure 8.33.

RECHERCHE

SYNC PRESYNC n confirmations successives

ie délimiteurs de cellule corrects

F i g u r e 8 . 3 3 . Automate de delimitation de cellule

Initialement, le récepteur est dans l'état RECHERCHE. Dans cet état, le système scrute bit par bit la suite de bits entrants tout en recherchant un mot de code de 5 octets pour lequel le calcul du HEC est correct (c'est-à-dire un en-tête correct). Si c'est le cas, il passe dans l'état PRESYNC où les délimiteurs sont vérifiés cellule par cellule ; n'importe quel délimiteur faux fait retourner à l'état RECHERCHE. Si /; délimiteurs de cellule corrects et consécutifs sont découverts, le système bascule dans l'état SYNC. Le système considère qu'il a perdu la "délimitation de cellule" si un délimiteur de cellule est manquant m fois consécutives. Les paramètres n et m déterminent respectivement les vitesses à laquelle le système obtient la synchronisation de cellules et à laquelle il détecte la perte de synchronisation de cellules. Pour les valeurs de n = 6 et m = 7 (utilisées lorsque le système de transmission est SDH), le temps de cadrage est de l'ordre de 30 us pour un débit de 155,52 Mbit/s.

Page 254: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

234 Architecture des réseaux haut débit

Ce mécanisme est fiabilisé en introduisant un embrouillage du champ d'information de la cellule qui rend aléatoires les bits du champ d'information. Ce brouilleur garantit que les bits du champ d'information suivent une séquence pseudoaléatoire, de manière à ce que la probabilité que le résultat du HEC corresponde au champ d'information soit négligeable.

8.4.3.6. Calcul et vérification du champ HEC

Dans l'en-tête de chaque cellule, un champ d'un seul octet, le HEC (Header Error Control), protège le transfert de l'en-tête de la cellule. Le champ HEC est calculé par un polynôme générateur qui permet la correction d'une seule erreur bit et la détection de plusieurs erreurs bit.

La couche physique ne doit transmettre que des cellules valides à la couche ATM. Par conséquent, chaque en-tête de cellule est vérifié. Les cellules qui comportent des erreurs multiples sont détruites alors que les cellules correctes ou corrigées sont considérées comme valides et passées à la couche ATM. Pour minimiser les fonctions des protocoles ATM et assurer l'indépendance sémantique d'ATM par rapport aux informations véhiculées, le champ d'information n'est pas concerné par cette vérification. La correction d'un seul bit en erreur (dans l'en-tête de la cellule) n'est possible que si l'automate de délimitation des cellules est dans l'état SYNC.

L'état par défaut de l'automate de protection de l'en-tête est le mode correction. L'automate est très bien adapté aux types d'erreurs attendus avec les systèmes optiques, qui sont soit des erreurs simples, soit des erreurs groupées. Devant une première erreur, l'automate fait l'hypothèse qu'il s'agit d'un groupe d'erreurs, hypothèse infirmée ou confirmée par l'en-tête de la cellule suivante (figure 8.34).

pas d'erreur (pas action)

erreurs multiples (cellule détruite)

erreur(s) détectée(s) (cellule détruite)

mode correction

pas d'erreur (pas d'action) mode

détection

erreur simple (erreur corrigée)

F i g u r e 8 . 3 4 . Automate de détection d'erreurs sur l'en-tête de cellule

8.4.3.7. Adaptation de débit

Le débit du flux utile ATM doit être adapté à celui du système de transmission. Le flux de cellules ATM est complété par insertion de cellules vides (figure 8.35). En réception, ces cellules sont supprimées. Cette justification permet au flux ATM d'ignorer toutes les caractéristiques de la structure de transmission sous-jacente autre que le débit mis à sa disposition ; on parle d'anisochronisme à la transmission. Un multiplex ATM peut être alors transporté par n'importe quel système de transmission. Les cellules vides sont distinguées des autres types de cellules par un champ de l'en-tête, le champ Payload Type. Le débit inutilisé sur une artère est

Page 255: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 235

récupéré par le filtrage des cellules vides au passage d'un multiplexeur ou d'un nœud de commutation ATM. De ce fait, le réseau ne transporte que les informations utiles.

ATM

PHY

cellules ATM " (débit D l )

autres cellules PHY 1_ (débit D2)

+ -

T

cellules vides - (débit D3)

L I conduit de transmission

Figure 8.35. Insertion de cellules vides

8.4.4. Services de la couche PHY

L'unité de service de la couche physique (PHY-SDU) est la cellule. La primitive DATA.indication (présence d'une unité de données) ne communique que les cellules valides à la couche ATM, en d'autres termes les cellules dont l'en-tête a été reconnu correct par la vérification du HEC. Une information supplémentaire d'horloge est également fournie, non pas pour les besoins propres de la couche ATM, mais pour être renvoyée au niveau supérieur AAL qui pourra en déduire, si nécessaire, l'horloge de réseau. Les fonctions liées au HEC sont exécutées par la couche PHY (figure 8.36).

DATA.request

ATM I PHY

en-tete

HEC

en-tete k

cellule valide

champ Information horloge

DATA.indication

champ Information

Figure 8.36. Service PHY

On distingue deux types de cellules valides :

- les cellules ATM qui sont remises au niveau ATM et qui sont soit assignées à une application (cellules assignées) soit non assignées (cellules non assignées) telles les cellules OAM ou les cellules de réservation de ressources ;

Page 256: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

236 Architecture des réseaux haut débit

- les cellules du niveau physique qui ne sont pas remises à la couche ATM et parmi lesquelles on trouve les cellules vides et les cellules de gestion (OAM) du niveau physique.

8.5. La couche A T M

8.5.1. Fonctions de la couche ATM

La couche ATM est définie dans les recommandations 1.150 (B-1SDN ATM Functional Characteristics) et 1.361 (B-ISDN ATM Layer Specification). La couche ATM est totalement indépendante du support physique utilisé et par conséquent de la couche PHY. Par ailleurs, afin de satisfaire sa vocation multiservice, la couche ATM est indépendante de l'application. Quatre fonctions se dégagent de cette couche :

- le multiplexage/démultiplexage de cellules : dans le sens de la transmission, les cellules en provenance de VP et VC individuels sont multiplexées formant ainsi un flux composite, normalement non continu. Côté récepteur, la fonction de démultiplexage éclate le flux de cellules entrant en plusieurs flux de cellules, un par VP ou VC ;

- la commutation de cellules (translation de VPI/VCI) : cette fonction est appliquée dans les nœuds de commutation et/ou les brasseurs. Dans un brasseur, la valeur du champ VPI de chaque cellule entrante est translatée en une nouvelle valeur de VPI pour la cellule sortante. Dans un commutateur, les valeurs des champs VPI et VCI sont translatées en de nouvelles valeurs ;

- la génération/extraction de l'en-tête de cellule : cette fonction est appliquée aux points de terminaison de la couche ATM. En émission, après avoir reçu le champ d'information de la cellule en provenance de la couche supérieure (AAL). la fonction de génération ajoute les quatre premiers octets de l'en-tête (le HEC étant calculé par la sous-couche TC). En réception, la fonction d'extraction enlève l'en-tête et passe uniquement le champ d'information de la cellule à l'AAL ;

- le contrôle de flux générique (GFC — Generic Flow Control) : cette fonction n'est présente qu'à l'interface UNI. Elle est encore sujette à des travaux de normalisation. A l'origine, il s'agissait de fournir à des terminaux le moyen de se partager de façon équitable le même accès au réseau dans des configurations logiques en multipoint.

8.5.2. Structure de l'en-tête de la cellule

La recommandation 1.113 (Vocabulary of terms for broadband Aspects of ISDN) définit la cellule comme suit : "Une cellule est un bloc de longueur fixe. Elle est

Page 257: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 237

identifiée par un en-tête à la couche ATM du modèle de référence RNIS-LB" (figure 8.37). L'en-tête ne comporte que des informations relatives, directement ou indirectement, au bon acheminement de la cellule à travers le réseau. L'octet de protection correspond au champ HEC utilisé par la couche PHY.

en-tête 4 octets

protection 1 octet

champ 48 octets

Information

Figure 8.37. Cellule et couches du modèle RNIS-LB

Deux structures d'en-tête ont été définies, une par type d'interface. Ces interfaces sont l'UNI (User-Network Interface) ou le NNI (Network-Node Interface) (figure 8.38).

(a) à l'interface UNI

8 7 6 5 4 3 2 1 8 7 6 5 4 3 2 1

1 GFC VPI 1 VPI

2 VPI VCI 2 VPI VCI

3 VCI 3 VCI

4 VCI PTI CLP 4 VCI PTI CLP

5 HEC 5 HEC

(b) à l'interface NNI

Figure 8.38. Les structures d'en-tête de cellule

A l'interface UNI, l'utilisation des différents champs est la suivante :

- GFC (Generic Flow Control) permet l 'accès multiple à une connexion

virtuelle ;

- VPI (Virtual Path Identifier) et VCI (Virtual Channel Identifier) identifient la connexion virtuelle établie et permettent la commutation des cellules ;

AA

L e

t ap

plic

atio

n

PHY

AT

M

Page 258: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

238 Architecture des réseaux haut débit

- PTI (Payload Type Identifier) identifie le type du contenu de la zone de données ;

- CLP (Cell Loss Priority) indique le niveau de priorité à la perte de la cellule, haut lorsque CLP = 0 et bas lorsque CLP = 1 ;

- HEC (Header Error Control) contient la séquence de contrôle d'erreur sur l'entête (calculée par la couche PHY).

L'en-tête de cellule utilisé à l'interface NNI ne diffère du précédent que par l'absence du champ GFC et par l'extension du champ VPI de 8 à 12 bits.

8.5.3. La gestion des erreurs

Trois types d'erreurs peuvent affecter la cellule transmise :

- les pertes et les arrivées incorrectes de bits de la zone de données, suite à des erreurs de transmission,

- les pertes et les arrivées incorrectes de cellules causées par un mauvais routage de la cellule, lui-même dû à une erreur de transmission sur l'en-tête ou à une mauvaise interprétation de l'en-tête par un commutateur,

- les pertes de cellules dues à la congestion d'une file de commutateur.

Les erreurs ne sont pas reprises au niveau ATM mais laissées au soin des

couches supérieures.

8.5.4. Priorités

Deux sortes de priorités existent :

- la priorité spatiale : certaines cellules ont une probabilité de perte plus élevée (en cas de congestion, il y a élimination des cellules de faible priorité) ;

- la priorité temporelle : certaines cellules peuvent rester dans le réseau plus longtemps que d'autres (lorsque la durée de vie des cellules est limitée, elle permet d'augmenter les performances temps réel du réseau).

La fourniture de ces priorités est réalisée de deux manières :

- explicitement, en définissant un champ dans l'en-tête pour identifier la priorité (bit CLP),

- implicitement, en affectant à l'établissement une priorité à chaque connexion virtuelle, négociée par signalisation.

Page 259: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 239

8.5.5. Type du contenu

Les cellules de données et les cellules de maintenance OAM suivent le même chemin. On les distingue grâce au champ PTI (Payload Type Identifier) de l'en-tête. Le champ PTI indique (tableau 8.7) :

- le type de contenu transporté (cellule de données utilisateur, cellule de gestion),

- le type de données utilisateur (niveau 0, niveau 1), - si la cellule a rencontré des situations de congestion.

valeur signification 000 données utilisateur, niveau 0. pas de congestion 001 données utilisateur, niveau 1, pas de congestion 010 données utilisateur, niveau 0, congestion 011 données utilisateur, niveau 1, congestion 100 cellule de gestion du flux OAM F5 de bout en bout 101 cellule de gestion du flux OAM F5 local 110 cellule de gestion des ressources 111 réservé

Tableau 8.7. Le champ PTI

8.5.6. Services de la couche ATM

L'unité de service de la couche ATM (ATM-SDU) est le champ d'information de 48 octets de la cellule. Seules deux primitives sont définies pour le transfert de données dans le plan d'usager :

- ATM_DATA.request permet à la couche AAL de demander à la couche ATM le transfert de données. Elle utilise les paramètres suivants :

• les données à transmettre contenues dans l 'ATM-SDU, • la priorité à la perte (valeur du bit CLP), • l'indication d'encombrement (valeur du champ PTI), • l'indication de type du données (valeur du champ PTI) ;

- ATM_DATA.indication permet à la couche ATM de signaler à la couche AAL la réception de données. Elle transmet les paramètres suivants :

• les données reçues contenues dans l'ATM-SDU, • l'indication d'encombrement (valeur du champ PTI), • l'indication du type de données (valeur du champ PTI).

D'autres paramètres sont en cours de discussion dans les instances de normalisation.

Page 260: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 4 0 Architecture des réseaux haut débit

8.6. La couche AAL

8.6.1. Rôle

La couche ATM étant indépendante du type de service offert à l'application, la couche AAL doit assurer la translation et l 'adaptation entre ce que demande l'application et ce qu'offre le service ATM. L'indépendance entre application et réseau s'exprime selon deux aspects, temporel et sémantique. Reprenons les caractéristiques du service de couche ATM :

- caractéristiques temporelles : • indépendance du rythme terminal/réseau : la mise en cellules des

informations du terminal (source) se fait selon son activité et à sa propre cadence (non pas à celle du réseau). Côté réseau, l'émission de ces cellules se fait lorsque le réseau a des ressources disponibles. Tout lien de synchronisation entre l'horloge du terminal et celle du réseau est donc supprimé : on parle d'asynchronisme ou encore d'anisochronisme à l'accès ;

• respect de l'ordre de la séquence d'émission ;

• variation du délai de transfert des cellules (gigue de cellule ou CDV — Cell

Delay Variation) ; • absence de contrôle de flux au niveau cellule ;

- caractéristiques sémantiques : • transparence au réseau : il n'y a pas de relation entre les unités de service

(générées par les applications) et les unités de transfert (les cellules) ; • absence de tout contrôle du réseau sur les données utilisateur transportées ; • possibilité d'erreurs de transmission affectant l'information (puisque seules

les erreurs portant sur l'en-tête de cellule sont détectées par le HEC) ; • pertes ou insertions (gains) de cellules.

On peut ainsi voir que le format fixe des cellules entraîne une conversion de format, que l'indépendance temporelle application/réseau impose si nécessaire une synchronisation du destinataire sur la source et que l'absence de contrôle d'intégrité sur les informations transférées nécessite des mécanismes de contrôle d'erreur de bout en bout. En fait, les mesures à prendre pour corriger ces effets dépendent des contraintes posées par les applications : si l'application ne présente aucun caractère temps réel, aucun mécanisme de récupération d'horloge n'est nécessaire (cas d'un service de données par exemple) ; par ailleurs, si l'application n'a pas de contrainte forte quant à l'intégrité des données, aucun mécanisme de contrôle d'erreur n'est nécessaire (cas d'un service de vocal). Une série de mécanismes d'adaptation destinés à répondre aux contraintes de format, de temps et de sémantique propres aux différentes applications ont été définis. Le rôle de l'AAL est donc de restaurer la qualité requise par l'application à partir de la qualité offerte par le réseau.

Page 261: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 241

8.6.2. Classification des services

Les services large bande qui sont fournis au-dessus de la couche ATM sont répertoriés en quatre classes, chacune ayant ses propres exigences vis-à-vis de l'AAL. La classification repose sur trois paramètres :

- la relation temporelle entre la source et la destination : quelques services nécessitent une relation temporelle entre la source et la destination, pour d'autres, elle n'a pas lieu d'être. Par exemple, les échantillons de voix numérisée à 64 kbit/s ont une relation temporelle claire, ce qui n'est pas le cas d'un transfert de fichiers entre machines. Quelquefois, les services à relation temporelle sont également appelés services temps réel ;

- le débit binaire : certains services présentent un débit constant, d'autres un débit variable ;

- le mode de connexion : les services peuvent être soit connectés soit non connectés.

Parmi les huit combinaisons théoriquement possibles ont été retenues les quatre classes suivantes (tableau 8.8) :

classe A classe B classe C classe D

synchronisation nécessaire non nécessaire

débit constant variable

mode connecté non connecté

Tableau 8 .8 . Les quatre classes de service et leurs caractéristiques

Des exemples possibles sont :

- pour la classe A : la voix à 64 kbit/s et la vidéo à débit constant (ces services sont du type émulation de circuit) ;

- pour la classe B : les services audio et vidéo à débit variable ;

- pour la classe C : le transfert de données et la signalisation en mode connecté ;

- pour la classe D : le transport de données en mode non connecté (un exemple étant donné par SMDS).

Page 262: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

242 Architecture des réseaux haut débit

8.6.3. Structuration de la couche AAL

L'AAL est divisée en deux sous-couches : la SAR (Segmentation And Reassembly), sous-couche inférieure, et la CS (Convergence Sublayer), sous-couche supérieure.

8.6.3.1. La sous-couche SAR

Cette sous-couche est orientée réseau et elle est responsable du changement de format entre les AAL-SDU et les cellules. En émission, elle segmente la AAL-SDU selon la longueur appropriée au champ d'information d'une cellule ATM. Elle masque donc aux couches supérieures la transmission par cellules. En réception, elle réassemble les contenus du champ d'information des cellules ATM afin de restituer le flux d'origine pour la couche supérieure. De manière générale, les fonctions couvertes par SAR concernent la segmentation/réassemblage et la détection des pertes/gains de cellules (par numérotation).

8.6.3.2. La sous-couche CS

La sous-couche CS est orientée service et elle est de loin la plus complexe des deux sous-couches de l'AAL. Son rôle est de fournir le service AAL au niveau de l 'AAL-SAP. Elle comporte les fonctions spécifiques à la restauration des caractéristiques du service considéré. Par conséquent, chaque service fait appel à une CS dédiée et adaptée à ses exigences propres. Il faut donc définir des CS sur mesure au cas par cas. En effet, il est difficilement envisageable de couvrir l'ensemble des besoins des applications avec quelques CS génériques. De façon générale, les fonctions couvertes par CS portent sur le multiplexage de connexions AAL sur une connexion ATM, la reprise sur erreurs (pertes), la récupération d'horloge (synchronisation de bout en bout) et l'absorption de la gigue de cellule.

Dans l'état actuel des travaux de normalisation, il n'y a pas de points d'accès au service (SAP) définis entre ces sous-couches. Dans certaines applications, SAR et/ou CS peuvent être vides. La recommandation 1.363 décrit les combinaisons de protocoles SAR et CS à utiliser avec les différentes classes de service. Néanmoins, d'autres combinaisons peuvent être utilisées et d'autres SAR et CS peuvent être définies.

8.6.4. Mécanismes utilisés par l'AAL

Les protocoles de la couche AAL reposent sur les mécanismes de segmentation de la SDU, de compensation de la gigue cellule, de traitement des pertes et gains de cellules et de synchronisation des extrémités.

Page 263: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 243

application SDU utilisateur 1 ,

CS-PDU

partie utile

segmentation - ' ajout 'éassemblage et du

ajout de l'en-tête AT

du préfixe ' ' i .uffixeSAR 1 SAR-PDU

i ^ partieutile l É vl ' cellule

j J partie utile O'y'y'

F i g u r e 8 .39 . Segmentation au sein de la couche AAL

1. AAL reçoit la SDU utilisateur

2. CS y ajoute un suffixe et un préfixe pour constituer la CS-PDU

3. SAR découpe la CS-PDU en morceaux de taille fixe pour l'adapter au champ d'information de la cellule

4. SAR ajoute également des informations de contrôle (qui dépendent du service AAL)

5. Les SAR-PDU (ou segments) sont passées à la couche ATM

8.6.4.2. Compensation de la gigue de cellule

La gigue représente les variations des temps de transfert des cellules. Borner ces variations revient à déterminer l'excursion maximale. Cette dernière représente la différence entre le transfert le plus rapide et le transfert le plus lent. Une fois cette excursion connue, il suffit alors de différer initialement la restitution au terminal récepteur de la valeur de cette excursion (figure 8.40).

e m i s s i o n t t t t f sortie du réseau

sortie de l'AAL

A \ A \k

--•>-:t--f-:t-,t

F i g u r e 8 . 4 0 . Compensation de la gigue cellule

8.6.4.1. Segmentation

La segmentation des données utilisateur se fait en cinq étapes (figure 8.39) :

AT

1V

SA

R

A A

l.

ES

-

délai init ial de restitution

Page 264: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

244 Architecture des réseaux haut débit

8.6.4.3. Traitement des gains et pertes de cellules

La détection des pertes et des gains de cellules est faite grâce à une numérotation en séquence des cellules émises. La numérotation est une fonction de la sous-couche SAR. Elle est faite modulo 8 dans le champ SN (Sequence Number). Les cellules insérées sont détruites. Les pertes de cellules sont signalées à la sous-couche CS qui entreprend les actions spécifiques à chaque application, les alternatives possibles étant de :

a) ne rien faire ;

b) s'accommoder de la perte en masquant le défaut : avec les informations déjà reçues, le récepteur va chercher à imaginer les informations manquantes. Par exemple, pour une application vidéo, il peut y avoir interpolation entre les points adjacents ou recopie des points manquants à partir de l'image précédente ;

c) tenter de recréer le champ d'information manquant à l'insu de l'application : des codes correcteurs sont insérés dans le flux. La méthode est puissante mais elle doit être appréciée selon deux paramètres, le surdébit (overhead) engendré et le temps de traitement associé ;

d) procéder à la retransmission du champ d'information manquant.

Bien évidemment, le choix de l'action à entreprendre dépend du service considéré : si l'on a affaire à un service à contraintes temps réel (de la vidéo par exemple), l'action d) n'est pas envisageable à cause du délai de propagation trop important que cela engendrerait ; a contrario, l'action d) est préférable aux autres pour un service de transfert de données informatiques.

8.6.4.4. Synchronisation des extrémités

La synchronisation des extrémités permet d'obtenir un rythme d'émission des données équivalent à celui de leur réception. Elle sert aussi à corriger les variations de fréquence de l'horloge de restitution. Les méthodes de synchronisation se divisent en deux familles : synchronisation du récepteur sur l'émetteur et synchronisation grâce à l'horloge réseau.

Une méthode de synchronisation entre le récepteur et l'émetteur consiste en l'asservissement de l'horloge de restitution sur le niveau de remplissage du tampon de réception (figure 8.41). Cette méthode utilise le fait que le réseau ATM véhicule une horloge de manière implicite en comptant le nombre de bits par seconde parvenant au récepteur. Néanmoins, il faut être en mesure d'éliminer la gigue qui perturbe la mesure du niveau de remplissage. Ce procédé ne fonctionne correctement que pour des débits d'émission constants.

Page 265: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 245

du réseau

max

moyen

min

accélère

ralentit

rythme f d'extraction

H)

vers les couches supérieures

Figure 8.41. Synchronisation par asservissement sur le niveau de remplissage

La deuxième méthode consiste à synchroniser les deux extrémités sur une horloge de référence commune, typiquement celle fournie par la couche physique à savoir le réseau de transmission. Cette méthode ne fonctionne pas lorsque l'une des extrémités est raccordée au RNIS-LB via un réseau privé local (qui est purement asynchrone).

8.6.5. Types d'AAL

Les contraintes de service ne sont pas les mêmes pour chacune des quatre classes de service. Le service AAL est rendu avec des variantes qui donnent lieu à plusieurs types de protocole AAL. L'UIT-T a choisi de développer un nombre limité de protocoles AAL ; actuellement, quatre types d'AAL sont déjà définis ou en cours de définition.

La correspondance classe de service/type d'AAL n'est pas encore définitive. Le tableau 8.9 donne cependant une première ébauche de correspondance :

classes de services A B C D

type d'AAL 1 2 3/4 ou 5

Tableau 8.9. Correspondance entre classes et types d'AAL

Jusqu'en juin 92, les quatre types suivants d'AAL étaient définis :

- AAL Type 1 : service à contraintes temporelles et à débit constant,

- AAL Type 2 : service à contraintes temporelles et à débit variable,

- AAL Type 3 : service sans contraintes temporelles (données), à débit variable et en mode connecté,

- AAL Type 4 : service sans contraintes temporelles (données), à débit variable et en mode non connecté.

Page 266: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 4 6 Architecture des réseaux haut débit

Début 1994, les deux derniers types ont été regroupés en raison de leur grande ressemblance dans un même type tandis que sous la poussée de certains constructeurs on définissait un nouveau type également adapté au transfert de données :

- AAL Type 3/4 : service sans contraintes temporelles (données) à débit

variable,

- AAL Type 5 (SEAL — Simple and Efficient Adaptation Layer) : service sans contraintes temporelles (données) en mode non connecté.

Pour les AAL de données (3/4 et 5), la CS subit un découpage supplémentaire en deux sous-couches, CPCS (Common Part Convergence Sublayer) qui comporte les fonctions communes de la CS et SSCS (Service Specific Convergence Sublayer) qui comporte des fonctions spécifiques à un service donné (figure 8.42).

AAL-SAP

Service Specific CS (éventuellement nulle)

primitives-

Common Part CS

-primitives—

SAR

ATM-SAP

SS

CS

C

PC

S I

CS-

AA

L

SAR

F i g u r e 8 .42. Découpage des AAL de donnée

8.6.6. AAL 1

L'AAL de type 1 est dédiée aux services de classe A . Son utilisation sert à rendre un service d'émulation de circuit. Elle offre les services suivants :

- le transfert de SDU avec un débit d'émission constant et leur remise au même

débit, - le transfert d'information temporelle entre la source et la destination, - le transfert d'information de structure entre source et destination, - l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée

par l'AAL.

Page 267: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 247

8.6.6.1. Fonctions de la SAR

La couche SAR définit un format de SAR-PDU sur 48 octets dont 47 octets utiles (figure 8.43).

4 bits 4 bits 47 octets

SNP SN charge utile

Figure 8.43. Format de la SAR-PDU de l'AAL I

La charge utile (payload) est constituée de 47 octets provenant de la CS-PDU. Le champ SN (Sequence Number) est constitué d'un bit CSI (CS Indicator) indiquant l'existence d'une fonction CS (CSI est fourni pour la signalisation) et d'un numéro de séquence SC (Sequence Count) codé sur 3 bits. Ce dernier est initialise à 0 et incrémenté modulo 8 ; il permet à la CS de détecter des pertes ou des insertions de payloads de SAR-PDU — qui correspondent à des pertes ou des insertions de cellules. Le champ SNP (Sequence Number Protection) protège l'en-tête de la SAR-PDU avec la correction d'erreurs simples et la détection d'erreurs multiples. Il correspond à un CRC-3 renforcé par un bit de parité. Le récepteur passe le résultat de sa vérification (valide/invalide) à la CS.

8.6.6.2. Fonctions de la CS

Elles dépendent du type de service traité : émulation de circuit, vidéo, voix, audio. Ce sont la récupération en réception de la structure des données, la récupération en réception de l'horloge d'émission, la gestion de la gigue de cellule, la fourniture de rapports de performance de bout en bout (occurrences de pertes/insertions de cellules, de famine/débordement de tampons, d'erreurs bit, etc.) et le contrôle d'erreur. Pour ce dernier, dans le cas de l'émulation de circuit et de la vidéo, le SC (Sequence Count) passé par l'émetteur et qui est transporté par la SAR permet de détecter puis de détruire les insertions de cellules. Par ailleurs, SC associé au niveau de remplissage du tampon de réception permet de détecter les pertes de cellules : elles peuvent être compensées en introduisant des payloads de SAR-PDU de bourrage. Pour la vidéo, de manière optionnelle, l'information manquante peut être récupérée en utilisant un mécanisme d'autocorrection (FEC — Forward Error Control) associé à un mécanisme d'entrelacement d'octets.

8 . 6 . 7 . AAL 2

L'AAL de type 2 est dédiée aux services de classe B. Les services qu'elle offre sont :

- le transfert de SDU avec un débit d'émission variable, - le transfert d'information temporelle entre la source et la destination,

en-tête

Page 268: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 4 8 Architecture des réseaux haut débit

- l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée par l'AAL.

Ces fonctions sont en cours d'étude.

8.6.8. AAL 3/4

L'AAL de type 3/4 est dédiée aux services de données orientés connexion ou sans connexion (classes C et D). Les caractéristiques de service sont :

- le transfert de l'AAL-SDU d'un AAL-SAP vers un ou plusieurs AAL-SAP à travers le réseau ATM (figure 8.44) ;

( A A L - S A P A A L - S A P ) A A L - S A P ( A A L - S A P ) ( A A L - S A P )

connexion AAL connexion AAl

ATM

A

AL

connexion ATM point-à-point

connexion ATM multipoint

Figure 8.44. Connexions AAL 3/4

- le choix d'une qualité de service (QoS — Quality of Service) via le choix d'un AAL-SAP pour le transfert de données (figure 8.45) ;

( A A L - S A P ? ) A A L - S A P 2 ) ( A A L - S A P 3 J

QoSl QoS2 QoS3

AA

L

l A T M ^ S A P l ) I A T M - S A P

ATM

Figure 8 .45 . Choix de la QoS à l'AAL 3/4

- 1 existence de deux modes de service : • le mode message par lequel une AAL-SDU est transportée dans une AAL-

IDU (Initial Data Unit) (figure 8.46 (a)),

Page 269: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 249

• le mode continu par lequel une AAL-SDU est transportée en plusieurs AAL-IDU (figure 8.46 (b)) ;

AAL-SDU

- interface A A L — AAL-IDU

SSCS-PDU

(a) mode message

AAL-SDU

AAL-IDU AAL-IDU AAL-IDU-nterface AAL

SSCS-PDU

(b) mode continu

F i g u r e 8 . 4 6 . Modes de service

- l'existence de deux modes de fonctionnement : • le mode assuré par lequel toute AAL-SDU assurée est remise avec le

contenu exact envoyé par l'utilisateur, • le mode non assuré par lequel des AAL-SDU entières peuvent être altérées

voire perdues.

8.6.8.1. Fonctions de la SAR

Ces fonctions permettent de transférer plusieurs SAR-SDU de longueur variable de façon simultanée sur une même connexion ATM entre entités AAL.

La fonction de segmentation et de réassemblage consiste à accepter des SAR-SDU de longueur variable de la CPCS et à construire des SAR-PDU contenant jusqu'à 44 octets de données (figure 8.47).

F i g u r e 8 .47 . Format de la SAR-PDU de l'AAL 3/4

Il y a préservation de la SAR-SDU grâce aux champs ST (Segment Type) et Ll (Length Indicator). ST indique si la SAR-PDU véhicule le début (valeur BOM), un segment intermédiaire (valeur COM), la fin (valeur EOM) ou l'intégralité (valeur

en-tête— — charge utile • suffixe •

ST SN MID pay load LI CRC

2 bits 4 bits 10 bus 44 octets 6 bits 10 bits

Page 270: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 5 0 Architecture des réseaux haut débit

SSM) d'une SAR-SDU. Ll donne le nombre d'octets de données d'utilisateur dans le champ payload.

Le contrôle d'erreur est assuré grâce au champ CRC (Check Redundancy Control) de la SAR-PDU. Les SAR-PDU erronées sont rejetées. Il est toutefois prévu de fournir une option de remise de données altérées avec l'indication adéquate en mode non assuré. Les pertes/insertions de SAR-PDU sont détectées grâce au champ SN (Sequence Number). Les SAR-SDU avec pertes ou insertions de SAR-PDU sont rejetées ou bien délivrées avec l'indication appropriée.

Le multiplexage/démultiplexage de connexions AAL-CPCS sur une même connexion ATM est réalisé grâce au champ MID (Multiplexing IDentifier) : toutes les SAR-PDU d'une même SAR-SDU ont le même MID. Le MID étant spécifique à une CPCS-PDU, l'entité AAL réceptrice peut procéder au réassemblage de la CPCS-PDU. Ce même champ MID permet également le maintien en séquence des SAR-SDU à l'intérieur d'une connexion CPCS.

Il est possible d'abandonner (en mode continu) une SAR-SDU partiellement transmise, par l'utilisation d'une SAR-PDU d'abandon (identifiée par des valeurs particulières de champs : ST = EOM, payload = 0, Ll = 63).

8.6.8.2. Fonctions de la CPCS

La CPCS présente les caractéristiques de service suivantes :

- le transfert non assuré de trames de données d'utilisateur de longueur quelconque (mais comprise entre 1 et 63 535 octets),

- une ou plusieurs connexions CPCS peuvent être établies entre deux entités CPCS homologues,

- les connexions CPCS sont établies par le plan de commande ou le plan de gestion,

- les CPCS-SDU sont maintenues en séquence sur chaque connexion CPCS.

Figure 8.48. Format de la CPCS-PDU de l'AAL 3/4

La sémantique et le rôle de chacun des champs sont les suivants :

- CPI (Common Part Indicator) permet d'interpréter les autres champs du préfixe (header) et du suffixe (trailer) en indiquant, entre autres, les unités utilisées pour BASize et Length ;

en-tete • suffixe

CPI Btag BASize payload PAD AL Etag Length

1 octet 1 octet 2 octets n octets 1 octet 1 octet 0 < n < 3

2 octets

Page 271: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 25 1

- Btag (Beginning Tag) permet d'associer le préfixe et le suffixe de la CPCS-PDU, le principe étant le suivant : l'émetteur insère la même valeur dans les champs Btag et Etag d'une CPCS-PDU donnée et en change pour chaque nouvelle CPCS-PDU (pour une valeur de MID donnée). Le récepteur vérifie alors la cohérence entre le champ Btag de l'en-tête et le champ Etag de l'en-fin (il ne vérifie pas la séquence de Btag/Etag sur une succession de CPCS-PDU) ;

- BASize (Buffer Allocation Size) indique à l'entité homologue réceptrice les besoins en tampons pour recevoir la CPCS-SDU. En mode message, sa valeur correspond à la longueur du payload de la CPCS-PDU, alors qu'en mode continu, sa valeur est supérieure ou égale à la longueur du payload ;

- PAD (PADding) est nécessaire pour avoir un payload multiple de 4 octets. Ce champ contient de 0 à 3 octets mis à 0 qui seront ignorés en réception ;

- AL (ALignment) est un octet de bourrage mis à 0 afin d'obtenir un suffixe de

4 octets ;

- Etag (End Tag) permet l'association du préfixe d'une CPCS-PDU avec son

suffixe ;

- Length est la longueur du payload de la CPCS-PDU.

Les fonctions de la CPCS dépendent du mode de service de son utilisateur (message ou continu) et couvrent :

- la préservation des CPCS-SDU au niveau de leur délimitation et de leur transparence (champs Btag/Etag) ;

- le contrôle d'erreur : les CPCS-SDU corrompues (Btag/Etag incorrect, longueur reçue ne correspondant pas au champ Length, débordement de tampon, format de CPCS-PDU incorrect, erreurs signalées par la SAR, etc.) sont soit rejetées soit délivrées en option à la SSCS avec l'indication adéquate ;

- la communication à l'entité réceptrice des besoins maxima en tampons pour recevoir la CPCS-SDU (champ BASize) ;

- l'abandon d'une CPCS-SDU partiellement transmise.

8.6.8.3. Fonctions de la SSCS

Les fonctions de la SSCS sont à l'étude. Selon le mode de service et le mode de fonctionnement, elles comporteront vraisemblablement le blocage/déblocage, la segmentation/réassemblage, le contrôle d'erreur, le contrôle de flux et la gestion des connexions AAL 1-vers-N (multicast).

Page 272: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 5 2 Architecture des réseaux haut débit

8.6.9. AAL 5

L'AAL de type 5 traite également les services de données mais en mode non connecté. L'utilisation visée est le transfert de données sur un réseau local ATM ou l'interconnexion de réseaux locaux via un réseau ATM grande distance.

8.6.9.1. Fonctions de la SAR

La sous-couche SAR est réduite à son expression minimum (découpage en segments de 48 octets). La SAR accepte des SAR-SDU de longueur variable mais multiples de 48 octets et construit des SAR-PDU contenant 48 octets de données de la SAR-SDU (figure 8.49). Il n'y a pas d'en-tête SAR à proprement parler puisque la sous-couche SAR se réduit en fait à un seul bit dans l'en-tête de cellule ATM.

en-tête ~de c e l l u l e - - S A R - P D U

;PTI; payload

48 octets 5 octet;

F i g u r e 8 . 4 9 . Format de la SAR-PDU de l'AAL 5

La délimitation des trames se fait hors bande, contrairement à la SAR de l'AAL 3/4. En effet, la SAR utilise le paramètre AUU (ATM-layer user to ATM-layer user) des primitives ATM pour indiquer qu'une SAR-PDU contient la fin d'une SAR-SDU et ce faisant, fournit ainsi une indication de fin de SAR-SDU. Le champ PTI (Payload Type Identifier) de l'en-tête de cellule véhiculera de bout en bout la valeur du paramètre AUU. Cette violation volontaire de l'indépendance des couches de protocole permet un gain en performances.

De plus, la SAR offre des fonctions de transfert d'information de congestion et de priorité à la perte entre ses couches supérieures et sa couche inférieure, les transferts s'effectuant dans les deux sens.

8.6.9.2. Fonctions de la CPCS

La CPCS présente les caractéristiques de service suivantes :

- le transfert non assuré de trames de données utilisateur de longueur quelconque (de 1 à 65 535 octets), ainsi que le transfert, pour chaque trame, d'un octet indépendant d'information utilisateur,

- la connexion CPCS est établie par le plan de commande ou le plan de gestion,

- détection et indication d'erreur (erreur bit, perte/gain de cellule),

- intégrité de séquence des CPCS-SDU sur chaque connexion CPCS.

Page 273: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 253

Les champs de la CPCS-PDU (figure 8.50) ont la sémantique et le rôle

suivants :

- le payload (charge utile) véhicule la CPCS-SDU et représente donc un nombre

entier d'octets compris entre 1 et 65 535 ;

- PAD (PADding) permet d'aligner la fin du suffixe sur une frontière de

48 octets ;

- CPCS-UU véhicule de façon transparente l'octet qui correspond à l'information

CPCS User-to-User ;

- CPI (Common Indication Part) a pour fonction première d'aligner le suffixe sur 8 octets, d'autres fonctions restant à l'étude ;

- Length donne la longueur du payload.

- CRC permet de détecter des erreurs sur l'ensemble de la CPCS-PDU (sauf le

champ CRC lui-même).

en-fin

payload PAD CPCS-UU CPI Length CRC

n octets 1 octet 1 octet 2 octets 4 octets 0 < n < 47

Figure 8.50. Format de la CPCS-PDU de l'AAL 5

Tout comme pour l'AAL 3/4, les fonctions de la CPCS dépendent du mode de service de son utilisateur (message ou continu). Elles couvrent (la liste n'est pas définitive) :

- la préservation des CPCS-SDU au niveau de leur délimitation et

transparence ;

- la préservation de l'information CPCS User-to-User par le transfert transparent d'un octet d'utilisateur à utilisateur (champ CPCS-UU) ;

- la détection et la gestion d'erreurs : les CPCS-SDU corrompues (erreurs détectées par le CRC, incohérence entre le champ Length et la longueur de la trame effectivement reçue, etc.) sont soit rejetées soit délivrées en option à la SSCS avec l'indication appropriée ;

- l'abandon d'une CPCS-SDU partiellement transmise (avec un champ Length

mis à 0) ;

- le bourrage qui est nécessaire dès lors que la SAR n'accepte qu'une longueur

multiple de 48 octets pour les SAR-SDU ;

- la gestion de l'information de congestion transférée de la SSCS à la SAR et

inversement ;

Page 274: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 5 4 Architecture des réseaux haut débit

- la gestion de l'information de priorité à la perte transférée de la SSCS à la SAR et inversement.

8.6.9.3. Fonctions de la SSCS

Elles sont à l'étude. Aux fonctions pressenties pour la SSCS pour l'AAL 3/4, il faut ajouter le multiplexage. En effet, avec l'AAL 5, plusieurs connexions AAL peuvent être associées à une même connexion ATM, le multiplexage devant être réalisé au niveau SSCS.

8.6.9.4. Comparaison AAL 3/4 et AAL 5

Tout comme l'AAL de type 3/4, l'AAL de type 5 traite des données, mais d'une façon qui se veut plus simple et plus efficace que l'AAL 3/4. Elle a été proposée à l'origine par l'industrie informatique (SUN Microsystems, Xerox-Parc) en réaction à la complexité des mécanismes de l'AAL 3/4. L'AAL 5 a été conçue dans un souci de simplicité pour un environnement haut débit, principalement dans le cadre de l'interconnexion de stations de travail. La simplicité de l'AAL 5 est à l'origine de l'intérêt croissant qu'elle suscite et de fait, sa prédominance sur les autres types d'AAL semble s'affirmer de jour en jour. Notons également que l'AAL 5 a été retenue par l'ATM Forum pour le support de la signalisation du B-ISDN (SAAL) et que l'UIT-T en fera probablement autant.

Les différences essentielles entre l'AAL 5 et l'AAL 3/4 portent sur le contrôle d'erreur, la délimitation des trames et le multiplexage.

L'AAL 5 utilise un CRC de 32 bits au niveau CPCS au lieu d'un CRC-10 au niveau SAR. Le contrôle se fait donc sur la base d'un datagramme au lieu d'une cellule. Il permet non seulement de détecter des erreurs de transmission (rôle du CRC-10 de l'AAL 3/4) mais également les cellules hors séquence (rôle du champ SN de la SAR de l'AAL 3/4) et les concaténations de datagrammes (rôle des champs Btag et Etag de la CPCS de l'AAL 3/4).

La délimitation des trames se fait dans la bande avec l'AAL 3/4 : les 48 octets du payload de la cellule se répartissent en 44 octets de données utilisateur et 4 octets d'en-tête SAR dont le champ ST qui indique le début, le milieu ou la fin d'un datagramme. L'AAL 5 fait une délimitation hors bande, à savoir que les 48 octets de payload sont entièrement utilisés pour véhiculer la CPCS-PDU. Il n'y a pas d'en-tête SAR à proprement parler : la délimitation utilise directement un bit de l'en-tête de la cellule ATM.

Pour ces deux types d'AAL, plusieurs connexions AAL peuvent être multiplexées sur une même connexion ATM. En AAL 3/4, le multiplexage est réalisé au niveau de la sous-couche SAR. alors qu'en AAL 5, il doit être réalisé par la SSCS.

Page 275: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 2 5 5

8.7. Réseau local ATM

La technologie ATM est susceptible d'être appliquée aux réseaux locaux où elle offrirait une bande passante plus importante et la possibilité d'utiliser les services large bande. Cependant, un réseau local ATM doit interagir avec les réseaux locaux existants (Ethernet, Token Ring, etc.), leurs protocoles et leurs équipements d'interconnexion (ponts, routeurs). Se pose alors le problème de l'interfaçage entre les réseaux locaux classiques et le réseau ATM. Il est possible d'interfacer ATM au niveau de la couche Transport ou de la couche Réseau mais cette approche nécessite de modifier la pile de protocoles dans toutes les stations d'extrémité, c'est pourquoi une interface au niveau MAC est proposée par l 'ATM Forum.

Les différences entre le service MAC et le service fourni par la couche ATM sont évidentes puisque — rappelons-le — le service MAC fournit : un service sans connexion, un transfert de paquets de taille quelconque et de type best effort c'est-à-dire sans souci de retransmission des paquets perdus ou erronés, des transferts point à point, multipoint ou en diffusion, un adressage sur 48 bits, la possibilité d'interconnecter les sous-réseaux de manière transparente par un pont (au niveau MAC). Pour faire converger le service ATM, il s'agit donc d'offrir l'émulation de réseau local sur un réseau ATM.

8.7.1. Emulation de réseau local

L'émulation de réseau local pose de nombreux problèmes dont certains ne sont pas complètement résolus à ce jour. Pour tous ces problèmes, de nombreuses solutions ont été proposées ; l'objet n'étant pas d'en faire une présentation exhaustive, nous nous contentons de décrire les solutions retenues par l 'ATM Forum dans [ATM Forum 95]. La discussion concernant le choix de ces solutions est clairement exposée dans [Truong 95] et [Newman 94].

F i g u r e 8 . 5 1 . Segments virtuels dans un réseau local émulé

'ATM Lan 1

ATM Lan 2 ATM

Lan 3

Page 276: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 5 6 Architecture des réseaux haut débit

8.7.2. Adaptation du format de la trame

L'adaptation d'une trame MAC de longueur quelconque en une cellule de 53 octets est traitée par la couche AAL. Les deux types d'AAL candidats sont ceux dédiés au transfert de données. L 'AAL 3/4 n 'a pas été retenue pour les raisons suivantes :

- chaque segment comporte un CRC individuel de 10 bits alors que dans l'AAL 5, le CRC (32 bits) porte sur l'intégralité de la trame et est donc plus performant,

- la fonction de multiplexage supportée par le champ MID n'est pas utile dans un contexte de réseau local,

- la charge utile est seulement de 44 octets, au lieu de 48 pour l 'AAL 5, - le protocole est plus complexe.

8.7.3. Adressage

L'ATM Forum spécifie deux formats d'adresse ATM, l'un correspond à l'adresse RNIS-BE E. 164 et l'autre a été défini à partir du format de l'adresse réseau OSI (figure 8.52). Cette seconde structure d'adresse comporte un champ initial de 7 octets alloué par les autorités nationales et internationales, suivi par un champ de 4 octets pour le domaine de routage et la zone qui sont choisis par l'organisation. Vient

Avec le service d'émulation de réseau local, les stations sont connectées à un réseau ATM et communiquent entre elles comme si elles étaient connectées à un réseau local traditionnel. Un réseau local émulé fournit à un groupe de stations un service d'interconnexion similaire à un segment Ethernet ou Token Ring ; on parle de "segment virtuel". Plusieurs segments virtuels peuvent être définis sur un même réseau ATM. La segmentation du réseau local d'entreprise s'est depuis longtemps généralisée et reflète la plupart du temps l'organisation de l'entreprise en services, équipes ou projets ; elle permet une plus grande sécurité et une limitation du trafic diffusé.

Le réseau local ATM permet une segmentation plus souple car elle n'est que virtuelle, c'est-à-dire qu'elle ne dépend pas de l'attachement physique d'une station à un commutateur. Plus explicitement, des stations d'un même segment virtuel ne sont pas forcément connectées au même commutateur ATM. La figure 8.51 montre un réseau ATM comportant trois commutateurs ATM SI , S2 et S3 et trois segments virtuels appelés respectivement ATM Lan 1, ATM Lan 2 et ATM Lan 3 dont les stations ne sont pas toutes reliées au même commutateur.

L'émulation de réseau local consiste principalement à réaliser un service sans connexion sur le service connecté d'ATM, à adapter les trames MAC à la taille de la cellule, à offrir des connexions multipoint et à mettre en correspondance les adresses MAC avec les adresses ATM.

Page 277: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 257

ensuite le champ Identificateur de Système Extrémité (ESI — End System Identifier) qui fait 6 octets et qui contient l'adresse IEEE 802 MAC. Le champ SEL n'est pas utilisé.

AFI DCC/CD DFI AA Reserved RD Area ESI SEL

octets 1 2 1 3 2 4 6 1

AFI : Authority and Format Identifier

DCC : Data Country Code ICD : International Code Designator

DFI : Domain Specific Part Format Identifier

AA : Administrative Authority

RD : Routing Domain

ESI : End System Identifier SEL : Unused

Figure 8.52. Format d'adresse ATM spécifié par l'ATM Forum

8.7.4. Service sans connexion et diffusion

Une propriété intrinsèque des réseaux locaux classiques est la diffusion qui provient du support physique multipoint. Par voie de conséquence, le service de transfert de données est sans connexion : l'émetteur se contente d'ajouter l'adresse de destination à sa trame qui est diffusée à toutes les stations, chacune d'elles ne conservant que les trames qui lui sont adressées. Cette caractéristique permet une diffusion aisée des trames à toutes les stations au moyen d'une adresse universelle (broadcast) ou à un groupe de stations (multicast) défini par la gestion du réseau. Dans un réseau local, la diffusion étant de toute façon effectuée au niveau physique, c'est au niveau MAC que l'on prend la décision de conserver ou non la trame reçue (selon que la station en est destinataire ou non).

Dans un réseau orienté connexion comme ATM, ces deux aspects ne sont pas évidents à traiter. S'il est possible d'assurer un service sans connexion au-dessus d'un service en mode connecté en masquant les phases d'établissement et de libération de connexion à l'utilisateur, il est plus difficile de réaliser la diffusion dans un réseau où elle n'est pas naturelle.

Plusieurs solutions ont été envisagées, certaines exploitant les possibilités du VP, d'autres proposant un maillage complet de connexions entre toutes les stations. Elles n'ont pas été retenues du fait que la signalisation qui en découlait ne permettait pas l'utilisation de commutateurs standards. La méthode retenue utilise des serveurs dédiés distincts des commutateurs et greffés au réseau ; on les appelle serveurs sans connexion (connectionless server). Toutes les stations participant au service sans connexion possèdent une connexion avec au moins un serveur tandis que les serveurs sont connectés entre eux. Une station qui veut diffuser une trame la transmet au serveur auquel elle est directement reliée et qui se charge de la diffuser à toutes les stations ; la station n 'a pas besoin ainsi d'établir une connexion avec toutes les autres stations. Bien que le serveur puisse devenir le goulet d'étranglement du réseau, cette méthode a été choisie car elle ne nécessitait aucune modification des commutateurs et de leur signalisation.

Page 278: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

258 Architecture des réseaux haut débit

couches supérieures

L A N Emulation Client

AAL 5 Signalisation

ATM

P H Y

F i g u r e 8.53. Architecture d'une station du réseau local émulé

L'approche retenue combine à la fois l'émulation de réseau local et l'utilisation de serveurs dédiés notamment à la fonction de diffusion. Un serveur est un équipement différent du commutateur et dédié au traitement de certaines opérations non réalisées par le commutateur.

Les composants du réseau local ATM sont les suivants (figure 8.54) :

- chaque station connectée au réseau local ATM contient un LEC LAN Emulation Client dont la fonction principale est de fournir une interface de type MAC aux couches supérieures. Un LEC contient les couches PHY, ATM et AAL 5 chapeautées par une couche d'interface ;

- un serveur de diffusion (BUS — Broadcast/Unkown Server) réalise la diffusion de message à tous les LEC ou à un groupe de LEC ;

- un serveur d'émulation de LAN (LES — LAN Emulation Server) réalise pour les LEC la correspondance entre adresse MAC et adresse ATM ;

- un serveur de configuration (LAN Emulation Configuration Server) (non représenté sur la figure).

8.7.5. Architecture et configuration du réseau local émulé

L'architecture d'une station sur le réseau local émulé est présentée en figure 8.53. Une nouvelle couche est insérée entre la pile des couches supérieures (par exemple TCP/IP) et la pile ATM. Cette couche, appelée LAN Emulation Client (LEC), assure la convergence entre le service ATM et le service MAC attendu par les couches supérieures. Elle a également le rôle de gérer la signalisation et notamment l'ouverture de connexions spécifiques au réseau local émulé.

Page 279: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 259

A Control

direct VCC

LE Client (LEC)

LAN Emulation Server (LES)

(S l \

Control / A rfi'recf VCC

Control distribute VCC

* \ X

Direct VCC

Multicast \send VCC

\ 1 / Multicast forward VCC

V k /

Broadcast/unkown Server (BUS)

site B utilisateur

Multicast Send VCC J

Figure 8 .54 . Composants d'un réseau local ATM

Un LEC est identifié par deux adresses : une adresse MAC sur 48 bits et une adresse ATM sur 20 octets. Sur réception d'un message d'une couche supérieure, un LEC essaie d'abord d'envoyer directement le message au LEC destinataire sur une connexion ATM directe et déjà établie ; les LEC directement joignables sont enregistrés dans une table. Si le destinataire ne figure pas dans la table, le LEC envoie une requête de résolution d'adresse au LES qui lui renvoie l'adresse ATM correspondant à l'adresse MAC (ce mécanisme est similaire au mécanisme ARP d'IP). Le LEC établit ensuite une VCC avec le LEC destinataire. Lorsque le message est destiné à plusieurs destinataires (un groupe ou toutes les stations), le LEC source envoie ce message au BUS qui se charge de la diffusion. En réception, le LEC effectue un filtrage des trames reçues ne conservant que celles qui comportent sa propre adresse MAC ou une adresse de groupe auquel il appartient.

Le BUS effectue principalement la diffusion et le multicast des trames d'adresses de destination non connues de leurs émetteurs. Il permet d'éviter l'utilisation de connexions multipoint dont chaque station serait la racine ou des délais d'établissement si ces connexions étaient établies dynamiquement. Chaque LEC identifie le BUS par une VCC particulière appelée Multicast Send VCC et établie à l'initialisation. Comme on utilise AAL 5, le message est d'abord réassemblé avant d'être retransmis à tous les LEC sur une Multicast Forward VCC qui est généralement une VCC point à multipoint dont le BUS est la racine. Les Multicast Send VCC sont contrôlées par chaque LEC tandis que le Multicast Forward VCC est contrôlé par le BUS. Le BUS peut aussi se comporter de manière intelligente en ne retransmettant les trames de multicast qu'aux stations appartenant au groupe visé.

Page 280: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 6 0 Architecture des réseaux haut débit

Le LES a pour fonction principale la résolution d'adresse (LE-ARP — LE Address Resolution Protocol) pour un LEC source qui ne connaît pas l'adresse ATM d'un LEC destinataire. Le LES maintient une table des adresses MAC des stations et des adresses ATM correspondantes. Le LEC envoie sa requête de demande d'adresse au LES sur une VCC particulière appelée Control Direct VCC. Le LES envoie sa réponse sur la même VCC. Dans un souci d'efficacité et de simplicité, toutes les requêtes adressées au LES et toutes ses réponses de résolution d'adresse sont diffusées à tous les LEC sur une connexion multipoint dont le LES est la racine et appelée Control Distribute VCC.

Le serveur de configuration est chargé de maintenir la configuration du réseau local émulé et de permettre l'initialisation des LEC ainsi que l 'ouverture de connexion entre les LEC et leur LES responsable, évitant ainsi de configurer manuellement le réseau. Pour obtenir l'adresse ATM de son LES responsable, le LEC se connecte d'abord au serveur de configuration. Ensuite, il peut établir une Control Direct VCC avec son LES. A l'initialisation, un LEC doit d'abord obtenir l'adresse du serveur de configuration auprès des fonctions de gestion MIB définies dans les spécifications de l'UNI [ATM Forum 94]. Si cette action échoue, le LEC essaie d'établir une connexion avec le serveur de configuration grâce à une adresse ATM bien connue définie par l'ATM Forum. Si cela échoue aussi, le LEC exécute le protocole de configuration avec une valeur de VCI/VPI bien connue. Le but de cette procédure est de détruire toute configuration antérieure des LEC et de fournir autant que possible le service plug-and-play de l'émulation de réseau local. Cependant, il rend plus complexe la signalisation entre les commutateurs (en particulier pour ce qui concerne la gestion des adresses bien connues). Le protocole de configuration de l 'ATM Forum définit, en plus de l'adresse du LES, d'autres paramètres comme le type de réseau local et offre ainsi la possibilité, pour un équipementier, d'ajouter des caractéristiques spécifiques.

Lorsque le réseau local ATM est segmenté, chaque segment virtuel possède ses propres BUS et LES mais il n'y a toujours qu'un seul serveur de configuration. La définition d'un segment virtuel est faite par les VCC ouvertes entre le LEC et ses BUS et LES ainsi que par la table de correspondance des adresses située dans le LES. La mobilité d 'une station d'un réseau local émulé vers un autre consiste donc simplement en changement de connexions et de table.

8.7.6. Format de la trame

L'interconnexion entre un réseau local émulé et un réseau local classique est naturellement réalisée par un pont puisque tous deux offrent un service de niveau MAC. Cet aspect n'est pas discuté ici. Pour éviter la modification des équipements d'interconnexion (ponts), deux types d'émulation de service ont été définis, l'un pour Ethernet et l'autre pour Token Ring, et deux formats de trame ont par conséquent été définis (figure 8.55). Les deux octets d'en-tête LE contiennent l'identificateur de LEC

Page 281: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 261

alloué par son LES à l'initialisation du segment virtuel ; permet au LEC de filtrer les trames qui ne lui sont pas destinées. On trouve ensuite un champ spécifique à Token Ring qui contient les octets AC et FC de sa trame MAC (cf. chapitre 4), puis enfin l'adresse MAC sur 6 octets. La charge utile est constituée du reste de la trame MAC. Le champ FCS est inutile sur le réseau local émulé puisque cette trame sera encapsulée dans une PDU de l 'AAL 5 qui calcule son propre CRC sur 32 bits.

octet octet

en-tête LE 2 en-tête LE

adresse destination

MAC

2 octet

AC/FC adresse

destination MAC

6 adresse

destination

Reste de la trame

MAC (hors FCS)

MAC Reste

de la trame MAC

(hors FCS)

Reste de la trame

MAC (hors FCS)

(a) (b) Format Ethernet Format Token Ring

802.3 802.5

Figure 8.55. Format de trames de données

8.8. Le contrôle de congestion

Dans un réseau ATM, le débit de transmission impose de revoir les mécanismes habituellement mis en œuvre dans les réseaux conventionnels. Il en est ainsi du contrôle de congestion et des mécanismes qui lui sont associés.

Un élément du réseau (commutateur, multiplexeur, brasseur ou lien) est dit "dans un état de congestion" lorsqu'il ne peut plus respecter la qualité de service négociée pour les connexions déjà établies, pas plus qu'il ne peut satisfaire des requêtes de demande de connexion. La congestion est due à l'allocation statistique des ressources et aux fluctuations imprévisibles du trafic. A titre d'exemple, un nœud de commutation est en situation de congestion quand il y a saturation de ses mémoires tampons et donc contention d'accès entre les différents VC pour l'utilisation de cette mémoire.

8.8.1. Les méthodes

On distingue deux familles de méthodes pour lutter contre la congestion du réseau. Les méthodes préventives ont pour but d'éviter que la congestion n'apparaisse, alors que les méthodes réactives visent à éliminer la congestion une

Page 282: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

262 Architecture des réseaux haut débit

fois celle-ci apparue. En général, les méthodes préventives ne suffisent pas à elles seules et il est préférable de les associer à des méthodes réactives.

8.8.1.1. Méthodes préventives

Les méthodes préventives de contrôle de congestion sont souvent désignées sous le terme de contrôle de flux. Ce dernier n'est possible que lorsque la transmission se fait en mode connecté. Il consiste à allouer des ressources à une connexion puis à veiller au respect de cette allocation. Il intervient donc lors de l'établissement d'une connexion, avec l'allocation de ressources et durant sa phase de transfert de données, avec le contrôle de trafic.

Au moment de l'établissement d'une nouvelle connexion, le réseau vérifie qu'il dispose bien des ressources nécessaires à sa prise en charge. Les ressources demandées concernent la bande passante sur les différents liens empruntés par la connexion et éventuellement, les tampons à l'intérieur des commutateurs traversés. Dans un réseau classique à commutation de paquets, l'allocation de ressources est facilitée car le nombre de mémoires nécessaires est un paramètre fixe de l'abonnement de l'usager (il correspond à la taille de la fenêtre d'émission) et le débit est au maximum celui du lien physique. Dans un réseau ATM, le débit d'accès d'une source dépend de l'application (il ne correspond pas au débit de la ligne physique) et peut être quelconque. Le besoin en tampons n'est pas non plus constant. Aussi, l'utilisateur devra-t-il caractériser les paramètres de trafic de la connexion dans un descripteur de trafic afin de prévoir la consommation de ressources de cette connexion.

Dans un réseau à commutation de paquets, on utilise généralement pour le contrôle de trafic un mécanisme de fenêtre. L'émetteur envoie un nombre maximum de paquets (correspondant à la taille de la fenêtre) puis attend une autorisation à émettre du réseau. Le retour de l'acquittement survient au plus tôt un temps de propagation plus tard. Dans un réseau ATM, le temps de propagation est très grand devant le temps d'émission d'une cellule. Si la fenêtre est réduite, l'émetteur sera bloqué en attente d'autorisation à émettre la plupart du temps ; si la fenêtre est grande, les ressources réseau qui sont allouées en conséquence seront en nombre important. Par ailleurs, un acquittement porte en général un numéro de séquence ; si la fenêtre est grande, le numéro de séquence occupera une place importante dans l'entête de la cellule, ce qui est incompatible avec sa petite taille. Pour toutes ces raisons, un contrôle de trafic par fenêtre coulissante a été abandonné.

8.8.1.2. Méthodes réactives

Les méthodes réactives sont des méthodes exceptionnelles à utiliser lorsque la congestion ne paraît pas se résorber d'elle-même. Dans un premier temps, elles forcent une source à diminuer son débit par un signal de feedback. Si cela ne suffit pas, elles peuvent supprimer les cellules des connexions impliquées puis les fermer autoritairement. Dans un réseau ATM. le délai de propagation étant très important

Page 283: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 263

par rapport au temps d'émission, un grand nombre de cellules aura déjà pénétré dans le réseau avant que le signal de congestion n'atteigne la source et par conséquent, de nombreuses cellules seront perdues !

8.8.2. Le contrôle de congestion dans le RNIS-LB

La recommandation 1.371 spécifie les fonctions de contrôle de trafic et de contrôle de congestion dans le réseau large bande. En effet, distinction est faite entre contrôle de trafic et contrôle de congestion. Le contrôle de trafic tend à éviter la congestion ; on parle aussi de contrôle de flux. Le contrôle de congestion vise à minimiser l'intensité, l'étendue et la durée de la congestion lorsqu'elle est apparue.

Les deux objectifs antagonistes du contrôle de congestion sont de garantir à la fois la qualité de transfert pour les connexions déjà établies (aucune congestion) et la bonne utilisation des capacités de transmission. Les propriétés souhaitables pour un mécanisme de contrôle de congestion sont :

- la flexibilité : s'adapter à tous les types de qualité de service demandés,

- la simplicité : ne pas compliquer les équipements ATM et permettre

l'utilisation maximum du réseau,

- la robustesse : l'efficacité maximum des ressources en toutes circonstances.

Le contrôle de congestion est certainement le problème le plus difficile à résoudre avec la technique ATM [Bae 91] [Hong 91] [Rathgeb 91]. Les difficultés proviennent non seulement de la caractéristique haut débit mais aussi des données multimédias qui seront transportées : elles induisent des trafics aux caractéristiques très différentes en termes de qualité de service et de flux (cf. 8.2.2).

Les contrôles de trafic et de congestion sont spécifiés grâce à un ensemble de

fonctions génériques qui peuvent être utilisées conjointement afin d'assurer la QoS

requise :

- la gestion et la réservation des ressources du réseau (NRM — Network Resource Management) pour certaines classes de trafic ;

- l 'admission d 'une nouvelle connexion (CAC — Connection Admission Control) en fonction des besoins de la nouvelle connexion et des ressources disponibles dans le réseau ;

- le contrôle de flux avec acquittement (FC — Feedback Control) pour signaler

à l'utilisateur l'état des éléments du réseau ;

- le contrôle d 'ent rée du réseau (UPC/NPC — Usage Parameter Control/Network Parameter Control) pour vérifier que le trafic instantané de l'utilisateur à l'entrée du réseau ne dépasse pas le trafic déclaré lors de l'établissement de la connexion ;

Page 284: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 6 4 Architecture des réseaux haut débit

- le contrôle de priorité (PC — Priority Control) dans un élément du réseau pour favoriser les cellules de haute priorité par rapport à celles de basse priorité.

Sb Tb

B-NT1

réseau 1 réseau 2

B-TE B-NT2 UPC

NNI

-CAC -NRM . u n

NPC

-CAC -NRM -PC y

Figure 8.56. Localisation des fonctions génériques

8.8.3. Gestion et réservation de ressources

La gestion des ressources du réseau consiste à optimiser l'utilisation des ressources du réseau tout en satisfaisant les requêtes des utilisateurs en termes de débit et de contraintes de QoS. Elle est laissée à la discrétion de l'opérateur.

La notion de VPC joue un rôle clé dans cette gestion. Une VPC est une connexion de conduit virtuel d'une capacité donnée qui est préétablie à l'intérieur du réseau. Le multiplexage statistique de sources ayant les mêmes caractéristiques (en termes de débit et de QoS) est plus performant, aussi une VPC peut-elle être dédiée à l 'acheminement d'un type de service particulier. L'acceptation d'une connexion virtuelle consiste alors simplement à vérifier qu'il y a encore de la bande passante disponible sur les VPC de ce type de service jusqu 'à la destination finale. L'allocation de ressources est donc liée de façon intrinsèque au routage de la connexion virtuelle, les deux étant souvent confondus dans une même fonction. L'établissement de VPC est fait grâce à une étude statistique à long terme des flux circulant sur le réseau.

8.8.4. Admission d'une nouvelle connexion

L'admission d 'une nouvelle connexion a lieu chaque fois qu 'une requête d'établissement en provenance d'un utilisateur est reçue. A l 'établissement, l'utilisateur décrit les paramètres de trafic de sa connexion dans un descripteur de trafic source. Le seul paramètre normalisé pour l'instant est le débit crête qui correspond au débit maximum pendant la période d'activité. Le trafic peut être composé de trafic de basse priorité et de trafic de haute priorité ; dans ce cas, seront spécifiés le débit crête pour le trafic de basse priorité ainsi que le débit crête des trafics agrégés. Les paramètres suivants sont encore à l'étude à l'UIT-T :

- le débit moyen qui correspond au débit calculé sur les périodes d'activité et d'inactivité,

- la caractéristique du trafic, variable ou constant.

Page 285: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 265

- la durée de la rafale ou durée de la période d'activité, - le type de service (par exemple, visiophone ou vidéo).

L'utilisateur définit aussi les contraintes de qualité de service de sa connexion. Lorsque le trafic de la connexion est composé de trafic de deux types, les paramètres de qualité de service sont spécifiés pour chacun d'eux.

Le réseau vérifie alors qu'il dispose des ressources nécessaires pour accepter cette connexion sans pour autant altérer la qualité des connexions déjà établies.

Après acceptation de la connexion, un contrat de trafic est établi entre l'utilisateur et le réseau au moyen de la signalisation. Ce contrat est défini par :

- le descripteur de trafic, - les paramètres de QoS pour cette connexion, - la tolérance de gigue maximum,

- le positionnement de l'option "marquage des cellules" liée à la fonction de

contrôle d'entrée (cf. 8.7.5.1).

8.8.5. Contrôle d'entrée du trafic

8.8.5.1. Objectifs

Le contrôle d'entrée du trafic vérifie la conformité du trafic de la connexion avec le contrat passé à l'ouverture. L'objectif de ce contrôle est d'être capable de détecter toute situation illégale de trafic, de pouvoir déterminer si le trafic est conforme, de réagir rapidement à toute violation, d'être transparent au trafic conforme et enfin, d'être simple à implanter.

Les performances d'un tel mécanisme (taux de perte de cellules, retard induit, etc.) doivent être incluses dans les performances de bout en bout d'une connexion. Le mécanisme ne peut être parfait ; il peut en fait se tromper de deux manières :

- le trafic est conforme et l'utilisateur respecte son contrat mais le mécanisme détecte des cellules en violation : si le taux de perte négocié pour la connexion est de 10' 9 alors ce type d'erreurs d'estimation doit avoir un taux de 10" 1 0 ;

- le mécanisme ne détecte pas certaines cellules en violation (à cause du caractère

très aléatoire du flux).

Ces mécanismes peuvent admettre du trafic en excès dans le réseau si l'option de marquage des cellules a été activée. Le marquage des cellules consiste à admettre du trafic en excès par rapport au débit négocié et à le marquer à la priorité basse dans le réseau. Les cellules détectées comme étant en excès sont marquées au moyen du bit CLP de l'en-tête de la cellule (fonction de violation tagging).

Page 286: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 6 6 Architecture des réseaux haut débit

cellules

file d'entrée

bac à jetons

/ b a c \ à jetons

xyide 1/

s. oui. jeton

non U Mv jetons

verts.

seau réseau

Mr

jetons rouges

taux fixes

Figure 8 . 5 7 . Le Leaky Bucket

- un double seau de jetons (verts ou rouges) de taille finie M ; M définit la taille maximale de la rafale (nombre maximum d'arrivées de cellules groupées). Les

Ils sont alors associés à une politique de gestion du trafic en excès dans le réseau (fonction de contrôle de priorité). Mais l'inconvénient est double : tout d'abord, le flux de cellules autorisé peut être perturbé par celui des cellules en excès ; ensuite, il faudra prévoir des tampons de grande taille pour limiter les pertes.

Le mécanisme d'UPC/NPC (Usage Parameter Control/Network Parameter Control) a pour objectif de contrôler que le trafic offert sur la connexion ATM ne dépasse pas celui défini dans le contrat de trafic. Il réalise les actions suivantes :

- passage et espacement (en option) des cellules conformes, - destruction ou marquage (en option) des cellules non conformes.

Plusieurs mécanismes se sont trouvés en concurrence pour la réalisation de cette fonction. En fait, aucun d'eux ne sera normalisé, l'UIT-T s'étant contenté de spécifier les fonctions qu'ils doivent assurer. Nous présentons dans la suite les deux mécanismes qui sont les plus souvent cités dans la littérature. Ces mécanismes ont en commun de procéder, en sus du contrôle de conformité, à un lissage (shaping) du trafic afin de le rendre moins sporadique, ce qui facilite le multiplexage statistique dans le réseau.

8.8.5.2. Le mécanisme du seau percé (Leaky Bucket)

Le mécanisme du Leaky Bucket a connu un grand succès pour la vérification de conformité de trafic [Bala 90]. Il est illustré en figure 8.57 et fonctionne avec les éléments suivants :

- une file d'entrée ou tampon d'entrée dans laquelle les cellules sont stockées avant transmission ; un seuil K lui est associé ;

Page 287: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 267

jetons verts correspondent au trafic autorisé alors que les jetons rouges correspondent

au trafic en excès ;

- les jetons sont générés dans le bucket avec un taux constant y qui correspond

au débit moyen de la connexion ;

- un bac à jetons utilisé par le mécanisme d'espacement des cellules.

L'algorithme de traitement de la cellule en tête du tampon d'entrée est le

suivant :

1/ attendre que le bac à jetons soit vide

21 y a-t-il un jeton vert ? oui : transmission sur le réseau et stockage du jeton dans le bac à jetons non : nombre de cellules dans le tampon < Kl

oui : retour en 21 non : y a-t-il un jeton rouge ?

oui : marquage et transmission sur le réseau stockage du jeton dans le bac à jetons

non : retour en 2

L'espaceur sert à maintenir un espace entre deux cellules consécutives qui correspond au temps de vidage du bac à jetons. Ce dernier est vidé avec un taux constant P avec P > max (YnYv)- Comme le tampon d'entrée est forcément fini, il peut se produire des pertes de cellules lorsqu'il est plein. Mais ces pertes correspondent le plus souvent à une situation de violation du contrat. Les deux types de jetons ainsi que le seuil K permettent d'envoyer des cellules en excès et d'éviter les pertes de cellules à l'entrée du réseau. Les cellules qui utilisent un jeton rouge sont marquées comme étant en excès avant d'être envoyées sur le réseau ; le bit CLP de leur en-tête est positionné à la valeur de priorité basse. En cas de congestion d'un nœud, ces cellules seront les premières détruites.

8.8.5.3. Le contrôleur-espaceur du CNET

Le contrôleur-espaceur est soutenu par le CNET (Centre National d'Etudes de Télécommunications) de Lannion [Guillemin 92]. Il est placé en coupure du multiplex ATM. Son rôle est de "lisser les grumeaux", connexion par connexion ; ces grumeaux pouvant être dus à la gigue, ou à un comportement malveillant de l'utilisateur. Il est composé principalement de deux fonctions :

- la fonction de contrôle qui alloue à chaque connexion une certaine capacité de

stockage ;

- la fonction d'espacement des cellules qui arrivent trop rapprochées les unes des

autres par rapport à la période d'émission crête négociée.

Page 288: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

268 Architecture des réseaux haut débit

Si pour une connexion, les cellules arrivent à un rythme trop élevé incompatible avec le gabarit de gigue et/ou la période d'émission crête, la capacité allouée à la connexion déborde et les cellules en excès sont détruites. La fonction d'espacement est réalisée par un algorithme d'espacement, lequel est intégré dans une puce et partagé par toutes les connexions.

L'algorithme du contrôleur-espaceur est donné en figure 8.58. Ses paramètres sont T, la période d'émission crête ou d'espacement et t, le paramètre de gigue. A chaque cellule arrivant à la date t, sont associées deux variables. La première est notée TRT (Theoritical Retransmission Time) et représente l'heure théorique de réémission de la cellule. Si la cellule n'est pas rejetée, elle doit être idéalement réémise à cette heure. La seconde variable est ART (Actual Retransmission Time) qui elle, donne l'heure réelle de réémission. ART correspond à la première heure libre de transmission d'une cellule après TRT. Comme il peut y avoir contention de réémission entre plusieurs connexions pour un TRT donné et comme les cellules sont émises sur un support partagé, ART peut différer de TRT.

destruction

à t. arrivée d'une cellule

i X := TRT + T

cellule stockée et réémise à la date ART

X :=t

contrôle du débit crête de la connexion tout en tenant compte de la gigue

espacement statistique entre deux cellules consécutives

F i g u r e 8 . 5 8 . Algorithme du contrôleur-espaceur

Le fonctionnement de l'algorithme est montré dans le tableau 8.10 avec les hypothèses suivantes :

- la première cellule a le numéro 0, - soit TRTn, la valeur de TRT juste avant l'arrivée de #n à tn,

- soit TRTn

+ sa valeur juste après la décision d'acceptation ou de rejet de la cellule.

oui K > t + t

X < t oui

non

non

Page 289: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 269

si T R T n + T - t n >X la cellule #n est rejetée cellule n+3

le gabarit de gigue et/ou la

période d'émission ne sont

pas respectés et

TRTn

+=TRTn si T R T n + T-t n < 0 la cellule #n est en retard et cellule n

elle doit être réémise le plus

tôt possible

TRTn + = t n si T R T n + T t n < 1 la cellule #n est acceptée et cellules n+1 et n+2

stockée en mémoire

TRTn

+ = TRTn +T Tableau 8 . 1 0 . Fonctionnement du contrôleur-espaceur

On voit que le paramètre x est lié à l'amplitude de l'effet d'agglomération. La figure 8 . 5 9 montre le déroulement d'un scénario de contrôle de conformité pour quatre cellules successives notées n, n+\, n+2 et n+3 .

suite cellule r l é t n i i t e TRT

arrivée

suite ART

reemission

n n+1 n+2

F i g u r e 8 . 5 9 . Scénario de conformité du contrôleur-espaceur

8.8.6. Contrôle de priorité et destruction sélective des cellules

L'une des rares techniques réactives à une situation de congestion consiste à gérer les cellules en fonction de leur niveau de priorité marqué dans le bit CLP de l'en-tête de cellule ; d'autres techniques sont encore à l'étude. Il existe deux manières d'attribuer des priorités aux cellules :

- par l'application ; en effet, elle est à même de différencier des données importantes de celles qui le sont moins dans le flux de données qu'elle crée ;

Page 290: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

270 Architecture des réseaux haut débit

- par le marquage des cellules jugées en excès par le mécanisme d'UPC/NPC : ces cellules sont marquées à la priorité basse, les cellules conformes ayant la priorité haute.

De nombreux mécanismes de gestion de tampon de commutateur ATM ont été proposés ; tous détruisent les cellules de basse priorité et cherchent à respecter les objectifs de QoS spécifiés pour chaque type de flux. Parmi ceux-ci, le mécanisme de Push-out consiste à allouer deux niveaux de priorité spatiale aux cellules [Gravey 91). Lorsque le tampon est plein, les cellules entrantes de basse priorité sont perdues et les cellules entrantes de haute priorité prennent la place des cellules de basse priorité déjà présentes dans le tampon. Un autre mécanisme, celui de Partial Buffer Sharing [Kroner 90] définit un seuil (en nombre de cellules) d'acceptation des cellules de basse priorité : lorsque le seuil est atteint, seules les cellules entrantes de haute priorité sont admises dans le tampon tandis que les cellules entrantes de basse priorité sont perdues. Il est à noter qu'aucun de ces mécanismes n'évite la perte des cellules de haute priorité.

8.8.7. Gestion rapide de ressources

La gestion rapide de ressources permet à l'utilisateur d'envoyer des requêtes au réseau pour augmenter de manière temporaire son débit crête de manière à envoyer une rafale de cellules. Le réseau doit réagir rapidement à ces demandes en un temps de propagation aller et retour au maximum. Cette fonction n'est pas complètement spécifiée. Un tel mécanisme est proposé dans [Boyer 92]. La requête de l'utilisateur sera envoyée dans une cellule de type RM (Resource Management).

en-tête ATM identificateui champs de VCI = 6 et PTI = 110 pour RM-VPC de protocole fonctions réservé CRC VCI = x et PTI = 110 pour RM-VCC RM spécifiques

5 octets 8 bits 45 octets 6 bits 10 bits

Figure 8.60. Format de la cellule RM

Le bit CLP de la cellule RM est toujours positionné à 0. Lorsque la cellule RM se réfère à une VCC, son numéro de VCI est celui de la VCC et son champ PTI est positionné à 110. Lorsqu'elle se réfère à toute la VPC, son champ VCI est égal à 6.

8.8.8. Notification de congestion

Le contrôle de congestion de type notification est une technique réactive à une situation de congestion. Elle est désignée sous l'acronyme de EFCI (Explicit Forward Congestion Indication). Son utilisation est optionnelle. Elle est issue du protocole de relais de trames (Frame Relay) (cf. chapitre 9).

Page 291: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 27 1

Lorsqu'un élément de réseau est dans un état de congestion, il peut envoyer une notification explicite de congestion vers la source du flux dans l'en-tête d'une cellule (bit du champ Payload Type). Il faut alors que la source soit capable de diminuer automatiquement son débit d'émission.

Page 292: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 7 2 Architecture des réseaux haut débit

Exercices

Exercice 8.1

Justifiez le fait que la taille de la cellule soit si petite.

Exercice 8.2

Quelles sont les caractéristiques d'ATM qui en font une technique indépendante de

toute référence temporelle ?

Exercice 8.3

Le futur RNIS-LB devra pouvoir interfonctionner avec le RNIS-BE et aussi avec des terminaux d'usager dont une proportion non négligeable reste encore analogique. L'écho engendré par la transformation 2 fils-4 fils qui intervient entre le monde analogique et le monde numérique doit rester dans certaines limites de niveau et de délai. Les impératifs de qualité fixés par l 'UIT-T permettent un délai d'écho aller et retour de 20 ms. Or, le temps de mise en cellule (numérisation + remplissage) est de 6 ms. Si l'on considère un temps de propagation de 5 ms pour 1 000 km, quelle est la distance maximum pour ne pas avoir de problème d'écho ?

Exercice 8.4

Soit le réseau RNIS-LB ci-dessous, construire pour chaque nœud les tables de

routage correspondantes lorsque :

1. les nœuds sont des commutateurs de VP, 2. les nœuds sont des commutateurs de VC.

Page 293: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 273

Exercice 8.5

On considère un réseau ATM, composé de 8 nœuds interconnectés de la manière indiquée dans la figure ci-dessous. A, B et C sont des utilisateurs du réseau.

1. Les nœuds 3 et 5 sont des commutateurs de VP, les autres sont des commutateurs de VC. Trois connexions sont ouvertes : A-2-3-5-7-C, A-2-3-1-B et B-1-3-5-7-C. Donnez des tables de translation possibles pour chaque nœud.

2. Sur la machine A, on veut ouvrir une nouvelle connexion vers C. Donnez le chemin et modifiez les tables de routage en conséquence.

3. Est-il possible de connecter un utilisateur au nœud 3 ?

Exercice 8.6

On considère un réseau ATM composé de quatre nœuds interconnectés comme indiqué dans la figure ci-dessous. Sur ce réseau sont raccordés quatre utilisateurs A, B. C et D. Les nœuds 1 et 4 sont des commutateurs alors que les nœuds 2 et 3 sont des brasseurs de conduits. Deux communications sont établies entre A et C d'une part et entre B et D, d'autre part.

1. On veut multiplexer les deux communications de A et B sur la même VCC. Décrivez le multiplexage dans les cas suivants :

- lorsqu'il est effectué au niveau AAL, - lorsqu'il est effectué au niveau ATM.

2. En fait, A et B possèdent des accès distincts sur le nœud 1, mais les deux VCC sont multiplexées sur le même VP. Donnez un exemple des tables de translation des nœuds 1, 2, 3 et 4.

Exercice 8.7

On s'intéresse ici à la détection de pertes et d'insertions de cellules en AAL 1. On rappelle que ce mécanisme utilise la numérotation des cellules en séquence réalisée

Page 294: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

274 Architecture des réseaux haut débit

sur 3 bits du champ SN de la SAR-PDU et que ce numéro est protégé contre les erreurs par le champ SNP. A partir des données initiales suivantes :

1. Dessinez la séquence obtenue en réception (données initiales, transmises, reçues et restituées). On suppose que l'on peut mettre 4 données par cellule. Si la troisième cellule est perdue, que pensez-vous de l'erreur ? Est-elle acceptable ?

2. Donnez une méthode qui permette de contourner ce problème. Dessinez la

séquence correspondante.

Exercice 8.8

On souhaite envoyer la totalité de l'encyclopédie Universalis (soit 253 millions de caractères). L'application utilise directement les services fournis par l'AAL de type 5.

1. Complétez la figure suivante en précisant bien la convention d'appellation des unités de données pour la couche AAL de type 5.

CP

CS—

»H—

ssc

s-S

AR

-*

-CS

1 2 | 3 | 4 5 6 7 8 1 9 1 i q i l 12 13 14 15 16 17 18 19 20 ^

J < <

V T

S H <

9

( " A A L - S A P * " )

9 |

9 9 T

? ^

9

7 ?

~* ? »

7

^ ? •

ATM-SAP^

9

? J ?

« ?

Page 295: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

ATM (Asynchronous Transfer Mode) 275

On supposera qu'aucune perte ni altération ne se produit, que le mode de service utilisé est le mode message et que la sous-couche SSCS est vide.

2. Combien de cellules faut-il pour ce transfert ?

3. Combien de temps faut-il au minimum avec un accès à 155 Mbit/s ?

Exercice 8.9

Comme dans la technique ATM, le réseau DQDB transfère les données utilisateur dans des PDU de 53 octets. Rappelez la structure de cellule utilisée dans ATM et dans DQDB. La compatibilité est-elle assurée pour autant ? Comment l'obtenir ?

Exercice 8.10

Un réseau ATM est utilisé pour interconnecter deux réseaux locaux Token Ring (IEEE 802.5) offrant chacun un débit brut de 16 Mbit/s. Sur chaque Token Ring, 6 stations sont connectées qui génèrent le même trafic. La longueur des données d'une trame Token Ring est de 1 ko.

1. Donnez l'architecture de la passerelle Token Ring/ATM.

2. Quelles sont les principales fonctions réalisées par cette passerelle ?

3. Combien de connexions faut-il ouvrir pour interconnecter les deux réseaux ?

4. Quel sera le débit crête demandé dans le descripteur de trafic d'une connexion ?

Exercice 8.11

Le réseau ATM a été conçu pour accepter des débits différents, tant au niveau de leurs valeurs que de leur nature (constant/variable). Montrez sur un schéma les conséquences qu'ont sur le flux de cellules générées :

- un transfert de voix numérisée MIC, - un transfert de vidéo numérisée MPEG.

Exercice 8.12

Pour réaliser le multiplexage de connexions virtuelles sur le réseau ATM, on peut utiliser deux types de multiplexage, déterministe et statistique. Faites un tableau décrivant les avantages et les inconvénients de chacun.

Exercice 8.13

Il s'agit de vérifier la conformité d'un flux de cellules arrivant à l'entrée d 'un réseau ATM pour une connexion donnée. Le débit crête négocié à l'établissement de

Page 296: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 7 6 Architecture des réseaux haut débit

la connexion est de 10,6 Mbit/s. Le paramètre de gigue T est de 10 us. La cellule 0 a été transmise au temps TRTo = 0. Les cellules 1 à 10 arrivent respectivement aux

dates :

ti (i=1..10) • 30, 50, 90, 110, 130, 160, 180, 200, 255, 280.

Déroulez l 'algorithme du contrôleur-espaceur pour déterminer dans le flux entrant, les cellules conformes, les cellules non conformes et dans ce cas, précisez si elles sont soumises à un rejet ou à un retard.

Exercice 8.14

Trouvez les conditions sous lesquelles les mécanismes de Push-out et Partial Buffer Sharing perdent des cellules de haute priorité.

Exercice 8.15

Un crédit maximal est défini de telle façon que l'instant d'envoi du dernier paquet de la fenêtre d'émission corresponde à l'instant de réception de l'acquittement du premier paquet. De cette manière, l 'émetteur n'est jamais bloqué en attente d'acquittement.

Calculez cette taille maximale de fenêtre pour un réseau ATM avec un débit de 155 Mbit/s dont le délai de traversée sur 500 km serait de 6,66 ms.

Quel est le nombre de cellules perdues si l'acquittement est une notification de congestion ? Quelle est la taille de l'espace de numérotation nécessaire à un tel mécanisme ?

Page 297: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Chapitre 9

Interconnexion

9.1 . Introduction

L'interconnexion des réseaux est nécessaire dès que l'on veut accéder à des ressources extérieures au réseau local. Dès lors, on se heurte à l'hétérogénéité des protocoles développés dans des contextes différents et présentant donc des caractéristiques différentes.

Le problème de l'interconnexion des réseaux se résume ainsi : comment faire dialoguer deux architectures de réseau différentes, tant au niveau des supports que des protocoles ? L'objectif de ce chapitre est de répondre à cette question en présentant une méthodologie d'interconnexion ainsi qu'un panorama des équipements utilisés et des services proposés. Parmi les équipements, nous décrirons en particulier les ponts et les routeurs. Pour ces derniers, nous introduirons le protocole IP (Internet Protocol). En termes de services, nous présenterons d'une part, SMDS (Switched Multimegabit Data Service), service d'interconnexion de réseaux locaux à travers des réseaux métropolitains ou publics pour le transfert de données à haut débit, et d'autre part, le service de relais de trames, service d'interconnexion de réseaux locaux à travers des réseaux publics, dédié également au transfert de données à haut débit.

Page 298: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

278 Architecture des réseaux haut débit

9.2. Principes de l ' interconnexion

9.2.1. Choix du niveau d'interconnexion

La méthodologie consiste à représenter, selon la structuration en couches du modèle OSI, les architectures des sous-réseaux à interconnecter, à les comparer et à identifier les différences de services, de protocoles ou de paramétrage d'un même protocole (tailles des PDU, tailles de fenêtre, valeurs de temporisateurs, etc.). En partant de la base de chaque architecture, on détermine le niveau à partir duquel les couches supérieures sont identiques. La figure 9.1 présente deux architectures compatibles à partir du niveau (N+l) ; la frontière d'hétérogénéité se trouve alors entre les niveaux (N) et (N+l). L'interconnexion sera réalisée au niveau (N+l) , premier niveau commun aux deux architectures. L'architecture générique de l'équipement d'interconnexion, appelé Unité d'Inter-Fonctionnement (UIF) ou plus souvent Inter-Working Unit (IWU), comprend les protocoles des couches 1 à (N) pour chacun des sous-réseaux ainsi que le protocole commun de niveau (N+l).

(N+l )

(N)

niveau d'interconnexion

protocole PI protocole P2

ensemble homogène

frontière d'hétérogénéité

ensemble hétérogène

Figure 9.1. Frontière d'hétérogénéité et niveau d'interconnexion

9.2.2. Techniques d'interconnexion

Une fois le niveau d'interconnexion identifié, trois types de techniques

d'interconnexion sont possibles [Sunshine 90] :

- la conversion de services ou la concaténation de services, - la conversion de protocoles, - l'encapsulation.

La conversion de services intervient lorsque les niveaux inférieurs des sous-réseaux sont différents mais compatibles (par exemple, deux couches MAC). Elle traduit les primitives de service d'un sous-réseau en primitives utilisables sur l'autre. La concaténation de services est applicable lorsque les protocoles du niveau d'interconnexion sont identiques mais utilisés dans des contextes différents et avec des valeurs de paramètres différentes : c'est donc la technique la plus simple. Elle

Page 299: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 279

fait essentiellement appel à des mécanismes de contrôle de congestion (en cas de débits différents) et de fragmentation (en cas de longueurs de PDU différentes).

La conversion de protocoles travaille directement sur les PDU. Elle est par conséquent plus complexe à mettre en œuvre que la conversion de services. En effet, au niveau des coupleurs fournis par les constructeurs, on a plus facilement accès à l'interface de service qu'aux unités de données du protocole.

L'encapsulation consiste, en émission, à envelopper chaque unité de données. En réception, l'UIF extrait l'unité de données de son enveloppe. Ces deux actions sont réalisées dans un niveau de protocole supplémentaire dédié à l'interconnexion. L'intérêt de l'encapsulation réside dans sa généralité : elle s'applique à tous les cas de figure [IS 8648]. Son inconvénient réside dans l'introduction d'un niveau de protocole supplémentaire.

9.2.3. Classification des équipements d'interconnexion

La recommandation X.200 définit une terminologie spécifique à chaque équipement d'interconnexion en fonction du niveau de l'interconnexion. Au niveau physique, on parle de répéteur car son rôle se limite à régénérer le signal électrique arrivant d'un support sur un autre support. Au niveau liaison, lorsque les couches MAC sont identiques ou suffisamment semblables avec une même couche LLC, on peut relier des sous-réseaux via un pont (bridge). Le pont permet de pallier les limitations quant aux longueurs maximales spécifiées dans les protocoles (à titre d'exemple, CSMA/CD spécifie une longueur maximale de 2,5 km pour tout chemin de données, répéteurs compris). Contrairement aux répéteurs, le pont isole le trafic de chacun des réseaux en effectuant un "routage" de manière transparente pour la couche liaison de données. Dans le monde OSI, le niveau réseau est le niveau d'interconnexion, puisqu'il est le premier à prendre en compte un schéma d'adressage global. L'UIF est ici appelé routeur. Il peut s'agir d'un équipement spécifique ou d'une station particulière du réseau. Aux niveaux supérieurs, on parle de passerelle de niveau (N). A titre d'exemple, une passerelle d'application peut permettre la communication entre systèmes de messagerie de constructeurs différents.

9.3. Les répéteurs

Les répéteurs sont le plus souvent utilisés pour étendre la couverture géographique d'un réseau en juxtaposant localement plusieurs segments de câble. Au passage d'un répéteur, le signal provenant d'un segment est amplifié puis retransmis sur le segment suivant. Certains protocoles, tels que CSMA/CD, spécifient explicitement le rôle et les fonctionnalités du répéteur. Le répéteur peut aussi fournir des fonctions de conversion de signaux s'il relie des supports de types différents : dans le cas d'un câble coaxial et d'une fibre optique, le répéteur assure la conversion

Page 300: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 8 0 Architecture des réseaux haut débit

du signal électrique en signal optique et vice-versa. Cet équipement est donc totalement transparent aux protocoles de niveaux supérieurs. Il est élémentaire et ne fournit pas d'isolation entre les différents segments.

9.4. Les ponts

9.4.1. Qu'est-ce qu'un pont ?

Selon la technique utilisée, le pont a accès soit aux primitives et SDU de la sous-couche MAC (conversion de services), soit aux PDU de cette même sous-couche (conversion de protocoles). Il réalise principalement des fonctions de mémorisation avant retransmission, de conversion (de primitives ou de formats de PDU) et de routage des PDU de données ; remarquons que cela implique l'existence d'une fonction d'adressage au niveau liaison. Parce qu'elle réalise une fonction de routage, la couche liaison d'un pont n'est pas conforme au modèle de référence OSI.

Le pont est connecté à un réseau local via un port d'attachement ; un pont rattaché à trois réseaux locaux possède donc trois ports et trois entités MAC différentes avec trois adresses MAC différentes, une par port (figure 9.2). Chaque entité MAC du pont se comporte conformément à son protocole de référence excepté le fait que toutes les trames sont capturées et transmises vers l'entité de relais du pont même si elles ne sont pas destinées au pont lui-même.

Ce type d'UIF a été normalisé par l 'IEEE pour l'interconnexion des réseaux utilisant les protocoles IEEE d'accès au support [IEEE 802.ld] [IEEE 802.1g]. Le pont utilise le plus souvent une technique de conversion de services. Selon la complexité de la fonction de routage, trois types de pont sont identifiés :

- le pont simple effectue le routage soit par diffusion, soit selon une table de routage statique chargée par l'opérateur lors de l'installation. Dans le premier cas, toute trame reçue sur un port du pont est retransmise sur tous les autres ports de sortie (sauf si elle est destinée à une station du même sous-réseau que la station source) ;

- le pont intelligent (ou pont transparent) est capable de construire de par lui-même sa table de routage et de la mettre à jour dynamiquement. La construction de la table se fait par apprentissage dynamique des adresses source puis par filtrage des trames selon leur destination ;

- le pont à routage contrôlé par l'émetteur est spécifié dans le standard IEEE 802.5 du Token Ring. Le chemin que doit suivre la trame est indiqué de façon explicite dans un champ prévu à cet effet par la station source. Ce chemin est connu de la station source après un apprentissage dynamique. Ce mécanisme n'est donc pas transparent vis-à-vis des stations.

Page 301: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 281

9.4.2. Apprentissage dynamique des adresses de routage

Un pont intelligent a la capacité d'acquérir seul les informations nécessaires à sa fonction de routage. Il construit sa table de routage en mémorisant l'adresse source d'une trame reçue associée au port de réception de celle-ci. II dirige les trames sur le sous-réseau approprié après apprentissage.

La figure 9.2 donne l'exemple d'un pont connectant trois réseaux et possédant donc trois ports de sortie : p l , p2 et p3. L'apprentissage des adresses par le pont s'effectue de la manière suivante :

- étape 1 : le pont reçoit une PDU issue de la station A sur le port pl (figure 9.2 (a)) ; il la diffuse sur les ports pl et p2 et note que la station d'adresse A se trouve sur le réseau 1 ;

- étape 2 : le pont reçoit une PDU issue de la station B sur le port p2 et destinée à A (figure 9.2 (b)) ; le pont sait que la station A est sur le réseau 1 ; la PDU n'est donc transmise que sur pl ; le pont mémorise que la station B se trouve sur le réseau 2 ;

- étape 3 : une trame de A à B n'est retransmise que sur p2 (figure 9.2 (c)).

réseau 2 réseau 2 réseau 2

rese

au

( ré

seau

1

f ré

seau

réseau 3 reseau J (réseau 3

(a) (b) (c)

F i g u r e 9 . 2 . Apprentissage du pont

Pour conserver une information valide, l'adresse source de chaque trame reçue est comparée avec l'entrée correspondante de la table et éventuellement mise à jour. Pour prévenir la saturation de la table et éliminer des entrées devenues obsolètes (stations inactives, déplacées, etc.), un temporisateur est associé à chaque entrée. Cette approche permet d'ajouter et d'enlever des équipements sur le réseau sans avoir à reconfigurer les ponts qui s'y trouvent.

Page 302: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 8 2 Architecture des réseaux haut débit

F i g u r e 9 . 3 . Chemins multiples

9.4.3. Les ponts MAC 802

9.4.3.1. Les standards IEEE

Au sein du comité 802 de 1TEEE, un groupe de travail s'emploie à spécifier l'interconnexion des réseaux 802 et a établi deux extensions au standard 802.1 :

- P 8 0 2 . 1 d / D 9 (1993) spécifie une architecture et un protocole pour l'interconnexion de réseaux locaux IEEE 802 géographiquement proches, par des ponts locaux [IEEE 802. ld] ;

- P802.1g (1992) traite des spécificités de l'interconnexion de réseaux locaux IEEE 802 géographiquement éloignés, par des ponts distants et via des technologies autres que celles des réseaux locaux (liaisons spécialisées ou réseaux métropolitains, par exemple) [IEEE 802.1g].

Lorsque la topologie des réseaux interconnectés par des ponts est complexe et maillée — un ou plusieurs sous-réseaux connectés à plusieurs ponts — il se peut qu'une station soit accessible par des chemins différents (figure 9.3). L'algorithme d'apprentissage n'est alors plus efficace, en effet des chemins multiples associés aux réseaux locaux à diffusion peuvent entraîner des duplications de trames. L'algorithme de l'arbre couvrant minimal (Spanning Tree) permet d'assurer l'unicité des chemins. L'ensemble des réseaux interconnectés est vu comme un graphe value où chaque sous-réseau joue le rôle d'un nœud et chaque pont est représenté par un arc du graphe ; la fonction de calcul d'un coût minimal permet de définir l'arbre couvrant. Le coût d'un arc représente par exemple le nombre total de ponts sur le chemin entre deux stations quelconques. S'il existe plusieurs chemins entre deux stations, celui de coût minimal est retenu. La défaillance d'un sous-réseau ou d'un pont entraîne un changement de topologie pris en compte par les ponts grâce aux informations qu'ils échangent dans des unités de données particulières, des Bridge-PDU, qui permettent de reconstruire l'arbre.

Page 303: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 283

L'ensemble des sous-réseaux interconnectés par des ponts IEEE y est défini comme étant le réseau local étendu (ELAN — Extended Local Area Network). Dans le cas où les deux réseaux sont géographiquement proches, ils peuvent être interconnectés directement par un pont local utilisant la conversion de services. Dans le cas contraire, on peut avoir recours à un pont distant constitué par deux demi-ponts reliés entre eux par une liaison intermédiaire. La technique alors utilisée est l'encapsulation afin d'assurer la transparence vis-à-vis de la liaison intermédiaire.

Les documents spécifient :

- le modèle architectural d'un pont,

- la situation des fonctionnalités du pont à l'intérieur de la sous-couche MAC,

- les principes de fonctionnement du pont afin de fournir et préserver le service MAC et de maintenir la QoS,

- le service de chaque sous-couche MAC fourni à l'entité de relais du pont,

- le calcul de l'arbre couvrant ainsi que le protocole d'échange de Bridge-PDU entre ponts pour la mise à jour de cet arbre,

- les objets gérés et les fonctions de gestion sur ces objets,

- les performances requises pour les ponts et des valeurs de qualité de service (QoS — Quality of Service) par défaut.

9.4 .3.2. Architecture de pont

Chaque port reçoit et transmet des trames du et vers le réseau local rattaché en utilisant l'entité MAC associée. Chaque entité MAC manipule les fonctions dépendantes de la méthode d'accès au support (protocole et procédures MAC). Une architecture est spécifiée pour chaque type de pont, local (figure 9.4) et distant.

entité

LLC

réseau local reseau local y

Figure 9 . 4 . Architecture de pont local

entités He couches le du pont, entité entités de protoco

LLC A

couches le du pont,

supérieures de gestion du pont entité

À LLC T J entité

service j?. fonction MAC r tec

service de sous-couche

interne

entité M A C protocole et

procédures MAC

de relais indépenda

inique d'ac

M A C w T ntes de i a ^ i s e m c e

ces MAC

service de sous-couche

interne

entité M A C protocole et

procédures MAC

Page 304: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 8 4 Architecture des réseaux haut débit

Les fonctions dédiées à l'interconnexion sont assurées par l'entité de relais MAC qui coiffe les sous-couches internes MAC spécifiques à chaque sous-réseau. Indépendamment de la méthode d'accès au support, l'entité de relais MAC effectue le relais des trames entre ports, le filtrage de trames et l'apprentissage d'information de filtrage. Elle utilise le service de chaque sous-couche interne fourni par chaque entité MAC correspondant à un port donné.

9.4.3.3. Service MAC du pont

Le pont offre un service MAC sans connexion avec deux primitives qui sont MA_UNITDATA.request et MA_UNITDATA.indication. Le service MAC offert par un ELAN est similaire à celui d'un réseau local isolé, en conséquence :

- un pont n'est pas directement adressé par les stations communicantes (sauf à des fins de gestion), il est transparent vis-à-vis des stations ;

- toutes les adresses MAC sont uniques ;

- les adresses MAC des stations ne sont pas limitées par la topologie ni par la configuration du réseau étendu.

Les deux primitives de service ont pour paramètres :

- frame_type : type de trame, une trame pouvant véhiculer des données d'utilisateur ou des informations de contrôle de niveau MAC ;

- mac_action : permet à l'entité émettrice, si elle le souhaite, de demander une réponse de son homologue et à ce dernier de lui répondre ;

- destination_address, source_address : adresses respectivement du destinataire et de l'émetteur ;

- MSDU : données utilisateur ;

- user_priority : priorité demandée par l'utilisateur du service, représentée par un entier compris entre 0 et 7 ;

- access_priority (seulement dans la primitive de requête) : priorité de la demande de transfert, représentée par un entier compris entre 0 et 7 ;

- FCS (Frame Check Sequence) : valeur de la séquence de contrôle d'erreur.

Le pont est chargé de mettre en œuvre la conversion de services selon le schéma donné en figure 9.5.

station A pont station B

MA_UNITDATA. request

M.UNITDATA. indication

M_UNITDATA. request

MA_UNITDATA. indication

i LLC

h f(4)

MAC

PHY

réseau 1 réseau 2

Figure 9.5. Enchaînement de requêtes pour la transmission d'une trame entre deux

stations interconnectées par un pont

Page 305: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 285

9.4.3.4. Fonctionnement du pont

L'entité de relais MAC réalise les fonctions d'interconnexion du pont (figure 9.6). Elle est modélisée par des processus et des entités :

- le processus d'apprentissage "apprend" les adresses source des trames reçues sur chaque port et met à jour la base de données de filtrage en fonction de l'état du port récepteur ;

- le processus de relais de trames retransmet les trames reçues sur un autre port en fonction des informations contenues dans la base de données de filtrage et de l'état des ports. La trame est soit retransmise sur un seul port, si l'adresse est connue, soit diffusée sur tous les autres ports du pont dans le cas contraire ;

- la base de données de filtrage contient l'information de filtrage (obtenue explicitement par administration, ou automatiquement par le processus d'apprentissage). Elle répond aux requêtes du processus de relais.

état ~ \ _ du port J~

relais de trames

_f état ~ \ V du Dort )

base de données de fdtrage

réception de trames

transmission de trames .

sous-couche interne MAC

sous-couche interne MAC

Figure 9.6. Le relais de trames

Chaque port fonctionne comme une station terminale en fournissant le service MAC à la couche supérieure. Suivant la topologie du réseau étendu déterminé par l'algorithme de l'arbre couvrant, les ports peuvent être dans les états : blocking, listening, learning ou forwarding. L'état blocking est consécutif à l'initialisation du

pont ou à une action de gestion ; il ne permet pas d'action. Dans l'état listening, le pont échange des Bridge-PDU et recalcule l'arbre couvrant en coopération avec les autres ponts ; il ne prend en compte et ne retransmet aucune trame utilisateur. Dans l'état learning, le processus d'apprentissage met à jour la base de données de filtrage mais ne relaie toujours pas de trames. Enfin, l'état forwarding permet au port de participer au relais des trames. Pour pouvoir effectivement relayer une trame, les quatre conditions suivantes doivent être impérativement respectées :

- le port de réception est dans l'état forwarding,

- le port sur lequel la trame doit être transmise est dans l'état forwarding,

- la base de données de filtrage indique que les trames avec cette adresse de destination doivent être transmises sur le port de transmission,

Page 306: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 8 6 Architecture des réseaux haut débit

- la taille maximale de la SDU supportée par le réseau local sur lequel on doit transmettre est respectée.

Après réception, une trame peut ne pas être relayée et être détruite dans deux situations : lorsque le système destinataire se trouve sur le même sous-réseau que la source ou sur occurrence d'une condition d'exception (erreur de transmission, trame de contrôle, service de demande de réponse actif, filtrage sélectif, longueur excessive, dépassement du temps de transit dans le pont).

En réception, l'entité MAC associée à un port donné examine les trames en provenance du réseau local auquel le port est attaché. Les trames sont soumises au processus d'apprentissage et au processus de relais par l'invocation de la primitive M_UNITDATA.indication, après vérification de l'état des ports impliqués. En émission, l'entité MAC transmet, si l'état du port auquel elle est associée le lui permet, les trames qui lui ont été soumises par l'entité de relais MAC par une primitive M_UNITDATA_request.

En ce qui concerne la base de données de filtrage, les informations peuvent provenir de configuration d'administration ou de configuration dynamique. La base peut contenir aussi bien des entrées statiques que dynamiques. Les entrées dynamiques sont créées et mises à jour par le processus d'apprentissage. A chaque opération sur une entrée, on arme un temporisateur associé à l'entrée. Si le temporisateur expire, l'entrée est détruite, car considérée comme inutilisée depuis trop longtemps. Une entrée dynamique comporte les informations {adresse MAC, n° de port, temporisateur}. A contrario, les entrées statiques ne peuvent être ajoutées ou détruites que par l'administration.

9.4.3.5. Préservation de la QoS

Les ponts locaux et les ponts distants ne doivent pas dégrader de façon excessive la qualité de service de chaque sous-réseau local. Les ponts distants utilisant des liens intermédiaires plus lents que les sous-réseaux (sauf dans le cas de réseaux fédérateurs à haut débit), ils entraînent généralement une dégradation de service plus importante que celle causée par un pont local. Dans tous les cas, un pont ne peut violer les invariants du service MAC et doit respecter le séquencement des trames.

9.5. Les routeurs et l'interconnexion de niveau réseau

9.5 .1. Introduction

L'interconnexion devient plus complexe lorsqu'elle intervient entre des sous-réseaux très différents comme, par exemple, entre un réseau local et un réseau grande distance. Dans un réseau grande distance, la fonction d'adressage n'est assurée qu'au niveau réseau. Le routeur sera alors chargé de la translation d'adresses, de la translation de formats des paquets et du routage entre les réseaux. Ce paragraphe présente dans un premier temps les différentes caractéristiques des routeurs, en se

Page 307: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 287

restreignant aux dispositifs supportant un seul protocole (c'est-à-dire reliant deux réseaux utilisant le même protocole de haut niveau) et ensuite le protocole Internet et son fonctionnement.

9.5.2. Qu'est-ce qu'un routeur ?

Dans la mesure où ils opèrent au niveau de la couche réseau, les routeurs possèdent un logiciel plus élaboré que celui des ponts. Ils peuvent tirer profit des chemins multiples dans les réseaux complexes. Le routeur est soit un équipement dédié, soit une station particulière ; il est connecté à plusieurs réseaux aux schémas d'adressage éventuellement différents. Par conséquent, il possédera autant d'adresses différentes que de réseaux auxquels il est connecté, chaque adresse correspondant à un port différent.

Utilisant un système d'adressage hiérarchique qui distingue les adresses système des adresses réseau, les routeurs autorisent une séparation logique de sous-réseaux au sein d'un réseau. Ces derniers constituent des domaines pouvant être administrés indépendamment et de manière distribuée.

Les routeurs n'imposent pas de contraintes de topologie et peuvent, par conséquent, fournir des contrôles de flux sophistiqués en partageant la charge à travers le réseau. D'un autre côté, ils constituent des dispositifs actifs et les stations leur adressent explicitement les paquets à router.

Il est à noter que dans le monde Internet le terme de passerelle est souvent préféré

à celui de routeur.

9.5.3. Fonctionnement d'un routeur

Les routeurs impliquent l'existence de tables de routage. Celles-ci sont utilisées pour identifier les autres réseaux, les chemins vers ces derniers ainsi que l'efficacité de ces chemins. Un routeur n'emploie pas ces tables pour déterminer explicitement l'adresse des stations sur les autres réseaux, comme le font les ponts. Au contraire, il compte sur les autres routeurs pour accomplir cette tâche. Alors qu'un pont ne fait que transmettre ou abandonner une trame selon sa table de filtrage, un routeur sélectionne le meilleur chemin pour chaque paquet.

Un routeur ne reçoit que les paquets que lui adresse une station ou un autre routeur. En fonction de l'adresse du réseau de destination et des informations contenues dans sa table, le routeur détermine le prochain sous-réseau sur lequel il doit retransmettre le paquet. Le processus de routage complet repose sur ce principe de sauts de routeur en routeur. Cette procédure sélective de transmission des paquets explique que les chemins redondants puissent exister dans une topologie utilisant des routeurs.

Les décisions de routage reposent le plus souvent sur un algorithme qui détermine le nombre de sauts entre les réseaux, assurant que les paquets parcourent le

Page 308: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

288 Architecture des réseaux haut débit

chemin le plus court possible. Le gestionnaire du réseau peut influer sur cette décision en modifiant le nombre de sauts associés à un chemin, ce qui donne la préférence à un chemin plutôt qu'à un autre.

9.5.4. Routeurs statiques et routeurs dynamiques

Les routeurs statiques ont besoin de l'intervention du gestionnaire du réseau pour mettre à jour les tables de routage lorsqu'une modification a lieu ou lorsqu'un lien tombe en panne. Ce type de routage, s'il autorise une mainmise complète du gestionnaire sur le réseau, n'est pas envisageable dans le cas d'un réseau dont la topologie est susceptible de subir des changements imprévisibles.

Les routeurs dynamiques utilisent des protocoles de routage spécifiques qui régissent les échanges d'informations de routage à travers le réseau.

9.5.5. Le protocole Internet

Le protocole Internet (IP — Internet Protocol) [RFC 791] a été spécifié par le DoD (Department of Defense, USA) pour interconnecter ses nombreux réseaux (cf. chapitre 1). Le service est sans connexion et le protocole permet le transfert de datagrammes. Chaque datagramme est traité comme une entité indépendante des autres datagrammes. IP réalise deux fonctions de base, l'adressage (d'hôtes) et la fragmentation. Il est souvent couplé avec un protocole de transport très fiable, TCP (Transmission Control Protocol) [RFC 793]. On parle souvent de TCP/IP ; ce couple de protocoles est très répandu car il a été intégré dans le noyau d'UNIX à partir de la version Berkeley 4.2.

9.5.5.1. L'adressage Internet

Un nom désigne ce que l'on cherche ; une adresse indique sa localisation ; une route indique comment y parvenir. Le protocole Internet traite des adresses : c'est aux protocoles de niveaux supérieurs de mettre en correspondance des noms avec des adresses, c'est à IP de mettre en correspondance des adresses IP avec des adresses de sous-réseaux (ce que l'on a appelé adresses physiques) et c'est le rôle du niveau inférieur que de mettre en correspondance les adresses de sous-réseaux avec des routes.

Les adresses Internet sont des adresses hiérarchiques codées sur 32 bits et composées de deux champs, <réseau> et <hôte>. Le champ <réseau> adresse un réseau particulier : c'est une référence unique du réseau de par le monde, attribuée par un organisme central. Le champ <hôte> désigne un hôte particulier ou une connexion particulière sur le réseau considéré. Un hôte relié à deux réseaux possédera donc deux adresses Internet, une par connexion réseau.

L'adressage Internet supporte trois classes d'adressage individuel, désignées par A, B et C, qui permettent de couvrir aussi bien les réseaux locaux à quelques postes que

Page 309: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 289

les réseaux grande distance avec des milliers de postes raccordés. La classe D supporte l'adressage multipoint. La figure 9.7 donne le format de l'adresse pour chacune de ces classes. La notation habituelle d'une adresse Internet est le codage décimal pour chacun des quatre octets la constituant (par exemple, 128.10.2.30 est une adresse de réseau de classe B).

classe A

classe B

classe C

classe D

Figure 9.7. Classes d'adressage Internet

9.5.5.2. Encapsulations successives

Le principe utilisé pour l'interconnexion dans Internet réside dans l'encapsulation successive des PDU de chaque niveau, rendant de ce fait chaque sous-réseau indépendant de l'autre.

(a) Exemple d'interconnexion (b) Architecture d'interconnexion

en-tête

TCP u o n n e e s

en-tête en-tête , jp T C P données

encapsulation par TCP (émetteur)

encapsulation par IP (émetteur)

encapsulation par le protocole d'accès du réseau 1 (émetteur)

désencapsulation par le protocole d'accès du réseau 1 routage par IP vers le réseau 2 (passerelle)

encapsulation par le protocole d'accès du réseau 2 (passerelle)

(c) Encapsulations successives

en-tête en-tête en-tête

réseau 1 IP TCP " s

en-tête

réseau '*

en-tete en-tete

IP TCP " o n n e e s

;n-tete en-tete , I P T C P données

Figure 9.8. Encapsulations successives IP

réseau

Oj réseau adresse locale

0 8 31

10 ; réseau adresse locale

0 16 31

110 réseau adresse loc.

0 24 31

1110 adresse de multi-destination

hôte A hôte B

TCP passerelle R TCP

IP IP \ IP IP IP \ IP protocole d'accès 1

protocole d'accès 1

protocole d'accès 2

protocole d'accès 2

rèsrao t réseau 2

réseau 2

Page 310: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

290 Architecture des réseaux haut débit

La figure 9.8 présente les encapsulations successives correspondant à l'interconnexion d'un réseau 1 et d'un réseau 2, en supposant que le protocole utilisé pour le transport de bout en bout est TCP. L'émetteur se trouve sur le réseau 1, le destinataire sur le réseau 2. Le message TCP est soumis à IP qui lui ajoute son propre en-tête avec les adresses Internet de l'hôte source et de l'hôte destinataire. Le datagramme IP est remis ensuite à la couche de niveau inférieur avec l'adresse physique de la passerelle sur le réseau 1. Le niveau inférieur l'encapsule à son tour dans un en-tête spécifique au protocole d'accès utilisé par le réseau 1 et qui comporte l'adresse physique de la passerelle sur le réseau 1. A son arrivée dans la passerelle, le paquet est débarrassé de son en-tête de réseau 1. IP effectue alors le routage de ce paquet vers le réseau 2, puis le remet au protocole d'accès du réseau 2 qui lui ajoute son en-tête spécifique avec l'adresse physique de l'hôte destinataire sur le réseau 2 et qui le transfère sur le réseau 2.

L'exemple précédent supposait que le datagramme avait une longueur telle qu'il pouvait être retransmis sans découpage sur le réseau 2. Ce n'est pas toujours le cas et une passerelle peut être amenée à réaliser une fragmentation d'un datagramme. La fragmentation est nécessaire lorsque le datagramme reçu a une longueur supérieure à la longueur maximum tolérée par le réseau sur lequel il doit être retransmis. Le datagramme est alors découpé en plusieurs fragments de longueur compatible avec le maximum autorisé.

9.5.5.3. Routage Internet

Le routage Internet se fait saut par saut à partir de l'adresse de l'hôte destinataire. L'entité IP locale examine donc cette adresse et détermine si le routage est direct — le préfixe <réseau> de l'adresse destinataire est le même que le sien — ou s'il est indirect — le préfixe est différent. Dans le cas d'un routage indirect, l'entité locale IP choisit le routeur le mieux adapté pour atteindre la destination finale et envoie le paquet IP à ce dernier en l'encapsulant au passage dans une PDU du protocole d'accès du réseau sous-jacent. A la réception du paquet, l'entité IP de la passerelle détermine s'il s'agit d'un routage direct ou indirect, et dans ce dernier cas, vers quelle passerelle router le paquet. Elle remet alors au réseau de sortie correspondant le datagramme à transférer vers la nouvelle passerelle. Ce processus se répète jusqu'à ce que le datagramme ait atteint sa destination finale.

Pour simplifier le routage dans Internet, il a été défini une hiérarchie de sous-réseaux qualifiés d'autonomes. Un réseau autonome correspond souvent à un pays particulier, les politiques de télécommunication étant différentes d'un pays à l'autre. L'échange d'information de routage dans un réseau autonome se fait par le protocole IGP [RFC 1371]. Dans chaque sous-réseau, une passerelle est reliée à une ou plusieurs passerelles d'autres sous-réseaux, formant ainsi le réseau central. Le protocole EGP [RFC 904] permet l 'échange d'informations entre les réseaux autonomes et le réseau central.

Page 311: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 291

9.5.5.4. La datagramme IP

Le protocole IP ne définit qu'un seul type de PDU appelé datagramme IP dont la figure 9.9 donne la structure. Les différents champs sont :

0 8 16 31

Vers. IHL ToS Total Length

Identification Flags Fragment Offset

Time To Live Protocol Header Checksum

Source Address

Destination Address

Options

Padding

Data

Figure 9 .9 . Format du datagramme IP

- les quatre bits du champ Version donnent l'identification de la version IP utilisée. La version en cours est la version 4. Ce numéro autorise la coexistence de différentes versions et permet aux entités IP de décoder et d'interpréter les champs suivants du datagramme traité ;

- IHL (Internet Header length) donne la longueur de l'en-tête du datagramme, exprimée en mots de 32 bits. La valeur minimale est de 5 mots, la valeur maximale de 15, ce qui limite la longueur du champ d'options à 40 octets ;

- le champ ToS (Type of Service) fournit une indication des paramètres abstraits de la qualité de service souhaitée. Ce champ est utilisé par les passerelles pour sélectionner les paramètres de transmission réels d'un sous-réseau donné, le prochain sous-réseau ou la prochaine passerelle à emprunter. Les 8 bits du champ sont répartis en trois bits P pour la priorité, un bit D pour le délai, un bit T pour le débit, un bit R pour la fiabilité et deux bits réservés mis à 0. Les trois bits de priorité permettent de définir huit niveaux de priorité d'acheminement d'un datagramme (la valeur 000 correspondant à la priorité la plus basse). Pour les bits D, T et R, seuls deux niveaux sont possibles, normal (valeur 0) ou élevé (valeur 1). Le type de service est important puisqu'il permet de définir plusieurs niveaux de services en fonction du type d'information transportée et de différencier les informations de contrôle des données. En particulier, il peut constituer un support pour des algorithmes de contrôle de flux dans des protocoles de couches supérieures dont les informations de contrôle peuvent être transmises indépendamment des restrictions de flux imposées. Il faut remarquer que ce champ n'est significatif que dans la mesure

Page 312: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

292 Architecture des réseaux haut débit

où les unités d'interconnexion utilisées dans la traversée du réseau l'interprètent et le respectent, ce qui n'est pas toujours le cas ;

- le champ Total Length indique la longueur totale du datagramme, exprimée en octets, en-tête et données inclus. En cas de fragmentation, ce champ contient la longueur du fragment courant. La taille d'un datagramme n'est en théorie limitée que par les 16 bits servant à la coder. Néanmoins, les machines ont des contraintes généralement beaucoup plus sévères. Ainsi, et par convention, tout module IP doit pouvoir traiter des datagrammes de 576 octets (64 pour l'en-tête et 512 pour les données). Au-delà, un module émetteur doit s'assurer au préalable que son homologue récepteur est capable de gérer des longueurs supérieures ;

- le champ Identification de 16 bits permet (en association avec les champs d'adresses et de protocole) d'identifier le datagramme initial lors de son envoi. Le principal usage de ce champ est donc de permettre à une entité réceptrice de reconnaître les différents fragments issus d'un même datagramme initial et devant donc faire l'objet d'un réassemblage ;

- le champ Flags intervient au niveau de la fragmentation du datagramme. Sur les 3 bits le composant, seuls deux sont utilisés, le troisième étant réservé et mis à 0. Le drapeau DF (Don't Fragment) permet, lorsqu'il est positionné à 1, d'interdire la fragmentation sur le datagramme traité (si le datagramme porte un DF égal à 1 et qu'il ne peut être délivré à sa destination sans être fragmenté, il est détruit). Le drapeau MF (More Fragment) mis à 0 indique que le datagramme courant est le dernier (ou le seul s'il n'y a pas eu fragmentation) d'une liste de fragments ; mis à 1, il signale que d'autres fragments issus d'un même datagramme suivent ;

- Fragment Offset, codé sur 13 bits, indique la position relative (en unité de 8 octets) des données contenues dans ce datagramme par rapport au début des données du datagramme initialement émis. Seuls un datagramme complet et un premier fragment de datagramme peuvent avoir ce champ à 0 ;

- le champ Time To Live permet d'éviter à un paquet de circuler trop longtemps ou de boucler dans le réseau et d'introduire des dysfonctionnements au niveau TCP. La valeur de la durée de vie est comprise entre 0 et 255. Elle est initialisée à 255 par l'émetteur du datagramme, puis décrémentée d'une unité à chaque traversée de passerelle. Tout intermédiaire ou destinataire qui détecte le passage de ce champ à la valeur 0 est supposé détruire le datagramme et renvoyer un message ICMP de notification à l'émetteur. En cours de réassemblage, une machine réceptrice est censée décrémenter ce champ toutes les secondes environ pour les datagrammes composant le datagramme initial, tant que tous les fragments ne sont pas tous arrivés. En ce sens, ce champ peut également être considéré comme un temporisateur de réassemblage ;

- le champ Protocol identifie le protocole de niveau supérieur, utilisé pour le champ de données du datagramme. A titre d'exemples, la valeur 00000001 identifie ICMP. 00010001 UDP, 00000110 TCP, 00001000 EGP, 00001001 IGP ;

Page 313: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 2 9 3

- le champ Header Checksum véhicule une séquence de contrôle de 16 bits, calculée uniquement sur l'en-tête du datagramme et permettant de vérifier que l'information utilisée pour traiter le datagramme a été transmise de façon correcte. En cas d'erreur, le datagramme est détruit par l'entité l'ayant détectée. La protection des données, si nécessaire, est laissée à la charge du protocole de transport ;

- le champ Source Address transporte l'adresse Internet de la source ;

- le champ Destination Address transporte l'adresse Internet du destinataire ;

- le champ Options, de longueur variable (comprise entre 0 et 20 octets), sert à des fonctions de contrôle nécessaires ou utiles dans certaines situations. Ces services optionnels comptent entre autres l'estampillage (enregistrement de l'heure de chaque passage de passerelle), l'enregistrement de route (enregistrement de l'adresse de chaque passerelle traversée), le routage par la source, la sécurité (en permettant aux hôtes d'indiquer des restrictions liées à la sécurité) ;

- le champ de bourrage, Padding, permet d'aligner l'en-tête de datagramme sur

une frontière de 32 bits.

9.5.5.5. Service Internet

Pour demander le transfert des données dans un datagramme, deux primitives de service sont offertes à l'utilisateur : SEND et DELIVER. Elles correspondent à la requête de transfert de données (primitive SEND) et à l'indication de réception de données (primitive DELIVER). En émission, les paramètres de la primitive permettent l'initialisation des champs du datagramme IP. Le tableau 9.1 donne la liste des paramètres utilisés.

paramètres SEND DELIVER

adresse source X X

adresse destinatation X X

protocole de niveau supérieur X X

indicateurs de QoS (pour chacun, niveau normal ou élevé) X X

identificateur de l'unité de données X

indicateur de fragmentation (autorisé ou non) X

durée de vie du datagramme X

longueur des données X X

données optionnelles (liste d'adresses de passerelles pour un routage par la source, par exemple)

X X

données X X

Tableau 9 . 1 . Paramètres des primitives SEND et DEL/VER

Page 314: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

2 9 4 Architecture des réseaux haut débit

9.5.5.6. IPng et IPv6

Les concepteurs de TCP/IP étaient loin, au début des années 80, de se douter de l'explosion à laquelle est confronté aujourd'hui le réseau Internet mondial. Des estimations de 1987 prévoyaient le besoin d'adresser 100 000 réseaux dans un futur assez vague. Il apparaît que ce seuil sera atteint dès 1996. D'autres estimations, cette fois réalisées en 1994, projettent quelques millions de réseaux interconnectés dans un futur pas trop lointain. Cette expansion constitue un véritable problème. En effet, l'espace d'adressage offert par l'actuelle version d'IP devient complètement saturé. Même si les 32 bits d'adresse permettent — en théorie — d'adresser 4 billions de machines sur plus de 16 millions de réseaux, l'efficacité de la procédure d'attribution d'adresses est telle qu'on est loin (très loin) de pouvoir approcher ces valeurs. La granularité des adresses — répartition des adresses en trois classes, A, B et C — n'arrange rien. De fait, la classe B est devenue, dès mars 1994, une ressource extrêmement critique. D'autres facteurs contribuent également au besoin pressant d'évolution d'IP. Ils sont pour la plupart liés à l'émergence de nouvelles applications. Citons les applications multimédias, pour lesquelles les contraintes de délais bornés imposent l'utilisation de mécanismes de gestion de qualité de service, ou encore les applications sensibles qui exigent la mise en œuvre de mécanismes d'authentification et de cryptage.

Face à cela, l'IETF (Internet Engineering Task Force) a mis en place, dès 1991, des groupes de travail. Chercheurs, universitaires, constructeurs, équipementiers, développeurs, fournisseurs venus de tous les horizons ont uni leurs efforts dans le but de produire IPng, IP — The Next Generation. On peut aisément imaginer qu'un consensus fut long à obtenir et que le choix d'un protocole parmi tous ceux proposés ne fut pas chose aisée. Le lecteur intéressé pourra se référer au [RFC 1752] pour une description des besoins exprimés pour IPng et des principales propositions. Finalement, le protocole SIPP (Simple Internet Protocol Plus) [RFC 1710] a été retenu comme base à la future version d'IP. Pour la distinguer de la version courante (IPv4), la nouvelle version s'appellera IPv6 (le numéro de version 5 ayant été attribué entre-temps au protocole ST).

IPv6 constitue une évolution d'IPv4. En tant que tel, il reprend bon nombre des caractéristiques qui ont fait le succès de son prédécesseur : opération en mode non connecté, fragmentation des datagrammes, possibilité de routage par la source, etc. Ses principales caractéristiques résident dans :

- des fonctionnalités d'adressage et de routage accrues : la taille des adresses est quadruplée ; passant de 32 à 128 bits, elle permet bien évidemment d'adresser un nombre beaucoup plus important de machines, mais aussi de permettre davantage de niveaux dans la hiérarchie d'adressage et une auto-configuration des adresses plus simple ;

- un nouveau format d'en-tête de paquet : la structure du datagramme a été entièrement modifiée, ce afin d'une part, de réduire le coût de traitement minimum des paquets et. d'autre part, de limiter le surdébit associé à l'en-tête ; certains champs ont ainsi été soit abandonnés, soit rendus optionnels ;

Page 315: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 295

- une souplesse dans l'ajout de fonctionnalités : contrairement à IPv4 qui repose sur un en-tête à format fixe, où tous les champs, excepté les options, sont codés sur un nombre fixe d'octets, IPv6 utilise un ensemble d'en-têtes optionnels. Les options, de longueur quelconque, sont ainsi placées dans des en-têtes séparés qui prennent place entre l'en-tête d'IPvô et l'en-tête de protocole de niveau supérieur (TCP, par exemple). Cette organisation particulière permettra aux routeurs traversés de ne traiter que les en-têtes indispensables et donc d'améliorer les performances ;

- la possibilité d'identification de flots de données : il sera possible d'attribuer une étiquette aux paquets appartenant à des flots de trafic pour lesquels l'émetteur souhaite un traitement spécial ; ceci sera particulièrement utile aux applications à contraintes de qualité de service ;

- des fonctionnalités d'authentification et de protection des données tout au long

de leur acheminement.

La spécification détaillée du protocole IPv6, dans son état actuel, est donnée dans

[Deering 95].

9.6. SMDS (Switched Multimegabit Data Service)

9.6.1. Définition

Le service SMDS [Bellcore 92] est un service de transport de données pour environnement d'interconnexion de réseaux locaux via un ou plusieurs réseaux fédérateurs (réseaux métropolitains, RNIS-LB dans un proche avenir). SMDS est issu du laboratoire américain Bellcore. Ce protocole haut débit fonctionne en mode non connecté et effectue la commutation de paquets d'un sous-réseau à l 'autre. SMDS est indépendant de la technologie sous-jacente mais est dans un premier temps supporté par des réseaux de type DQDB, puis sera supporté par le RNIS-LB.

L'appellation retenue en Europe par l'ETSI est CBDS (Connectionless Broadband Data Services). Dans l'hexagone, France Télécom utilise d'ores et déjà CBDS pour son offre Transrel/ATM disponible depuis la fin 1994 pour l'interconnexion à hauts débits (64 kbit/s, 2, 4, 10, 16, 25 et bientôt 34 Mbit/s) de réseaux locaux.

Nous nous intéressons dans ce paragraphe au modèle défini pour SMDS/CBDS

puis à ses fonctionnalités.

9.6.2. Le modèle d'interconnexion

Les spécifications de SMDS définissent une nouvelle terminologie :

- les CPE (Customer Premises Equipment) représentent les réseaux locaux

d'usagers interconnectés aux réseaux de transport d'information ;

Page 316: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

296 Architecture des réseaux haut débit

CPE - Customer Premises Equipment IC - Inter-exchange Carrier ICI - Inter-exchange Carrier Interface ISSI - Inter Switching System Interface IWU - Inter-Working Unit (UIF - Unité d'InterFonctionnement) LEC - Local Exchange Carrier SNI - Subscriber Network Interface SS - SMDS Switching System

CP1

Figure 9.10. Le modèle LEC

- les LEC (Local Exchange Carrier) représentent les réseaux de transport d'information (i.e. les réseaux fédérateurs) ;

- les IC (Inter-exchange Carrier) sont des réseaux intermédiaires, en général grande distance, utilisés pour interconnecter des LEC lointains. Aucun CPE n'y est connecté directement ;

- les ICI (Inter-exchange Carrier Interface) sont les interfaces mises en place soit entre deux LEC, soit entre un LEC et un IC ;

- les SNI (Subscriber Network Interface) permettent de relier un CPE à un LEC.

La figure 9.10 décrit l'interconnexion de deux CPE (deux réseaux locaux Ethernet et Token Ring dans l'exemple) à travers deux LEC (deux réseaux métropolitains DQDB) et un IC (un réseau RNIS-LB). Nous détaillons à présent les composants que nous venons d'introduire.

9.6.2.1. Le modèle LEC

Les nœuds d'un réseau LEC sont appelés SS (Switching Systems). En fait, un LEC peut être constitué d'un ou plusieurs nœuds. Dans ce dernier cas, la topologie est maillée, ce qui permet des chemins multiples entre deux SS donnés. L'interface entre deux SS est appelée ISSI (Inter-Switching System Interface) (figure 9.10). Le service SMDS est assuré par les SS et grâce au protocole de dialogue entre SS, le protocole ISSIP (Inter-Switching System Interface Protocol).

Page 317: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 297

9.6.2.2. Le modèle SS

Les Switching Systems réalisent la commutation de paquets à haut débit. Un SS est modélise comme étant un nœud du réseau LEC mais physiquement, il correspond à un réseau métropolitain dont un ou plusieurs nœuds supportent SMDS. De ce fait, un Switching System peut être centralisé — un seul nœud supportant SMDS — ou réparti — plusieurs nœuds supportant SMDS. Dans ce dernier cas, chaque entité du SS est appelée SS-NE (Switching System-Network Element).

Chaque SS pouvant gérer jusqu'à trois types d'interfaces différents (SNI, ISSI, ICI) en fonction du type d'équipement connecté, un SS-NE (ou SS centralisé) possède une architecture logique modulaire où chaque module est dédié à la gestion d'une interface particulière (figure 9.11) :

C P E , - S S - N E -ressources communes

S S - N E -

ressources communes

{ CPE )

CPE ;NIM

PIM \ PIM SNIM

IC ICIM I

SNIM I

a aim | ISSIMj p

S S — ,

F i g u r e 9 . 1 1 . Le modèle Switching System

ss—

- le module SNIM (Subscriber-Network Interface Module) gère l'interface SNI et

supporte le protocole SIP (SMDS Interface Protocol) afin d'assurer les services de

transport de données offerts au réseau client ;

- le module ICIM (Inter-exchange Carrier Interface Module) gère l'interface ICI

et offre les fonctionnalités de SMDS pour transférer des données avec le protocole

ICIP (Inter-exchange Carrier Interface Protocol) au-dessus d'un réseau grande

distance ;

- le module ISSIM (Inter-Switching System Interface Module) gère l'interface

ISSI et assure le dialogue entre nœuds grâce au protocole ISSIP (Inter-Switching

System Interface Protocol). Il existe autant de modules ISSIM que de nœuds

connectés au nœud considéré.

Par ailleurs, dans un SS distribué, des modules nommés PIM (Proprietary Intra-SS Interface Module) supportent le protocole de transfert de données interne au SS (c'est-à-dire entre les différents SS-NE). Ce protocole est propre au support choisi pour implanter le SS distribué.

Page 318: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

298 Architecture des réseaux haut débit

utilisateurs du service SMDS

ISSIP niveau 3 interface indéDendante

de la technologie

làMP niveau 2

ISSIP niveau 1

T F P F a n ? A

DS3

ATM

SONET |

F i g u r e 9 .12 . Architecture du protocole ISSIP

9.6.3.3. Le routage

Chaque système SS n'étant pas connecté directement à tous les autres, un paquet doit avancer par sauts successifs avant d'atteindre sa destination. Il faut donc connaître le chemin que doit emprunter chaque donnée pour arriver à destination avec un délai minimum. Cela constitue le rôle d'un protocole de routage qui est appelé

Enfin, un SS-NE ou un SS centralisé contient des ressources partagées par les différents modules. Il s'agit par exemple des fonctions d'échange d'informations entre les différents modules, fonctions qui dépendent de la technologie utilisée.

9.6.3. Fonctionnalités de SMDS

Les fonctionnalités de SMDS sont définies sous forme de fonctions génériques à savoir le transport de données, le routage des paquets, le contrôle de congestion, le partage de charge ainsi qu'un ensemble d'activités permettant la gestion de réseaux. Chacune de ces fonctionnalités est présentée dans la suite.

9.6.3.1. Les utilisateurs du service SMDS

Les utilisateurs du service fourni par le protocole SMDS sont des groupes de fonctions utilisant les services des protocoles SIP, ISSIP et ICIP. Ces fonctions supportent le transport des paquets de données et de gestion entre une SNI et un LEC, entre un IC et un LEC ou entre deux LEC. De plus, ces fonctions assurent l'adressage de groupe ainsi que la gestion et les opérations internes à un SS (tests de boucles, tests de routage et administration des notifications).

9.6.3.2. Le transport de données

Le transport de données est la fonction essentielle de SMDS. Il peut être de deux types : entre deux nœuds d'un même SS, il dépend de la technologie utilisée et n'est pas défini dans SMDS ; par contre, pour transférer des données entre deux SS, l'interface commune ISSI supporte le protocole ISSIP défini selon une architecture à trois niveaux (figure 9.12).

Page 319: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 2 9 9

RMP (Routing Management Protocol). RMP permet à chaque SS de connaître la topologie complète du réseau afin qu'il puisse facilement déterminer le chemin le plus court vers n'importe quel autre SS ou réseau externe. Dans le même ordre d'idée, chaque changement dans la topologie est facilement pris en compte par les SS et les nouveaux chemins sont rapidement calculés. Ce protocole réduit également le déséquencement des données car le même chemin est utilisé pour les paquets qui ont les mêmes adresses de source et de destination.

Enfin, les SS peuvent diffuser les paquets adressés à un groupe grâce à l'algorithme de l'arbre couvrant. Cet algorithme donne les plus courts chemins pour effectuer cette diffusion à partir du nœud concerné et tient compte des modifications éventuellement apportées à la topologie du réseau.

9.6.3.4. Le contrôle de congestion

SMDS est destiné à être utilisé sur des réseaux métropolitains comportant un très grand nombre de SS. Ainsi, lorsque l'on observe un phénomène de congestion, il est nécessaire de l'isoler et de le contrôler au plus vite afin de ne pas étendre le problème aux nœuds voisins. La spécification de SMDS définit un mécanisme de contrôle de congestion distribué pour répondre à ces impératifs. Le but est de résoudre la congestion d'un nœud à partir des autres SS du réseau en mettant au point un mécanisme de contrôle réactif. A noter également que l'on peut chercher à éviter la congestion grâce à un contrôle préventif mis en œuvre par un algorithme de partage de charge.

Chaque SS doit détecter s'il est dans un état de saturation en comparant ses paramètres d'utilisation avec des valeurs seuils. Lorsqu'un seuil est franchi, il envoie une notification de son état aux autres SS. Le même message de notification est ensuite envoyé périodiquement jusqu'à ce qu'il y ait un changement du niveau de congestion. Lorsque le SS congestionné constate qu'il est repassé en-dessous du seuil, il le notifie aux autres SS qui arrêtent leurs procédures correspondantes.

Lorsqu'un SS reçoit l'un de ces messages de notification, il l'interprète afin de savoir quel nœud est congestionné et à quel niveau, il arme un temporisateur, puis il effectue des actions afin d'essayer d'enrayer le phénomène. Ces actions consistent à supprimer certains des paquets qui doivent passer par le nœud congestionné. Si le temporisateur armé lors de la réception du message de notification expire avant que le SS n'ait reçu un nouveau message de notification en provenance du même nœud, il stoppe ses procédures de rejet.

Par ailleurs, les plate-formes d'administration peuvent aussi réagir lorsqu'elles détectent une congestion ; elles peuvent par exemple envoyer de leur propre chef des notifications aux SS afin qu'ils activent les procédures de rejet ou de re-routage.

9.6.3.5. Le partage de charge

Etant donné la possibilité d'avoir plusieurs liens à travers les interfaces ISSI entre deux SS, SMDS définit un algorithme de partage de charge qui détermine pour un paquet donné quel chemin il doit choisir.

Page 320: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

300 Architecture des réseaux haut débit

9.6.3.6. La gestion

U s'agit de l'ensemble des activités d'un LEC portant sur la gestion du réseau. Cela comprend les fonctions et outils offerts par les plate-formes d'administration, les fonctions des différents éléments de réseau et les fonctions qui permettent de faciliter les communications à travers les interfaces entre plate-formes, entre éléments de réseau ou encore entre plate-forme et élément de réseau.

9.6.4. Le protocole ISS1P

L'architecture du protocole ISSIP comprend trois niveaux de fonctionnalités (figure 9.12).

9.6.4.1. Niveau 3 du protocole ISSIP

Ce niveau offre les services au protocole d'utilisation. Il est composé de trois protocoles :

- le protocole L3-DTP (Level 3 Data Transport Protocol) assure l'avancement, le relais et la réception des paquets ainsi que le support de l'adressage de groupe. Il encapsule les paquets reçus avec un en-tête de 40 octets afin de former une L3-DTPDU ;

- le protocole ISSI-RMP (Inter-Switching System Interface-Routing Management Protocol) tient à jour dans chaque SS la topologie du réseau et calcule les plus courts chemins entre le SS considéré et les autres SS ;

- le protocole CMP (Congestion Management Protocol) supporte les procédures de génération, de distribution et de réception des messages ECN (Explicit Congestion Notification) de notification de congestion. Ceux-ci sont utilisés par le L3-DTP pour déterminer si un paquet doit être rejeté suite à une congestion.

Il est important de noter que le niveau 3 ne dépend pas du support utilisé. Cela est possible grâce à l'interface mise en place avec le niveau 2 qui est indépendante de la technologie du réseau.

9.6.4.2. Niveau 2 du protocole ISSIP

Ce niveau est dépendant de la technologie employée dans le réseau fédérateur. Il permet le transport de L3-DTPDU de taille variable et assure des fonctions de détection d'erreurs de transmission, de segmentation et de réassemblage.

Le protocole associé à ce niveau est organisé en trois blocs de fonctions auxquels sont associées trois unités de protocoles (PDU) différentes : le bloc des fonctions de convergence construit des CVG-PDU, le bloc des fonctions de segmentation et réassemblage construit des SAR-PDU et enfin, le bloc des fonctions des cellules génère des cellules.

Page 321: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 301

Le déploiement de SMDS est prévu sur des réseaux de type DQDB (IEEE 802.6) ou de type ATM. De toute évidence, la technologie employée dans le réseau conditionne celle choisie pour le niveau 2 de SMDS.

9.6.4.3. Niveau 1 du protocole ISSIP

Le niveau 1 réalise le transfert physique des données ; il dépend lui aussi du support choisi. Deux spécifications ont été définies. La première repose sur le protocole DS3 et est utilisée lorsque le niveau 2 est conforme au standard IEEE 802.6 (DQDB). La seconde repose sur le standard SONET STS-3C ; elle est mise en place lorsque le niveau 2 utilise ATM.

9.7. Le relais de trames

9.7.1. Généralités

Le relais de trames (Frame Relay) [ANSI 90] est considéré comme la solution intermédiaire à la demande de hauts débits. En effet, les réseaux X.25 existants ne sont capables que d'offrir des débits de l'ordre du kbit/s et ne peuvent satisfaire les contraintes de délai requises par les nouvelles applications qui émergent. D'autre part, les liaisons spécialisées, bien qu'offrant des débits de l'ordre du Mbit/s, ne sont pas suffisamment flexibles en termes d'offre de débits et se révèlent coûteuses. Si le réseau ATM est la solution à long terme, le relais de trames constitue une solution à court et moyen termes.

Le relais de trames consiste en un système de commutation de paquets "dépouillé" dont le débit peut actuellement atteindre 2 Mbit/s ; des débits supérieurs seront prochainement proposés. Le contrôle d'erreur et le contrôle de flux sont reportés au niveau des équipements d'extrémité. Les nœuds intermédiaires n'assurant plus qu'une fonction de relais de trames, leur temps de traversée est cinq à dix fois plus court que celui d'un commutateur X.25. Les données sont transmises à l'aide d'un noyau de base utilisant une enveloppe de trame HDLC, avec détection mais sans signalisation ni correction d'erreur. Différentes sessions peuvent être ouvertes simultanément grâce à l'utilisation de numéros de voies logiques. Le relais de trames permet également la concentration de flux synchrones X.25 ou asynchrones X.28. La voix, compressée dynamiquement jusqu'à 8 kbit/s, est proposée par certains constructeurs mais n'est pas encore normalisée au sein de l'UIT-T.

9.7.2. La trame Frame Relay

La trame a le même format (figure 9.13) que celui défini dans le protocole de liaison de données HDLC (High-level Data Link Control) [IS 3309]. Une trame est considérée comme valide lorsqu'elle est délimitée par les drapeaux "01111110" et qu'elle comporte au moins cinq octets, hors drapeaux, soit au moins un octet

Page 322: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

d'information. La longueur d'une trame est variable et au maximum de 2 048 octets. La transparence au drapeau est faite par insertion d'un zéro après toute série de cinq " 1 " consécutifs.

0 1 1 1 1 1 1 0

DLCI (MSB) C/R EA

DLCI (LSB) FE CN

BE CN

C/R EA

user data

FCS (MSB)

FCS(LSB)

0 1 1 1 1 1 1 0

F i g u r e 9 . 1 3 . Format de la trame Frame Relay

Les différents champs de la trame ont la signification suivante :

- DLCI (Data Link Connection Identifier) permet d'identifier la trame ou le circuit virtuel. Le codage est réalisé sur 10 bits, donnant 1 024 valeurs possibles, dont certaines sont réservées ;

- le bit C/R (Command/Response) n'est pas utilisé par le protocole ; il est simplement transféré entre les utilisateurs du service de relais de trames et leur permet de distinguer une trame de commande d'une trame de réponse ;

- les bits EA (Extended Address) servent à délimiter le champ d'adresse (EA = 0 dans le deuxième octet et EA = 1 dans le troisième) ; une valeur à 0 indique que l'octet suivant fait partie du DLCI, une valeur à 1 indique que l'octet courant est le dernier du DLCI ;

- le bit BECN (Backward Explicit Congestion Notification) est positionné à 1 par le réseau pour indiquer à l'émetteur que les trames qu'il pourrait émettre vont traverser un réseau encombré ;

- le bit FECN (Forward Explicit Congestion Notification) est mis à 1 par le réseau pour indiquer au récepteur que les trames qu'il reçoit ont traversé un réseau encombré ;

- le bit DE (Discard Eligibility) est mis à 1 pour indiquer qu'en cas de congestion cette trame peut être rejetée ;

- le champ User Data correspond au champ d'information transmis ; il n'est pas interprété par le protocole de relais de trames (excepté le CV dédié au LMI (Local Management Interface)) ;

- le champ FCS (Frame Check Sequence) contient sur deux octets la séquence de contrôle d'erreur calculée sur tous les bits de la trame, hormis les drapeaux et le FCS.

302 Architecture des réseaux haut débit

Page 323: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 3 0 3

9.7.3. Principe de l'adressage Relais de trames

Le DLCI identifie localement la connexion bidirectionnelle entre l'équipement client et le commutateur de relais de trames : chaque DLCI n 'a qu'une signification "locale", c'est-à-dire significative uniquement entre deux nœuds. Un même numéro de DLCI peut donc être utilisé plusieurs fois dans un même réseau, pourvu qu'il ne s'agisse pas de communications avec des nœuds communs.

La figure 9.14 montre l'exemple de l'interconnexion de quatre sites reliés par un réseau de relais de trames. Les numéros indiqués sont ceux des DLCI utilisés. Le site A utilise le DLCI 27 pour communiquer avec le site B, alors que le site B utilise le DLCI 99 pour communiquer avec le site A. Lorsque A est prêt à émettre une trame à destination de B, l'installation terminale de l'utilisateur positionne le DLCI à 27 dans la trame qu'elle émet vers le réseau. Ce dernier reconnaît cette valeur et achemine donc la trame vers le site B. A son arrivée, la valeur de DLCI est translatée en 99 afin d'indiquer la provenance de la trame. Le DLCI 27 peut être réutilisé entre les sites C et D.

site A utilisateur

site B utilisateur

réseau Frame Relay

site C utilisateur

site D utilisateur

F i g u r e 9 . 1 4 . Utilisation des DLCI

9.7.4. Etablissement d'une connexion

Lorsque l'application A émet une requête d'établissement de connexion, la requête, après avoir traversé les couches présentation et session, arrive à la couche transport qui transmet la demande d'appel sur le canal D, canal de signalisation du RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite), via le protocole de signalisation Q.931 (figure 9.15). Sur ce canal D, le protocole LAP-D réalise au niveau liaison les fonctions de commutation, de multiplexage, de contrôle d'erreur et de contrôle de flux. Le message de signalisation est acheminé à travers le réseau et sert à déterminer le circuit virtuel ainsi que les paramètres d'appel qui seront utilisés durant le transfert de données.

Une fois la connexion établie, les données sont transférées à travers le réseau, de l'application A à l'application B, en se servant du DLCI dans l'en-tête et en routant

Page 324: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

304 Architecture des réseaux haut débit

les informations à chaque nœud selon le chemin déterminé lors de la phase d'établissement de la communication. Le protocole V . 1 2 0 est une variante du protocole LAP-D qui a pour objectif initial de permettre l'utilisation du canal B du RNIS-BE par des terminaux non-RNIS.

Le grand avantage du relais de trames est de pouvoir optimiser les traitements de chaque trame dans les nœuds, accélérant ainsi les transferts d'information.

équipement terminal A équipement terminal B

application A

presentation

session

transport

reseau

liaison

V 120

relais de tramts

physique

commutateur RNIS

réjeau

L | P - D

RNIS réseau de

signalisation

application A

presentation

session

transport |

réseau

liaison

V.120

relais de trames

physique

réseau

LAPïD

relais de trames

physique

commutateur ae relais de trames

transfert de données

établissement de connexion

Figure 9.15. Connexion Frame Relay

Page 325: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 305

Exercices

Exercice 9.1

Comparez l'algorithme Spanning Tree et l'algorithme Source Routing.

Exercice 9.2

On considère les réseaux suivants : Ethernet, Token Bus, Token Ring, FDDI et DQDB.

1. Comparez leurs caractéristiques en termes de topologie, de débit, de temps d'accès, de longueurs de trame minimale et maximale et de gestion de priorités.

2. Comparez leurs formats de trame.

3. Déterminez les opérations effectuées par un pont interconnectant deux quelconques de ces réseaux.

4. En considérant chaque couple possible de réseaux, indiquez les opérations spécifiques que doit réaliser le pont.

Exercice 9.3

On interconnecte un réseau Token Ring et un réseau Ethernet.

1. Donnez l'architecture dans le cas d'une interconnexion au niveau MAC et dans le cas d'une interconnexion au niveau réseau.

2. Indiquez pour chacun des éléments ci-dessous les traitements éventuels dans le cas d'un pont et dans le cas d'un routeur :

a. Longueur de PDU b. Fragmentation et réassemblage d'une PDU c. Temps de réassemblage d'une PDU d. Durée de vie d'une PDU e. Priorité d'une PDU f. Nombre de paquets déséquencés g. Nombre de paquets dupliqués h. Vérification du champ de contrôle de la PDU i. Adresse destination de la PDU j . Adresse source de la PDU

Exercice 9.4

Un utilisateur du service de réseau situé sur la machine A souhaite envoyer à un utilisateur du service de réseau situé sur la machine B un volume de données représentant 2 800 octets. Représentez sur un schéma l'enchaînement complet de toutes les primitives de service MAC et LLC utilisées et les échanges de PDU

Page 326: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 0 6 Architecture des réseaux haut débit

couches sup.

IP

LLC2

CSMA/CD

physique 1

n n n f

interface du pont

fSMA/CD Token Rine

physique 1 physique 2

couches sup.

LLC2

IP

Token Ring

physique 2

support physique support physique

Exercice 9.5

Un réseau métropolitain DQDB à 155 Mbit/s (IEEE 802.6) est utilisé comme réseau fédérateur pour interconnecter deux réseaux locaux utilisant comme méthode d'accès le protocole Token Ring spécifié dans le standard IEEE 802.5 et offrant chacun un débit brut de 4 Mbit/s. Sur chaque Token Ring, 6 stations sont connectées qui génèrent le même trafic. La longueur des données d'une trame Token Ring est de 1 koctet.

I Token Ring

générateur de trames

DQDB Token !

Ring

1. Donnez l'architecture de l'interconnexion Token Ring/DQDB.

2. Dans quel type de slots la passerelle doit-elle transmettre les trames Token

Ring sur le réseau DQDB ?

3 . Quelles sont les principales fonctions réalisées par cet équipement

d'interconnexion ?

4 . L 'UIF dispose de 4 ko de tampons en tout. Quels problèmes risque-t-il de

se produire '? Comment y remédier '?

nécessaires à l'envoi de ces 2 800 octets. On considérera un en-tête IP de 22 octets, des adresses MAC de 2 octets et que la couche LLC opère en mode connecté.

passerelle passerelle

Page 327: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Interconnexion 307

Exercice 9.6

1. Rappelez la structure de la table de filtrage d'un pont et en quoi consistent les opérations de filtrage et de mise à jour.

2. On souhaite distribuer la fonction de filtrage afin de paralléliser les traitements réalisés par le pont. Pour ce faire, une table de filtrage est utilisée par port du pont. Comment le filtrage opère-t-il ? Quelle structure de table peut-on utiliser ?

Exercice 9.7

Comparez les critères de QoS fournis par les ponts et les routeurs en considérant : le temps de transit, la taille de l'information, le taux de pertes, le taux d'erreurs, la durée de vie de l'information, les priorités, la sécurité et la réaction après mise hors service d'une route.

Exercice 9.8

On souhaite interconnecter un réseau DQDB avec un réseau large bande utilisant la technique ATM.

1. Sur le réseau DQDB, trois modes sont possibles : isochrone, asynchrone sans connexion, asynchrone avec connexion. Sur le réseau large bande, le mode ATM utilise un mode orienté connexion. Quel est à votre avis le mode DQDB qui conviendrait le mieux pour interconnecter un utilisateur du réseau large bande et un utilisateur du réseau DQDB ?

2. Sur le réseau large bande, quel type d'AAL serait le mieux adapté ?

3. Pour minimiser les temps de traitements induits par les protocoles, l'interconnexion doit être réalisée au niveau le plus bas. Discutez des problèmes posés par l'interconnexion au niveau s/of/cellule dans chaque sens de transmission, tels que l'adressage, la compatibilité des couches d'adaptation des deux réseaux ainsi que les similitudes et les différences de formats entre les diverses PDU.

4. Définissez une architecture pour leur interconnexion, ainsi que les fonctionnalités à remplir.

Exercice 9.9

On souhaite surveiller le comportement du protocole IP. Quelles sont les sondes logicielles nécessaires pour connaître l'état du protocole IP ?

Page 328: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 329: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés

Chapitre 1

Réponse 1.1

- Proposer un modèle général d'architecture de réseau, - régler les problèmes de l'interconnexion de systèmes hétérogènes, - préciser les concepts et la terminologie du domaine de la téléinformatique, - etc (cf. 1.4.).

Réponse 1.2

Les TPDU sont les unités de données du protocole de transport (niveau 4). Les paquets ou NPDU sont les unités de données du protocole de réseau (niveau 3). La couche réseau étant immédiatement inférieure à la couche transport, ce sont les paquets qui encapsulent les TPDU.

transport TPDU

reseau NPCI NSDU

NPDU

Réponse 1.3

Quel que soit le type de paquet considéré (acquittement, appel, libération, données, etc.), il sera encapsulé dans une trame de données. Cela fait référence à l'un des concepts essentiels du modèle OSI : toute (N)PDU envoyée par une entité (N) à

Page 330: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 1 0 Architecture des réseaux haut débit

mode connecté mode non connecté

Avantages - garantie de la présence d e

l'interlocuteur

- qualité du temps de réponse en

phase de transfert

- négociation possible de QoS et

d'options lors de l'établissement

- fiabilisation possible du transfert

de données (contrôle d'erreur,

contrôle de flux)

- minimisation du volume

d'information de contrôle du

protocole pendant la phase de

transfert

- possibilité de diffusion

- efficacité en cas de petits

transferts isolés dans le temps

Inconvénients - présence obligatoire de

l'interlocuteur

- mise en œuvre de procédures

lourdes pour l'établissement et la

libération (à un degré moindre) de

connexion

- immobilisation de ressources de

communication pendant toute la

durée de la connexion

- communications point à

multipoint mal supportées

- manque d'efficacité pour de petits

transferts isolés dans le temps

- pas de fiabilité (pertes,

erreurs, duplications,

déséquencements possibles)

- surdébit important

(notamment, toute unité de

données doit véhiculer

l'information d'adressage)

- pas de négociation possible

Réponse 1.5

Couche (N) en mode connecte' et couche (N-l) en mode non connecte'

Les (N-1 )SDU sont transférées de façon totalement indépendante entre elles et

sans aucune garantie de fiabilité. En conséquence, les (N)PDU qu'elles représentent

peuvent être altérées, perdues, dupliquées ou déséquencées. Si la couche (N) doit

rendre un service fiable, elle devra réaliser elle-même tous les contrôles qui

s'imposent (contrôle de flux, contrôle d'erreur — numérotation des (N)PDU,

acquittement des (N)PDU, calcul de séquences de contrôle, temporisations,

retransmission, etc.) avec la complexité protocolaire qui en découle.

une entité homologue est soumise au niveau inférieur, (N-l) , sous la forme d'une

(N-l)SDU (en l'absence de concaténation) qui sera transférée de manière transparente

par l'entité (N-l) sous-jacente lors de la phase de transfert de données au niveau

(N-l).

Réponse 1.4

Page 331: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 3 1 1

Couche (N) en mode non connecté et couche (N-l) en mode connecté

L'envoi d'une (N)PDU nécessite l'existence préalable d'une connexion (N-l ) . Faut-il alors ouvrir une connexion (N-l) , envoyer la (N)PDU et fermer la connexion (N-l) ? Ou faut-il garder la connexion (N-l) ouverte pour d'autres (N)PDUs qui seraient susceptibles d'être ultérieurement émises ? La première solution peut engendrer, en cas de trafic important, un grand nombre d'établissements et de libérations de connexion, avec tous les inconvénients qui y sont liés (délais, coûts). La seconde peut, en cas de faible trafic, immobiliser des ressources de communication (au moins en termes de mémoire) de manière inutile. Une troisième solution consiste à associer à chaque connexion (N-l) ouverte un temporisateur, réarmé à chaque trace d'activité et dont l'arrivée à échéance provoque la fermeture de la connexion.

R é p o n s e 1.6

Un mécanisme de contrôle d'erreur est nécessaire dès lors que la couche considérée se doit de rendre un service fiable et que le service qu'elle utilise ne l'est pas forcément. Les couches concernées sont donc les couches liaison de données et transport. Au niveau liaison, il s'agit principalement de reprendre les erreurs de transmission sur une ligne reliant deux équipements donnés. Au niveau transport, il s'agit de reprendre toutes les erreurs, signalées ou non, qui n'ont pas été récupérées par les niveaux inférieurs (erreurs de transmission résiduelles, pertes et déséquencements d'unités de données, etc.) et cela de bout en bout. En théorie, le seul cas de redondance possible est celui où les deux systèmes d'extrémité sont directement reliés par une seule liaison.

R é p o n s e 1.7

1. On définit le service en premier. A partir des spécifications du service (par exemple, transfert fiable en mode connecté), on peut déduire les fonctions de la couche (par exemple, contrôle d'erreur), puis les mécanismes (éléments de protocole) qui réalisent ces fonctions (par exemple, numérotation des PDU, PDU d'acquittement, temporisation avant retransmission, etc.). Les règles auxquelles se soumettent ces mécanismes — règles de codage, de structuration et d'échange (par exemple, champ de numérotation codé sur n bits, envoi d'une PDU d'acquittement pour toute PDU de données reçue correctement, etc.) — constituent un protocole.

2. Oui, puisqu'il y a différentes manières possibles de rendre le même service.

3. Oui, à condition de l'avoir prévu dans la structure des PDU qu'il utilise. Tout protocole opérant en mode connecté utilise généralement des PDU pour l'établissement de connexion, des PDU pour la phase de transfert de données et des PDU pour la libération de connexion. Pour que le protocole puisse rendre un service en mode non connecté, une solution possible est de prévoir dans la PDU d'établissement de connexion un champ d'information et un champ indiquant le type de service utilisé (connecté ou non).

Page 332: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 1 2 Architecture des réseaux haut débit

Réponse 1.8

1. Côté utilisateur appelant (A)

interface 6/5 interface 5/4 interface 4/3 interface 3/2 S.CONNECT.

request T.CONNECT.

request N_CONNECT L CONNECT.

-S.CONNECT.

request T.CONNECT.

request request ^ request -

L CONNECT. • confirmation •

L DATA request

L DATA request

N CONNECT. L DATA indication > confirmation ^ L DATA indication >

N DATA LDATA request

-request LDATA request

-

T CONNECT. N DATA. L DATA, indication • confirmation indication ^ L DATA, indication •

T DATA request

N DATA L DATA request -

T DATA request request ^

L DATA request -

S^CONNECT. confirmation

T_DATA. N_DATA

^

L^DATA indication -

S^CONNECT. confirmation indication indication —

L^DATA indication -

2. Côté utilisateur appelé (B)

interface 2/3 interface 3/4 interface 4/5 interface 5/6 L.CONNECT.

indication L.CONNECT.

indication

L CONNECT. TVsnnrtSf:

L CONNECT. TVsnnrtSf:

— L DATA, indication

N CONNECT, indication —

L DATA, indication

N CONNECT, indication

L DATA, request

N CONNECT, response

L DATA, request

N CONNECT, response

*- L_DÀTÀ. indication

N DATA, indication

T CONNECT, indication *- L_DÀTÀ.

indication N DATA, indication

T CONNECT, indication

L DATA, request

N DATA. T CONNECT response

L DATA, request request —

T CONNECT response

— • L DATA, indication

N DATA. T DATA, indication

SJTONNECT. indication — •

L DATA, indication indication

T DATA, indication " — ^

SJTONNECT. indication

L DATA, request

N DATA. TJ3ATA: request

S.CONNECT. response "

L DATA, request request

TJ3ATA: request •

S.CONNECT. response "

Page 333: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 313

C h a p i t r e 2

Réponse 2.1

topologie avantages inconvénients

étoile - conflits d'accès réglés par le central - diffusion - technologie simple et éprouvée - liens point à point adaptés à la fibre optique et simples à maintenir

- fiabilité du central - limitation du nombre de stations par la puissance du central

bus - diffusion - retrait implicite des informations - connexions des stations par des prises - facile à installer

- risque de collisions - taille d'un segment limitée à cause de l'atténuation - lien multipoint non adapté à la fibre optique et complexe à maintenir

anneau - diffusion - pas de taille limite au réseau - liens point à point adaptés à la fibre optique et simples à maintenir

- risque de collisions - retrait des informations - coupure de l'anneau - répéteur complexe et coûteux - gestion des pannes - décalage d'horloge d'un lien en amont à celui en aval

R é p o n s e 2.2

accès avantages inconvénients

AMRT - simple et efficace si le nombre de stations est fixe - accès équitable - accès régulier - mécanisme de priorités facilement réalisable (en allouant plusieurs tranches à une station prioritaire, par exemple)

- efficacité discutable (si une station n'a rien à émettre durant sa tranche de temps, celle-ci reste inutilisée) - synchronisation nécessaire des stations (chaque cycle est démarré par une station primaire qui émet un petit message de synchronisation) - fiabilité de cette station primaire - tout ajout/retrait de station entraîne une modification des cycles

Page 334: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 1 4 Architecture des réseaux haut débit

accès avantages inconvénients AMRF idem AMRT sauf :

- synchronisation non nécessaire idem AMRT sauf : - le découpage en sous-bandes introduit, pour des raisons techniques, des inter-bandes, d'où un gaspillage de la bande passante - chaque station pour recevoir a besoin d'autant de démodulateurs qu'il y a de sous-bandes

pol l ing - flexibilité au niveau du contrôle (une station peut envoyer plusieurs messages avant de rendre la parole) - mécanisme de priorités facilement réalisable (en interrogeant plus fréquemment les stations prioritaires, par exemple) - simplicité des stations secondaires et coût en proportion - pas de contention d'accès - permet de gérer des acquittements

- fiabilité de la station primaire - complexité du primaire - dans le cas d'une étoile, efficacité réduite du fait que les messages sont propagés deux fois, de la source au primaire, puis du primaire au destinataire - temps d'accès importants lorsque toutes les stations sont actives

jeton sur anneau

- délai d'accès borné - mécanisme de priorités possible - une station peut émettre plusieurs messages avant de rendre le jeton

- station de contrôle indispensable - complexité et surcoût associés au traitement et à la surveillance du jeton - temporisateur pour éviter qu'une station ne monopolise le jeton - retrait des informations

jeton sur bus

- retrait implicite des informations - utilise le câblage simple du bus - accès équitable - accès déterministe - mécanisme de priorités possible

- tout ajout/retrait de station nécessite une modification de la séquence logique des stations - complexité de la gestion de l'anneau virtuel

aléatoire - simplicité - très bonnes performances sous faible charge

- collisions - très mauvaises performances sous forte charge - accès non équitable - temps d'accès non borné - nécessite la mise en place d'une reprise après contention - pas de priorités possibles

Page 335: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Réponse 2.3

Corrigés 315

Il s agit principalement des paramètres suivants :

- nombre de stations sur l'anneau, - vitesse de propagation, - longueur de l'anneau et distances inter-stations, - temps de gestion du jeton dans les stations, - temps de traitement en émission, - temps de traitement en réception, - temps de latence des stations, - longueur du jeton, - longueur des trames, - débit de l'anneau, etc.

Réponse 2.4

1. Il n 'y a pas de structuration en trames donc il n'y a pas lieu de calculer Te et

T. Le temps Tp n'est comptabilisé qu'une seule fois.

2. T = temps émission de la trame et de son acquittement + 2 * temps de propagation

Tw, = temps de transfert total du fichier = nombre de trames d'information

envoyées * T

Dy = débit utile = nombre de bits utiles transférés pendant T

Nous donnons ci-après quelques courbes pour le réseau sur bus qui montrent l'évolution du débit utile et du temps total de transfert d'une trame en fonction soit de la distance soit de la taille de la trame.

Du = 63,999 kbit/s

Page 336: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 1 6 Architecture des réseaux haut débit

Courbe du temps de transfert T pour une capacité du réseau de 5 Mbit/s

Courbes du temps de transfert T pour les valeurs de capacité du réseau de 1, 5, 10 et 50 Mbit/s

T :

tem

ps to

tal

de t

rans

fert

d'un

e tr

ame

(ms)

d : distance (km)

d : distance (km)

DU

: d

ébit

util

e (k

bit/s

)

C = 5 Mbit/s

C = 50 Mbit/s

Page 337: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

DU

: d

ébit

utile

(kb

it/s)

d : distance (km)

DU

: d

ébit

utile

(kb

it/s)

Corrigés 317

d : distance (km)

Courbes du débit utile Dy pour les valeurs de capacité du réseau de 1, 5, 10 et 50 Mbit/s

Courbe du débit utile DJJ pour une capacité du réseau de 5 Mbit/s

Page 338: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 1 8 Architecture des réseaux haut débit D

U :

déb

it ut

ile

(kbi

t/s)

L : longeur de la trame en bits

Courbes du débit utile Dy en fonction de la longueur de la trame pour les valeurs de capacité du réseau de 1, 5, 10 et 50 Mbit/s

Page 339: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 3 1 9

L : nombre de bits dans la trame

Courbes du temps de transfert d'une trame Ten fonction de la longueur

de la trame pour les valeurs de capacité du réseau de I, 5, et 10 Mbit/s

3. L'acquittement se fait par positionnement au vol par le récepteur de bits sur la trame : la trame est donc considérée comme acquittée lorsqu'elle retourne à l'émetteur. Le temps de propagation est pris égal à celui d'un tour de l'anneau.

T = temps émission de la trame + temps de propagation + N * \ temps bit

Le temps total et le débit utile se calculent de la même manière qu'en 2 .

DU

: d

ébit

uti

le (

kbit

/s)

Page 340: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

320 Architecture des réseaux haut débit

Chapitre 3

Réponse 3.1

CSMA/CD spécifie que la station doit être à l 'écoute pendant sa propre transmission. Une station doit donc transmettre au moins pendant toute la fenêtre de collision. Si ti est le temps de transmission d'une trame de longueur L et T la fenêtre de collision, on doit avoir :

A.N. : T = 50.10" 6 s et L = 500 bits comme la longueur de la trame doit être un nombre entier d'octets, on arrondit L à 512 bits (64 octets), soit un slot-time de 51,2.10" 6 s, ce qui correspond aux paramètres d'un Ethernet classique.

Réponse 3.2

Soi t :

- D la distance maximale entre deux stations, - V la vitesse de propagation sur le support ( V = 100 000 km/s), - 7 1 a fenêtre de collision.

On a :

Sachant que la longueur minimale d'une trame est de 512 bits, la fenêtre de collision T est de 512 temps-bit. Le débit étant de 100 Mbit/s : 1 temps-bit = 10"8 s et T = 5,12 us.

D'où

Sur le chemin de données entre 2 stations, il y a 2 segments et un hub, la longueur maximale d'un segment est donc de 125 m. La spécification la limite à seulement 100 m à cause de l'atténuation du signal.

Réponse 3.3

1. Le chronogramme est :

à t = 5 : B,C et D écoutent à t = 6 : B, C et D émettent et entrent en collision pendant un slot

maxbackoff = 2, l'algorithme fait attendre 0 slot pour B, 1 slot pour C e t D

à t = 7 : B émet à t = 8 : B et D écoutent

0 î 2 3 4 5 6 7 8 9 10 il 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

A A A A A A X B B B B B B X X D D D D D D C C C C C C

Page 341: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 321

à t = 13 : C et D émettent et entrent en collision maxbackoff = 4, l'algorithme fait attendre 1 slot à C et D

à t = 15 : C et D émettent et entrent en collision maxbackoff = 8, l'algorithme fait attendre 1 slot à D et 4 slots à D

à t = 17 : D émet à t = 17 : C écoute à t = 23 : C émet

stations essais tirage attempts maxbackofl delay

B 1 1/4 1 2 0

C 1 1/2 1 2 1

D 1 3/4 1 2 1

C 2 1/4 2 4 1

D 2 1/4 2 4 1

C 3 1/2 3 8 4

D 3 1/8 3 8 1

2. Le taux d'utilisation du canal est de 24/29 soit de 82 %.

Réponse 3.4

1. A n'a subi qu'une collision donc M A = 0 ou 1

B a subi 2 collisions successives donc A/g = 0 , 1 , 2 ou 3

Soit p la probabilité d'une nouvelle collision :

p = Proba [ M A = 0] . Proba [A/g = 0] + Proba [ M A = 1 ] . Proba [A/g = 1 ]

p=\/2. 1/4 + 1/2 . 1/4 = 1/4 = 0,25

2. Le nombre de collisions subies par la station permet de déterminer la taille de l'intervalle de tirage. Le temps moyen d'attente avant retransmission pour un essai donné est égal au milieu de l'intervalle de tirage. Le temps moyen cumulé pour n tentatives est donc la somme de chaque temps moyen pour n variant de 1 à 16 . Soit T la durée du slot-time.

- la station n'a pas subi de collision : DQ = 0

- la station a subi n collisions au total, 0 < n < 10, avant de réussir sa transmission :

- délai d'attente nul avant la première transmission

- l r e collision : M = 0 ou 1 ; D , = (0+1 )/2 * T

- 2 e collision : M = 0, 1 , 2 ou 3 ; D 2 = (0+l+2+3)/4 * T = 3/2 * T

- nième collision et nième retransmission (qui réussit) :

Page 342: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 2 2 Architecture des réseaux haut débit

- l a station a subi n collisions au total, 10 < n < 15, avant de réussir sa transmission :

- pour les 10 premières collisions, on a attendu D/0

- 1 I e collision : on attend (2 I 0 -1 ) 77 2 avant la 11 e retransmission

- idem pour n = 12, 13, 14 et 15

Réponse 3.5

Soit Tp le temps de propagation : Tp = 100 / 100 000 s = 1 ms

Soit T la durée du slot-time : T = 2 Tp = 2 ms

Soit L la longueur minimale de trame et D le débit du support (D = 100 Mbit/s) : on a l'équation LID = 2 Tp. D'où : L = 200 Mbit

Les différentes valeurs des paramètres montrent bien qu'Ethernet n'est pas adapté pour ces distances :

- le temps de propagation est très important, augmentant ainsi les risques de collision entre deux stations éloignées ;

- le slot-time est très long comparativement au temps d'émission d'une trame de longueur moyenne, la détection des collisions est donc tardive ;

- la longueur minimale d'une trame est de 200 Mbit, ce qui est énorme ; lorsque la trame n'est pas pleine, il faut la compléter avec des octets de bourrage ; une trame longue a plus de risques de subir des erreurs de transmission ;

- le slot-time est l 'unité de temps du protocole et sert pour la reprise après collision, le temps de reprise serait donc très long.

En conclusion, le protocole ne serait pas performant du point de vue de la détection des collisions et de leur reprise et par conséquent, le canal serait mal utilisé.

Réponse 3.6

Il est possible de transférer des images numérisées fixes sur Ethernet.

Il est possible de transférer des images animées sur le réseau Ethernet si elles sont codées grâce à MPEG 1 ou MPEG2 (Moving Picture Expert Group) (débits de 1,5 et 5 Mbit/s). Par contre, l'affichage en temps réel ne pourra se faire que dans la mesure où l'on mémorise une grande quantité de données en réception pour masquer les méfaits de F indéterminisme et de l'asynchronisme de CSMA/CD.

- donc :

Page 343: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

* Corrigés 323

Réponse 4.1

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28

J J Bl Bl B I B I J J Dl D D Dl J Al Al Al At J B2 B2 B2 B2 J CI CI CI CI J J

29 30 31 32 33 34

J J C2 C2 C2 C2

à t = 0 : la station D relâche le jeton et B veut transmettre 2 trames à t = 2 : la station B se saisit du jeton et transmet sa première trame Bl à t = 4 : la station A veut transmettre une trame à t = 6 : la station B relâche le jeton à t = 8 : la station D veut transmettre une trame et se saisit du jeton,

elle transmet sa trame D1 à t = 12 : la station D relâche le jeton à t = 13 : la station A prend le jeton et transmet sa trame A1 à t = 17 : la station A relâche le jeton à t = 18 : la station B se saisit du jeton et transmet sa deuxième trame B2

à t = 22 : la station B relâche le jeton à t = 23 : la station C veut transmettre deux trames et se saisit du jeton,

elle transmet sa première trame C1 à t = 27 : la station C relâche le jeton à t = 31 : la station C se saisit à nouveau du jeton et transmet sa deuxième

trame C2

2. Le temps mis pour l'exécution du scénario est de 35 ms.

3. Le temps d'accès moyen au support est calculé grâce au tableau récapitulatif

des temps d'accès :

trame date requête

d'envoi de trame date envoi

effectif temps d'accès

Bl 0 2 2

B2 0 18 18

Al 4 13 9

Dl 8 8 0

Cl 23 23 0

C2 23 31 8

Le temps d'accès moyen est égal à la somme des temps d'accès que divise le nombre de trames du scénario, soit 37/6 = 6,33 ms.

Chapitre 4

1. Le chronogramme est le suivant :

Page 344: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 2 4 Architecture des réseaux haut débit

Réponse 4.2

1. Le début du diagramme des temps est le suivant :

liaison A-B

liaison B-C

liaison C-D

liaison D-A

à t = 0 : la station A transmet sa trame Al avec (P = l, R = 1) à t = 1 : la station B réserve une nouvelle priorité (R = 2) et sauvegarde

l'ancienne (sg = 1) à t = 2 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde

l'ancienne (se = 2) à t = 3 : la station D a reçu la trame A1 à t = 4 : A retransmet un jeton de priorités (P = 3, R = 3) à t = 5 : la station B ne peut se saisir du jeton, pg < P à t = 6 : la station C prend le jeton et transmet sa trame Cl avec (P = 3, R = 2) à t = 7 : la station D a reçu la trame Cl à t = 10 : la station C retransmet le jeton avec (P = 2, R = 2) à t = 12 : la station A ne peut se saisir du jeton, pA<P à t = 13 : la station B prend le jeton et émet une trame avec (P = 2, R = 1) à t = 14 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde

l'ancienne (sc= 1) à t = 15 : la station D a reçu la trame Bl à t = 17 : la station B retransmet le jeton avec (P = 3, R = 3) à t = 18 : la station C prend le jeton et transmet sa trame C2 avec (P = 3, R = 1) à t = 19 : la station D a reçu la trame C2 à t = 21 :1a station B réserve une nouvelle priorité (R = 2) et sauvegarde

l'ancienne (sg = 1) à t = 22 : la station C retransmet le jeton avec (P = 2, R = 2) à t = 24 : la station A ne peut se saisir du jeton, pA<P à t = 25 : la station B prend le jeton et transmet sa trame B2 avec (P = 2, R = 1)

Page 345: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

C o r r i g é s 3 2 5

à t = 26 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde

1" ancienne (sc= 1)

à t = 27 : la station D a reçu la trame B2

etc.

On constate que la station A ne peut accéder au jeton car les stations B et C augmentent la priorité sitôt que l'autre l'a restituée. L'ordre de réception des trames par D est donc : A l , C l , B l , C2, B2, C3, B3, A2, A3.

2. La durée totale associée au scénario se décompose ainsi :

- date de fin de transmission de B2 = 29 - jeton de B à C et transmission de C3 = 1 + 4 = 5 - jeton de C à B et transmission de B3 = 3 + 4 = 7 - jeton de B à A et transmission de A2 = 3 + 4 = 7 - jeton de A à A et transmission de A3 = 4 + 4 = 8

On obtient donc 56 ms.

R é p o n s e 4.3

En fonctionnement normal, l'accès pour Token Bus se fait de façon déterministe. Sous forte charge, il sera toujours possible d'émettre de manière certaine le trafic prioritaire. Néanmoins, les trafics moins prioritaires connaîtront un temps d'attente plus long. Les performances en cas de faible charge sont moins bonnes que celles de CSMA/CD. En effet, une station active doit attendre l'arrivée du jeton pour pouvoir utiliser le canal. Donc, même s'il n'y a qu'une station active, celle-ci doit attendre que les autres stations lui passent le jeton, le délai minimal d'accès est donc non nul pour Token Bus, contrairement au protocole CSMA/CD. Ce délai n'est pas négligeable ; il dépend de la taille du réseau, car sa valeur moyenne correspond au temps de passage du jeton parmi la moitié des stations connectées. Plus le réseau est étendu, plus ce délai est grand. De plus, comme le jeton est adressé sous la forme d'une trame, le temps de passage du jeton entre deux stations voisines est non négligeable. Ses avantages par rapport à CSMA/CD résident d'une part, dans son bon comportement à charge élevée et d'autre part, dans son caractère temps-réel (délai d'accès borné) d'autre part.

Page 346: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 2 6 Architecture des réseaux haut débit

Réponse 4.4

1. L'anneau logique est représenté sur le schéma suivant :

station 2 PS = 7 NS = 5

station 5 PS = 2 NS = 6

station 7 PS = 6 NS = 2

station 6 PS = 5 NS = 7

y

station 4 PS = ... NS = ...

—: 7

2. Il faut remarquer qu'entre deux transmissions de trame il y a une transmission du jeton qui dure un slot-time pour passer le jeton du détenteur à son successeur. Le diagramme est le suivant :

J signifie transmission du jeton 7-2 signifie de la station 7 à la station 2 T5 signifie transmission d'une trame de données par la station 5

3. La station 4 pourra entrer sur l'anneau lorsque la station 2 lancera une procédure de réveil car l'adresse 4 est comprise entre les adresses 2 et 5.

Réponse 4.5

Lorsque le jeton arrive, le reliquat est de 504 us, ce qui signifie que le jeton est revenu au bout de 1,496 ms et que les reliquats de TTRT4, TTRT2 et TTRTO sont respectivement de 304, 104 et 0 us. On ne peut donc pas envoyer de données de niveau 0 car TTRTO a déjà expiré.

L'envoi des 50 octets de niveau 6 prend un temps égal à T6 = 50.8.10" 7 = 40 |is (un temps-bit = 10" 7). L'envoi des 20 octets de niveau 4 prendra T4 = 20.8.10" 7 = 16 (as. Il sera donc possible d'envoyer des données de niveau 2 pendant le temps T2 = TTRT2 - T6 - T4, soit T2 = 104 - 40 -16 = 48 us. Pendant ce temps 72, il est possible d'envoyer 480 bits de niveau 2, soit 60 octets.

Page 347: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 3 2 7

Réponse 4.6

La procédure d'initialisation de l'anneau est activée dans les quatre stations, chacune d'elles essayant de s'attribuer le jeton. A l'issue de cette procédure, l'anneau logique ne comporte qu'une seule station, celle qui a gagné le jeton. Les trois autres stations s'insèrent dans l'anneau au fur et à mesure du déroulement de la procédure de réveil et d'ajout de stations.

Chaque station candidate envoie une trame Claim Token, dont le champ d'information a une longueur multiple du slot-time. Le multiple est 0, 2, 4 ou 6, en fonction d'une paire de bits de l'adresse de la station : d'abord, les deux bits de poids fort, puis les deux bits suivants, etc.

- 00 : la longueur du champ est de 0 slot-time - 01 : la longueur du champ est de 2 slots-time - 10 : la longueur du champ est de 4 slots-time - 11 : la longueur du champ est de 6 slots-time

Si une station candidate détecte une transmission pendant les slots-time où elle attend, elle se retire de la compétition. Si une station candidate n'entend rien sur le bus et qu'elle a utilisé toutes les paires de bits de son adresse, elle en déduit qu'elle est la station initialisatrice et elle crée un jeton. Il s'agit ici de la station 9 (station de plus grande adresse). C'est elle donc qui va lancer la procédure de réveil. Elle envoie une trame solicit_successor, à laquelle répondent les stations 4, 2 et 1 par une trame set_successor pendant le premier slot-time. La station 9 entame alors la procédure d'arbitrage par l'envoi d'une trame resolve contention. L'arbitrage est fait sur la base des paires de bits de l'adresse des stations en compétition. C'est la station 4 qui sera insérée dans l'anneau. Quand la station 4 lancera la procédure de réveil, elle fera entrer la station 2. Quand la station 2 lancera la procédure de réveil, elle fera entrer la station 1. L'ordre est donc 9, 4, 2, puis 1.

Page 348: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 2 8 Architecture des réseaux haut débit

Chapitre 5

Réponse 5.1

critère FDDI Token Ring (4 et 16 Mbit/s) débit 100 Mbit/s 4 et 16 Mbit/s codage du

signal 4B/5B NRZI Manchester différentiel

taille max.

de trame 4 470 4 470 (4 Mbit/s), 18 000 (16)

format de

trame SD, FC, DA, SA, INFO, FCS, ED, FS

SD, AC, FC, DA, SA, INFO, FCS, ED, FS

niveaux de

priorités synchrone et 8 niveaux de priorités

pour le trafic asynchrone d'une

même station

8 niveaux de priorités entre stations

relâche du

jeton après transmission de la ou des trames

après réception de la trame

transmise (4 Mbit/s) / après la

transmission (16) topologie double anneau simple anneau distance

max. 2 km 300 m

couverture max.

200 km quelques km

Réponse 5.2

Ces indicateurs, situés en fin de trame (champ Frame Status), précisent l'état de la trame : erreur détectée (E), adresse reconnue (A), trame recopiée (C). D'autres indicateurs peuvent être implémentés de manière optionnelle. Les trois indicateurs sont initialises avec le symbole Reset. La première station qui détecte une erreur rendant la trame invalide (erreur dans le FCS, champ de contrôle FC invalide, longueur de trame invalide) positionne l'indicateur E de la trame correspondante à Set et avertit la couche MAC. Une fois que l'indicateur E a été positionné, les autres stations le transmettent tel quel et n'avertissent pas la couche MAC. A est positionné par une station qui reconnaît l'adresse destination de la trame comme étant la sienne. Les autres stations transmettent A tel qu'elles l'ont reçu. C est positionné par une station qui reconnaît l'adresse destination de la trame comme étant sa propre adresse et qui la copie de ce fait dans son tampon de réception. Les autres stations transmettent C tel qu'elles l'ont reçu.

Ces indicateurs ont un double rôle :

- ils fournissent à la couche LLC de la station émettrice un compte rendu sur la façon dont se sont déroulées la transmission et la réception de la trame. Cependant, la signification de cet accusé de réception doit être modulée. Tout d'abord, une erreur peut survenir lors du transfert de la trame de la couche MAC à la couche LLC au

Page 349: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 329

niveau de la station réceptrice. On n'est donc pas assuré que l'information contenue dans la trame a été effectivement reçue par les couches hautes du destinataire, même si les indicateurs A et C ont été positionnés. Ensuite, si l'adresse destination est une adresse de groupe, le positionnement des indicateurs A et C indique seulement que l'une des stations de ce groupe a reçu et copié la trame ;

- ils permettent de détecter et de localiser des erreurs. Si une station de l'anneau reconnaît l'adresse destination d'une trame comme étant son adresse et que A a déjà été positionné (sans qu'il s'agisse d'une adresse de groupe), c'est qu'il y a un problème de duplication d'adresse. De même, si une trame arrive avec A positionné sans que C le soit, c'est qu'il y a un engorgement du tampon de réception de la station destinataire.

Réponse 5.3

Le codage Manchester impose une transition du signal pour chaque bit transmis, ce qui implique l'utilisation d'une horloge à 200 MHz pour transmettre à un débit de 100 Mbit/s. Le codage 4B/5B n'assure qu'une transition du signal par symbole de 5 bits ; une horloge à 125 MHz (100 * 5/4) suffit alors pour assurer un débit de 100 Mbit/s. Ce codage est donc plus efficace.

Réponse 5.4

(1)... = TRT

(2)... = 0

(3)... = 0

(4)... = LATE_CT + 1

(5)... = TTRT

Réponse 5.5

Les types d'erreurs pouvant entraîner la duplication du jeton sont :

- erreur sur une trame due à un bruit sur le support qui crée un nouveau jeton

(probabilité très faible) ;

- une adresse identique pour deux stations distinctes ; ces dernières peuvent gagner le droit d'émettre un jeton (à la suite d'un Claim). Ce type de situation — duplication d'adresse — est détecté et résolu par SMT ;

- génération d'un nouveau jeton par un MAC en dysfonctionnement.

Page 350: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 3 0 Architecture des réseaux haut débit

Réponse 5.6

Considérons l'exemple suivant : soit un réseau FDDI avec 10 stations actives et un TTRT fixé à 1 ms. Si le jeton revient au bout de 700 us, THT est réinitialisé avec l ms. Si une station utilise effectivement 300 |is pour émettre des données asynchrones et 50 u.s pour émettre des données synchrones, TRT marque 650 us lorsque le jeton est relâché. Si toutes les stations font de même, le temps total de rotation du jeton peut alors atteindre 2 * TTRT. Dans ce cas, on ne pourra plus émettre de données synchrones avant un certain nombre de rotations du jeton. La classe de service synchrone offre donc un service à temps d'accès borné par 2 * TTRT, mais pas un service isochrone, caractérisé par des accès à des intervalles de temps réguliers.

Réponse 5.7

1. Le débit brut étant de 100 Mbit/s, un temps-bit est de 10"2 ms.

Soit Tsxnc le temps de transmission des données synchrones et TRTj le temps de

transmission des données asynchrones de priorité i ; on a :

THT = 50 us = T s y n c + TRT4 + TRT2 + TRT0

- TRT0 = 0

- par connexion synchrone : une trame de 53 octets (25 de données et 28 de surdébit)

- trafic asynchrone de priorité 4 : une trame de 41 octets (13 + 28)

- trafic asynchrone de priorité 2 :

TRT2 = THT - T s y n c - TRT4 - TRT0 = 4,32 us

2. TRTj = 4,32 us correspond au temps de transmission d'une trame de 432 bits (54 octets), soit 26 octets de données envoyés à chaque passage du jeton.

3. 26 octets sont envoyés toutes les TRT ms. Il faut donc pour transférer l'image de 1 Mo :

4. 40 stations (puisque TRT = N * THT, où /V est le nombre de stations actives).

Page 351: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 331

Réponse 5.8

Soit :

- 8Aj l'instant auquel la station A reçoit le jeton la première fois,

- 9A J l'instant auquel la station A reçoit le jeton la deuxième fois,

- 9B j l'instant auquel la station B reçoit le jeton la première fois,

- 9B,2 l'instant auquel la station B reçoit le jeton la deuxième fois,

- tAj le temps de transmission d'une trame par A la première fois,

- tAj le temps de transmission d'une trame par A la deuxième fois,

- tB / le temps de transmission d'une trame par B la première fois,

- tg 2 le temps de transmission d'une trame par B la deuxième fois.

OBJ = 0 A , i + t A J + tp

6B,2 = 6A,2 + tA.2 + lp

Il faut montrer que si dAJ - 0AJ < TTRT+ THT, alors 0B,2 - % / ^ TTRT*

THT On considère deux cas :

Une station reçoit donc le jeton à l'heure si la durée entre deux passages du jeton est inférieure à TTRT+ THT. Nous avons montré que si une station reçoit le jeton à l'heure, alors la station suivante sur l'anneau le reçoit également à l'heure.

Cas 1 : TTRT < 6 A t 2 - dAj < TTRT+ THT

Le jeton est en retard ; aussi, en l'absence de trafic synchrone à émettre, la station A n'a pas le droit de transmettre et forcément tA%2 = 0. Par conséquent :

&B.2 - ÛB.l = dA.2 - OA.1 + <A,2 " ' /U + tp'lP = dAJ " GA,1 " '/t,/

Or, 0Aj -0A,i< TTRT+ THT et tAJ > 0. Donc : 0Bt2 ~ @B,l — 7T f l r+ 7 7 / r

Cas 2 : 0 A t 2 - 0 A , / < 777? r

Le jeton est en avance ; la station A est autorisée à transmettre de l'information

asynchrone jusqu'à ce que le temporisateur THT expire (TTRT atteint). En

conséquence :

(OA.2 + lA,2) - (OAJ - <A,l) TTRT+ THT, soit encore :

&B.2 -0BJ< TTRT+ THT

On a :

Page 352: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 3 2 A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t

Réponse 5 . 9

TTRT est le temps de rotation du jeton. Chaque nœud engendre un délai d et doit retransmettre le jeton. Soit TjeM„ le temps de transmission du jeton et A/ le nombre de stations. Le temps utile est : TTRT - N * (d + Tjeton ) - tp. L'efficacité E s'écrit alors :

A.N. : E = 92,6 %

1. Pour garantir ce temps de cycle et qu'un niveau plus prioritaire dispose de davantage de bande passante qu'un niveau moins prioritaire, il faut que :

TTRT > TTRT2 > TTRTj > TTRT4

2. On suppose que les trames de données sont épuisées avant le temps de possession du jeton.

Algorithme

date d'arrivée du jeton

date de remise du jeton

I

I temps d'émission des I trames de niveau /

.SA lonnées i niveau

données de niveau 3

données de niveau 4

On aurait également pu supposer que les données de niveau 2 épuisait le THT.

Algorithme 2

date d'arrivé du jeton données

fde niveau ]

late de remise

du jeton

I T R T

T T R T 2

T T R T 3

T T R T 4

temps d'émission des trames de niveau i

On constate que. si un niveau épuise son TTRTj, alors le niveau inférieur ne pourra pas transmettre.

Réponse 5 . 1 0

T R T !

T H T -

Page 353: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 333

3. On remarque tout d'abord que l'algorithme 2 traite plutôt du partage de la bande passante que de priorités. Dans l'algorithme 1, on connaît toujours le temps alloué aux données de priorité 1 — il est constant —, alors que dans l'algorithme 2, il est fonction des requêtes en provenance du niveau LLC.

Pour les deUk algorithmes, la somme des temps alloués aux données de priorité 1 est inférieure à TTRT mais : dans l'algorithme 2. on n'est pas sûr de pouvoir transmettre des données de priorité plus faible, alors que pour l'algorithme 1, on peut dimensionner SA afin qu'il reste toujours de la bande passante.

Les deux algorithmes sont équivalents à deux conditions :

- SA = TTRT - TTRT = TTRT2 = TTRT3 = TTRT4

Page 354: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 3 4 Architecture des réseaux haut débit

temps bus A bus B A B D temps commentaires temps émission requêtes RQ CD RQ CD RQ CD RQ CD

commentaires

0

I

X

X D

0

1

0

1

0

1

0

0

0

0 requête de D 2 X C 2 2 0 1 0 0 requête de C 3 X B 3 0 2 0 1 0 0 requête de B 4 Dl — 2 0 1 0 0 0 slot vide pour D 5 X E 3 1 1 1 0 1 requête de E 6 Cl D 3 2 0 2 0 0 1 req (D), slot (C) 7 Bl C 3 3 0 2 0 1 req (C), slot (B) 8 El B 3 0 3 0 1 0 0 req (B), slot (E) 9 D2 E 3 1 2 1 0 1 0 req (E), slot (D) 10 X A 0 3 1 1 1 0 1 0 requête de A 1 1 C2 D 1 2 2 0 2 0 0 req (D). slot (C) 12 B2 — 1 1 2 2 0 slot vide pour B 13 E2 — 1 0 1 1 0 slot vide pour E 14 Al E 2 2 2 1 req (E), slot (A) 15 X A 0 2 2 requête de A 16 D3 — 0 1 2 slot vide pour D 17 E3 — 0 0 2 slot vide pour E 18 A2 — 0 2 slot vide pour A 19 — A 0 0 2 requête de A 20 A3 0 0 slot vide pour A

2. Le débit utile d'une station est défini comme étant le nombre de bits utiles transmis par seconde, c'est-à-dire le rapport du nombre de slots transmis sur le délai total subi par la station. Il est fonction de D, le débit nominal du réseau.

Chapitre 6

Réponse 6.1

1. Nous avons pris les hypothèses suivantes :

- une station ne peut pas faire de requête dans le même temps qu'elle émet ; le slot sur B est déjà passé.

- la station commence par incrémenter son compteur avant de le décrémenter.

Remarquez qu'une station en amont fait toujours sa requête avant celle qui la suit !

Page 355: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 3 3 5

station temps total nombre de slots débit utile

A 20 - 9 = 11 3 3/11 =0,3 D

B 1 3 - 2 = 11 2 2/11 =0,18 D

C 1 2 - 2 = 10 2 2/10 = 0,2 D

D 17- 1 = 16 3 3/16 = 0,18 D

E 1 8 - 5 = 13 3 3/13 = 0,23 D

Le débit de A n'est pas très représentatif. E obtient le meilleur débit car il s'agit de la station la plus en amont sur le bus B et donc la plus favorisée pour l'utilisation des bits de requête. Les autres stations obtiennent des débits comparables.

Réponse 6.2

Dans le cas de DQDB, la longueur du réseau n'influe pas sur le débit maximum. Pour FDDI, avec une longueur de trame donnée, le débit maximum décroît en fonction de la distance.

Réponse 6.3

Le délai d'accès des stations à DQDB dépend de leur position sur le bus. En revanche, ce délai est indépendant de la distance.

Page 356: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 3 6 Architecture des réseaux haut débit

Chapitre 7

Réponse 7.1

application

transactionnelle

LLC1 l'utilisation du service est contrôlée par

l'application et un échange de type

question/réponse ne nécessite pas

l'ouverture d'une connexion

messagerie X.400 LLC1 l'utilisation du service est contrôlée par

l'application

télécopie LLC1 la reprise sur erreur n'est pas primordiale

transfert de fichiers LLC2 c'est un échange de longue durée : le mode

connecté assure la transmission des trames

en séquence et sans perte

contrôle de processus LLC3 c'est l'application cible de LLC3 :

fiabilité et temps réel

Réponse 7.2

type LLC diffusion d'une trame avantages inconvénients

LLC1 - une seule trame est émise

avec comme destination une

adresse de diffusion

- toutes les stations qui

reçoivent cette trame la

copient

simple,

facile à

mettre en

œuvre

- aucune garantie sur la

réception effective par tous

les destinataires

- reprise sur erreur

impossible (aucun retour

d'information de contrôle)

LLC2 - il faut ouvrir une connexion

point à point avec chacun des

n destinataires

- sur chaque connexion,

l'émetteur envoie une trame

de même contenu et attend

l'acquittement

fiable - gestion simultanée de n

connexions

- mauvaise utilisation de la

bande passante (les mêmes

données sont dupliquées n

fois)

- reprise sur erreur connexion

par connexion

LLC3 - une trame de même contenu

est envoyée à chacun des n

destinataires

- chaque destinataire reçoit

une trame qui lui est adressée

individuellement

relativement

simple,

fiable

- mauvaise utilisation de la

bande passante (duplication

de la trame)

- reprise sur erreur faite

destinataire par destinataire

Page 357: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 337

R é p o n s e 7.3

La couche réseau utilise une primitive de requête L_CONNECTION_ FLOWCONTROL pour indiquer à la couche LLC la quantité de données qu'elle est prête à recevoir. De même, la sous-couche LLC utilisera l'indication pour signifier à la couche réseau combien de données elle peut accepter sans risque d'en perdre. Si le paramètre valeur est nul, le flot de données associé à la connexion est suspendu. C'est un contrôle de flux local, à l'interface réseau/LLC, qui porte sur l'interaction entre l'utilisateur de LLC et l'entité LLC. C'est la raison pour laquelle il ne donne pas lieu à un transfert de PDU avec l'entité distante. Il est à distinguer du contrôle de flux du protocole qui s'exerce entre les deux entités LLC homologues au moyen des PDU de supervision RNR et RR.

R é p o n s e 7.4

Lorsqu'un utilisateur de LLC3 demande un transfert de données avec remise garantie (via la primitive DL_DATA_ACK.request), l'entité LLC3 sous-jacente envoie une trame AC (ACO par exemple) encapsulant ces données à son homologue, arme un temporisateur de retransmission et attend un acquittement (AC1). Si une erreur de transmission vient altérer la trame MAC encapsulant la trame ACO ou la trame AC1, son contenu n'est pas délivré et la reprise se fera par retransmission de la trame ACO par l'entité LLC3 source et ce, jusqu'à réception correcte de la trame A C 1 . L 'ent i té LLC3 source pour ra a lors génére r une p r imi t ive DL_DATA_ACK_STATUS.indication avec un paramètre status indiquant le succès de l'opération à son utilisateur.

On voit ainsi que l'entité LLC3 source peut se passer de la primitive MA_DATA.confirmation. Cependant, on peut noter qu'en cas d'erreur (bit E positionné au vol dans la trame MAC), la notification de l'erreur par la primitive MA_DATA. confirmation (paramètre état_de^transmission mis à la valeur FR_WITH_ERROR) peut permettre d'anticiper la reprise sur erreur en provoquant la retransmission de la trame ACO par l'entité LLC3 dès réception de la primitive, au lieu d'attendre l'échéance du temporisateur, ceci relevant d'un choix d'implantation. Remarquons enfin qu'on aurait eu la même chose avec LLC2 puisqu'il met également en œuvre son propre contrôle d'erreur.

Page 358: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

338 Architecture des réseaux haut débit

Réponse 7.5

inte LLC

UA

rface inte MAC

entité LLC (A)

rface

:<A> entités MAC

inte MA

rface 0(B)

inter LLC

entité LLC (B)

face

(B) UB

DL_REPLY_UPDA (..., données)

données prêtes

DL_REPLY_UPD/

TE.req

kTE.ind DL_ REPLY.req —

. . . requ est_wîth_response )

^construction

ACO MA_D/ TA.req (. ., request_\ ith response)

—fc- transmission

MAC-PDU MA D. VTA.ind

(. ., requesM /iuVresponse)

réception

ACO

DLJRE 'LY.ind encapsulation des données

MA_DA1 A.req AC1

MA_DA1 A.req (.. , données, esponse)

MA_DAT A.conf transmission — •

MAC-PDU MA_DA" TA.conf

MA_DA TA.ind

réception . . . . données

• ,response)

AC1

DL_R EPLY _STATUS ., données

response, ...)

acquittement

ACO

Page 359: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 3 3 9

Réponse 7.6

On suppose que les trames d'information sont acquittées collectivement par une

seule et même trame d'acquittement.

interface LLC (A)

interface MAC (A)

interface MAC (B)

UA entité LLC (A)

réception MA DÀTA.ind

UA

DL CCDN.conf

reception

RR2

entités MAC

MA_DÀTA.ind

MA_DATA.req

MAC-PDU

MAC-PDU

MAC-PDU

MA_DÀTA.req

MA_DATA.ind MAC-PDU

entité LLC (B)

interface LLC (B)

UB

réception

SABME

DL_CQN.ind

DL_C(DN.resp

MA DATA.ind reception

100

MA_D4TA.ind DL_DA|TA.ind réception

no envoi DL DAfTA.ind

RR2

DL_C( )N.req envoi

TA.req SABME

MA_D/ TA.req — • MAC-PDU

DL_D/ ^TA.req envoi

TA.req DL_D;

100

req . M »- envoi

A_D/ TA.req

110 M A_D/ TAreq

envoi

UA

Page 360: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 4 0 Architecture des réseaux haut débit

Réponse 8.2

- anisochronisme à l'accès : aucune relation de temps entre le terminal et le

réseau, - anisochronisme à la commutation : la commutation ATM fonctionne sans

aucune référence temporelle, - anisochronisme à la transmission : aucune relation temporelle entre le flux du

système de transmission et le flux ATM.

Réponse 8.3

20 - 12 = 8 ms soit Dmax = 1 600 km

Pour de nombreuses liaisons européennes, il va falloir ajouter des suppresseurs d'écho. Les Européens ont initialement exprimé une préférence pour une cellule de 32 octets : cela limitait le temps de mise en cellule à 3 ms environ et de ce fait laissait plus de temps pour le transport et permettait des distances plus grandes (20 -6 = 14 ms pour faire le parcours, soit Dmax = 2 800 km) et l'utilisation de moins de suppresseurs d'écho. Les Américains (vaste pays), quant à eux, sont déjà équipés de suppresseurs d'écho et préféraient une taille de cellule de 64 octets (soit 6 ms pour la mise en cellule).

Réponse 8.4

1. Les nœuds sont des commutateurs de VP (brasseurs) :

nœud 1 nœud 2 nreud 3

Chapitre 8

Réponse 8.1

La petite taille permet :

- une réduction du temps de constitution des paquets, - une réduction du délai de transmission (meilleur recouvrement et accentué par

des débits élevés), - une réduction des pertes (suite à des dépassements de files d'attente), - une réduction de la taille des tampons des noeuds de commutation, - un meilleur entrelacement des messages puisque les grands flux de données

sont découpés en petites cellules ; le trafic isochrone (par exemple, la voix en bande fixe) peut s'intercaler sans subir de retard significatif,

- une gigue faible, - mais également une mauvaise efficacité de transmission (surdébit) qui demande

donc des débits plus importants et des traitements plus fréquents pour l'en-tête.

V P I J n VPI_out V P U n VPI_out VPIJn VPI_out

7 5 5 7 7 3

9 7

Page 361: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 341

2. Les nœuds sont des commutateurs de VC :

nœud 1 nœud 2 VCI_in VCI_out

7-1 5-1 7-2 5-2 7-3 5-3 9-3 7-3 9-4 7-4

VCI_in VCLout

5-1 7-1 5-2 7-2 5-3 7-3

nœud 3

VCI_in VCLout

7-3 7-4

3-3 3-4

Réponse 8.5

1. Les commutateurs de VC translatent les valeurs de VCI et de VPI et les commutateurs de VP ne translatent que les valeurs de VPI.

syntaxe : i , j = VPI, VCI

2. La même chose qu'en 1 avec une connexion de plus.

3. Il n'est pas possible de connecter directement un utilisateur à un commutateur de VP car un utilisateur ouvre des VCC et non pas des VPC.

Réponse 8.6

1. Pour multiplexer deux communications venant d'utilisateurs différents au niveau AAL, les deux utilisateurs doivent être situés sur la même machine ou le même réseau local ; ils accèdent au réseau à travers la même interface UNI. Ce multiplexage est possible dans l'AAL 3/4 dans la sous-couche SAR grâce au champ MID (Multiplexing IDentifier) : toutes les SAR-PDU d'une même SAR-SDU ont le même MID. Le MID étant spécifique à une CPCS-PDU, l'entité AAL réceptrice peut procéder au réassemblage de la CPCS-PDU. Ce même champ MID permet également le maintien en séquence des SAR-SDU à l'intérieur d'une connexion CPCS. Avec l'AAL 5, plusieurs connexions AAL peuvent être associées à une même connexion ATM, le multiplexage devant être réalisé au niveau SSCS qui n'est pas encore défini. Dans les deux cas, les deux connexions AAL utilisent la même connexion ATM dans le réseau et doivent être destinée à la même adresse ATM.

Le multiplexage au niveau ATM est fait automatiquement puisqu'il y a multiplexage de connexions ATM sur le support physique, chaque connexion ATM

nœud 1 m out

3 , 2 3, 1

4, 1 4 , 2 nœud 3 in out 1 6

2 5

4 3

nœud 5 in out 6 7

5 s

nœud 7 in out

7, 1 7 , 2

8 , 2 8 , 3

nœud 2

in out

1,2 1,3

2, 1 2 , 2

Page 362: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 4 2 Architecture des réseaux haut débit

syntaxe : i, j = VPI. VCI

Réponse 8.7

1.

Données initiales :

Données transmises :

Données reçues :

Données restituées

cellule perdue

Suivant le type de flux et sa qualité de service associée (contraintes applicatives), la perte de cellules peut ou ne peut pas être acceptable.

2. Un mécanisme possible est l'entrelacement des données.

Données initiales :

Données entrelacées dans 5 cellules et ensuite transmises :

Données reçues :

cellule perdue

étant reconnue par un identificateur VCI/VPI différent. Dans ce cas, les utilisateurs A et B peuvent ne pas être situés sur la même machine.

2. Un exemple possible de tables de translation est :

nœud 2 in out 3 4

nœud 3 in [ out J 4 5

nœud 1 in out 1,2 3,3 2,1 3,1

nœud 4 in out

5,3 6,1 5,1 7,2

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 2 3 4 5 6 7 8 9 loj 11 12 13 14 15 16 17 18 19 20

[ T 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 2 3 4 5 6 7 8 13 14 15 16 17 18 19 20

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

1 6 11 16 2 7 12|17 3 8 13 18 [4_ 9 14 19 5 10 15 20

1 6 11 16 2 7 12 17 3 8 13 18 4 | 9 | l 4 [ l 9 5 10 15 20

Page 363: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 343

Données restituées :

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17|l8 19 20

L'erreur engendrée par la perte d'une cellule est dispersée dans le flux de données. Les erreurs sont alors tolérables mais cela ne convient pas pour autant à tous les types d'application. Pour la correction, il est possible, au niveau du récepteur, d'insérer des cellules factices en lieu et place des cellules erronées/manquantes. Une alternative consiste, pour les applications exigentes en termes d'erreurs, à associer au mécanisme d'entrelacement un mécanisme d'autocorrection qui, ne se contentant pas de détecter d'éventuelles erreurs, peut également les corriger (mais attention au surdébit engendré !)

R é p o n s e 8.8

1. Le schéma complété est le suivant :

AAL-SDU

AAL-IDU

capacité utile

-SSCS-PDU-

CPCS-SDU

capacité utile

- CPCS-PDU -

capacité utile

^AR-PDU*

-ÇXTM-SAT>

ATM-SDU

en-tête information

ATM-PDU

(cellule)

suffixe sscs

es

suffixe

SA

R

2. Une CPCS-PDU peut transporter jusqu'à 65 535 octets de capacité utile. Il faut pour un fichier de 253.10 6 octets :

AAL-SAP A

AL

-A

TM

-

n n

CP

CS

Page 364: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 4 4 Architecture des réseaux haut débit

i i réseau Token Ring réseau ATM réseau Token Ring réseau ATM

- 3 860 CPCS-PDU avec chacune 65 535 octets de données, 8 octets de suffixe et 25 octets de bourrage, soit une longueur de 65 568 octets. Chacune d'elle donne lieu à 1 366 cellules ;

- 1 CPCS-PDU avec 34 900 octets de données, 8 octets de suffixe et 36 octets de bourrage, soit une longueur de 34 944 octets. Cette CPCS-PDU donne 728 cellules.

interconnexion de niveau MAC , . „

1 1 couches couches couches s u p sup.

sup. 1 pont LLC H *

LLC ^ ^ r - i ^

entité de AAL LLC

interconnexion de niveau réseau

routeur

I P

LLC AAL

couches sup.

I P

AAL \ relais / A M Token T o k e ^ ' S < * A L Token

nng nng ATM ATM ring

Token ring ATM ATM

physique physique physique physique physique ' 1 ' ' 1 ' 1 1 1 1

1 i

physique i

physique i

physique

On obtient donc un nombre total de 3 860 * 1 366 + 728 = 5 273 488 cellules.

3. Le débit disponible est de 149,760 Mbit/s. Le temps d'émission d'une cellule

est de :

Réponse 8.9

Les formats des cellules ATM et DQDB définissent tous deux un en-tête de 5 octets et une zone de données de 48 octets, il est donc possible de translater directement la zone de données. Cependant les deux en-têtes de cellules diffèrent : la cellule DQDB utilise un VCI de 20 bits pour l'identification de VCI, alors que la cellule ATM utilise, quant à elle, un VPI de 8 bits et un VCI de 12 bits (à l'interface UNI). Pour rendre les deux en-têtes compatibles, il faut allouer les VCI dans DQDB avec les deux mêmes champs que dans ATM.

Réponse 8.10

1. Il est possible de considérer ATM comme un niveau MAC et AAL comme une couche 2/3. On peut alors proposer deux architectures d'interconnexion : un pont ou un routeur. Le routeur est cependant préférable du fait de sa généralité.

Au vu des fonctions de la couche AAL (segmentation), on pourrait envisager une interconnexion à ce niveau ; cependant, elle n'est pas adaptée pour dialoguer avec une couche inférieure autre qu'ATM.

53 * 8 / 149 760 000 = 2,83 ^ s .

Le temps d'émission du fichier est donc au minimum égal à :

5 273 488 * 2,83.10" 6 = 14,92 s.

Page 365: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 345

2. La passerelle doit assurer :

- dans les deux sens : - la reconnaissance d'adresses et le filtrage, - éventuellement, une transformation au niveau du sens d'émission des bits

(inversé sur Token Ring),

- dans le sens ATM - Token Ring : - la génération, en même temps que le changement de format, d'une pseudo

priorité significative ou non (Priority Bits), - le réassemblage des cellules dans une trame, - la mémorisation des trames en attendant le jeton, - la prévention de congestion (un réseau rapide à 100 Mbit/s vers un réseau

lent à 16 Mbit/s),

- dans le sens Token Ring - ATM : - le positionnement des bits A et C, - la destruction de la priorité, - la segmentation des trames Token Ring en cellules au niveau AAL de la

passerelle.

3. Etant donné les débits des réseaux Token Ring, une seule connexion ATM suffit à les relier de manière transparente. A noter qu'une telle connexion doit être bidirectionnelle. Si le niveau LLC fonctionne en mode connecté, on peut également ouvrir une connexion ATM par connexion LLC.

4. Le débit crête demandé sera 16 Mbit/s qui est le débit physique sur le Token Ring.

Réponse 8.11

La voix MIC constitue un trafic à débit constant avec 1 octet toutes les 125 us ; plusieurs octets de voix numérisée sont mis dans une même cellule avant sa transmission.

Le codage MPEG est un codage différentiel : la vidéo est codée par un écran complet suivi d'écrans codés par rapport à celui-ci ; le débit est donc variable.

Hux de cellules engendre

Page 366: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 4 6 Architecture des réseaux haut débit

f l u x d e c e l l u l e s e n g e n d r é

c e l l u l e s v i d e s ( b o u r r a g e )

Réponse 8.12

multiplexage déterministe multiplexage statistique allocation du débit maximum déclaré par une source

pour un grand nombre de sources variables, la somme des débits à l'instant t est inférieure à la somme des débits maximaux ; on peut donc allouer un débit inférieur au débit maximum

très simple à mettre en œuvre meilleure utilisation des ressources

gaspillage de ressources et bourrage avec des cellules vides

risques d'engorgement si plusieurs sources émettent à leur débit maximum en même temps

Réponse 8.13

# cellule ti TRT i décision

0 0 0 conforme 1 30 40 stockée 2 50 80 rejetée 3 90 90 émise de suite 4 110 130 rejetée 5 130 130 émise de suite 6 160 170 stockée 7 180 210 détruite 8 200 210 stockée

9 255 255 émise de suite 10 280 295 rejetée

Réponse 8.14

Le mécanisme de Push-out perd des cellules de haute priorité lorsque le tampon

est plein et qu'il n'y a pas du tout de cellules de basse priorité.

Le mécanisme de Partial Buffer Sharing perd des cellules de haute priorité lorsque

le tampon est plein.

Page 367: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 347

R é p o n s e 8.15

Soit Te le temps d'émission d'une cellule : Te = (53 * 8) / 155.10 6 = 2,74 (is

Soit K la taille de la fenêtre et Tp le temps de propagation (aller simple). En appliquant la relation K . Te = 2 . Tp , on obtient K = (6,66 * 2)1 0,00274 = 4 862 cellules.

S'il y avait eu une notification de congestion de la part du réseau, 4 862 cellules seraient perdues et éventuellement à retransmettre. L'espace de numérotation serait modulo 4 096 (en limitant la taille de la fenêtre à 4 095) ou 8 192. soit un numéro de séquence codé sur 12 ou 13 bits qui augmenterait d'autant le surdébit de la cellule.

Page 368: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

348 Architecture des réseaux haut débit

Chapitre 9

Réponse 9.1

Avec la technique de routage par la source (Source Routing), la station source spécifie le chemin que doit emprunter la trame en incluant dans le datagramme la liste de passerelles à traverser. Le routage n'est donc pas transparent aux stations mais les routeurs sont plus simples, n'ayant pas de décision à prendre. Au contraire, avec l'algorithme du Spanning Tree, le routage est effectué par le pont ou le routeur et ce, sans que la station ait à connaître la configuration des sous-réseaux. Cela suppose un apprentissage de la localisation des stations grâce aux adresses source des trames ou paquets reçus.

Réponse 9.2

1. Caractéristiques

caractéristiques CSMA/CD Token Bus Token Ring FDDI DQDB topologie un bus

bidirect. un bus bidirect..

un anneau deux anneaux

deux bus unidirect.

temps d'accès non borné borné borné borné borné longueur max. (octets)

1518 8191 - 4470 9236

longueur min. (octets)

64 - - - -

priorités non oui oui oui oui débit (Mbit/s) 10 10 4/16 100 155

2. Formats de trame

champs CSMA/CD Token Bus Token Ring FDDI DQDB PA 7 octets

(suite de 10) > 1 octet - 16 symboles

(Idle) 1 octet

SD 1 octet (10101011)

1 octet (NNONN00)

1 octet (JK0JK000)

2 symboles (JK)

-

AC priority P token T monitor reservation R

1 octet 3 bits 1 bit 1 bit 3 bits

HI Reserved Betag Basize

4 octets 1 octet 1 octet 2 octets

Page 369: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

C o r r i g é s 3 4 9

FC - 1 octet 1 octet 8 bits type de trame 2 bits 2 bits 1 : trame bits de ctrl. 6 bits 6 bits (a)sync.

1 : lg. @ 2 : type de trame 4 : contrô-

le MAC DA, SA 2 ou 6 octets 2 ou 6 octets 2 ou 6 octets 2 ou 6 octets 8 octets

type 4 bits padding - - - - 60 - N bits I/G 1 bit 1 bit 1 bit 1 bit 1 bit U/L 0, 1 0, 1 0, 1 0, 1 0, 1 ringN° - - 0, 7, 14 7, 14 station @ 15, 46 15, 46 8,15,32,46 8, 32 15, 46, 60

H2 - - 4..24 octets Proto. Ident. 6 bits PAD length 2 bits QoS 8 bits delay 3 bits loss 1 bit CIB 1 bit HEL 3 bits bridging 2 octets header extens. 0..20 oct.

length 2 octets - - - -information < 1500 < 8191 < 5000 < 4500 < 9188 PAD si besoin - - 0..3 octets FCS 4 octets 4 octets 4 octets 4 octets 0 ou 4

octets ED - 1 octet 1 octet 1 ou 2 idem Hl

(JK1JK1IE) symb. (T ou TT)

FS - - 1 octet 3 symboles @ reconnue 1 bit * 2 1 trame copiée 1 bit * 2 1 réservé 2 bits * 2 erreur detect. 1

I

3. Dans les deux sens : - reconnaissance d'adresses et filtrage, - adaptation du format des trames, - calcul du FCS, - inversion du sens d'émission des bits (particularité du Token Ring).

Dans le sens CSMA/CD-Token Ring : - génération de pseudo-priorités (utilisateur et accès), significatives ou non, - mémorisation des trames lors de l'attente du jeton, - problème de congestion si le Token Ring est à 4 Mbit/s.

Page 370: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 5 0 Architecture des réseaux haut débit

source \ dest. CSMA/CD Token Bus Token Ring FDDI DQDB CSMA/CD - 2, 4, 5 2, 4, 5 2, 4, 5 2, 4, 5

Token Bus 1, 2, 3 - 1, 2, 6, 7 1, 2, 6, 7 2, 6 , 7 Token Ring 1, 2, 3 1, 2, 6, 7 - 2, 6, 7 2, 6, 7

FDDI 1, 2, 3 2, 7 1, 2, 7 - 2, 6 DODR 1. 2. 3 1. 2. 1 1. 2. 7 1. 2. 6 _

( 1 ) détruire les trames trop longues

(2) calculer le FCS

(3) annuler la priorité utilisateur

(4) positionner le champ priorité utilisateur à une valeur par défaut

(5) utiliser une priorité d'accès par défaut

(6) utiliser la priorité utilisateur de la trame entrante

(7) utiliser la priorité utilisateur ou une priorité d'accès par défaut pour l'accès

réseau 1 réseau 2 réseau 1 reseau 2

au niveau MAC au niveau reseau

Dans le sens Token Ring-CSMA/CD : - destruction des trames trop longues, - affectation des bits A et C, - destruction de la priorité utilisateur.

4. Opérations spécifiques

Il faut également noter : - le problème du jeton de transfert lorsque le réseau source est un Token Bus, - le problème des bits A et C lorsque le réseau source est un Token Ring, - le problème de congestion lorsque le réseau source est plus rapide que le réseau

destinataire, - l'inversion du sens d'émission des bits lofsque l'un des réseaux est un Token

Ring.

Réponse 9.3

1. Architectures d'interconnexion

couches sup.

LLC1

MAC

physique

pont

^ ^ ^ t r a n s f e r t ^ . ^ MACT^l " MAC

physique physique

couches sup.

LLC1

MAC

physique

couches sup.

IP

LLC1

MAC

physique

routeur

IP

LLC1 LLC1

MAC MAC

physique physique

couches sup.

IP

LLC1

MAC

physique

Page 371: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 351

2. a. Le protocole IP pouvant se charger de la fragmentation et du réassemblage, la

longueur des paquets émis à la source n'est pas limitée en théorie (sauf s'il y a un champ de longueur codé) avec une interconnexion par routeurs. Par contre, le pont ne peut faire transiter une trame de longueur supérieure au maximum autorisé par le réseau destinataire ; des destructions de trame sont donc possibles dans le sens Token Ring-CSMA/CD.

b. Il peut y avoir fragmentation et réassemblage des paquets dans un routeur,

mais pas des trames dans un pont.

c. Le temps de réassemblage d'une PDU ne concerne que le routeur.

d. Le routeur doit surveiller la durée de vie des paquets qu'il fait transiter et détruire ceux dont la durée de vie est dépassée. Le pont doit, de son côté, surveiller le temps passé par une trame dans une file d'émission et détruire cette dernière si le délai subi dépasse un certain seuil.

e. Le pont et le routeur gèrent la priorité des trames et paquets qu'ils ont à traiter. Il s'agit donc pour eux de prendre en compte la priorité d'une PDU entrante et de retransmettre la PDU en fonction de cette priorité.

f. Ni le pont ni le routeur ne tiennent compte des PDU déséquencées.

g. Ni le pont ni le routeur ne tiennent compte des PDU dupliquées.

h. Le pont et le routeur recalculent la séquence de contrôle de chaque PDU qu'ils

font transiter.

i. L'adresse destination est nécessaire dans les deux cas puisqu'elle permet, pour le routeur, de déterminer le prochain nœud par lequel le paquet doit transiter et, pour le pont, de déterminer si la trame est à retransmettre ou non.

j . La connaissance de l'adresse source n'est pas nécessaire au fonctionnement du routeur. Néanmoins, le routeur peut en avoir besoin dans des conditions d'exception, telles que la congestion, pour demander à un émetteur de réduire son débit d'émission. Dans le cas du pont, l'adresse source est traitée pour permettre la mise à jour éventuelle de la table de filtrage.

R é p o n s e 9.4

La couche liaison fonctionnant en mode connecté, il faut commencer par établir une liaison avant de pouvoir transférer des données. En considérant qu'il y a 2 800 octets de données de l'utilisateur du service de réseau à transférer, que les entêtes IP, LLC2 et MAC CSMA/CD sont respectivement de 22, 4 et 18 octets et que la trame CSMA/CD a une longueur maximale de 1 518 octets, il y a fragmentation par IP, avec deux datagrammes à envoyer. Pour simplifier le schéma, on supposera que les deux trames I ne donnent lieu qu'à une seule trame RR.

La phase de libération de la liaison est similaire à la phase d'établissement, en remplaçant les primitives DL-CONNECT par les primitives DL-DISCONNECT et la trame SABME par une trame DISC.

Page 372: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

352 Architecture des réseaux haut débit

ÏT

£A

?

lïffe

in

terf

ace

inte

rfac

e in

terf

ace

LL

G(A

) M

AC

(A

. ,

MA

C(P

) M

AO

P)

MA

C(B

) L

LC

(B)

I enute

JPM

Â,

en

t,

ité

i(

>

enti

enti

l L

LC

(A)

MA

C (

A)

rela

is S

M

AC

(B)

LL

C(B

)

DL

-C(|

Nre

q

f s

SA

BM

E|

MA

-UD

.req

|

j

* |

MA

C-P

I M

A-U

D.i

nd

MA

. Iri

I 1

—•

MA

-1 J

D.r

eq

j

**j

MA

C-P

] M

AJu

Din

d "

| j

SA

BM

E|

DL

jCO

N.in

d

f D

L-C

ON

.res

p I

MA

-Ub.

recl

U

A |

MA

-UD

indj

MA

C-P

PU

) ^—

1

D

L-C

ON

.con

^ U

A |

100

j M

A-U

D.r

eq

S

DL

-DA

JA ™

~*1

MA

C-P

DU

j M

^U

D.i

nd

M

A_

UD

1 110

1 M

^^re

q

~^[M

AC

-PD

U|

Nd

-UD

.in

d

| 1

MA

C-P

DU1

M

D.i

nd

M

A-tJD

Teq

^ f

jôn

Dli

DA

TA

.in

d

* 1

MA

C-P

DU

l M

ÀjJ

D.i

nd

*

1

IIP

| PL

-D

AT

A.i

nd

MA

-Up.

recj

i R

R2

| '

J

MA

-UD

.ind

MA

^U

D.i

ncI

MA

C-P

DU

]^-

MA

-UD

.ind

MA

C-P

DU

l ^

Réponse 9.5

1. On choisit une architecture d'interconnexion par pont au niveau MAC, les sous-réseaux ayant chacun une fonction d'adressage à ce niveau.

Page 373: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 353

machine A

couches sup.

machine B

ponl poni

couches sup.

IP

LLC relais \

relais

IP

LLC

MAC

physiqi

MAC MAC

physique )hysiqu

MAC MAC

pnysiqi hysiqi physique

MAC

Token Ring A DQDB Token Ring B

2. Tout dépend du type de trafic sur le Token Ring ; à défaut de le savoir, on

utilise des slots arbitrés QA.

3. La segmentation et le réassemblage car les slots QA ne comportent que 48

octets de données.

4. Le principal risque réside dans la saturation des tampons de la passerelle dans

le sens DQDB vers Token Ring. Pour y remédier : - l'UIF possède la priorité la plus élevée sur l'anneau ; - le contrôle de flux est assuré avec le protocole LLC2 entre les deux anneaux.

adresse source port de sortie temporisateur

Lorsqu'une trame est reçue sur un port, le pont vérifie si l'adresse source contenue dans la trame existe déjà dans sa table de filtrage. Si tel est le cas, il met à jour le port de sortie de l'enregistrement correspondant — si le port courant est différent du port de réception de la trame — et il réinitialise la valeur du temporisateur à T. Si ce n'est pas le cas, une nouvelle entrée est créée avec le triplet (adresse_source Jrame\ port_réceptionjrame, T). En procédant ainsi, le pont saura que toute trame adressée à adresse_source jrame devra être retransmise sur le port portjréception Jrame.

Une fois ce traitement sur l'adresse source de la trame effectué, le pont vérifie si l'adresse destination de la trame figure dans sa table. Si tel est le cas, il vérifie si le

Réponse 9.6

1. Le pont possède une seule table de filtrage pour l'ensemble des ports (version

proposée par le standard 802.1D). La table comporte trois champs : - un champ adresse source correspondant à l'adresse source véhiculée par chaque

trame, - un champ numéro de port correspondant au port par lequel une trame doit

transiter pour atteindre l'adresse source associée, - un champ temporisateur initialise à une valeur T fixée par l'administrateur.

Page 374: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 5 4 Architecture des réseaux haut débit

port de sortie correspondant coïncide avec le port de réception de la trame, auquel cas la trame est rejetée — car appartenant à un trafic local ; si les ports sont différents, la trame est retransmise sur le port de sortie indiqué après conversion. Dans le cas où l'adresse destination de la trame ne se trouve pas dans la table, le pont retransmet la trame sur l'ensemble de ses ports — sauf le port de réception — après la conversion nécessaire pour chaque port.

Une scrutation périodique de la table permet de mettre à jour la valeur des temporisateurs et de supprimer tous les enregistrements pour lequel le temporisateur a expiré.

2. Dans le cadre d'une table de filtrage par port, aucune information de routage n'est nécessaire : soit la trame est rejetée par le port sur lequel elle est arrivée, soit elle est diffusée sur l'ensemble des autres ports du pont. Chaque port gère sa propre table, cette dernière comportant deux champs :

- un champ adresse source,

- un champ temporisateur.

adresse source temporisateur

Lorsqu'une trame est reçue sur un port, celui-ci vérifie si l'adresse source est contenue dans sa table. Dans le cas positif, le port réarme le temporisateur associé et sinon un nouvelle entrée est créée dans la table avec (adresse_sourceJrame, T).

Une fois ce traitement sur l'adresse source de la trame effectué, le port vérifie si l'adresse destination appartient à sa table. Si tel est le cas, la trame est rejetée, sinon, elle est diffusée à tous les autres ports après conversions.

De même que précédemment, les temporisateurs sont périodiquement mis à jour et ceux ayant expiré voient leur entrée détruite.

Réponse 9.7

Temps de transit

Pont et routeur traitent l'information reçue d'un premier réseau et la réémettent sur un autre réseau après traitement. Le temps de transit dépend donc principalement des traitements qui sont effectués au niveau de l'information reçue par l'élément d'interconnexion :

- pont : le délai de transit d'une trame correspond au temps de filtrage augmenté du temps de conversion ;

- routeur : les opérations sont plus nombreuses et plus complexes car correspondant à des protocoles de niveau supérieur. Le délai de transit d'un routeur est donc généralement supérieur à celui d'un pont.

Page 375: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 355

Taille de l'information

- pont : lorsque les réseaux interconnectés sont de types différents, un pont peut

être amené à détruire des trames si leur longueur excède le maximum autorisé par le

réseau de sortie - routeur : la plupart des protocoles de niveau réseau intègrent un mécanisme de

fragmentation et de réassemblage des paquets en fonction des contraintes de la couche liaison. Cela évite d'avoir à négocier la taille maximum des paquets et à supprimer un grand nombre de paquets. On peut également noter que, ce faisant, la couche réseau simplifie la mise en œuvre des protocoles des niveaux supérieurs et que certaines applications fonctionnent plus efficacement avec des paquets de grande taille.

Taux de pertes

- pont : le niveau MAC ne permet pas de garantir la remise des trames à destination. Même dans le cas du Token Ring avec les bits A et C, l'acquittement d'une trame étant produit par le pont, l'émetteur ne sera jamais assuré que sa trame a bien été reçue par son destinataire.

- routeur : le niveau réseau permet de détecter les paquets dupliqués ou perdus. Dans tous les cas, une retransmission s'impose (par exemple, au niveau transport).

Taux d'erreurs - pont : le FCS de chaque trame reçue est vérifié. Les trames dont le FCS est

incorrect sont rejetées. Si le réseau destination n'est pas du même type que celui du réseau émetteur, la trame est traitée et le FCS recalculé.

- routeur : deux contrôles d'erreur sont réalisés, l'un au niveau liaison (s'il fonctionne en mode connecté) et l'autre au niveau réseau. Le taux d'erreurs résiduelles est donc généralement plus faible avec un routeur.

Durée de vie de l'information

- pont : la destruction des trames dont le temps de transit serait trop long n'est

pas prévue sauf si le pont introduit une temporisation au niveau de ses files

d'attente. - routeur : la durée de vie est indiquée dans chaque paquet et mise à jour dans

chaque nœud traversé. Les paquets dont la durée de vie a expiré sont détruits.

Priorités - pont : certains protocoles MAC utilisent des priorités. - routeur : la distribution urgente est fournie par certains protocoles de niveau

réseau. Les informations de contrôle de routage sont un exemple de trafic à haute

priorité.

Sécurité - pont : étant transparent aux protocoles de niveau 3 OSI, il transfère toutes les

informations d'un réseau sur l'autre. On peut toutefois effectuer certaines fonctions de filtrage en fonction des types de protocoles ou isoler certaines stations.

- routeur : au niveau 3 OSI, on peut gérer les accès des stations aux différents domaines d'adresses. Les capacités de filtrage d'un routeur peuvent être très

Page 376: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 5 6 Architecture des réseaux haut débit

sophistiquées, ce qui permet d'obtenir un degré de sécurité plus satisfaisant qu'avec les ponts.

Réaction après mise hors service d'une route

Lorsqu'une route n'est plus en service, le routage de l'information doit être modifié en conséquence aussi rapidement que possible.

- pont : des Bridge-PDU sont échangées de façon régulière entre les ponts. Si la topologie est complexe et le nombre de ponts important, il peut s'écouler un temps suffisamment long, entre la détection du problème et la réception d'information par tous les ponts, pour que des trames soient perdues.

- routeur : la gestion des perturbations est plus efficace grâce au routage dynamique. Les routes de remplacement sont trouvées naturellement par l'algorithme de routage (sauf s'il est par nature statique). Cependant, comme un routeur diffuse des messages d'information en cas de changement de configuration, la mise à jour des tables de routage peut provoquer momentanément des augmentations de trafic importantes.

Réponse 9.8

On rappelle que l'élément d'interconnexion doit répondre à plusieurs critères :

- les fonctions de l'élément doivent être transparentes aux stations des réseaux interconnectés ;

- le délai passé dans l'élément d'interconnexion doit être le plus court possible ;

- les réseaux doivent être interconnectés au niveau le plus bas possible pour minimiser les temps de traitements induits par les protocoles.

1. Il n'est pas nécessaire ni raisonnable d'avoir des connexions isochrones permanentes entre l'élément d'interconnexion et l'ensemble des stations DQDB, puisque dans ce cas, le débit alloué à une connexion isochrone est réservé en permanence et serait mal utilisé.

De même, le mode asynchrone connecté ne convient pas. En effet, il demande à l'unité d'interconnexion d'avoir la connaissance des adresses des stations destinataires, l'obligeant ainsi à traiter des informations de niveau supérieur (IM, Initial MAC), ce qui va à rencontre du troisième critère cité plus haut.

On retient donc le mode asynchrone non connecté avec l'utilisation des slots QA. Cela se traduit, sur le réseau DQDB, par une diffusion de l'information à l'ensemble des stations du réseau ; seules les stations concernées par le message (reconnaissance à l'aide du champ MID) recopieront l'information à l'intention des couches supérieures.

2. Pour dialoguer avec le mode asynchrone non connecté de DQDB, on retiendra soit l 'AAL 3/4, soit l'AAL 5 (transfert en mode non connecté).

Page 377: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

C o r r i g é s 357

3. Pour réaliser une interconnexion au niveau s/of/cellule entre les réseaux

DQDB et ATM, plusieurs problèmes sont à résoudre :

L'adressage : l'acheminement au sein du réseau large bande repose sur le schéma d'adressage E.164 avec des adresses de 60 bits (15 digits représentés sur 4 bits chacun). Ce type d'adresse peut parfaitement être transporté dans une IM-PDU DQDB dans l'en-tête MCP à condition que les champs d'adresse soient préfixés par " 1100". Dans ce cas, l'adresse de destination utilisée par DQDB doit faire directement référence à la station d'extrémité destinataire.

Les similitudes entre format de slot et format de cellule : la principale réside

dans leur longueur commune de 53 octets, dont 5 octets d'en-tête (champ AC et entête de segment) et 48 octets pour la charge utile du segment.

La compatibilité' des couches d'adaptation : la figure ci-dessous montre le

découpage en couches pour chaque réseau : - pour DQDB, DM (Derived MAC) et IM (Initial MAC), - pour le réseau large bande, AAL (composée de SAR et CS) et CLCP

(Connectionless Convergence Protocol).

CLCP ConnectionLess

IM Convergence Protocol Initial CS

Convergence Sublayer MAC

CS Convergence Sublayer

DM SAR

Derived MAC Segmentation And Reassembly

SM SegMent Layer ATM

STL SloT Layer

Physical physical

Physical

DQDB ATM

La couche CLCP assurant la compatibilité avec le standard IEEE 802.6 pour le mode sans connexion, les formats des différentes PDU sont compatibles. Ainsi, un segment côté DQDB (DM-PDU) devient la charge utile d'une cellule côté ATM (SAR-PDU) et vice-versa sans modification aucune. Cet échange présente un autre avantage ; aucune action de segmentation/réassemblage des messages n'est à pourvoir dans le protocole.

L'adaptation des en-têtes de PDU : malgré cette compatibilité apparente, des différences apparaissent au niveau des en-têtes des différentes PDU. Toutes les informations primordiales contenues dans les en-têtes des cellules/s/ofs ainsi que dans les champs suivants sont transmises dans la première cellule/premier slot.

-MA

C-

AA

L-

Page 378: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

35 8 Architecture des réseaux haut débit

Cette première cellule/.v/o/ est de type BOM (Begining Of Message), les suivantes de type C O M (Continuation Of Message) et la dernière de type EOM (End Of Message). Ainsi, à la réception d'une cellule/s/of de type BOM, toutes les actions permettant de réaliser l'interconnexion selon les souhaits de l'utilisateur pourront être accomplies une fois pour toutes.

- En-tête ATM versus champ AC et en-tête de segment QA de DQDB :

- le GFC (Generic Flow Control) d'ATM et le champ AC (Access Control) de DQDB diffèrent par leur taille et leur utilisation : le GFC ne fait que 4 bits et son objectif n'est pas encore complètement déterminé. Le champ AC de 8 bits supporte le mécanisme d'accès à une ressource partagée entre plusieurs terminaux (bits BB et RQ) et supporte également trois niveaux de priorité pour le trafic asynchrone ;

- la génération et la vérification des codes correcteurs d'erreur de l'en-tête : le HEC (Header Error Control) d'ATM est calculé au niveau physique car il couvre tout l'en-tête de la cellule ; le champ AC de DQDB n'est pas protégé par le HCS (Header Check Sequence) qui est calculé au niveau SM (SegMent layer) ;

- le champ VPI (Virtual Path Identifier) n'apparaît pas dans l'en-tête du segment DQDB.

- En-têtes des PDU de niveaux supérieurs pour le trafic évoluant d'ATM vers DQDB :

- aux cellules ATM d'une connexion donnée est associée une valeur de MID (Message IDentifier). Bien que cette valeur soit unique sur cette connexion, rien ne garantit son unicité au niveau du réseau DQDB. La passerelle doit donc tenir à jour une liste des valeurs de MID disponibles sur le réseau. Elle effectue ainsi une modification des valeurs de MID des cellules ATM en une valeur de MID DQDB. Cette modification est réalisée à la réception de la première cellule ATM (BOM) et enregistrée dans une table d'échange ;

- la qualité de service inhérente au délai de transit du message est aussi examinée ; en effet, il est nécessaire de choisir un niveau de priorité d'accès au réseau DQDB. Ce niveau sera ensuite assigné à toutes les cellules du même message ;

- les CRC10 de la DM-PDU et de la SAR-PDU n'étant pas les mêmes, un nouveau calcul est nécessaire ;

- étant donné qu'il n'y a pas examen de l'information d'adressage, la passerelle doit diffuser l'information sur les deux bus, modifiant en cela la valeur du VCI (Virtual Channel Identifier) qui devient la valeur par défaut associée aux slots QA en mode asynchrone non connecté.

- En-têtes des PDU de niveaux supérieurs pour le trafic évoluant de DQDB vers ATM :

- le champ VCI du segment DQDB est modifié de façon à obtenir l'en-tête ATM adéquat ;

Page 379: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 359

- le CRC 10 est également recalculé ; - il n'est pas nécessaire de recalculer le MID. En effet, son unicité est

garantie par le mécanisme d'allocation du MID sur DQDB.

4. La figure suivante montre l'architecture de la passerelle ATM/DQDB.

interface STM A T M STL STL

physique physique

physique

bus A bus B A T M

Elle est composée des couches SM, STL et physique pour le réseau DQDB et des couches ATM et physique pour le réseau ATM. L'interface réalise la conversion de protocole indispensable à la transformation des cellules en slots et vice-versa.

Les fonctions que doit remplir la passerelle pour permettre l'interconnexion

ATM/DQDB sont les suivantes :

- conversions de protocole (CRC, qualité de service, etc.) présentées précédem

ment à réaliser au niveau de l'interface ; - actions dépendant du type des données (BOM, COM, EOM) : gestion du

temps de vie des PDU, insertion d'une nouvelle correspondance MID/VCI dans la table d'échange (unité de données de type BOM), recherche d'une correspondance dans la table (unité de données de type COM) ou encore effacement d'une entrée dans la table (unité de données de type EOM).

Grâce à la similitude des champs des cellules ATM et des slots DQDB, les fonctions de la passerelle sont simplifiées, notamment, cette dernière n'a pas à effectuer de segmentation ou de réassemblage des données.

L'ajout d'un serveur sans connexion (CLS - ConnectionLess Server) du côté ATM permet de lui déléguer une partie des tâches de la passerelle et plus particulièrement celles concernant l'adressage des données. La passerelle ne connaissant pas les adresses des stations destinataires, elle dirige tout son trafic provenant du réseau DQDB vers le CLS. Une connexion permanente ou semi-permanente est établie entre la passerelle et le CLS (cf. figure ci-dessous). Le CLS permet ainsi d'offrir un service sans connexion dans un réseau qui fonctionne par essence en mode connecté.

passerelle

iceud

DQDB A T M

PHY PHY commutateur

/ A T M \ ^

C L S A A L

A T

M

Page 380: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 6 0 Architecture des réseaux haut débit

Le CLS fonctionne dans les deux sens de l'interconnexion : un trafic issu d'ATM en direction de DQDB est d'abord dirigé vers le CLS (chaque station dispose de la correspondance adresse MAC de destination/VPI). Le trafic issu de DQDB vers ATM est d'abord envoyé à la passerelle (les stations DQDB spécifient une valeur particulière de VCI) qui le dirige à son tour vers le CLS. Le CLS reconstitue et traite les informations d'adressage qui, pour chaque SDU (Service Data Unit), déterminent l'acheminement à adopter.

La passerelle, dans le sens DQDB vers ATM, conserve la valeur de MID du réseau DQDB. Puisque ce numéro est unique sur le réseau DQDB, il l'est également sur la connexion qui relie la passerelle au CLS. Néanmoins, il n'est pas garanti que toutes les stations sur le réseau ATM utilisent des valeurs de MID distinctes. Le CLS effectue donc une modification des valeurs de MID ; la nouvelle valeur attribuée dépend de l'ancienne et du couple VCI/VPI. Une table d'échange est, là aussi, utilisée.

Réponse 9.9

Ces informations figurent dans la MIB II spécifié dans le RFC 1213. Il s'agit de compteurs à valeur entière :

- ipInReceives : nombre total de paquets ou fragments reçus depuis les interfaces, incluant ceux en erreur ;

- ipInHdrErrors : nombre de paquets ou fragments rejetés car leur en-tête est erroné (mauvaise séquence de contrôle, numéro de version incorrect, autres erreurs de format, durée de vie dépassée, erreurs rencontrées lors de l'exécution des options) ;

- ipInAddrErrors : nombre de paquets ou fragments rejetés car l'adresse destination IP spécifiée au niveau de leur en-tête est erronée ;

- ipForwDatagrams : nombre de paquets ou fragments reçus et routés ; - iplnUnknownProtos : nombre de paquets reçus et détruits suite à une non-

identification du protocole de niveau supérieur ; - ipInDiscards : nombre de paquets reçus et détruits par manque de mémoire ; - ipInDelivers : nombre de paquets reçus et délivrés aux protocoles utilisant IP

(y compris ICMP) ; - ipOuiRequests : nombre de paquets envoyés par les protocoles utilisant IP

pour être transmis (y compris ICMP) ;

- ipOutdiscards : nombre de paquets en émission, détruits faute de mémoire ; - ipOutNoRoutes : nombre de paquets ou fragments rejetés car aucune route n'a

été trouvée pour les transmettre vers leur destination. Cela inclut le nombre de paquets ou fragments qu'un hôte n'a pu router car tous les routeurs auxquels il est directement connecté sont hors service ;

- ipReasmReqds : nombre de fragments reçus et nécessitant un réassemblage ; - ipReasmOKs : nombre de paquets réassemblés avec succès ; - ipReasmFails : nombre d'anomalies détectées au niveau de l'algorithme de

réassemblage (expirations du temporisateur de réassemblage, erreurs, etc.) ; - ipFragOKs : nombre de paquets fragmentés avec succès ;

Page 381: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Corrigés 361

- ipFragFails : nombre de paquets rejetés car nécessitant une fragmentation pour

être retransmis alors que le drapeau DF est positionné ;

- ipFragCreates : nombre de fragments générés par fragmentation au niveau de

cette interface.

TCP tcpOutMsgs tcpInMsg

interface TCP/IP ! '. k

UDP udpOutDatagrams udpInDatagrams

interface l 'DP/lP j

jcmpInMsgs egpInMsgs ip lnDel ivers

ICMP EGP

icmpOutMsgs egpQutMsgs

ipOutDiscards,

IF

interface IP/sous-réseau pOutRequests plnReceives

i p F r a g O K s

I

ipFragFai ls

i p R e a s m O K s

i i ipReasmFai ls

ipReas nReqds

i p I n U n k n o w n P r o t o s

ipOutNoRoutes

i p F o r w Datagrams

i p I n A d d r E r r o r s

i n l n H d r E r T o r s

ipInDiscards

Page 382: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 383: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie

Chapitre 1

[Cerf 83] V.G. Cerf, E.A. Cain, "The DOD Internet architecture model". Computer Networks and ISDN Systems. 7(10), pp. 307-318, octobre 1983.

[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 1980.

[IS 7498-1] ISO IS 7498-1, Basic Reference Model, 1993.

[IS 7498-2] ISO IS 7498-2, Security Architecture, 1989.

[IS 7498-3] ISO IS 7498-3. Naming and Addressing, 1989.

[IS 7498-4] ISO IS 7498-4, Management Framework, 1989.

[IS 8509] ISO TR 8509, 0 5 / Service Conventions, 1987.

[IS 8824] ISO IS 8824, Specification of Abstract Syntax Notation One (ASN.l), 1987. [IS 9595] ISO IS 9595, Common Management Information Service (CMIS) Definition,

1991 . [IS 9596] ISO IS 9596, Common Management Information Protocol (CMIP)

Specification, 1991.

[IS 10040] ISO IS 10040. Systems Management Overview. 1992. [IS 10164-1] ISO IS 10164-1, Systems Management. Part I : Object Management

Function. 1993. [IS 10164-2] ISO IS 10164-2, Systems Management, Part 2: State Management

Function, 1993. [IS 10164-3] ISO IS 10164-3, Systems Management, Part 3 : Attributes for Representing

Relationships, 1993. [IS 10164-4] ISO IS 10164-4, Systems Management, Part 4 : Alarm Reporting Function,

1992.

Page 384: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

364 Architecture des réseaux haut débit

[IS 10164-5] ISO IS 10164-5. Systems Management, Part 5 : Event Report Management Function. 1993.

[IS 10164-6] ISO IS 10164-6, Systems Management. Part 6 : Log Control Function. 1994.

[IS 10164-7] ISO IS 10164-7, Systems Management, Part I : Security Alarm Management Function, 1992.

[IS 10165-1] ISO IS 10165-1, Structure of Management Information, Part I : Management Information Model, 93.

[IS 10165-2] ISO IS 10165-2. Structure of Management Information, Part 2 : Definition of Management Information, 1994.

[IS 10165-4] ISO IS 10165-4, Structure of Management Information, Part 4 : Guidelines for the Definition of Managed Objects, 1994.

[Klessig 86] R. Klessig, "Overview of Metropolitan Area Networks", IEEE Communications Magazine, 24( 1), janvier 1986.

[Lepage 89] F. Lepage, F. Afila, P. Antoine, E. Bajic. J. Brun, T. Divoux, Les réseaux locaux industriels, Hermès, 1989.

[M.3010] UIT-T M.3010, Principes pour un Réseau de Gestion des Télécommunications, 1993 .

[M.3100] UIT-T M.3010, Modèle Générique d'Information de Réseau, 1993.

[Nussbaumer 87] H. Nussbaumer. Téléinformatique, Tome 1, Presses Polytechniques Romandes, 1987.

[RFC 768] J. Postel. "User Datagram Protocol", RFC 768, août 1980.

[RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981.

[RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981.

|RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981.

[RFC 821] J. Postel, "Simple Mail Transfer Protocol", RFC 821, août 1982.

[RFC 826] D. Plummer, "Ethernet Address Resolution Protocol", RFC 826, novembre 1982 .

[RFC 854] J. Postel, "Telnet Protocol Specification", RFC 854, mai 1983.

[RFC 903] R. Finlayson, T. Mann, J. Mogul, M. Theimer, "A Reverse Address Resolution Protocol", RFC 903, juin 1984.

[RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification". RFC 904, avril 1984.

(RFC 959] J. Postel, "File Transfer Protocol", RFC 959, octobre 1985.

[RFC 1028] J. Davin, J. Case, M. Fedor. M. Schoffstall, "Simple Gateway Monitoring Protocol", RFC 1028, novembre 1987.

[RFC 1157] J. Case, M. Fedor, M. Schoffstall, J. Davin, "A Simple Network Management Protocol". RFC 1157, mai 1990.

[RFC 1158] M. Rose, "Management Information Base for Network Management of TCP/IP-based internets" RFC 1 158. mai 1990.

[RFC 1213] K. McCloghrie, M. Rose. "Management Information Base for Network Management of TCP/IP-based internets : MIB-II". RFC 1213. mars 1991.

Page 385: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie 365

[RFC 1271] S. Waldbusser. "Remote Network MONitoring Management Information

Base", RFC 1271, novembre 1991.

[RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992.

[RFC 1441] J. Case, K. Mc Cloghrie, M.Rose, S.Waldbusser. "Introduction to Version 2 of the Internet-Standard Network Management Framework", RFC 1441, avril 1993.

Ouvrages de synthèse

S. Feit, TCP/IP : Architecture, Protocols and Implementation. Mac Graw Hill, 1993.

C. Lecerf, D. Chomel, Les normes de gestion à l'ISO, Collection Technique et Scientifique

des Télécommunications, Masson, 1993.

H. Nussbaumer, Téléinformatique, Tomes I, 2, 3 et 4. Presses Polytechniques Romandes.

G. Pujolle, Les réseaux. Eyrolles, 1995.

M. Rose, Gestion des réseaux ouverts — SNMPv2. InterEditions, 1995.

W. Stallings, Local and Metropolitan Area Networks, Mac Millan, 4 e édition, 1990.

W. Stallings, SNMP, SNMPv2, and CMIP : the Practical Guide to Network-Management

Standards. Addison-Wesley, 1993

Chapitre 2

[Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer

Communications", Fall Joint Computer Conference, 1970.

[Bux 81a] W. Bux et al., "A Reliable Token-Ring System for Local Area Communication", National Telecommunications Conference, New Orleans, 1981.

[Bux 81b] W. Bux, "Local Area Subnetworks : A Performance Comparison", IEEE

[Schatt 87] S. Schatt, Understanding Local Area Networks, Sams Understanding Series,

1987.

A. Tanenbaum, Réseaux : architectures, protocoles, applications. InterEditions, 1995.

J. Walrand, Communications Networks : a first course, Aksen Editors, 1993.

Transactions on Communications, 29(10). octobre 1981.

[IEEE 802.IB] Institute of Electrical and Electronics Engineers, L A N / M A N management,

service and protocol, IEEE/ANSI Std 802.IB, 1995.

[IEEE 802.ID] Institute of Electrical and Electronics Engineers, Media Access Control (MAC) bridges, IEEE/ANSI Std 802.ID, 1993.

[IEEE 802.IE] Institute of Electrical and Electronics Engineers, System load protocols,

IEEE/ANSI Std 802.1E, 1994.

[IEEE 802.IF] Institute of Electrical and Electronics Engineers, Common Definitions and Procedures for IEEE 802 Management Information, IEEE/ANSI Std 802. IF, 1993.

[IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical Link Control

(LLC), ANSI/IEEE Std 802.2. 1994.

[IEEE 802.3] Institute of Electrical and Electronics Engineers, Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.

Page 386: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 6 6 Architecture des réseaux haut débit

[IEEE 802.4] Institute of Electrical and Electronics Engineers, Token-passing bus access method and physical layer specifications, ANSI/IEEE Std 802.4, 1990.

[IEEE 802.5] Institute of Electrical and Electronics Engineers, Token Ring access method and physical layer specifications, ANSI/IEEE Std 802.5, 1992.

[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus {DQDB) access method and physical layer specifications, ANSI/IEEE Std 802.6, 1994.

[IEEE 802.7] Institute of Electrical and Electronics Engineers, IEEE Recommanded Practices for Broadband Local Area Networks, IEEE Std 802.7, 1989.

[IEEE 802.9] Institute of Electrical and Electronics Engineers, Integrated Services {IS) LAN Interface at the Medium Access Control {MAC) and Physical {PHY) Layers. IEEE Std 802.9. décembre 1994.

[IEEE 802.10] Institute of Electrical and Electronics Engineers, Interoperable LAN/MAN Security (SILS), ANSI/IEEE Std 802.10, 1992.

[IS 8802-1] ISO IS 8802-1, Local Area Networks, Part I : Overview of Local Area Networks, non publié.

[IS 8802-2] ISO IS 8802-2, Local Area Networks, Part 2 : Logical Link Control, 1990.

[IS 8802-3] ISO IS 8802-3, Local Area Networks, Part 3 : CSMA/CD — Access Method and Physical Layer Specifications, 1993.

[IS 8802-4] ISO IS 8802-4, Local Area Networks. Part 4 : Token passing Bus Access Method and Physical Layer Specification, 1990.

[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification. 1994.

[IS 8802-6] ISO IS 8802-6, Local Area Networks, Part 6 : Distributed Queue Dual Bus (DQDB) Access Method and Physical Layer Specification, 1993.

[IS 8802-7] ISO IS 8802-1. Local Area Netn'orks, Part 7 : Slotted Ring Access Method and Physical Layer Specification. 1993.

[IS 10039] ISO IS 10039, MAC Service Definition, 1991.

[Lam 75] S.S. Lam and L. Kleinrock, "Packet Switching in a Multi-access Broadcast Channel : Dynamic Control Procedures", IEEE Transactions on Communications, COM-23(9). pp. 891-904, septembre 1975.

[Lam 80] S.S. Lam, "A Carrier Sense Multiple Access Protocol for Local Networks", Computer Networks, 4, pp. 21-32, avril 1980.

[MAN 93] Networks on the Metropolitan Area, Numéro spécial IEEE Journal on Selected Areas in Communications, 11(8). octobre 1993.

[Metcalfe 76] R.M. Metcalfe. DR. Boggs. "Ethernet: Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976.

[Rubin 90] I. Rubin. J. Baker. "Media Access Control for High-Speed Local Area and Metropolitan Area Communication Networks", Proceedings of the IEEE, 78(1), Janvier 1990.

Page 387: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie 367

Ouvrages de synthèse

G. Pujolle et M. Schwartz, Réseaux locaux informatiques, Eyrolles, 1994.

P. Rolin, Réseaux locaux : normes et protocoles, Hermès, 1993.

P. Rolin, Réseaux haut débit, Hermès, 1995.

M. Schwartz, Telecommunication Networks — Protocoles, Modeling and Analysis, Addison Wesley Publishing, 1987.

Chapitre 3

[IEEE 802.3c] Institute of Electrical and Electronics Engineers, Repeater Unit for 10 Mb/s Baseband Networks, ANSI/IEEE Std 802.3c, 1985.

[IEEE 802.3d] Institute of Electrical and Electronics Engineers, Medium Attachment Unit and Baseband Medium Specification for a Vendor Independent Fiber Optic Inter Repeater Link. ANSI/IEEE Std 802.3d, 1987.

[IEEE 802.3e] Institute of Electrical and Electronics Engineers, Physical Signaling, Medium Attachment, and Baseband Medium Specifications, Type IBASE5, ANSI/IEEE Std 802.3e, 1987.

[IS 8802-3] ISO IS 8802-3, Local Area Networks, Part 3 : CSMA/CD — Access Method and Physical Layer Specifications, 1993.

[IS 8802-3-14] ISO IS 8802-3-Amendment 14, Fiber Optics Media I0BASEF, 1993.

[Metcalfe 76] R.M. Metcalfe, D.R. Boggs, "Ethernet : Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976.

[Watson 95] G. Watson et al., "The Demand Priority Access Method", IEEE Networks, 9(1), Janvier 1995.

Ouvrages de synthèse

A. Ferrero, Ethernet et ses évolutions, Addison-Wesley, 1995.

G. Held, Ethernet Networks, Wiley. 1994.

N. Turin, L'univers des réseaux Ethernet : concepts, produits, mise en pratique. Masson, 1993.

Attachment Unit and Broadband Medium Specifications, Type 10BROAD36, ANSI/IEEE Std 802.3b, 1985.

[IEEE 802.3a] Institute of Electrical and Electronics Engineers, Medium Attachment Unit and Baseband Medium Specifications, Type 10BASE2, Std 802.3a, 1988.

[IEEE 802.3b] Institute of Electrical and Electronics Engineers, Broadband Medium

[Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer Communications", Fall Joint Computer Conference, 1970.

[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 80.

[IEEE 802.3] Institute of Electrical and Electronics Engineers. Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.

Page 388: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

368 Architecture des réseaux haut débit

Chapitre 4

[Bux 83] W. Bux. F. Closs. H. Kummerle. H. Mueller. "Architecture and Design of a Reliable Token-Ring Network". IEEE Journal on Selected Areas in Communications,

novembre 1983.

[IS 8802-4] ISO IS 8802-4, Local Area Networks, Part 4 : Token passing Bus Access

Chapitre 5

[ANSI 1841 ANSI X3.184-199x, Fiber Distributed Data Interface (FDDI) — Part 4 :

Method and Physical Layer Specification, 1990.

[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification, 1 9 9 4 .

[IS 10039] ISO IS 10039, MAC Service Definition, 1991.

[Minet 89] P. Minet, P. Rolin, S. Sédillot, Le réseau MAP, Hermès, 1989.

Ouvrages de synthèse

David Bird. Token Ring Network Design : a Guide. Addison-Wesley. 1994.

J. Nilausen. Token Ring Networks, Prentice-Hall. 1992.

G.C. Sackett. IBM's Token Ring Networking Handbook, Mac Graw Hill. 1993.

Single-Mode Fiber PMD (SMF-PMD), décembre 1992.

[ANSI Tl -105] ANSI Tl-105-1991, "Digital Hierarchy — Optical Interface Rates and Formats Specifications (SONET) (FDDI and STS path signal level)". Supplement to ANSI Tl-105, 1991.

[ANSI 237] ANSI X3.237-199x. Fiber Distributed Data Interface Low-cost Fiber Physical Medium Dependent (LCF-PMD), septembre 1992.

[ANSI 201] ANSI X3.201-1992, Fiber Distributed Data Interface Twisted Pair Physical

Medium Dependent (TP-PMD), février 1993.

[Fink 92] R. Fink, F. Ross. "FFOL and its relationship to the MAN/WAN environment". Computer Communications. 15(9). novembre 1992.

[Hamstra 92] J. Hamstra, R. Fink, "FFOL transmission services — Issues for a PHY

physical layer protocol", Computer Communications. 15(5), juin 1992.

[IS 9314-1] ISO IS 9314-1, Fiber Distributed Data Interface (FDDI) — Part I : Physical Layer Protocol (PHY), 1989.

[IS 9314-2] ISO IS 9314-2, Fiber Distributed Data Interface (FDDI) — Part 2 : Medium Access Control (MAC), 1989.

[IS 9314-31 ISO IS 9314-3, Fiber Distributed Data Interface (FDDI) — Part 3 : Physical Laver Medium Dependent Protocol (PMD), 1990.

[IS 9314-5] ISO IS 9314-5. Fiber Distributed Data Interface (FDDI) — Part 5 : Hybrid-

Ring Control (FDDI II), 1995.

[IS 10608-14] ISO ISP 10608-14. Fiber Distributed Data Interface (FDDI) — Part 6 :

Station Management, 1995.

Page 389: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie 369

[Jain 90] R. Jain, "Performance and Analysis of the FDDI Token Ring Protocol Networks : Effects of Parameters and Guidelines for setting TTRT". Proceedings ACM SIGCOMM, 1990.

[Ross 89] F. Ross, "Overview of FDDI : the Fiber Distributed Data Interface", IEEE Journal on Selected Areas in Communications, 7(7), juillet 1989.

[Ross 90] F. Ross, J. Hamstra, R. Fink, "FDDI - A LAN Among MANs", Computer Communication Review, 20(3), juillet 1990.

[Ross 92] F. Ross, R. Fink, "Overview of FFOL — FDDI Follow-On LAN". Computer Communications, 15( 1 ), janvier 1992.

[Stallings 93] W. Stallings, Local and Metropolitan Area Networks, 4 e édition. Macmillan Publishing Company. 1993.

[Tolmie 92] D. Tolmie, "Gigabit Networking", IEEE Lighwave Telecommunication Systems, 3(2), mai 1992.

[Walrand 93] J. Walrand, Communications Networks : a first course, Aksen Editors, 1993.

Ouvrages de synthèse

B. Albert, A.P. Jayasumana, FDDI and FDDI II : Architecture, Protocols and Performance, Artech House, 1994.

R. Jain. FDDI Handbook : High-Speed Networking Using Fiber and Other Media, Addison-Wesley, 1993.

A. Shah, G. Ramakrishnan, FDDI - Réseau haut débit, Masson, 1995.

Chapitre 6

[Ahmad 92] R. Ahmad, F. Halshall. "A Comparison of DQDB and FDDI for the interconnection of LANs", Proceedings EFOC/LAN'92, pp .43-47, 1992.

[Hahne 90] E. Hahne, A. Choudhury, N. Maxemchuck, "Improving the fairness of Distributed-Queue-Dual-Bus Networks", Proceedings IEEE INFOCOM'90, juin 1990.

[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus (DQDB) access method and physical layer specifications, ANSI/IEEE Standard 802.6, 1994.

[Newman 88] R. Newman, Z. Budrikis, J. Hullett. "The QPSX MAN", IEEE Communications Magazine, pp. 20-28, 26(4), avril 1988.

[Sadiku 94] M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, Janvier 1994.

[Sumita 92] M. Sumita, P.-C. Fetterolf. "Effect of Bandwidth Balancing Mechanism on fairness and performance of DQDB MANs". Proceedings IEEE INFOCOM'92, mai 1992.

Page 390: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 7 0 Architecture des réseaux haut débit

Ouvrages de synthèse

D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Mac

Graw Hill, 1993.

M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, janvier 1994.

Chapitre 7

[IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical link control,

ANSI/IEEE Standard 802.2, 1994.

[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991.

[IS 8802-2] ISO IS 8802-2, Local Area Networks, Part 2 : Logical Link Control, 1990.

Chapitre 8

[ATM Forum 94] ATM Forum, ATM User-Network Interface (UNI) Specification Version

3.1. juillet 1994.

[ATM Forum 95] ATM Forum. LAN Emulation SWG Drafting Group, LAN Emulation over

ATM Specification - Version 1.0, janvier 1995.

[Bae 91] J. Bae, T. Suda, "Survey of traffic control schemes and protocols in ATM

networks", Proceedings of the IEEE, 79 (2), février 1991.

[Bala 90] K. Bala, I. Cidon, K. Sohraby, "Congestion control for high speed packet switched networks", Proceedings IEEE INFOCOM'90, 1990.

[Boyer 92] P. Boyer, D. Tranchier. "A reservation principle with applications to the ATM traffic control". Computer Networks and ISDN Systems, 24, 1992.

[Doll 72] D.R. Doll, "Multiplexing and concentration", Proceedings of the IEEE, vol. 60, pp. 1313-1321. novembre 1972.

[G.707] UIT-T G.707. Synchronous Digital Hierarchy bit rates, août 1993.

[G.708] UIT-T G.708, Network node interface for the Synchronous Digital Hierarchy,

novembre 1993.

[G.709] UIT-T G.709, Synchronous multiplexing structure, décembre 1993.

[G.731] UIT-T G.731, Primary PCM multiplex équipement for voice frequencies,

Bluebook III.4, juin 1990.

[G.732] UIT-T G.732, Characteristics of primary PCM multiplex équipement operating at 2048 kbit/s. Bluebook III.4. juin 1990.

[G.733] UIT-T G.733, Characteristics of primary PCM multiplex équipement operating at

1544 kbit/s, Bluebook III.4, juin 1990.

[Guillemin 92] F. Guillemin. Contrôle de congestion dans les réseaux temporels asynchrones. Thèse de doctorat de l'université de Rennes I, juillet 1992.

[Gravey 91] A. Gravey, G. Hébuterne. "Mixing time and loss priorities in a single server queue". Proceedings Workshop on ATM. 13th International Teletraffic Congress,

1 9 9 1 .

Page 391: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie 371

[Hong 91] D. Hong, T. Suda. "On congestion control and prevention in an ATM network", IEEE Network Magazine, juillet 1991.

[1.1 13] UIT-T 1.113, Vocabulary of Terms for Broadband Aspects of ISDN, novembre 1994.

[1.371] UIT-T 1.371, Traffic Control and Congestion Control in B-ISDN, novembre 1993.

[1.413] UIT-T 1.413, B-ISDN User-Network Interface, décembre 1993.

[1.432] UIT 1.432, B-ISDN User-Network Interface — Physical Layer Specification, Janvier 1994.

[1.555] UIT-T 1.555, Frame Relaying Bearer Service Interworking, novembre 1994.

[1.610] UIT-T 1.610. B-ISDN Operation And Maintenance Principles and Functions, Janvier 1994.

[IS 11172] ISO DIS 11172, Coding of Moving Pictures and Associated Audio (MPEG), novembre 1992.

[Kroner 90] H. Kroner, "Comparative performance study of space priority mechanisms for ATM networks", Proceedings IEEE INFOCOM90, juin 1990.

[Newman 94] P. Newman, "ATM Local Area Networks", IEEE Communications Magazine, 32(3), mars 1994.

[Q.2010] UIT-T Q.2010, Broadband integrated services digital networks overview signalling capabilities set I, release I, juillet 1995.

[Q.2100] UIT-T Q.2100, B-ISDN signalling ATM adaptation layer (SAAL) overview-description, février 1995.

[Q.2110] UIT-T Q.2110, B-ISDN ATM adaptation layer - Service specific connection oriented protocol (SSCOP), avril 1995.

[1.121] UIT-T 1.121, Broadband aspects of ISDN, juillet 1991.

[1.150] UIT-T 1.150, B-ISDN Asynchronous Transfer Mode Functional Characteristics, novembre 1993.

[1.211] UIT-T 1.211, B-ISDN Service Aspects, novembre 1993.

[1.311] UIT-T 1.311, B-ISDN General Network Aspects, novembre 1993.

[1.320] UIT-T 1.320, ISDN Protocol Reference Model, novembre 1994.

[1.321] UIT-T 1.321, B-ISDN Protocol Reference Model and its Application, juillet 1991.

[1.327] UIT-T 1.327, B-ISDN Functional Architecture, novembre 1993.

[1.356] UIT-T 1.356, B-ISDN ATM Layer Cell Transfer Performance, février 1995.

[1.361] UIT-T 1.361, B-ISDN ATM Layer Specification, novembre 1993.

[1.362] UIT-T 1.362, B-ISDN ATM Adaptation Layer (AAL) Functional Description, octobre 1993.

[1.363] UIT-T 1.363, B-ISDN ATM Adaptation Layer (AAL) Specification, février 1994.

[1.364] UIT-T 1.361, Support of Broadband Connectionless Data Service on B-ISDN, octobre 1993.

[1.365] UIT-T 1.365.1, Frame Relaying Service Specific Convergence Sublayer (FR-SSCS), novembre 1994.

Page 392: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 7 2 Architecture des réseaux haut débit

[Q.2130] UIT-T Q.2130, B-ISDN signalling ATM adaptation layer - Service specific coordination function for support of signalling at the user-network interface (SSCF at UNI), avril 1995.

[Q.2140] UIT-T Q.2140. B-ISDN signalling ATM adaptation layer - Service specific

coordination function for support of signalling at the network node interface (SSCF at

NNI), juillet 1995.

[Q.2931] UIT-T Q.2931, Broadband integrated services digital networks - Digital subscriber signalling system N° 2 (SS 2) UNI layer 3 specification for basic

call/connection control, à paraître fin 1995.

[Rathgeb 91] E. Rathgeb, "Modeling and performance comparison of policing mechanisms for ATM networks", IEEE Journal on Selected Areas in Communications,

9 (3), avril 1991.

[X.200] UIT-T X.200, Open Systems Interconnection — Basic Reference Model.

novembre 1994.

[Szuprowicz 95] B.O. Szuprowicz. Multimedia Networking, Mac Graw Hill, 1995.

[Truong 95] H.L.T. Truong, W.W. Ellington, J.Y. Le Boudec, A. Meier. J.W. Pace, "LAN Emulation on an ATM Network", IEEE Communications Magazine, 33 (5), mai 1995.

Ouvrages de synthèse

L'Echo des Recherches, Numéro spécial sur ATM (I), 144, 2 e trimestre 1991.

L'Echo des Recherches, Numéro spécial sur ATM (II), 145, 3 e trimestre 1991.

M. Boisseau, M.Démange, J.-M.Munier, Réseaux ATM, Eyrolles, 1992.

M. DePrycker. Asynchronous Transfer Mode, 2 e édition, Ellis Horwood Ltd, 1994.

R. Hândel, M. Huber, S. Schroder, ATM Networks : concepts, protocols, applications,

2 e édition, Addison-Wesley, 1994.

D.E. McDysan, D.L. Spohn, ATM: Theory and Applications, Mac Graw Hill, 1994.

D. Minoli. Broadband Network Analysis and Design, Artech House, 1993.

R.O. Onvural. Asynchronous Transfer Mode Networks, Artech House, 1994.

M.J. Sexton, A.B.D. Reid, Transmission and the Synchronous Digital Hierarchy, Artech House, 1992.

W. Stallings. ISDN and Broadband ISDN with Frame Relay and ATM, 3 e édition, Mac

Millan, 1995.

Chapitre 9

[ANSI 90] ANSI T1.606, Frame Relaying Bearer Senice — Architecture Framework and

Service Description. 1990.

[Bellcore 92] Bellcore, Generic Requirements for SMDS Networking. Bellcore Technical

Reference, Issue 2, TA-TSV-001059. août 1992.

[Deering 95] S. Deering, R. Hinden. "Internet Protocol, Version 6 (IPv6) Specification", draft-ietf-ipngwg-ipv6-spec02, 19 juin 1995.

Page 393: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Bibliographie 373

[IEEE 802.Id] Institute of Electrical and Electronics Engineers, Local MAC Bridging, Contribution P802.1d/D9, 1989.

[IEEE 802.Ig] Institute of Electrical and Electronics Engineers, Remote MAC Bridging, Contribution P802.1g, novembre 90.

[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991.

[IS 8648] ISO IS 8648. Interconnexion des systèmes ouverts - Organisation interne de la couche réseau, septembre 1990.

[Q.931] ITU-T Q.931, Rev-1, Digital subscriber Signalling System No.l (DSS I) — ISDN user-network interface layer 3 specification for basic call control, octobre 1994.

[RFC 768] J. Postel, "User Datagram Protocol", RFC 768, août 1980.

[RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981.

[RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981.

[RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981.

[RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification", RFC 904, avril 1984.

[RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992.

[RFC 1710] R. Hinden, "Simple Internet Protocol Plus White Paper", RFC 1710, octobre 1994.

[RFC 1752] S. Bradner, A. Mankin, "The Recommendation for the IP Next Generation Protocol", RFC 1752, janvier 1995.

[Sunshine 90] C. Sunshine, "Network interconnection and gateways", IEEE Journal on Selected Areas in Communications, 8 (1), janvier 1990.

[X.200] UIT-T X.200. Information Technology - Open Systems Interconnection - Basic Reference Model : the basic model, novembre 1994.

Ouvrages de synthèse

U. Black, Frame Relay Networks : Specifications and Implementations, Mac Graw Hill, 1994.

D. Comer, Internetworking with TCP/IP, Prentice Hall, 1988.

R.P. Davidson, N.J. Muller, Internetworking LANs, Artech House, 1992.

R. Klessig, SMDS -Wide-Area Data Networking with Switched Multimegabit Data Service, Prentice-Hall, 1994.

Radia Perlman, Interconnexions, ponts et routeurs, Addison-Wesley, 1995. D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Mac

Graw Hill, 1993.

Page 394: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 395: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Liste des acronymes

AAL

ABM

ADM

AFNOR

AMP

AMRF

AMRT

ANSI

ARP

ASN.l

ATM

AUI

BECN

BOM

B-ISDN

B-NT

B-TA

B-TE

BUS

CAC

CBDS

CBR

CCE

CCITT

CD

ATM Adaptation Layer

Asynchronous Balanced Mode

Add and Drop Multiplexor

Association Française de Normalisation

Active Monitor Present

Accès Multiple à Répartition en Fréquence

Accès Multiple à Répartition dans le Temps

American National Standards Institute

Address Resolution Protocol

Abstract Syntax Notation 1

Asynchronous Transfer Mode

Attachment Unit Interface

Backward Explicit Congestion Notification

Beginning Of Message

Broadband-Integrated Service Digital Network

Broadband-Network Termination

Broadband-Terminal Adaptor

Broadband-Terminal Equipment

Broadcast/Unknown server

Connection Admission Control

Connectionless Broadband Data Services

Constant Bit Rate

Configuration Control Element

Comité Consultatif International Télégraphique et Téléphonique

Committee Draft

Page 396: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

3 7 6 Architecture des réseaux haut débit

CDD1 CDV CEI CEM CEN CENELE( CEP CEPT C F CLCP CLP CLS CMIP CMIS CMP CMT CNET COCF COM COS CPCS CPE CRC CS CSMA CSMA/C. CSMA/C1 CV DAC DAS DE DIS DoD DPAM DPG DQDB ECM ECMA EFCI EFS EGP

Copper Distributed Data Interface Cell Delay Variation Comité Electrotechnique International Configuration Element Management Comité Européen de Normalisation Comité Européen de Normalisation Electrotechnique Connection End Point Conférence Européenne des Postes et des Télécommunications Common Functions ConnectionLess Convergence Protocol Cell Loss Priority ConnectionLess Server Common Management Information Protocol Common Management Information Service Congestion Management Protocol Connection ManagemenT Centre National d'Etudes de Télécommunications Connection Oriented Convergence Function Continuation Of Message Corporation for Open Systems Common Part Convergence Sublayer Customer Premises Equipment Cyclic Redundancy Control (Check) Convergence Sublayer Carrier Sense Multiple Access Carrier Sense Multiple Access with Collision Avoidance Carrier Sense Multiple Access with Collision Detection Circuit Virtuel Dual Attachment Concentrator Dual Attachment Station Discard Eligibility Draft International Standard Department of Defense Demand Priority Access Method Dedicated Packet Group Distributed Queue Dual Bus Entity Coordination Management European Computer Manufacturer Association Explicit Forward Congestion Indication End of Frame Sequence Exterior Gateway Protocol

Page 397: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Liste des a c r o n y m e s 377

EIA ELAN EOM ETSI FC FCS FDDI FDMA FECN FFOL FOIRL FOMAU FTP GFC HDLC HEC HIPPI HMUX IC ICF ICI ICIM ICIP ICMP IDU IEEE IETF IGP IMAC IP IS ISDN ISO ISSI ISSIM ISSIP IVD rwu JTC LAN LCF-PMD

Electronic Industries Association Extended Local Area Network End Of Message European Telecommunications Standard Institute Feedback Control Frame Control (Check) Sequence Fiber Distributed Data Interface Frequency Division Multiple Access Forward Explicit Congestion Notification FDDI Follow-On LAN Fiber Optic Inter Repeater Link Fiber Optic Medium Access Unit File Transfer Protocol Generic Flow Control High-level Data Link Control Header Error Control High Performance Parallel Interface Hybrid Multiplexer Inter-exchange Carrier Isochronous Convergence Function Inter-exchange Carrier Interface Inter-exchange Carrier Interface Module Inter-exchange Carrier Interface Protocol Internet Control Message Protocol Interface Data Unit Institute of Electrical and Electronic Engineers Internet Engineering Task Force Interior Gateway Protocol Isochronous MAC Internet Protocol International Standard Integrated Service Digital Network International Standardization Organization Inter-Switching System Interface Inter-Switching System Interface Module Inter-Switching System Interface Protocol Integrated Voice/Data Inter-Working Unit Joint Technical Committee Local Area Network Low Cost Fiber-Physical Medium Dependent

Page 398: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

378 Architecture des réseaux haut débit

LEC LEC LES LLC LME LMI L3 -DTP MAC MAN MAP MAU MCF MCP MDI MIJ3

MIC MIC MID MID MLT-3 MMF MMF-PMD MO MPEG MUX I/E NAC NIF NMS NNI NRM NRZI OAM OC OSI PABX PA PAF PC PCI PCM PDH

Local Exchange Carrier LAN Emulation client LAN Emulation Serveur Logical Link Control Layer Management Entity Local Management Interface Level 3 Data Transport Protocol Medium Access Control Metropolitan Area Network Manufacturing Automation Protocol Medium Attachment Unit MAC Convergence Function MAC Convergence Protocol Medium Dependent Interface Management Information Base Medium Interface Connector Modulation par Impulsions et Codagf Message IDentifier Multiplexing IDentifier MultiLevel Transmission 3 Multi-Mode Fiber Multi-Mode Fiber PMD Managed Object Moving Picture Expert Group Multiplexeur d'Insertion/Extraction Null Attachment Concentrator Neighbor Information Frame Network Management System Network-Node Interface Network Resource Management Non Return to Zero Inverted Operation And Maintenance Optical Carrier

Open Systems Interconnection Private Auto-Branch eXchange Pre-Arbitrated Pre-Arbitrated Functions Priority Control Protocol Control Information Physical Connection Management Plesiochronous Digital Hierarchy

Page 399: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Liste des acronymes 379

PDU PHY PIM PLCF PL-OAM PLS PM PMA PMD PMF POH PT PTI QA QAF QoS QPSX RARP RGT RM RMON-MIB RMP RMT RNIS RNIS-BE RNIS-LB SAAL SAC SAS SAP SAR SC SDH SDU SEAL SG SGMP SIP SMAE SMAP SMDS

Protocol Data Unit Physical Proprietary Intra-SS Interface Module Physical Layer Convergence Function Physical Layer-Operation And Maintenance Physical Layer Signalling Physical Medium Physical Medium Access Physical Medium Dependent Parameter Management Frame Path OverHead Payload Type Payload Type Identifier Queued Arbitrated Queued Arbitrated Functions Quality of Service Queue Packet and Synchronous Switch Reverse Address Resolution Protocol Réseau de Gestion des Télécommunications Resource Management Remote Monitoring-MIB Routing Management Protocol Ring ManagemenT Réseau Numérique à Intégration de Services RNIS-Bande Etroite RNIS-Large Bande Signalling AAL Single Attachment Concentrator Single Attachment Station Service Access Point Segmentation And Reassembly Sub Committee Synchronous Digital Hierarchy Service Data Unit Simple and Efficient Adaptation Layer Study Group Simple Gateway Monitoring Protocol SMDS Interface Protocol System Management Application Entity System Management Application Process Switched Multimegabit Data Service

Page 400: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

380 Architecture des réseaux haut débit

S MF A S MF-PMD SMI SMP SMT SMTP SNI SNIM SNMP SOH SONET S PAG SPM SRF SS SS-NE SSCS SSM ST STM STM STS STP TAG TAM TBR TBT TC TC TCP TCU TDMA TER THT TIA TLO TMN TNT TPDU TP-DDI TP-PMD

Specific Management Functional Area Single Mode Fiber - PMD Structure of Managed Information Standby Monitor Present Station ManagemenT Simple Mail Transfer Message Subscriber-Network Interface Subscriber-Network Interface Module Simple Network Management Protocol Section OverHead Synchronous Optical NETwork Standards Promotion and Application Group SONET Physical-layer Mapping Status Report Frame Switching System Switching System-Network Element Service Specific Convergence Sublayer Single Segment Message Segment Type Synchronous Transfer Mode Synchronous Transport Module Synchronous Transport Signal Shielded Twisted Pair Technical Advisory Group Timer Active Monitor Timer Beacon Receive Timer Beacon Transmit Technical Committee Transmission Convergence Transmission Control Protocol Trunk Cable Unit Time Division Multiple Access Timer Error Report Timer Holding Token Telephony Industries Association Terminal de Ligne Optique Telecommunications Management Network Timer No Token Transport Protocol Data Unit Twisted Pair-Distributed Data Interface Twisted Pair-Physical Medium Dependent

Page 401: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Liste des acronymes 3 8 1

TOP TQP TRO TRR TRT TSM TTL TTRT TVX UD UDP UIF u n urr-T UNI UPC/NPC UTP VBR VCC VCI VCL VPC VPI VPL WAN WBC WD WG

Technical and Office Protocol Timer Queue PDU Terminaison de Réseau Optique Timer Return to Repeat Token Rotation Timer Timer Standby Monitor Time To Live Target Token Rotation Time Timer Valid Transmission User Data User Datagram Protocol Unité d'Inter-Fonctionnement Union Internationale des Télécommunications U1T - secteur Télécommunications User-Network Interface User Parameter Control/Network Parameter Control Unshielded Twisted Pair Variable Bit Rate Virtual Channel Connection Virtual Channel Identifier Virtual Channel Link Virtual Path Connection Virtual Path Identifier Virtual Path Link Wide Area Network Wide Band Channel Working Document Working Group

Page 402: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 403: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Index

AAL 240, 254 CS 242 mécanismes 242 SAR 242 type 254, 1 246, 2 247, 5 252 type 3/4 248, 254 types de protocole 245

accès 51 -59 aléatoire 56-59 centralisé 53, 84 contrôle d'accès 51 déterministe 53, 106 jeton 53, 89-116, 127-130 polling 53 statique 51

adaptateur 40 administration 26-34

définition 26 normes 27 SNMP 32 système de gestion 32

adressage 169 adresse

MAC 280 Aloha 56, 57, 63 amplificateurs 42 AMRF 52 AMRT 51 anneau 54, 89, 124

doublé 50, 124

logique 89, 106 virtuel 55, 106

ANSI 124, 146 arbre couvrant 282, 299 architecture 15

couches 16, 22 DoD 24 mode connecté 18 mode non connecté 19 OSI 15-24 services 21

ARP 25 ATM 203-270, 301

adresse 256 cellule 236 cellules OAM 227 commutation 236 fonctions 236 Forum, 14, 211 marquage des cellules 265 priorités 238 réseau local émulé 256 service 239, 240

AUI 65, 74-75

Bande passante 41 , 46, 209 Binary Exponential Backoff 68 by-pass 90

Câble coaxial 44, 48, 77, 279

Page 404: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

384 Architecture des réseaux haut débit

câble coaxial « bande de base » 45 câble épais 45, 77 câble fin 45, 78 CATV 44, 78

CBDS 295 CDDI 147 cellule

ATM 210 DQDB 161 OAM 227

codage 4B/5B 145 5B/6B 84 8B/6T 83 bande de base 41 biphase 41 Manchester 41 , 75, 103 MLT-3 148 modulation 41

collision 48, 56, 59, 63, 66 commutateur 220

Ethernet 85 commutation 213

aiguille 207 asynchrone 209

congestion 299 contrat de trafic 265 contrôle d'entrée 265 contrôle de priorité 269 fonctions génériques 263 gestion des ressources 264 gestion rapide des ressources 270 lissage 266 méthodes préventives 262 méthodes réactives 262 notification 270

connecteur 103 prise en T 45 prise vampire 45 RJ-45 44

connectionless server 257 contrôle de flux 236 contrôleur-espaceur 267 couche

application 24 physique 22 présentation 24

réseau 23 session 23 transport 23

C S M A 5 8 CSMA/CA 59 CSMA/CD 39, 58, 83, 279

« hub » 79 architecture 64 collision 76 couche physique 74 détection des collisions 66 écoute 65 fenêtre de collision 67 format de la trame 70 modèle fonctionnel de la couche MAC 69 paramètres 72 période de vulnérabilité 67 reprise après collision 68 service MAC 72 slot-time 67 supports 77

Datagramme 19, 25, 184, 288, 290 débit 41

crête 264 DP AM. 84 DQDB 39, 49. 157-179, 295, 301

adresses 169 architecture 159 Bandwidth Balancing 167 cellule 161. 172 compteurs 165 couche DQDB 159 couche physique 159, 178 file distribuée 163, 166 isochrone 160

mode asynchrone avec connexion 163 mode asynchrone sans connexion 162 mode isochrone 162 protocole 172 segment 172 services 176 unités de données 167 VCI 162-163, 172. 175

Page 405: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Index 385

EGP 25, 290 Ethernet 40, 44. 57. 63-83

100 Mbit/s 82 100BASET 83 lOOVGAnyLan 82, 83 10BASET 79 Full Duplex 85 isochrone 86

Fast Ethernet 82 FDDI 124-152

architecture 125 classes de transmission 128 concentrateur 126 couche MAC 125 couche physique 125, 145 FDDI II 149 FFOL 151 gestion 126, 138 initialisation 134 jeton 133 jeton temporisé 129 nœud 126-127 paire torsadée 148 panne 135 priorités 129 protocole 127 services 136 support 146 temporisateurs 129 trame 131

fibre optique 45-46, 48, 79, 81, 84, 124, 147, 222, 229, 279

monomode 147 multimode 146

FOMAU 79 FTP 26

Gigue 104, 205, 240, 243

HDLC 196, 301 hub 79-83

ICMP 25 IEEE 14, 280

802.1 39 802.12 39, 83 802.14 39, 83

802.2 39, 183 802.3 39, 58, 64 802.4 39, 90, 110, 192 802.5 39, 89, 123 802.6 39, 157 802.7 39 802.8 39 802.9 39 architecture 38 comité 802 38, 39 couche physique 38 liaison 39 LLC 39 MAC 38, 39 normes 40 standard 38-40 TAG 39

IGP 25, 290 interconnexion 277-303

adressage Internet 288 adressage relais de trames 303 apprentissage 285 architecture 283 conversion de protocoles 278, 280 conversion de services 278, 280, 283 datagramme IP 291 encapsulation 278, 283, 289 filtrage 285 Internet 288, 293 IWU 278 méthodologie 278 pont 280-286 pont intelligent 280 ponts MAC 282 relais de trames 301 répéteurs 279 routage 281, 287 routage Internet 290 routeur 286-288 SMDS 295-301 terminologie 279

Internet 25, 288, 293 IP 25 ISO 12,38, 124 isochrone 162

Jeton 53-55, 127

Page 406: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

386 Architecture des réseaux haut débit

adressé 106

jeton temporisé 113, 129

Largeur de bande 41 Leaky Bucket 266 liaison 280 LLC 183-198, 279

protocoles 196-199 service LLC 1 184 service LLC2 185, 190 service LLC3 191 services 184 trames 196

lobe 104

MAC 279 MAU 48, 65. 74-75, 79 mode connecté 185 mode de transfert 207

asynchrone 209 ATM 208 circuit 208 paquet 208 synchrone 208

modèle OSI 15 multimédia 203 multiplex 208 multiplexage 207. 223

asynchrone 209 statistique 209 synchrone 208, 221 temporel 208

multiplexeur 151, 224

Nœud 47 normalisation 11

AFNOR 12 ANSI 12 autres organismes 14 ECMA 12 ISO 12 MAP 14 modèle OSI 15 organismes européens 13 TOP 14 UIT-T 13

notification 299

Organismes de normalisation 10 OSI 24, 38, 225, 278, 280

PABX 47 paires torsadées 42-43, 80, 83, 104

STP43 , 80, 84, 105, 148 UTP 43, 44, 80, 148

PDH 220, 232 plésiochrone 220 polling 53, 84, 191, 193 pont 280-286 port 280, 285

Qualité de service 205, 248, 263, 286, 291

Rafale 265 RARP 25 relais de trames 285, 301 répéteur 42, 48,49, 78, 103

FOIRL81 répéteurs 279 réseau fédérateur 124, 151, 157 réseau grande distance 38 réseau large bande 204, 207 réseau large bande

AAL 240-254 architecture 215 ATM 210 brasseur 219 cellule 210 commutation 213, 219 conduit virtuel 212 connexion ATM 211 connexion virtuelle 212 contrôle de congestion 261, 263-270 couche physique 229 délimitation de cellules 233 flux de maintenance 227 interface 215 modèle de référence 225 OAM 227 points de référence 215 recommandations 207 services 204, 241 système de transmission 220, 231 trafics 206

Page 407: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Index 387

translation des valeurs de VCI 212 VCI 211,237

réseau local ATM 255 réseau local étendu 283 réseaux grande distance 6 réseaux locaux 6, 8 réseaux métropolitains 6, 157 RNIS 9,40, 169, 221,225 RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite) 303 RNIS-LB 207, 295 routage 287, 298 routeur 286-288

SDH 220, 224, 231 service MAC 258 services large bande 203, 241 Shannon 41 slot 160 slot-time 67 SMDS 295-301 SMTP 26 SNMP 26, 32 SONET 147,220-224, 301 SONET/SDH 178 support 40-46

Tampons 209 taux d'erreurs 37 TCP 26, 288, 290 TCP/IP 288 technique de transmission 41 Telnet 26 Token Bus 39, 56, 106, 192

anneau virtuel 106 arbitrage réparti 109 architecture 110 fenêtre de réponse 108 gestion 114 Initialisation 110 Principe 106

priorité 113 procédure de réveil 107 réception 110 services MAC 115 slot-time 108, 115 supports 118 temporisateur 106 trame 111

Token Ring 39, 44, 89-105, 123 architecture 92 automate 96 câblage 104 couche physique 103 gestion 99

moniteur actif 100, 104 moniteurs en veille 100 principe 90 priorité 97, 100 réception 97 services MAC 100 tampon de latence 104 TCU 103 temporisateur 95, 96, 98 trame 92 transmission 95

topologie 47-50 anneau 49, 89 arbre 48 boucle 49 bus 48, 90, 158 étoile 47, 81, 86, 104

trafic isochrone 205 trafic sporadique 206 transport ISO 26

UDP 26 UIT 13 unité d'inter-fonctionnement 278

VPC 264

X.21 25 X.25 25, 301

Page 408: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 409: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

C E T O U V R A G E A É T É C O M P O S É P A R L E S É D I T I O N S H E R M È S REPRODUIT ET ACHEVÉ D'IMPRIMER PAR L'IMPRIMERIE FLOCH À MAYENNE

EN OCTOBRE 1995 .

DÉPÔT LÉGAL : OCTOBRE 1995 . N° D'IMPRIMEUR : 3 8 3 0 1 .

Page 410: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 411: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf
Page 412: 148137464-Architecture-des-reseaux-haut-debit-cours-pdf.pdf

Conçu avec un grand souci de clarté, Architecture des réseaux haut débit constitue un outil pédagogique de premier ordre.

La partie « cours » traite des techniques de base utilisées dans les réseaux locaux et dans les réseaux haut débit : supports, raccordement, topologie du réseau et protocole d'accès au support. Après un rappel des protocoles IEEE, CSMA/CD, Token Ring et Token Bus sont présentés en détail, jusque dans leur évolution vers les 100 Mbit. Ces protocoles introduisent aux réseaux haut débit FDDI et DQDB, ainsi qu au futur réseau large bande. Pour ce dernier, sont expliquées en détail : la technique ATM, la topologie du réseau B-ISDN et la nouvelle architecture en couches s'y rapportant. Enfin, la problématique de l 'interconnexion de tous ces réseaux est étudiée.

La partie « exercices et corrigés » s'adresse aux enseignants et étudiants en informatique de 2 e et 3 e cycles qui y trouveront une illustration de chaque problème abordé par des exercices corrigés, une progression maîtrisée de la technicité au fur et à mesure des chapitres, une bibliographie richement documentée et une liste complète des acronymes et abréviations si souvent rencontrés dans ce domaine.