Architecture des réseaux haut débit cours, exercices et corrigés
Kim-Loan Thaï Véronique Vèque Simon Znaty
Architecture des réseaux haut débit
Collection dirigée p a r Pierre Rolin
EXTRAIT DU CATALOGUE GÉNÉRAL Michael GRIFFITHS et Michel VAYSSADE, Architecture 2 édition, 1 9 9 0 .
des systèmes
d'exploitation,
e
Habib ABDULRAB, de Common
Lisp à la programmation
objet, 1 9 9 0 . E
Robert OGOR et Robert RANNOU, Langage ADA et algorithmique,
2 édition revue et
corrigée, 1 9 9 3 . Ivan LAVALLÉE, Algorithmique parallèle et distribuée, 1 9 9 0 . Jean-Pierre CHARDON et Dominique B l S S E Y , Télécommunications d'entreprise techniques et organisation, 2 édition revue et complétée, 1 9 9 2 .
—
E
Victor SANDOVAL, Technologie
de l'EDI, 1 9 9 0 .
Xavier MARSAULT, Compression revue et a u g m e n t é e , 1 9 9 5 .
et cryptage
Christian PÉLISSIER, UNIX— utilisation, tion revue et a u g m e n t é e , 1 9 9 5 . Christian PÉLISSIER, Guide de sécurité Jean-Louis JACQUEMIN, Informatique
des données
administration
des systèmes parallèle
multimédias, système
Radu HORAUD et Olivier MONGA, Vision par ordinateur, mentée, 1 9 9 5 . des réseaux
édition E
et réseau,
2 édi-
UNIX, 1 9 9 3 .
et systèmes
multiprocesseurs,
Michel ADIBA et Christine COLLET, Objets et bases de données
Laurent TOUTAIN, Technique l'interconnexion, 1994.
E
2
locaux
sous
2
E
1993.
— le SGBDO2, 1 9 9 3 . édition revue et aug-
Unix — des protocoles
P a t r i c e BOURSIER et Pierre-Antoine TAUFOUR, 2 édition revue et augmentée, 1 9 9 4 .
La technologie
Christian VAN HOUCKE, Le multimédia
1994.
à
multimédia,
E
en entreprise,
Gérard DUPOIRIER, Technologie de la CED — techniques et management documents électroniques, 2 édition revue et augmentée, 1 9 9 5 .
des
E
Jean-François JODOUIN, Réseaux 1994.
neuromimétiques
Jean-François JODOUIN, Les réseaux de neurones Victor SANDOVAL, SGML 1994.
— un outil
pour
— modèles
— principes
la gestion
P i e r r e ROLIN, Réseaux Pierre ROLIN, Réseaux mentée, 1 9 9 5 .
BOYER et
Patrice
applications,
et définitions,
électronique
Daniel CALI et Gabriel ZANY, Technologie de l'interconnexion méthodologies, marchés et évolutions, 1994. Jean PELLAUMAIL, P i e r r e P-simulation, 1994.
et
LEGUESDRON,
de
1994. documents,
de réseaux Réseaux
ATM
— et
haut débit, 1 9 9 5 . locaux
— normes
et protocoles,
5
E
édition revue et aug-
Xavier LAGRANGE, Philippe GODLEWSKJ, Sami TABBANE, Réseaux Pierre LECOY, Technologie
des télécoms,
1995.
GSM, 1 9 9 5 .
réseaux et télécommunications
Architecture des réseaux haut débit cours, exercices et corrigés
Kim-Loan Thai Véronique Vèque Simon Znaty
HERMES
© Hermès, Paris, 1995 Editions Hermès 14, rue Lantiez 75017 Paris ISBN 2-86601-494-4
Catalogage Electre-Bibliographie Thai, Kim Loan*Vèque, Véronique*Znaty, Simon Architecture des réseaux haut débit : cours, exercices et corrigés. Paris : Hermès, 1995. - (Réseaux et télécommunications) ISBN 2-86601-494-4 RAMEAU : ordinateurs, réseaux d': architectures : manuels d'enseignement supérieur DEWEY : 621.62 : Physique appliquée. Systèmes, réseaux et services des télécommunications Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une part, que les « copies ou reproductions strictement réservées à l'usage privé du copiste et non destinées à une utilisation collective » et, d'autre part, que les analyses et les courtes citations dans un but d'exemple et d'illustration, « toute représentation ou reproduction intégrale, ou partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est illicite » (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du Code de la propriété intellectuelle.
à nos
parents,
à Kim-Mai
et Anh,
à à Marianne
Christophe, et
Edouard.
Table des matières
Introduction
1
Chapitre
5
1. Architecture en couches et normalisation
1.1. Introduction 1.2. Les réseaux 1.2.1. Classification 1.2.2. Applications 1.2.2.1. Applications des réseaux grande distance 1.2.2.2. Applications des réseaux locaux 1.2.2.3. Applications des réseaux métropolitains 1.2.3. Caractéristiques fonctionnelles 1.3. Les organismes de normalisation 1.3.1. Les organismes officiels internationaux 1.3.1.1. L'ISO 1.3.1.2. LUIT 1.3.2. Les organismes européens 1.3.3. Autres organismes 1.4. Le modèle de référence OSI 1.4.1. Concepts de base de la structuration en couches 1.4.1.1. Organisation des communications avec le modèle OSI. 1.4.1.2. Transfert de données 1.4.2. Définition des services 1.4.3. Description des couches 1.4.3.1. La couche physique 1.4.3.2. La couche liaison de données 1.4.3.3. La couche réseau 1.4.3.4. La couche transport 1.4.3.5. La couche session
5 5 5 7 7 8 8 9 10 12 12 13 13 14 15 16 16 19 21 22 22 23 23 23 23
VIII
Architecture des réseaux haut débit
1.4.3.6. La couche présentation 1.4.3.7. La couche application 1.5. L'architecture DoD et ses protocoles 1.6. L'administration de réseaux 1.6.1. Définition 1.6.2. Les normes d'administration 1.6.2.1. L'ISO 1.6.2.2. L'UIT-T 1.6.2.3. Le monde TCP/IP Exercices
24 24 24 26 26 27 27 32 32 35
Chapitre 2. Caractéristiques générales des réseaux locaux et des réseaux métropolitains
37
2.1. Introduction 2.2. L'architecture IEEE 2.3. Supports de transmission 2 . 3 . 1 . Caractéristiques 2.3.2. Les paires torsadées 2.3.3. Le câble coaxial 2.3.4. La fibre optique 2.3.5. Supports non guidés 2.4. Topologies 2.4.1. L'étoile 2.4.2. Le bus 2.4.3. L'anneau 2.5. Les familles de contrôle d'accès 2.5.1. L'accès statique 2.5.1.1. Accès multiple à répartition dans le temps 2.5.1.2. Accès multiple avec répartition en fréquence 2.5.2. L'accès déterministe 2.5.2.1. Le polling 2.5.2.2. Accès par jeton 2.5.3. L'accès aléatoire 2.5.3.1. Le protocole Aloha 2.5.3.2. CSMA (Carrier Sense Multiple Access) 2.5.3.3. CSMA/CD (CSMA with Collision Detection) 2.5.3.4. CSMA/CA (CSMA with Collision Avoidance) Exercices
37 38 40 40 42 44 45 46 47 47 48 49 51 51 51 52 53 53 53 56 56 57 58 59 60
Chapitre 3. Ethernet et Ethernet 100 Mbit
63
3 . 1 . Introduction 3.1.1. Historique 3.1.2. Le standard 802.3 3.2. Le protocole MAC
63 63 64 65
Table des matières
IX
3.2.1. Principe de fonctionnement de CSMA/CD 3.2.1.1. Transmission d'une trame 3.2.1.2. Détection des collisions 3.2.1.3. Reprise après collision 3.2.1.4. Réception d'une trame 3.2.2. Modèle fonctionnel de la couche MAC 3.2.3. Structure de la trame 3.2.4. Paramètres du protocole MAC 3.3. Service MAC 3.3.1. La primitive MA_DATA.request 3.3.2. La primitive MA_DATA.indication 3.4. La couche physique 3.4.1. Sous-couche PLS 3.4.2. Interface AUI 3.4.3. Fonctions de la MAU 3.5. Service PHY 3.5.1. Les primitives de service 3.5.2. Génération et effets 3.6. Les supports 3.6.1. Supports à base de câble coaxial 3.6.2. Les répéteurs 3.6.3. Supports à base de paires torsadées 3.6.4. Supports à base de fibre optique 3.6.5. Récapitulatif 3.7. Ethernet 100 Mbit/s 3.7.1. Fast Ethernet 3.7.2. lOOVGAnyLan 3.7.3. Ethernet Full Duplex 3.7.4. Ethernet isochrone Exercices
65 65 66 68 68 68 70 71 72 73 73 74 74 75 75 76 76 76 77 77 78 79 81 82 82 83 83 85 86 87
Chapitre 4. Accès par jeton : Token Ring et Token Bus
89
4 . 1 . Introduction 4.2. Token Ring 4.2.1. Principe de l'accès à jeton 4.2.2. Structure du standard 802.5 4.2.3. Le protocole MAC 802.5 4.2.3.1. Les trames MAC 4.2.3.2. Transmission d'une trame de données 4.2.3.3. Remise du jeton et retrait de la trame 4.2.3.4. Automate de transmission 4.2.3.5. Réception 4.2.3.6. Niveaux de priorité 4.2.3.7. Les temporisateurs et les drapeaux
89 90 90 91 92 92 95 95 96 97 97 98
X
Architecture des réseaux haut débit
4.2.4. Protocole SMT et gestion des fautes 4.2.5. Services MAC 802.5 4.2.5.1. Service MAC pour la sous-couche LLC 4.2.5.2. Service MAC pour l'entité SMT 4.2.6. La couche physique 4.2.6.1. Composants de la couche physique 4.2.6.2. Rôle de la TCU 4.2.6.3. Le tampon de latence 4.2.6.4. Supports et câblage 4.2.6.5. Spécification des services PHY 4.3. Token Bus 4.3.1. Principe de l'accès à jeton sur bus 4 . 3 . 1 . 1 . Anneau logique 4.3.1.2. Procédure de réveil 4.3.1.3. Initialisation de l'anneau logique 4.3.1.4. Retrait d'une station de l'anneau 4.3.1.5. Réception d ' u n e trame 4.3.2. Structure du standard 802.4 4.3.3. Le protocole MAC 802.4 4.3.3.1. Les trames MAC 4.3.3.2. Temps maximum de rotation du jeton et priorités 4.3.3.3. Gestion des fautes 4.3.4. Services MAC 802.4 4.3.4.1. Service MAC pour la sous-couche LLC 4.3.4.2. Service MAC pour l'entité SMT 4.3.5. La couche physique 4.3.5.1. Les supports 4.3.5.2. Le service PHY Exercices
99 100 100 101 103 103 103 104 104 105 106 106 106 107 110 110 110 110 111 111 113 114 115 115 116 118 118 118 119
Chapitre 5. FDDI (Fiber Distributed Data Interface)
123
5.1. Introduction 5.2. Architecture d'une station FDDI 5.3. Définition d'un nœud FDDI 5.4. Fonctionnement du protocole FDDI 5.4.1. Données synchrones et asynchrones 5.4.2. Le jeton temporisé 5.4.3. Format des trames 5.4.3.1. La trame FDDI 5.4.3.2. Le jeton 5.4.4. Processus Claim 5.4.5. Fonctionnement normal 5.4.6. Processus Beacon 5.5. Services FDDI
123 125 126 127 128 129 131 131 133 133 135 135 136
Table des matières
XI
5.5.1 Service MAC 5.5.2 Services PHY et PMD 5.6. Administration de FDDI 5.6.1. Blocs et entités SMT 5.6.1.1. Le bloc CMT 5.6.1.2. Le bloc RMT 5.6.2. Les services SMT 5.6.3. La MIB SMT 5.7. La couche physique 5.7.1. Couches PHY et PMD 5.7.2. Couche PMD et supports de FDDI 5.7.2.1. MMF-PMD 5.7.2.2. SMF-PMD 5.7.2.3. FDDI sur SONET 5.7.2.4. TP-PMD 5.7.2.5. L C F - P M D 5.8. Les dérivés 5.8.1. FDDI II 5.8.1.1. Architecture de FDDI II 5.8.1.2. Mode de fonctionnement hybride 5.8.2. FFOL Exercices
137 137 138 139 139 140 141 144 145 145 146 146 147 147 147 148 149 149 149 150 151 153
Chapitre 6 . DQDB (Distributed Queue Dual Bus)
157
6.1. Introduction 6.2. Architecture d'un nœud DQDB 6.3. Accès au support 6.3.1. Accès temporel synchrone 6.3.2. La cellule DQDB 6.3.3. Les trois classes de services 6.3.3.1. Le mode isochrone 6.3.3.2. Le mode asynchrone sans connexion 6.3.3.3. Le mode asynchrone avec connexion 6.3.4. Protocole de la file distribuée 6.3.5. Equilibrage de la charge (BandWidth Balancing) 6.4. Les unités de données du protocole DQDB 6.4.1. Fragmentation et encapsulations successives 6.4.2. L'IM-PDU (Initial MAC Protocol Data Unit) 6.4.3. La DM-PDU (Derived MAC Protocol Data Unit) 6.4.4. Le segment 6.5. Le protocole DQDB 6.5.1. Fonction de convergence MAC (MCF) 6.5.1.1. Processus d'émission 6.5.1.2. Processus de réception
157 159 160 160 161 162 162 162 163 163 167 167 167 168 171 172 172 173 173 173
XII
Architecture des réseaux haut débit
6.5.2. Fonction de convergence isochrone (ICF) et entité fonctionnelle PAF 6.5.3. Fonction de convergence orientée connexion (COCF) 6.5.4. Fonctions communes (CF) 6.6. Les services D Q Q B 6.6.1. Primitives du service MAC 6.6.2. Primitives du service isochrone DQDB 6.6.3. Primitives du service de données asynchrones orienté connexion.. 6.7. La couche physique 6.7.1. Les différents supports 6.7.2. Le service physique Exercices
175 175 176 176 176 177 177 178 178 178 180
Chapitre 7. L L C (Logical Link Control)
183
7.1. Introduction 7.2. Services fournis à la couche réseau 7.2.1. Service sans connexion : LLC1 7.2.2. Service avec connexion : LLC2 7.2.2.1. Etablissement de connexion 7.2.2.2. Libération et refus de connexion 7.2.2.3. Transfert de données 7.2.2.4. Réinitialisation de connexion 7.2.2.5. Contrôle de flux 7.2.3. Service sans connexion avec acquittement : LLC3 7.2.3.1. Service avec remise garantie 7.2.3.2. Service de polling avec réponse garantie 7.3. Interface M A C / L L C 7.4. Protocoles LLC 7.4.1. Unités de données 7.4.2. Protocole LLC de type 1 7.4.3. Protocole LLC de type 2 7.4.4. Protocole LLC de type 3 Exercices
183 184 184 185 186 187 188 189 190 191 191 192 195 196 196 197 198 198 200
Chapitre 8. A T M (Asynchronous Transfer Mode)
203
8.1. Introduction 8.2. Nouveaux services et multimédia 8.2.1. Les services large bande 8.2.2. Caractéristiques des trafics multimédias 8.3. Le réseau large bande 8.3.1. Normalisation 8.3.2. Modes de transfert dans un réseau commuté 8.3.2.1. Le mode de transfert synchrone 8.3.2.2. Le mode de transfert asynchrone
203 203 203 205 207 207 207 208 208
Table des matières
XIII
8.3.2.3. Choix de l'ATM 209 8.3.3. Principes fondamentaux du mode ATM 210 8.3.4. Connexions ATM 211 8.3.4.1. Principe de la connexion virtuelle 211 8.3.4.2. Translation des valeurs de VCI 211 8.3.4.3. Le conduit virtuel 212 8.3.4.4. Commutation à deux niveaux 213 8.3.4.5. Exemple d'allocation de VCI/VPI dans un réseau ATM .. 213 8.3.5. Architecture du réseau large bande 215 8.3.5.1. Interfaces du RNIS-LB 215 8.3.5.2. Configuration de référence à l'UNI 216 8.3.5.3. Réseau de distribution 217 8.3.5.4. Réseau de commutation ATM 219 8.3.5.5. Réseau de transmission 220 8.3.5.6. Le système de transmission PDH 221 8.3.5.7. Le système de transmission SONET 222 8.3.5.8. Le système de transmission SDH 224 8.3.5.9. Le système de transmission en mode cellule 225 8.3.6. Modèle de référence du RNIS-LB 225 8.3.7. La gestion du réseau large bande 227 8.4. La couche PHY 229 8.4.1. Structure de la couche PHY 229 8.4.2. La sous-couche Physical Medium (PM) 230 8.4.3. La sous-couche Transmission Convergence (TC) 230 8.4.3.1. Fonctionnalités 230 8.4.3.2. Adaptation au système SDH 231 8.4.3.3. Adaptation au système PDH 232 8.4.3.4. Adaptation au mode cellule 232 8.4.3.5. Délimitation de cellules 233 8.4.3.6. Calcul et vérification du champ HEC 234 8.4.3.7. Adaptation de débit 234 8.4.4. Services de la couche PHY 235 8.5. La couche ATM 236 8.5.1. Fonctions de la couche ATM 236 8.5.2. Structure de l'en-tête de la cellule 236 8.5.3. La gestion des erreurs 238 8.5.4. Priorités 238 8.5.5. Type du contenu 239 8.5.6. Services de la couche ATM 239 8.6. La couche AAL 240 8.6.1. Rôle 240 8.6.2. Classification des services 241 8.6.3. Structuration de la couche AAL 242 8.6.3.1. La sous-couche SAR 242
XIV
Architecture des réseaux haul débit
8.6.3.2. La sous-couche CS 8.6.4. Mécanismes utilisés par l'AAL 8.6.4.1. Segmentation 8.6.4.2. Compensation de la gigue de cellule 8.6.4.3. Traitement des gains et pertes de cellules 8.6.4.4. Synchronisation des extrémités 8.6.5. Types d'AAL 8.6.6. AAL 1 8.6.6.1. Fonctions de la SAR 8.6.6.2. Fonctions de la CS 8.6.7. AAL 2 8.6.8. AAL 3/4 8.6.8.1. Fonctions de la SAR 8.6.8.2. Fonctions de la CPCS 8.6.8.3. Fonctions de la SSCS 8.6.9. AAL 5 8.6.9.1. Fonctions de la SAR 8.6.9.2. Fonctions de la CPCS 8.6.9.3. Fonctions de la SSCS 8.6.9.4. Comparaison AAL 3/4 et AAL 5 8.7. Réseau local A T M 8.7.1. Emulation de réseau local 8.7.2. Adaptation du format de la trame 8.7.3. Adressage 8.7.4. Service sans connexion et diffusion 8.7.5. Architecture et configuration du réseau local émulé 8.7.6. Format de la trame 8.8. Le contrôle de congestion 8.8.1. Les méthodes 8.8.1.1. Méthodes préventives 8.8.1.2. Méthodes réactives 8.8.2. Le contrôle de congestion dans le RNIS-LB 8.8.3. Gestion et réservation de ressources 8.8.4. Admission d'une nouvelle connexion 8.8.5. Contrôle d'entrée du trafic 8.8.5.1. Objectifs 8.8.5.2. Le mécanisme du seau percé (Leaky Bucket) 8.8.5.3. Le contrôleur-espaceur du CNET 8.8.6. Contrôle de priorité et destruction sélective des cellules 8.8.7. Gestion rapide de ressources 8.8.8. Notification de congestion Exercices
242 242 243 243 244 244 245 246 247 247 247 248 249 250 251 252 252 252 254 254 255 255 256 256 257 258 260 261 261 262 262 263 264 264 265 265 266 267 269 270 270 272
Table des matières Chapitre 9. Interconnexion 9.1. Introduction 9.2. Principes de l'interconnexion 9.2.1. Choix du niveau d'interconnexion 9.2.2. Techniques d'interconnexion 9.2.3. Classification des équipements d'interconnexion 9.3. Les répéteurs 9.4. Les ponts 9.4.1. Qu'est-ce qu'un pont ? 9.4.2. Apprentissage dynamique des adresses de routage 9.4.3. Les ponts MAC 802 9.4.3.1. Les standards IEEE 9.4.3.2. Architecture de pont 9.4.3.3. Service MAC du pont 9.4.3.4. Fonctionnement du pont 9.4.3.5. Préservation de la QoS 9.5. Les routeurs et l'interconnexion de niveau réseau 9.5.1. Introduction 9.5.2. Qu'est-ce qu'un routeur ? 9.5.3. Fonctionnement d'un routeur 9.5.4. Routeurs statiques et routeurs dynamiques 9.5.5. Le protocole Internet 9.5.5.1. L'adressage Internet 9.5.5.2. Encapsulations successives 9.5.5.3. Routage Internet 9.5.5.4. La datagramme IP 9.5.5.5. Service Internet 9.5.5.6. IPng et IPv6 9.6. SMDS (Switched Multimegabit Data Service) 9 . 6 . 1 . Définition 9.6.2. Le modèle d'interconnexion 9.6.2.1. Le modèle LEC 9.6.2.2. Le modèle SS 9.6.3. Fonctionnalités de SMDS 9.6.3.1. Les utilisateurs du service SMDS 9.6.3.2. Le transport de données 9.6.3.3. Le routage 9.6.3.4. Le contrôle de congestion 9.6.3.5. Le partage de charge 9.6.3.6. La gestion 9.6.4. Le protocole ISSIP 9.6.4.1. Niveau 3 du protocole ISSIP 9.6.4.2. Niveau 2 du protocole ISSIP 9.6.4.3. Niveau 1 du protocole ISSIP
XV 277 277 278 278 278 279 279 280 280 281 282 282 283 284 285 286 286 286 287 287 288 288 288 289 290 291 293 294 295 295 295 296 297 298 298 298 298 299 299 300 300 300 300 301
XVI
Architecture des réseaux haut débit
9.7. Le relais de trames 9.7.1. Généralités 9.7.2. La trame Frame Relay 9.7.3. Principe de l'adressage Relais de trames 9.7.4. Etablissement d'une connexion Exercices
301 301 301 303 303 305
Corrigés
309
Chapitre 1
309
Chapitre 2
313
Chapitre 3
320
Chapitre 4
323
Chapitre 5
328
Chapitre 6
334
Chapitre 7
336
Chapitre 8
340
Chapitre 9
348
Bibliographie
363
Chapitre 1
363
Chapitre 2
365
Chapitre 3
367
Chapitre 4
368
Chapitre 5
368
Chapitre 6
369
Chapitre 7
370
Chapitre 8
370
Chapitre 9
372
Liste Index
des a c r o n y m e s
375 383
Introduction
Administrer un pays, une collectivité, faire du commerce, fabriquer une automobile, réserver un voyage, importer des marchandises, gérer un compte bancaire... Toutes ces tâches de la vie professionnelle ou quotidienne nécessitent une collaboration entre de nombreux acteurs établis dans des entreprises, des administrations, voire des pays distincts. Pour collaborer, ces acteurs peuvent quelquefois se rencontrer mais communiquent le plus souvent à distance. Seule solution au départ, le courrier postal sert désormais de trace légale de la transaction une fois conclue tandis que pendant toute la phase de négociation et de mise au point, on lui préfère des services de télécommunication, plus rapides et plus interactifs. Le télégramme, le télex et bien sûr le téléphone consistent à envoyer des impulsions électriques codées sur un support électrique ; l'infrastructure de ces lignes couvrant toute la surface de la terre. Le téléphone a connu un succès énorme, à tel point qu'il est depuis longtemps possible d'effectuer toutes sortes de démarches sans bouger de chez soi. Au fur et à mesure que les ordinateurs ont remplacé les êtres humains dans leurs tâches les plus répétitives, il a aussi fallu permettre à ces ordinateurs de c o m m u n i q u e r à d i s t a n c e , de manière a u t o m a t i q u e et r a p i d e . D e s télécommunications humaines, on passait à l'ère de la téléinformatique et des réseaux d'ordinateurs, avec leurs contraintes propres. En effet, l'ordinateur ne peut comprendre qu'un nombre limité de commandes dans un cadre bien défini. La moindre interférence sur la ligne trouble le comportement de la machine destinataire car elle n'a pas la possibilité d'extrapoler. Aussi ont été développés les protocoles de communication qui définissent les règles d'échange entre ordinateurs et fiabilisent les échanges. Les communications entre ordinateurs ont d'abord utilisé les infrastructures existantes : sur de grandes distances, le réseau téléphonique analogique, et au sein
2
Architecture des réseaux haut débit
de l'entreprise, des lignes série reliant les terminaux à l'ordinateur de calcul. Très vite, l'utilisation du téléphone a présenté de nombreux inconvénients : tarification inadaptée, débits faibles, extrême sensibilité aux interférences électromagnétiques. Dès les années 70, de nombreux travaux ont été menés tant par les industriels que par les opérateurs de télécommunication pour développer des services publics adaptés à la transmission de données : les réseaux à commutation de paquets. Ces réseaux étaient révolutionnaires dans la mesure où ils structurent les données en paquets facilitant ainsi reprise sur erreur et multiplexage temporel, avec des débits nettement plus élevés et une tarification au volume tenant compte de l'activité discontinue du trafic de données. Un peu plus tard, l'essor de la micro-informatique, avec le remplacement progressif des terminaux d'ordinateur par des micro-ordinateurs puis par des stations de travail, a lui aussi révolutionné les réseaux d'entreprise. Par rapport à un simple terminal, un micro-ordinateur dispose d'un microprocesseur, d'un système et d'un disque, mais isolé, il perd certains avantages des réseaux centralisés où la communication et le partage de ressources sont aisés. L'interconnexion des stations de travail ou des micro-ordinateurs par un réseau local (LAN — Local Area Network) vise donc à retrouver les avantages des réseaux centralisés. Le contexte particulier des réseaux locaux a conduit à développer de nouvelles techniques. En effet, sur de courtes distances, le risque d'interférences est plus faible, le débit permis plus élevé, le raccordement en multipoint possible. Une autre caractéristique importante de ce type de réseau est qu'il reste dans le domaine privé de l'entreprise ; la notion de service n'est plus fondamentale comme dans le cas d'un opérateur. Les protocoles des réseaux locaux ont donc suivi une philosophie différente de celle des réseaux grande distance et sont souvent plus simples et plus efficaces. A la fin des années 80, est apparu un troisième type de réseau, les réseaux métropolitains (MAN — Metropolitan Area Network) dont la taille est intermédiaire, à mi-chemin entre le réseau local et le réseau grande distance. Leur objectif est l'interconnexion à haut débit (au-delà de la centaine de Mbit/s) de réseaux locaux, sur un site étendu, un campus par exemple, voire une ville. Ces réseaux métropolitains ont profité de l'expérience acquise avec les réseaux locaux et utilisent des techniques voisines. Toutefois, en plus du service de transfert de données informatiques, ils permettent de nouveaux services tels le transfert d'images ou le transfert de voix téléphonique numérisée. Parallèlement, les réseaux grande distance ont eux aussi évolué. La numérisation de la parole par un procédé d'échantillonnage périodique du signal a conduit à la mise en place d'un nouveau réseau téléphonique complètement numérique offrant un service de transfert plus fiable, plus efficace, plus riche en fonctionnalités et plus rapide. La conséquence majeure est la possibilité d'intégrer sur un même réseau les services de transmission des données et de voix téléphonique. Le réseau numérique à intégration de services était né avec pour objectif d'offrir à terme un accès uniforme quel que soit le type de service demandé. Dans sa version large bande, ce concept sera généralisé puisqu'aux services de phonie et de données s'ajouteront les
Chapitre 1
Architecture en couches et normalisation
1.1.
Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2. Les 1.2.1.
réseaux Classification
La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
Remerciements De nombreux collègues et amis, membres de notre famille nous ont permis de mener à bien la rédaction de cet ouvrage. Nous remercions tout d'abord Pascal Anelli, maître de conférences à l'Université Pierre et Marie Curie, pour sa disponibilité et ses conseils judicieux sur le chapitre 8. Nous tenons à exprimer toute notre gratitude à Guy Pujolle, professeur à l'Université de Versailles, pour avoir su nous communiquer, par son enseignement et ses divers ouvrages, le goût des réseaux, et pour nous avoir encouragé dans les moments difficiles. Nous témoignons une reconnaissance toute particulière à Pierre Rolin, professeur à l'ENST-Bretagne, pour sa confiance et son efficace travail de relecture. Eric Horlait, professeur à l'Université Pierre et Marie Curie, et Ahmed Serhrouchni, maître de conférences à l'ENST, ont également accepté de nous relire. Qu'ils trouvent ici la marque de notre amitié. Nous remercions également Bruno Bouton, chercheur à l'Université de Versailles, pour ses remarques pertinentes sur les exercices corrigés. Enfin, nous remercions nos proches et les membres de nos familles pour le soutien, la compréhension et la patience dont ils ont fait preuve tout au long de la rédaction de cet ouvrage.
Kim-Loan THAI, Université Pierre et Marie Curie, Paris VI Véronique VÈQUE, Université Paris-Sud, Paris XI Simon ZNATY, Ecole Polytechnique Fédérale de Lausanne
Chapitre 1
Architecture en couches et normalisation
1.1.
Introduction
Comme nous allons le voir, il n'y pas un réseau mais des réseaux. Le paragraphe 1.2 relate succinctement les différences les plus marquantes entre les divers types de réseaux. De même, ces derniers ne sont pas utilisés pour relier un seul type d'équipements mais des équipements de nature diverse, provenant de constructeurs différents, appartenant à des générations différentes et possédant également des finalités différentes. Car quel est le point commun entre un ordinateur et un scanner ? Tous deux communiquent via des réseaux de communication. Gérer cette hétérogénéité a rapidement fait naître le besoin d'un cadre de normalisation. Le paragraphe 1.3 présente les principaux organismes acteurs de cette normalisation. Les principes du modèle de référence OSI définissant un cadre d'échange entre systèmes communicants sont ensuite présentés au paragraphe 1.4. L'architecture Internet du DoD est, quant à elle, décrite brièvement dans le paragraphe 1.5. Nous présentons enfin les principes de l'administration des réseaux dans le paragraphe 1.6.
1.2. Les 1.2.1.
réseaux Classification
La diversité des réseaux de communication est telle qu'une classification, aussi grossière soit-elle, est nécessaire. Le caractère distinctif le plus souvent utilisé est la
6
Architecture des réseaux haut débit
couverture géographique du réseau. On distingue ainsi trois types de réseaux. Dans leur ordre d'apparition, ce sont : - les réseaux grande distance (WAN — Wide Area Network), - les réseaux locaux (LAN — Local Area Network), - les réseaux métropolitains (MAN — Metropolitan Area Network). Les réseaux grande distance ont un diamètre supérieur à 50 km et desservent des régions ou des pays entiers. Les réseaux téléphoniques commutés et les réseaux à commutation de paquets en sont des exemples. Historiquement, les réseaux grande distance sont apparus en premier. Ils répondent individuellement à un type de service. Leurs composants appartiennent à plusieurs organisations : les exploitants de réseaux publics (ou assimilés) et/ou les exploitants privés reconnus possèdent les moyens de transmission, tandis que les utilisateurs privés possèdent les équipements terminaux. La facturation des communications se fait généralement au volume de données transmises ou à la durée. Pour maintenir la connectivité sur une grande distance, ils utilisent une structure maillée composée de nœuds de commutation reliés entre eux par des liaisons. Les débits offerts sont généralement inférieurs au Mbit/s. Ces inconvénients disparaîtront avec le déploiement du futur réseau large bande. Les réseaux locaux ne desservent qu'une seule organisation située dans un domaine privé dont la couverture géographique n'excède guère quelques kilomètres. Privés et gérés par l'organisation propriétaire, ils échappent donc aux contraintes d'un éventuel monopole des télécommunications comme à celles de la facturation. Apparus après les réseaux grande distance, ils ont profité de l'expérience acquise et du cadre particulier de la transmission sur de très courtes distances. Ainsi, le débit binaire nominal est au minimum de quelques Mbit/s et les équipements réseau se limitent au contrôleur de communication et au support de transmission. Les technologies utilisées permettent des taux d'erreurs beaucoup plus faibles que dans le cas des réseaux grande distance et une diffusion aisée de l'information. Les réseaux métropolitains [Klessig 86] se situent, en termes d'étendue, à michemin entre les réseaux locaux et les réseaux grande distance : ils desservent une zone de la taille d'une ville, de diamètre supérieur à 5 km mais inférieur à 50 km. L'objectif initialement visé est l'interconnexion de réseaux locaux ; pour cette raison, les débits supportés sont souvent de l'ordre de la centaine de Mbit/s. Les équipements réseau peuvent appartenir à plusieurs organisations, privées (interconnexion d'un campus) et/ou publiques (s'ils traversent des voies publiques). Les réseaux métropolitains utilisent des technologies voisines de celles des réseaux locaux. Ils utilisent néanmoins de façon quasi systématique de la fibre optique pour augmenter les distances de transmission tout en maintenant un débit élevé. De plus, la fibre permet des taux d'erreurs encore plus faibles que ceux présentés par les réseaux locaux.
Architecture en couches et normalisation
7
Le tableau 1.1 indique le type de réseau utilisé en fonction de la distance et de la localisation des processeurs ou des machines. localisation des processeurs
distance entre les processeurs
type de réseau
0,1 m
un circuit imprimé
machine à flot de données
1 m
un ordinateur
multiprocesseur
10 m
une salle
réseau local
100 m
un immeuble
réseau local
1 km
un campus
réseau métropolitain
10 km
une ville
réseau métropolitain
100 km
une région
réseau grande distance
1 0 0 0 km
un continent
réseau grande distance
1 0 0 0 0 km
la planète
réseau grande distance satellite et câbles sous-marins
Tableau 1.1. Distances
1.2.2.
et types de
réseaux
Applications
1 . 2 . 2 . 1 . Applications
des réseaux grande
distance
Au départ, les premiers réseaux avaient pour but de permettre la communication entre personnes grâce au télégraphe, au téléphone et à la télédiffusion. Avec le développement de l'informatique, le besoin de communication entre les ordinateurs s'est fait sentir. Quel était l'intérêt de machines capables de traiter des millions d'informations mais de manière isolée, sans possibilité de recoupements ou de partage avec d'autres applications ? Il est d'autre part rapidement apparu que la saisie de données est l'opération la plus coûteuse d'un traitement informatique. Elle a donc été déportée au plus près de sa source : on parle de télésaisie. Par exemple, une agence bancaire saisit les opérations de ses clients qui sont traitées par les serveurs de la caisse régionale évitant ainsi le remplissage de formulaires saisis de nouveau dans le site central. La télésaisie s'est enrichie pour devenir un traitement à part entière avec l'interrogation à distance d'une base de données et la mise à jour de cette base. Le client de la banque a-t-il suffisamment d'argent sur son compte ? Oui : le compte est immédiatement débité du montant de son retrait. Le temps de réponse est primordial dans ce type d'application. Le transfert de fichiers ou de grandes masses d'information est aussi une application classique des réseaux de télécommunication. Il n'a pas de caractère temps réel mais permet de traiter ultérieurement les données transférées ou encore de les sauvegarder sur un autre site. On privilégie ici la fiabilité du transfert.
8
Architecture des réseaux haut débit
La communication entre utilisateurs d'un système informatique s'est développée sous forme de messagerie électronique rendant le même service qu'un courrier postal avec la rapidité en plus. 1.2.2.2. Applications
des réseaux
locaux
Les réseaux locaux sont nés des besoins de communication au sein d'une organisation (entreprise, administration, université, etc.) [Schatt 87]. Pour en comprendre l'utilité, il suffit d'imaginer le cas d'une seule imprimante disponible pour l'ensemble des ordinateurs d'un même service. La solution "réseau local" s'impose car il est impensable que chacun établisse une liaison physique de son ordinateur à l'imprimante ; de même, il serait aberrant de faire passer le document à imprimer dans un réseau public pour le faire arriver à l'imprimante qui se trouve à proximité. L'un des bénéfices majeurs offerts par le réseau local est le partage de ressources onéreuses (imprimantes, disques, accès aux réseaux grande distance, etc.). Le partage et l'échange d'informations entre systèmes est une raison supplémentaire d'interconnecter des équipements informatiques via un réseau local. En effet, un utilisateur travaille rarement seul et coupé de l'extérieur. Il a besoin de communiquer avec le reste de son environnement (messagerie, forum, etc.) : le réseau local offre un moyen de communication électronique entre les différents utilisateurs. Il peut avoir besoin, à un moment donné, d'accéder à de l'information située en divers endroits, tout comme plusieurs utilisateurs peuvent avoir besoin d'accéder au même fichier : le réseau local offre un accès partagé à l'information. En environnement industriel, le réseau local constitue également un élément clé [Lepage 8 9 ] . Il y est surtout utilisé pour interconnecter divers équipements de contrôle et de mesure (capteurs, automates programmables industriels, robots, consoles de zone, etc.). Contrairement aux environnements bureautiques, l'exigence temps réel est forte, dans la mesure où les commandes et les mesures doivent être transmises dans un temps borné. 1.2.2.3. Applications
des réseaux
métropolitains
Un réseau métropolitain peut rendre les mêmes fonctionnalités qu'un réseau local. Par ailleurs, étant donné sa bande passante élevée et sa couverture géographique étendue, il peut être utilisé pour rendre d'autres types de services. Ses principales applications sont ainsi l'interconnexion de réseaux locaux, l'intégration des applications de voix et données et les communications multimédias. Le réseau métropolitain peut interconnecter des réseaux locaux distants situés dans une aire métropolitaine, c'est-à-dire dans une aire dont le diamètre n'excède pas la centaine de kilomètres. La large bande passante du réseau métropolitain et les fonctionnalités des protocoles mis en œuvre dans son architecture permettent de supporter aussi bien des applications classiques (données interactives, par exemple) que des applications sensibles au temps (voix ou vidéo, par exemple). De ce fait, le réseau métropolitain
Architecture en couches et normalisation
9
peut interconnecter des réseaux locaux voix/données au réseau numérique à intégration de services (RNIS) ou des PABX entre eux. Pour ce qui est des applications multimédias — réputées pour être gourmandes en bande passante —, le RNIS intègre la voix, les données et les images, mais les débits offerts sont limités à 1,544 ou 2,048 Mbit/s. Le RNIS large bande (RNISLB) opère à des débits de 34, 155 ou 622 Mbit/s. Le réseau métropolitain est l'un des premiers réseaux à fournir l'infrastructure sous-jacente pour les services et réseaux large bande.
1.2.3. Caractéristiques
fonctionnelles
Les réseaux de communication informatiques sont parfois désignés sous le terme de systèmes téléinformatiques. Un système téléinformatique est composé de plusieurs ordinateurs reliés entre eux par des moyens de télécommunication de manière à recueillir, traiter et diffuser l'information en temps réel et à tout endroit [Nussbaumer 87]. Les moyens de télécommunication, nous l'avons vu, sont de plusieurs types — réseau local, grande distance ou métropolitain — mais tous possèdent les mêmes caractéristiques fonctionnelles. Lorsqu'une organisation se dote d'un système téléinformatique, ce dernier est généralement supposé satisfaire un certain nombre d'objectifs, tels que : - améliorer la productivité du personnel par une automatisation de tâches routinières ; - faciliter la manipulation de l'information, la rendre plus accessible et éviter sa duplication ; - améliorer les interactions au sein du personnel, par le partage de l'information ; - réduire et contrôler les coûts, grâce à l'utilisation de méthodes de communication efficaces. Tous ces objectifs, joints à leur définition de base, permettent de définir les caractéristiques fonctionnelles des réseaux. Lesquels sont principalement : - le partage et la diffusion aisés d'informations qui sont les objectifs primordiaux des réseaux ; - la capacité, qui se définit par le débit que peut fournir le réseau de télécommunication et le type d'information qu'il est capable de transporter (données, voix, images, voix téléphonique, etc.) ; - la connectivité, qui mesure la facilité de raccordement physique des équipements au support de transmission ; - le coût qui est fonction des l'infrastructure déployée, des communications de l'utilisateur (distance, durée et volume) et de la politique commerciale des opérateurs ;
10
Architecture des réseaux haut débit
- la configuration, qui représente l'aptitude du réseau local à s'adapter aux besoins de son propriétaire (déplacements, ajouts, retraits d'équipements) ; - la fiabilité, qui d é p e n d à la fois de l ' e n v i r o n n e m e n t d'utilisation, équipements utilisés et des protocoles mis en œuvre ; - la c o n f i d e n t i a l i t é d e s d o n n é e s transportées, assurée par des adéquats ;
des
protocoles
- la disponibilité qui mesure l'adéquation entre les équipements ou ressources mis en œuvre par rapport à leur utilisation ; - l ' i n t e r c o n n e x i o n de réseaux de types différents : l o c a l / g r a n d e distance, public/privé, de pays différents. A titre anecdotique, le tableau 1.2 donne la liste des objectifs ayant guidé la c o n c e p t i o n du réseau local Ethernet [ D E C 8 0 ] . Il est intéressant de constater que certains ont été aujourd'hui largement dépassés (débits, distances) et que d'autres n'ont j a m a i s été atteints (stabilité à forte charge) !
simplicité
utilisation des mécanismes les plus simples possibles
coût modéré
du raccordement au réseau
compatibilité
de toutes les implantations pour ce qui est du transfert de données au niveau liaison
flexibilité de l'adressage
pour supporter les envois de trame en point-à-point ou en point-à-multipoint (multicast et broadcast)
équitabilité
de l'accès pour tous les équipements
débit
10 Mbit/s
délai de transfert
aussi faible que possible
stabilité
sous forte charge
maintenance, reconfiguration
facilitées
architecture en couches
pour séparer les aspects physiques des aspects logiques
distances géographiques
couvrant au plus 1 km
nombre d'équipements supportés
plusieurs centaines
T a b l e a u 1.2. Objectifs
1.3. Les o r g a n i s m e s de
initiaux
d'Ethernet
normalisation
Les télécommunications constituent un secteur industriel dont l'ampleur ne cesse de croître, tant au niveau du revenu généré annuellement qu'au niveau de son impact
Architecture en couches et normalisation
1 1
sur tous les aspects de la vie professionnelle et domestique. La normalisation dans les télécommunications est devenue très vite indispensable, si l'on veut pouvoir : - faciliter l'interconnexion et la communication entre différents utilisateurs ; - faciliter la portabilité d'équipements fonctionnellement — dans des applications différentes — et géographiquement — dans des régions différentes. Là, le fournisseur est directement concerné puisque la taille du marché augmentant, elle donne lieu à un coût moindre du fait des économies d'échelle ; - assurer qu'un équipement d'un vendeur A soit à même d'interopérer avec un équipement d'un vendeur B. Cela profite directement à l'utilisateur, qui peut ainsi mettre en place des environnements compétitifs. Le chemin vers la production de normes globales n'est pas aisé. Aujourd'hui encore, il est difficile de se retrouver dans la multitude d'organismes dits "de normalisation". Aux côtés des organismes officiels, sont apparues des organisations de nature diverse qui concourent, plus ou moins directement à ce processus de normalisation, avec la production de "standards", de "recommandations", de "profils", etc. Afin de gérer au mieux les conflits d'intérêt qui se dessinent en toile de fond, les organismes de normalisation officiels se concentrent essentiellement sur la production de normes de base. Ces normes autorisent la mise en œuvre de variantes et d'alternatives dont le choix relève de l'implémenteur. Ceci a pour conséquence que la réalisation, bien que conforme à la norme, n'est pas assurée de pouvoir interfonctionner avec une réalisation issue d'un autre choix. Le problème de l'interfonctionnement est généralement traité par des organismes régionaux, bien souvent des groupements d'utilisateurs ou de constructeurs. Ceux-ci adaptent les normes internationales de base selon des besoins propres et produisent des profils fonctionnels qui ne contiennent qu'un sous-ensemble limité des variantes autorisées. En aval de ce processus, d'autres organisations réalisent des tests de conformité et d'interfonctionnement visant à garantir qu'un équipement est conforme à un profil fonctionnel et qu'il est capable d'interfonctionnement (figure 1.1).
n o r m e s d e b a s e
g r o u p e m e n t s d'utilisateurs
o r g a n i s m e s d e n o r m a l i s a t i o n i n t e r n a t i o n a u x
o r g a n i s m e s d e n o r m a l i s a t i o n r é g i o n a u x
profils f o n c t i o n n e l s
d e
g r o u p e m e n t s c o n s t r u c t e u r s tests de c o n f o r m i t é
o r g a n i s a t i o n s de test
F i g u r e 1.1. Normalisation
et
acteurs
12
Architecture des réseaux haut débit
Le processus de normalisation n'est pas sans poser de problèmes. Pour ne citer que le principal, l'élaboration d'une norme demande un certain temps — pour ne pas dire un temps certain (plusieurs années), nécessaire pour obtenir un consensus des différents acteurs. Des techniques plus efficaces peuvent apparaître entre temps. Des standards de facto, reposant sur des solutions propriétaires, voient alors le jour bien avant les normes internationales, d'où une coexistence qui n'est pas toujours harmonieuse pour l'utilisateur.
1.3.1. Les
organismes
officiels
internationaux
Ils sont au nombre de trois et sont : - l'ISO (International Organization for Standardization), - le CEI (Comité Electrotechnique International), - l'UIT (Union Internationale des Télécommunications). 1.3.1.1. L'ISO L'ISO, fondée en 1946, est chargée de la normalisation dans un éventail très large de secteurs, mais ne couvrant pas l'électronique, l'électricité et l'électrotechnique qui sont prises en charge par le CEI. Elle regroupe des organisations nationales non gouvernementales comme l'AFNOR (Association Française de Normalisation) pour la France et l'ANSI (American National Standards Institute) pour les Etats-Unis, ainsi que des organisations jouant le rôle d'observateurs et ne prenant pas part aux votes (telle l'ECMA (European Computer Manufacturer Association), association regroupant des constructeurs informatiques — à l'origine européens, mais aujourd'hui pratiquement tous les grands internationaux). L'ISO est organisée de façon hiérarchique avec des comités techniques (TC — Technical Committee) au premier niveau, découpés en sous-comités (SC — Sub Committee), eux-mêmes découpés en groupes de travail (WG — Working Group). Ainsi les normes afférentes au modèle de référence OSI et à ses couches sont issues du comité technique TC 97 travaillant sur les systèmes d'information. Un comité technique joint, le JTC 1, a été créé en 1987 sur la technologie de l'information avec le CEI, étant donné le recouvrement des centres d'intérêt. Les normes issues du JTC 1 portent donc le double-logo de l'ISO et du CEI, y compris celles relatives au modèle OSI. A noter que le membre représentatif d'un pays au CEI est souvent le même qu'à l'ISO. Le processus d'élaboration d'une norme est long (cinq ans, en moyenne) et passe par plusieurs phases (WD — Working Document, CD — Committee Draft, DIS — Draft International Standard) avant d'aboutir à un document définitif (IS — International Standard).
Architecture en couches et normalisation 1.3.1.2.
13
LUIT
L'UIT est l'organisation internationale intergouvernementale compétente en télécommunications. Elle fonctionne sous l'égide de l'Organisation des Nations Unies et ses membres représentent les Etats. Pour le secteur qui nous intéresse, l'UIT-T (Telecommunication Standardization Sector, ex-CCITT) rassemble les administrations des télécommunications des pays membres de I'UIT et des exploitants (publics ou privés) mandatés, auxquels viennent d'ajouter des organisations régionales ou sectorielles. Le représentant français est France Télécom, le représentant américain le Département d'Etat. L'UIT-T est organisée en groupes de travail (SG — Study Group). Lors d'assemblées plénières qui se tiennent tous les quatre ans, les différents groupes soumettent les "questions" posées par leurs membres. Ces questions sont évaluées et affectées aux groupes adéquats. Cela permet de planifier le travail de normalisation pour les quatre années à venir. Chaque groupe prépare ensuite une proposition d'avis, qui sera votée lors de la prochaine assemblée. Cette procédure d'adoption a donné lieu à la parution, tous les quatre ans, d'un Livre (jaune en 1980, rouge en 1984, bleu en 1988) regroupant tous les avis promulgués. A ce cycle de quatre ans est venue s'ajouter en 1988 une seconde procédure d'adoption, plus souple et plus rapide, qui permet d'adopter un avis avec 70% de votes favorables et sans devoir attendre l'assemblée plénière.
1.3.2. Les
organismes
européens
A l'échelle européenne, plusieurs organisations traitent de la normalisation dans les domaines du traitement et de la technologie de l'information. On peut citer : - le CEN (Comité Européen de Normalisation) regroupe l'ensemble des pays européens (CEE et AELE). De même nature que l'ISO, il prépare et harmonise la normalisation au niveau européen pour tous les domaines techniques, exceptés ceux de l'électrotechnique et des télécommunications ; - le CENELEC (Comité Européen de Normalisation Electrotechnique) traite, comme le CEI, d'électrotechnique, mais au niveau européen. Il rassemble les comités nationaux d'électrotechnique des pays de la CEE et de l'AELE. Le C E N et le CENELEC se sont rapprochés dans le secteur de la technologie de l'information pour former le CEN/CENELEC (de la même façon que l'on a le JTC 1 de l'ISO/CEI) ; - la CEPT (Conférence Européenne des Postes et des Télécommunications) regroupe les administrations des télécommunications des pays européens. Elle établit les normes européennes et unifie les positions de ses membres auprès de l'UIT-T ; - l'ETSI (European Telecommunications Standard Institute) est un organisme permanent, créé à l'initiative des administrations de télécommunications européennes. Il est principalement chargé de produire des spécifications techniques pour les réseaux publics.
14
Architecture des réseaux haut débit
1.3.3. Autres
organismes
Outre les organisations officielles — internationales, continentales ou nationales —, il convient de mentionner les organismes ou associations qui jouent un rôle également important en matière de normalisation, tout aussi bien en amont du processus de normalisation, en élaborant des spécifications qui sont susceptibles de constituer des standards de facto, voire même d'être reprises par les organismes officiels, qu'en aval, en promouvant les normes. Il est difficile d'en dresser une liste complète, et nous nous limiterons donc à ne citer que les plus significatifs, pour ce qui concerne le thème de l'ouvrage : - l'IEEE (Institute of Electrical and Electronic Engineers) est une organisation professionnelle, dont les membres (principalement américains et d'origine industrielle aussi bien qu'académique) le sont à titre privé. C'est un forum d'échange et de réflexion qui constitue également un organisme de proposition ayant élaboré bon nombre de standards universellement utilisés : notamment, son comité 802 est à l'origine de la plupart des normes aujourd'hui officielles quant aux réseaux locaux et étendus ; - l'EIA (Electronic Industries Association) est une association professionnelle américaine qui se distingue par l'élaboration de standards dans le secteur du matériel et des composants électriques et électroniques (la célèbre "prise" RS-232C !) ; - ATM Forum est une organisation internationale, créée en 1991 et regroupant des opérateurs de télécommunications, des constructeurs, des fournisseurs, ainsi que des utilisateurs. Son but est d'accélérer le déploiement des services et produits ATM, en essayant d'obtenir rapidement une convergence des spécifications d'interopérabilité ; - M A P (Manufacturing Automation Protocol) et TOP (Technical and Office Protocol) sont des groupements d'utilisateurs, le premier initié par General Motors, le second par Boeing, qui ont pour principal objectif d'établir des profils fonctionnels respectivement en environnement industriel et en environnement bureautique ; - SPAG (Standards Promotion and Application Group) est un groupement de constructeurs européens ayant pour vocation de produire des profils fonctionnels autour du modèle OSI qui seront observés par les membres du groupe ; - COS (Corporation for Open Systems) s'est monté en 1986. C'est un groupement de constructeurs et d'utilisateurs du monde entier qui s'est donné pour objectif de promouvoir les produits multi-vendeurs conformes aux normes internationales relatives à l'OSI et au RNIS. Une activité importante est dédiée au développement d'un ensemble cohérent de méthodes de test et de certification.
Architecture en couches et normalisation
15
1.4. Le modèle de référence OSI Le modèle de référence pour l'interconnexion des systèmes ouverts, plus connu sous le nom de modèle OSI (Open Systems Interconnection), est le fruit de travaux entrepris par l'ISO pour répondre au problème de l'interconnexion de systèmes hétérogènes. Les architectures de communication existantes jusqu'alors étaient principalement des architectures dites "constructeur", qui, si elles permettaient à des systèmes informatiques provenant d'un même constructeur de communiquer entre eux, pouvaient créer des barrières entre systèmes de familles différentes. Dans la terminologie OSI, un système est dit ouvert lorsqu'il permet la communication entre équipements et logiciels de types différents, du moment que ces derniers sont conformes à l'ensemble des normes définies dans le cadre du modèle OSI. L'objectif de la normalisation OSI est de permettre la constitution de réseaux téléinformatiques dans lesquels peut venir s'intégrer tout système informatique capable d'effectuer des traitements et/ou des transferts d'information. Les normes OSI, contrôlées à un niveau international, ont pour rôle de simplifier l'interconnexion des systèmes tout en préservant l'indépendance des échanges d'information vis-à-vis du milieu de transmission utilisé. Ainsi, elles se limitent à spécifier les fonctions à réaliser par chaque système et les protocoles à mettre en œuvre entre les systèmes à interconnecter. Elles n'imposent en aucune façon une technologie particulière ou un mode de réalisation donné pour ces mêmes fonctions et protocoles : seul est spécifié le comportement des systèmes lors d'échanges avec d'autres systèmes ouverts, et non pas leur fonctionnement interne (langages de programmation, systèmes d'exploitation, interfaces d'application, interfaces utilisateur, etc.). Le modèle OSI définit l'architecture en sept couches conjointement adoptée par l'ISO et le CCITT en 1983. Cette décomposition en sept couches résulte d'un compromis : une première contrainte était d'éviter la prolifération de couches, une seconde était de limiter les fonctions à réaliser dans une couche aux fonctions possédant le même niveau d'abstraction ou s'appliquant à un même contexte. Cette structuration en couches a donc l'avantage non seulement de simplifier la compréhension globale de l'architecture de communication, mais également de simplifier sa mise en œuvre : les interfaces entre couches ont été choisies aussi simples que possible et de façon à ce qu'une modification portant sur une fonction ou un protocole d'une couche donnée n'affecte pas les autres couches. Les sept couches du modèle OSI sont les suivantes : -
couche couche couche couche couche couche couche
1 : physique, 2 : liaison de données, 3 : réseau, 4 : transport, 5 : session, 6 : présentation, 7 : application.
16
Architecture des réseaux haut débit
Les normes OSI se séparent en deux familles, d'une part les normes d'usage général qui servent à fixer une terminologie, à définir des concepts de base et à établir des règles d'utilisation de ces concepts et d'autre part, les normes spécifiques qui s'adressent à des points précis définis dans les normes d'usage général. Le modèle de référence OSI de base est décrit dans la recommandation X.200 du CCITT et dans la norme internationale IS 7498, composée de quatre parties auxquelles sont adjoints deux addendums : -
IS 7498-1 : Modèle de référence OSI [IS 7498-1] IS 7498-2 : Architecture de sécurité [IS 7498-2] IS 7498-3 : Dénomination et adressage [IS 7498-3] IS 7498-4 : Gestion OSI — Administration de réseau [IS 7498-4] Ad 1 : Transmission de données en mode sans connexion Ad 2 : Transmission de données en multipoint (diffusion)
Nous présentons dans la suite les concepts généraux de la structuration en couches et donnons par la même occasion quelques définitions propres à la terminologie OSI. Nous présenterons ensuite la notion de service, avant de donner une description des sept couches.
1.4.1. Concepts
de base
de la structuration
en
couches
Les concepts de la structuration en couches du modèle OSI peuvent être classés en deux catégories : ceux portant sur l'organisation des communications et ceux portant sur le transfert de données. 1.4.1.1. Organisation
des communications
avec le modèle
OSI
Chaque couche de rang N, dite couche (N), utilise les services (N-l) de la couche immédiatement inférieure de rang N - l , pour offrir les services (N) à la couche immédiatement supérieure de rang N+l (sauf, bien entendu, les couches d'extrémité). La couche ( N - l ) est dite fournisseur des senices ( N - l ) alors que la couche (N) est dite utilisateur des senices (N-l) (figure 1.2). couche (N+1 )
utilisateur du
? s e r v i e (N)
couche(N)
fournisseur du utilisateur du -
couche (N-1 )
fournisseur du
Figure 1.2. Modèle de service
service ( N - l ) *
en couches
Architecture en couches et normalisation
17
Une couche (N) peut comporter plusieurs sous-systèmes (N), chacun d'eux pouvant à son tour se décomposer en plusieurs entités (N) (figure 1.3). Les entités représentent les éléments actifs du sous-système ; ce sont elles qui réalisent les fonctions du sous-système. système ouvert A
système ouvert B
système ouvert Ç
sous-système (N+1) de A sous-système (N) de A sous-système (N-l) de A
sous-système (N+1) de B sous-système (N) de B sous-système (N-l) de B
sous-système (N+1) de C sous-système (N) de C sous-système (N-l) de C
couche de plus haut niveau
couche (N+1 ) couche (N) couche(N-l)
couche de plus bas niveau support physique d'interconnexion
Figure 1.3. Systèmes
ouverts,
sous-systèmes
et couches
Le service (N) est assuré par les entités (N), dites entités homologues. Les entités (N) communiquent et coopèrent entre elles selon un protocole (N) au travers de l'ensemble des services fournis par la couche (N-l). Les entités accèdent aux services ( N - l ) à partir de points d'accès à des services ( N - l ) appelés ( N - l ) S A P (Service Access Point) (figure 1.4). Chaque point d'accès (N) est identifié par une adresse de (N)SAP. Chaque (N)SAP ne peut être servi que par une seule entité (N) et ne peut servir qu'une seule entité (N+1). De façon dissymétrique, une entité (N) peut servir plusieurs (N)SAP et peut être servie à partir de plusieurs (N-l)SAP. (N)SAP service (N)
couche(N)
entité (N)
entité (N)
service (N-l) • (N-l)SAP Figure 1.4. Modèle général d'une couche
I8
Architecture des réseaux haut débit
Il est important de bien faire la distinction entre service et protocole. La notion de service correspond à une vision "verticale" du modèle OSI. dans le sens où elle met en jeu deux couches adjacentes, la couche inférieure fournissant le service et la couche supérieure l'utilisant. La notion de protocole, par contre, correspond à une vision "horizontale" du modèle de référence, puisqu'elle ne s'applique qu'aux échanges entre entités de même couche. Il y a découplage entre service et protocole. Les entités ( N + l ) peuvent communiquer en établissant une connexion (N), terminée par des points d'extrémité de connexion (N) appelés (N)CEP (Connection End-Point) et qui sont situés chacun dans un (N)SAP. L'échange d'information entre ces entités ( N + l ) est régi par un protocole ( N + l ) et la communication est dite en mode connecté
(figure 1.5).
couche (N+l)
entité (N)+l
protocole (N+l)
entité (N+l)
service (N) N(CEP)'
- (N)SAP couche (N) connexion (N) Figure 1.5. Communication
en mode
connecté
Le modèle OSI a été initialement conçu pour le mode connecté, c'est-à-dire pour que la communication entre entités de même rang se fasse sous la forme de connexion logique. Selon l'approche du mode connecté, pour que deux usagers distants puissent communiquer, il faut commencer par établir une connexion au niveau le plus bas, le niveau physique, puis établir une connexion au niveau suivant, le niveau liaison de données, et ainsi de suite jusqu'au niveau le plus haut, le niveau application. Cette phase d'établissement de connexion correspond en fait à une négociation tripartite entre deux entités (N+l ) et le service (N), ce dernier devant établir la connexion (N) souhaitée par les deux premières. Elle sert à fixer un certain nombre de caractéristiques de la communication, telles que l'identité des correspondants, le protocole (N) à suivre, les services optionnels à utiliser, ou encore les paramètres de qualité de service. Après cette phase d'établissement, la connexion entre dans la phase de transfert de données pendant laquelle est échangée l'information utile entre les deux entités (N+l). Toute cette information, structurée en blocs de données d'après le protocole (N), suit la route logique qui a été établie lors de la phase d'établissement. La communication s'achève ensuite par une phase de libération de connexion. Cette phase correspond à une libération des ressources mobilisées par la communication et à une rupture du dialogue entre les deux entités (N+l ) communicantes.
Architecture en couches et normalisation
19
Ce mode de communication comportant les trois phases d'établissement de connexion, de transfert de données et de libération de connexion possède plusieurs avantages : citons, entre autres, le fait d'offrir une négociation entre les trois acteurs au moment de l'établissement de la connexion ou également le fait d'assurer un transfert de données fiable, dans la mesure où ce mode offre la possibilité de réguler le flux d'information échangé, de détecter les blocs de données manquants, en double ou déséquencés. Ce mode permet, de plus, de minimiser le volume d'information de contrôle à échanger pendant la phase de transfert de données. Si le mode connecté possède des avantages, il n'en présente pas moins des inconvénients. Tout d'abord, il nécessite la mise en œuvre de procédures très lourdes pour l'établissement et la libération des connexions, ainsi que la présence simultanée des correspondants. Il ne s'avère donc pas adéquat pour le transfert de messages isolés dans le temps. Par ailleurs, la notion de connexion, très bien adaptée aux communications en bipoint avec deux entités communicantes, convient mal dès qu'il s'agit de faire communiquer plus de deux entités. -
C'est à la suite de ces considérations que l'ISO a entrepris des travaux sur les communications en mode non connecté ou datagramme. Ils ont abouti à l'additif 1 de la norme ISO 7498. Le modèle OSI en mode non connecté reprend les mêmes principes que le modèle de base en mode connecté, pour ce qui est de la structuration en couches et des fonctions de base. La principale différence repose sur le fait que les blocs de données, au lieu d'être véhiculés dépendamment les uns des autres pendant la phase de transfert, sont acheminés de façon tout à fait indépendante. Ils doivent par conséquent comporter toute l'information de contrôle nécessaire à leur acheminement vers leur destinataire. Par ailleurs, en mode non connecté, il n'y a ni établissement, ni libération de connexion. Cela implique qu'une communication entre entités (N+l) ne nécessite pas au préalable l'existence d'une communication entre entités (N). De même, il n'y a pas de négociation tripartite entre les deux entités (N+l) et le service (N). A la place, nous trouvons un type de négociation plus simple, bilatéral, puisque ne mettant en cause que deux intervenants : une entité (N+l) et le service (N), ou deux entités (N+l). En mode non connecté, les blocs de données étant acheminés indépendamment les uns des autres, il n'est pas toujours possible de fiabiliser le transfert de données ; en particulier, les pertes, les duplications et le déséquencement des blocs de données sont possibles. Pour terminer sur les deux modes de communication, on notera qu'une architecture mixte est souvent utilisée, dans laquelle par exemple un service non connecté (N) est construit au-dessus d'un service connecté (N-l), ou l'inverse. 1.4.1.2. Transfert de
données
Nous avons vu que deux entités (N) peuvent communiquer en utilisant le service (N-l) offert par la couche inférieure, l'échange de données étant régi par le protocole (N). Ce dernier spécifie l'ensemble des règles et des formats utilisés pour la communication.
20
Architecture des réseaux haut débit
Le service (N-1 ) assure le transfert d'unités de données de service (N-1 ), appelées (N-l)SDU (Service Data Unit), entre des (N-l)SAP. Les entités (N) peuvent alors s'échanger des unités de données de protocole (N), appelées (N)PDU (Protocol Data Unit), en les plaçant dans des (N-l)SDU. Chaque (N)PDU contient, d'une part, les informations de contrôle du protocole (N), appelées (N)PCI (Protocol Control Information), et d'autre part, les données utilisateur (N)UD (User Data) provenant des (N)SDU soumises par les entités (N+l) (figure 1.6).
(N)SDU
service (N)
couche(N)
N(PCI)
(N)SDU
(N)UD
N)UD
N(PCI)
(N)PDU
(N)PDU service
(N-l)
(N-l)SDU
(N-l)SDU
F i g u r e 1.6. Les unités de données
Le schéma de la figure 1.6 est un schéma simplifié dans la mesure où les relations entre (N)SDU et (N)PDU ou entre (N)PDU et (N-l)SDU ne sont pas forcément biunivoques. Plus précisément, plusieurs fonctions sont possibles sur les unités de données (figure 1.7). La fonction de segmentation permet d'engendrer plusieurs (N)PDU à partir d'une même (N)SDU ; en réception, la fonction inverse de réassemblage permettra de reconstituer la (N)SDU d'origine à partir des différentes (N)PDU reçues. La fonction de groupage permet le groupage de plusieurs (N)SDU dans une même (N)PDU ; la fonction inverse de dégroupage permettra de récupérer les différentes (N)SDU véhiculées dans une même (N)PDU. Enfin, la fonction de concaténation permet de concaténer plusieurs (N)PDU dans une même (N-l)SDU ; la fonction inverse de séparation permettra de séparer les différentes (N)PDU contenues dans une même (N-1 )SDU.
(N)PCI i
(N)SD
(N)PC1
(Nvsn
M)PCI
(N)SD
(N)PDU
(N)PDU
r
1
(N)PDU
(N)PDU
Segmentation
(N)PDU
(N-l)SDU
Groupage
Concaténation
F i g u r e 1.7. Opérations sur les unités de données
Architecture e n c o u c h e s et n o r m a l i s a t i o n
1.4.2. Définition
des
21
services
Nous avons pu voir à plusieurs reprises qu'à l'intérieur du modèle OSI, l'interaction entre couches adjacentes est représentée sous forme de services (N) offerts par la couche (N) à la couche (N+l) à partir des (N)SAP. De façon plus précise, l'ISO et le CCITT ont développé, respectivement dans la norme 8509 [IS 8509] et dans la recommandation X.210, un modèle conceptuel dans lequel fournisseurs et utilisateurs de services interagissent au moyen de primitives de quatre types, les requêtes, les indications, les réponses et les confirmations. Une primitive de requête est envoyée par un utilisateur des services (N) à un fournisseur des services (N) pour lui demander l'activation d'un service particulier (par exemple, l'établissement d'une connexion (N)). Une primitive d'indication est envoyée par un fournisseur des services (N) à un utilisateur des services (N) pour lui signaler l'activation d'un service particulier, de sa propre initiative ou suite à une demande faite à l'autre extrémité de la communication. Une primitive de réponse est envoyée par un utilisateur des services (N) à un fournisseur des services (N), sur un (N)SAP donné, en réponse à une primitive d'indication reçue sur ce même (N)SAP. Une primitive de confirmation est envoyée par un fournisseur des services (N) à un utilisateur des services (N), sur un (N)SAP donné, pour lui signaler que le service dont il avait demandé l'activation par une primitive de demande sur ce même SAP a été exécuté. Les services évoqués peuvent être confirmés ou non confirmés. Dans le premier cas, l'utilisateur ayant demandé l'activation du service reçoit une confirmation de la part du fournisseur sollicité après l'exécution du service. Cela fait intervenir les quatre types de primitives, selon l'enchaînement présenté en figure 1.8. Un exemple est donné par le service d'établissement de connexion. Les services non confirmés ne font intervenir qu'une primitive de requête et la primitive d'indication correspondante, un exemple possible étant le service de libération de connexion.
utilisateur du service (N)
fournisseur du service (N)
utilisateur du service (N)
requête indication ^réponse confirmation
Figure 1.8. Séquence des échanges
de primitives
de service
confirmé
22
Architecture des réseaux haut débit
Par convention, le nom d'une primitive est donné par l'initiale de la couche concernée, suivie du nom de service demandé, lui-même suivi du type de la primitive. Il est suivi par la liste des paramètres passés à la primitive. A titre d'exemples, la primitive de demande de connexion de transport est de la forme T_CONNECT.request (adresse de l'entité appelante, adresse de l'entité appelée, option données exprès, qualité de service, données utilisateur du service de transport) ; la primitive d'indication de données du niveau réseau est notée N_DATA.indication (données utilisateur du service de réseau).
1.4.3. Description
des
couches
Nous décrivons ici chacune des sept couches constituant le modèle de référence OSI (figure 1.9), en rappelant les principales fonctions réalisées. protocoles entre homologues
système d'extrémité application
IJ
6
^APDU
système d'extrémité ^
application
PPDU
présentation
présentation ^SPDU
session
session ^TPDU
transport ^
•S l
§1 u
3
2
NPDU^
réseau liaison de données
^ LPDU bil
V
1
physique
système relais
transport
réseau
reseau
liaison de données
liaison de données
physique
^
•
physique
support de transmission Figure 1.9. Les sept couches du modèle OSI
1.4.3.1. La couche
physique
La couche physique assure l'interface entre les systèmes et le support physique de transmission ainsi que le transport de l'information sous forme de bits sur le support, l'unité de données étant ici le bit. A ce titre, elle est responsable de l'interface électromécanique au support de communication. Elle fournit donc les moyens mécaniques, électriques, fonctionnels et procéduraux nécessaires à l'activation, au maintien et à la désactivation des connexions physiques entre entités de liaison de données. Elle peut correspondre, par exemple, à un circuit physique constitué d'une ligne et de deux modems, et définit dans ce cas les caractéristiques des jonctions modem-terminal, les caractéristiques des connecteurs, ou encore le protocole d'établissement, de maintien et de libération du circuit.
Architecture en couches et normalisation 1.4.3.2. La couche liaison de
23
données
La couche liaison de données fournit les moyens nécessaires à l'établissement, au maintien et à la libération des connexions de liaison de données, ainsi qu'au transfert de LSDU (SDU de niveau liaison) entre entités de réseau. Elle est responsable de la transmission, de la structuration en trames (LPDU) et du contrôle d'erreur sur une seule ligne de communication. Elle utilise pour ce faire les services offerts par la couche physique. Les circuits disponibles au niveau physique présentant généralement des taux d'erreurs inacceptables, la couche liaison est chargée de détecter et de corriger ces erreurs, dans la mesure du possible, afin de présenter à la couche supérieure un taux d'erreurs résiduelles acceptable. Par ailleurs, elle réalise une fonction de contrôle de flux afin d'éviter tout engorgement des systèmes d'extrémité de connexions. 1.4.3.3. La couche
réseau
La couche réseau fournit les moyens d'établir, de maintenir et de libérer des connexions de réseau entre entités de transport, ainsi que les moyens d'échanger des NSDU (SDU de niveau réseau) entre ces entités. Elle est responsable du transfert de données à travers le réseau de communication, indépendamment du médium et de la topologie du ou des sous-réseaux empruntés. Ses trois principales fonctionnalités sont l'adressage, le contrôle de congestion et le routage des paquets (NPDU). Elle assure alors à la couche transport son indépendance vis-à-vis des problèmes de routage et de relais dans le ou les sous-réseaux utilisés et lui masque la façon dont les ressources des couches inférieures sont utilisées pour obtenir des connexions de réseau. 1.4.3.4. La couche
transport
La fonction essentielle de la couche transport est d'assurer un transport de l'information de bout en bout, fiable, transparent, efficace, selon un niveau de qualité demandé par l'utilisateur. C'est la première couche à ne concerner que la source et la destination finale de l'information véhiculée. Elle doit décharger les couches supérieures de tout détail concernant les moyens mis en œuvre pour la transmission de données. La couche transport assure en particulier des fonctions de reprise sur erreur, de contrôle de flux, de multiplexage ou d'éclatement de connexions pour rendre le transport fiable et efficace. 1.4.3.5. La couche
session
La couche session fournit aux entités de présentation coopérantes les moyens nécessaires pour organiser et synchroniser leur dialogue et gérer leur échange de données. A cet effet, elle fournit les services nécessaires à l'établissement, au maintien et à la libération de connexions de session entre entités de présentation et à la prise en charge des interactions ordonnées d'échange de données. De plus, les
24
Architecture des réseaux haut débit
services de la session assurent la délimitation, le groupement logique et la synchronisation des données. 1.4.3.6. La couche
présentation
La couche présentation se charge de la représentation des informations que les entités d'application se communiquent ou auxquelles elles se réfèrent au cours de leur communication. Elle ne traite que de la syntaxe des données, et non pas de leur sémantique, et comporte des fonctions qui permettent de traduire les données échangées. Cette couche peut également assurer des fonctions de compression de données et de chiffrement. 1.4.3.7. La couche
application
En tant que couche la plus haute du modèle OSI, la couche application fournit à l'usager l'ensemble des services qui lui permettent d'accéder à l'environnement OSI et donc d'exploiter le système téléinformatique. Elle est responsable de la gestion des c o m m u n i c a t i o n s entre applications. Parmi les services offerts, citons l'authentification et l'identification des partenaires de la communication, les facilités de synchronisation des partenaires, le choix des règles du dialogue. De plus, cette couche comporte des fonctions de gestion des systèmes.
1.5. L'architecture D o D et s e s protocoles
niveau 2 hôte-à-hôte niveau 1 internet niveau 0 accès réseau
TCP IP
5-7
4
UDP 1CMP
EGP ARP
Ethernet
SNMP
X-Window
RPC
R-cmd
Telnet
SMTP
niveau 3 processus
FTP
Cette architecture [Cerf 83] est antérieure au modèle OSI qui a puisé dans nombre de ses concepts. Elle utilise un modèle hiérarchique, avec quatre couches relativement indépendantes. La figure 1.10 montre la correspondance entre les niveaux DoD et les couches OSI.
Arpanet
FDDI
IGP
X.25
Architecture du DoD F i g u r e 1 . 1 0 . Architecture
3
RARP| autres
1-2
Architecture OSI
DoD et ses relations avec le modèle OSI
Le niveau d'accès au réseau est le niveau le plus bas. L'idée sous-jacente ici est qu'en isolant les fonctions propres à l'accès au sous-réseau, le restant du logiciel de
Architecture en couches et normalisation
25
communication n'a pas à tenir compte de ses caractéristiques spécifiques. Ce niveau va donc traiter les échanges de données entre un hôte et le réseau auquel il est attaché. En particulier, il se charge du routage des données entre deux équipements rattachés au même réseau. Pour cela, l'émetteur sur ce sous-réseau doit fournir l'adresse physique du destinataire sur ce même sous-réseau et certaines informations quant aux services devant être fournis par le sous-réseau (comme la priorité, par exemple). Le protocole utilisé dépend du type de réseau utilisé : il peut s'agir de X.25 pour un réseau à commutation de paquets, de X.21 pour un réseau à commutation de circuits, d'un protocole 802.X pour un réseau local, etc. Le niveau suivant, appelé niveau Internet, est chargé de l'interconnexion de réseaux et permet donc l'échange de données entre deux machines raccordées à des réseaux distincts. Le protocole d'interconnexion est utilisé pour le routage à travers plusieurs sous-réseaux. Par conséquent, il est implanté non seulement dans les systèmes d'extrémité mais également dans les passerelles (routeurs). Outre le protocole Internet [RFC 791], il comprend entre autres les protocoles suivants : - ICMP (Internet Control Message Protocol) [RFC 792] : alors que IP est utilisé pour un service de datagramme dans un environnement d'interconnexion de réseaux, ICMP permet à une passerelle ou à un hôte destinataire de communiquer de façon occasionnelle avec un hôte source, notamment afin de lui signaler une erreur ou un problème dans le traitement d'un datagramme (destination impossible à atteindre, durée de vie maximum atteinte, congestion, etc.). ICMP utilise IP comme s'il était un protocole de niveau supérieur, mais constitue en fait une partie intégrante de IP et, en tant que telle, doit être implanté dans chaque module IP. Le rôle des messages de contrôle d'ICMP est de fournir un retour d'information sur les problèmes de l'environnement de communication et non pas de fiabiliser IP : il n'y a donc aucune garantie sur la remise des datagrammes ; - IGP (Interior Gateway Protocol) [RFC 1371] et EGP (Exterior Gateway Protocol) [RFC 904] : ce sont les protocoles utilisés pour l'échange d'information d'accessibilité et de routage entre passerelles ; - ARP (Address Resolution Protocol) [RFC 826] et RARP (Reverse Address Resolution Protocol) [RFC 903] : le protocole ARP permet d'obtenir l'adresse physique d'une station à partir de son adresse IP. Inversement, RARP permet à une station d'obtenir son adresse IP à partir de son adresse physique. Le protocole IP, dans sa version courante — version 4 —, utilise un format d'adressage organisé sur 32 bits. Du fait de l'expansion mondiale du réseau Internet, l'espace d'adressage est à l'heure actuelle une ressource extrêmement critique et des travaux sont en cours pour spécifier la nouvelle mouture du protocole, IPv6. Cette dernière utilise des adresses codées sur 128 bits, un en-tête simplifié afin d'augmenter les performances des routeurs et offre de nouvelles fonctionnalités, telles l'identification des flots de données ou l'authentification et la protection des données.
26
Architecture des réseaux haut débit
Le niveau hôte-à-hôte est très similaire à la couche transport OSI. Son rôle est de transférer les données de bout en bout entre les processus utilisateurs. Les deux protocoles les plus usuels sont TCP (Transmission Control Protocol) [RFC 7 9 3 J et UDP (User Datagram Protocol) [RFC 7 6 8 ] . Le premier est orienté connexion et comporte tous les mécanismes nécessaires à un transfert de données fiable, sans erreur, sans perte et sans duplication. Du point de vue de ses fonctionnalités, il est considéré comme équivalent au protocole de transport ISO classe 4 , même si des différences mineures existent. De même que TCP, UDP est bâti au-dessus d'IP. Protocole en mode non connecté, il utilise les services d'IP pour transporter des datagrammes d'un système d'extrémité à un autre. Il n'utilise aucun mécanisme de contrôle, le seul service supplémentaire qu'il offre par rapport à IP étant l'identification de processus à l'intérieur des hôtes (IP identifie des hôtes). Le dernier niveau est le niveau processus. Il contient des protocoles support pour différentes applications. Nous y trouvons des protocoles tels que FTP (File Transfer Protocol) [RFC 9 5 9 ] pour le transfert de fichiers, SMTP (Simple Mail Transfer Protocol) [RFC 8 2 1 ] pour la messagerie électronique, Telnet [RFC 8 5 4 ] pour l'émulation de terminal virtuel, SNMP (Simple Network Management Protocol) [RFC 1 1 5 7 ] pour la gestion de réseaux.
1.6. L'administration de réseaux 1.6.1.
Définition
L'administration de réseaux recouvre l'ensemble des activités de surveillance, d'analyse, de contrôle et de planification du fonctionnement des ressources d'un réseau de télécommunications dans le but de fournir des services de télécommunications à des usagers avec un certain niveau de qualité. Cette première définition amène son flot de questions. Que doit-on surveiller ? Qui doit surveiller ? Comment surveiller ? Quelles sont les connaissances nécessaires au diagnostic ? Comment contrôler ? Cette définition montre principalement que les problèmes ne sont pas de même nature. En effet, les approches méthodologiques à appliquer pour répondre à "Quoi ?", "Qui ?" et "Comment ?" diffèrent. Afin de répondre à ces questions portant sur des aspects différents, l'administration de réseaux peut être étudiée à travers des modèles ou points de vue (figure 1 . 1 1 ) . Ils permettent de classer les questions ou problèmes similaires par catégorie et de traiter chaque groupe indépendamment. Pour répondre à la question "Quoi ?", il est nécessaire de considérer le modèle informationnel qui fournit une représentation de réseaux par les données ; un modèle fonctionnel est aussi requis puisqu'il définit les fonctions à appliquer aux données afin d'atteindre les objectifs de gestion. Les entités de gestion distribuées à travers le réseau de gestion répondent à la question "Qui ?". Elles définissent principalement un modèle organisationnel. Enfin, les modèles de
Architecture en couches et normalisation
27
communication et architectural permettent de répondre à la question "Comment ?", pour le premier, en permettant l'échange d'information de gestion entre les gestionnaires et les agents et pour le second, en décrivant la structure générale des entités de gestion qui réalisent les activités de gestion ainsi que leurs interfaces. administration de réseaux
Quoi gérer ?
modèles informationnel e v fonctionnel
Qui gère ?
Comment gérer ?
modèle organisationnel
F i g u r e 1 . 1 1 . Les modèles
de l'administration
modèles de communication et V^^rchitectural^^^^ de
réseaux
Nous présentons dans la suite les travaux menés dans les organismes de normalisation et les modèles couvert par chacun d'eux.
1.6.2. Les
normes
d'administration
1.6.2.1. L'ISO La première norme de gestion OSI à avoir vu le jour est le cadre architectural pour la gestion OSI, présenté dans la partie 4 du modèle de référence pour l'interconnexion de systèmes ouverts [IS 7498-4]. Une deuxième norme définit les concepts architecturaux relatifs à la gestion système [IS 10040]. Celle-ci constitue le modèle de la gestion système dans un environnement de communication ouvert et de traitements distribués. Les normes de la gestion système peuvent être regroupées dans trois sousensembles : - l'ensemble des normes spécifiant les procédures pour réaliser les activités d'administration (normes 10164 sur les fonctions de gestion spécifiques) [IS 10164-1 à 7]; - l'ensemble des normes spécifiant les objets de gestion concernés par l'administration et les opérations qui sont réalisables sur chacun d'eux (normes 10165 sur la structure des informations de gestion) [IS 10165-1] [IS 10165-2] [IS 10165-4] ; - l'ensemble des normes spécifiant les services et les protocoles de la couche application pour échanger des informations en relation avec les procédures de gestion ([IS 9595] et [IS 9596] définissant respectivement CMIS et CMIP ainsi que les
28
Architecture des réseaux haut débit
parties des normes 10164 sur les fonctions de gestion spécifiant SMAE (System Management Application Entity) et S M A P (System Management Application Process)). La figure 1.12 récapitule l'ensemble des normes d'administration afférentes au modèle de référence OSI.
Modèle de Référence OSI ISO/IEC IS 7498
Cadre Architectural pour la Gestion OSI ISO/IEC IS 7498-4 Aperçu général de la Gestion des Systèmes ISO/IEC IS 10040 Structure de l'Information de Gestion CM1S/CMIP ISO/1EC IS 9595 ISO/IEC IS 9596
Modélisation de l'Information de Gestion ISO/IEC IS 10165-1
Guides pour la Définition de Définition de l'Info, de l'Information de Gestion Gestion ISO/IEC 10165-4 ISO/IEC IS 10165-2
Fonctions de Gestion de Systèmes ISO/IEC IS 10164-1 .. 19 Figure 1.12. Les normes d'administration Le modèle fonctionnel
de la gestion
OSI
OSI
Afin d'exercer son activité, l'administration de réseaux s'appuie sur un certain nombre de fonctions, qui peuvent être regroupées en cinq aires fonctionnelles (SMFA — Specific Management Functional Area). Ce sont : -
la gestion de la -configuration, la gestion des fautes, la gestion des performances, la gestion de la sécurité, la gestion de la comptabilité.
Par gestion de la configuration, il faut entendre les procédures permettant de contrôler, d'identifier, de collecter et de fournir des données sur les objets de gestion, c'est-à-dire les entités du réseau gérées dans un système de communication OSI. L'objectif ici est de veiller au fonctionnement continu des services d'interconnexion. Pour cela, des outils fonctionnels s'imposent qui permettent de : - démarrer, initialiser et arrêter le système,
Architecture en couches et normalisation -
29
positionner les paramètres du système ouvert, recueillir des informations sur l'état d'un système et agir sur ces états. modifier la configuration du système ouvert, associer des noms aux objets gérés.
La gestion des fautes recouvre l'ensemble des fonctionnalités qui permettent la détection, l'isolation et la correction des anomalies dans un système. Les fautes proviennent des pannes de composants matériels ou logiciels et se manifestent par des événements particuliers (erreurs) dans le fonctionnement du système. Elles peuvent être passagères ou persistantes. Lorsqu'une erreur est détectée, une analyse des informations de l'état du système doit permettre de la localiser et de diagnostiquer sa cause. Une action "curative" doit s'ensuivre, pour permettre la reprise du fonctionnement du système. La gestion des fautes est une fonction d'administration vitale pour assurer aux utilisateurs un niveau de service satisfaisant du système. La gestion des performances doit s'accompagner de fonctionnalités permettant de mesurer le niveau de performance du système (évaluation quantitative du comportement des objets administrés et de l'efficacité de la communication). Ici, des fonctions spécifiques doivent permettre le relevé de données statistiques comme de tenir un journal de bord journalier, dans un but de planification et d'analyse. La gestion de la sécurité est la collection des fonctions relatives à l'administration de réseaux et requises pour supporter les politiques de sécurité dans un réseau de télécommunication. Les fonctions essentielles de la gestion de sécurité comprennent la distribution des informations relatives à la sécurité, telles que les clés de cryptage et les privilèges d'accès, et le compte rendu des événements relatifs à la sécurité, tels que les intrusions dans un réseau, les tentatives d'accès à des informations ou à des services privilégiés par des processus non autorisés ou encore l'accès à des données et à des services protégés. La gestion de la comptabilité réalise un tri et des statistiques sur les informations de configuration. Elle n'a, de façon instantanée, aucune influence sur le maintien de la qualité de service et l'obtention de bonnes performances. Elle permet en particulier d'établir des relevés de taxation et de surveiller l'évolution de l'utilisation du réseau et prévoir les développements nécessaires. Le modèle
architectural
Le modèle architectural décrit la structure générale des entités accomplissant la tâche de gestion, leurs interfaces et les mécanismes de communication utilisés. Le modèle
informationnel
En association avec la normalisation des services et protocoles pour l'échange d'information entre deux systèmes, il est nécessaire d'obtenir la compréhension des objets, attributs et opérations associés à cette information. C'est pourquoi, un modèle d'information, le SMI (Structure of Managed Information), a été établi par l'ISO, définissant la structure logique et la sémantique de l'information de gestion.
30
Architecture des réseaux haut débit
Le SMI est fondé sur le concept d'objets stockés dans la MIB (Management Information Base). Les principes de conception du SMI sont basés sur une approche orientée objet. Les objets présentant mêmes structure et comportement sont regroupés dans des classes d'objet. Une classe possède une partie statique (structure) et une partie dynamique (comportement). Des relations d'héritage peuvent exister entre classes. Cela conduit donc à étendre les caractéristiques des superclasses. Une classe d'objet peut aussi bien hériter des caractéristiques (attributs et méthodes) d'une superclasse (héritage simple), que de plusieurs superclasses en même temps (héritage multiple). Un autre concept, Yallomorphisme, permet à un objet de gestion de se comporter de la même façon qu'un objet appartenant à une classe d'objet supérieure. Cela signifie que toutes les caractéristiques (structure et comportement) ajoutées pendant la phase de dérivation seront supprimées par l'objet de gestion ou par le système de gestion. Cette option a pour but de prendre en compte différentes phases de développement d'équipements ou différentes versions de logiciels. Afin de manipuler les objets, deux types d'opérations ont été définies, les premières applicables aux attributs de l'objet, les secondes à l'objet lui-même. Les opérations sur les objets incluent la création et la suppression. De plus, une opération "action" est possible. Elle est utilisée afin de définir des opérations arbitraires. La définition de ces actions et l'information nécessaire afin de les exécuter font partie de la spécification de la classe d'objet correspondante. Ce mécanisme est prévu afin de réaliser des activités de gestion complexes. Les opérations sur les attributs sont émises aux objets de gestion (MO — Managed Objects), afin de lire ou de modifier les valeurs d'attributs. Selon leur structure, les attributs peuvent être soit des attributs simples, soit des attributs multi-valués, soit des attributs de groupe. Un attribut simple, possède une valeur unique, alors qu'un attribut multivalué est composé d'un ensemble de valeurs qui peuvent être manipulées individuellement. Un attribut de groupe se réfère à un groupe d'attributs à l'intérieur d'une classe d'objet. Une opération sur un groupe d'attributs est réalisée sur chaque attribut de manière individuelle dans ce groupe. Différentes opérations sont possibles, en fonction du type d'attribut à manipuler : -
get attribute value, set-to-default value, replace attribute value, add member, remove member.
Les deux dernières opérations ne sont applicables qu'à des attributs multi-valués, alors que les deux premières sont les seules à pouvoir s'appliquer sur des attributs de groupe. Afin d'indiquer les objets sur lesquels appliquer une opération, un mécanisme de filtre peut être utilisé. Il sélectionne les MO souhaités à partir d'un ensemble de MO, en vérifiant la présence de certaines valeurs d'attributs. L'opération est
Architecture en couches et normalisation
31
appliquée si l'évaluation a réussi. Les M O sont structurés selon une relation de contenance. Une structure hiérarchique, appelée arbre de contenance, est déduite à partir de cette relation entre objets. Les MO sont nommés sur la base de cet arbre : un objet doit être nommé de façon à être identifié et référencé sans ambiguïté. Le nommage se fait en fonction de la position de ce MO dans l'arbre de contenance, grâce à une séquence de noms appelés noms de distinction relative (RDN — Relative Distinguished Name). Les informations d'administration sont décrites à l'aide de formulaires appelés "Templates" décrivant chacun un type d'information. Des formulaires ont été définis pour les types suivants : classe, package, paramètre, lien de nommage, attribut, groupe d'attributs, comportement, action et notification. Le modèle
de
communication
Le service c o m m u n d'information d'administration C M I S ( C o m m o n Management Information Service) permet la communication d'informations d'administration. Ces services sont : - les services d'opérations : • opérations sur les attributs : M-GET qui permet à un gestionnaire de demander à un agent la lecture d'informations concernant ses objets administrés ; M-SET qui permet à un gestionnaire de demander à un agent la mise à jour d'informations concernant ses objets administrés ; • opérations sur les objets : M-CREATE qui permet à un gestionnaire de demander à un agent la création d'un objet administré ; M-DELETE qui permet à un gestionnaire de demander à un agent la destruction d'un de ses objets administrés ; M-ACTION qui permet à un gestionnaire de demander à un système l'exécution d'une action spécifique plus complexe qu'une consultation, création ou suppression ; - le service de notification, M-EVENT-REPORT qui permet à un agent de signaler à un gestionnaire l'occurrence d'un événement concernant ses objets administrés. Le protocole commun d'administration C M I P (Common Management Information Protocol) fournit le support nécessaire à la communication entre entités d'applications utilisatrices du service CMIS. La syntaxe utilisée pour spécifier les éléments de protocole CMIP, ainsi que les informations qu'il transporte, est la syntaxe abstraite normalisée ASN.l (Abstract Syntax Notation One) [IS 8824]. Le modèle
organisationnel
La norme ISO 10040 fait reposer son modèle organisationnel sur les deux concepts importants que sont le manager (gestionnaire). Les correspondants administratifs (manager/ agent) sont représentés par des processus qui échangent des
32
Architecture des réseaux haut débit
informations selon un protocole. L'échange entre agent (administré) et manager (administrateur) se fait soit par un mécanisme de demande du manager et réponse de l'agent, soit par un compte rendu spontané de l'administré à l'administrateur lors d'un événement. Chaque agent gère sa propre MIB sur laquelle le manager peut travailler Nous obtenons ainsi le modèle de la gestion système de la figure 1.13. système ouvert 1
système ouvert 2
-manager
- a g e n t
-SMAP-
opérations
SMAE (CMIS)
notifications
objets administrés
!>MArSMAE (CMIS)
ressources à administrer
SMAP - System Management Application Protocol S M A E - System Management Application Entity
F i g u r e 1.13. Le modèle
1.6.2.2.
de gestion
système
L'U1T-T
L'UIT-T (ex-CCITT) a élaboré le concept de Réseau de Gestion des Télécommunications ( R G T ou T M N pour Telecommunications Management Network) IM.3010] pour définir une architecture fonctionnelle d'un système de gestion de réseaux souple, complet et évolutif. La notion de RGT est purement fonctionnelle. Elle ne préjuge en rien de la taille et des particularités des implantations physiques la réalisant. Il s'agit d'une architecture modulaire constituée de groupements fonctionnels dédiés à la réalisation de tâches particulières relatives au transport et au traitement des informations de gestion. Aussi, des points de référence ont été définis qui constituent des points de passage d'informations entre des groupements fonctionnels. L'UIT-T traite aussi de l'aspect informationnel avec la définition d'un modèle informationnel générique [M.3100]. 1.6.2.3. Le monde
TCP/IP
Le nombre important de réseaux TCP/IP ainsi que le besoin crucial de leur gestion a entraîné le développement d'un premier protocole de gestion, le protocole SGMP (Simple Gateway Monitoring Protocol) [RFC 1028], conçu à l'origine pour gérer les passerelles Internet des réseaux grande distance. Le protocole actuel SNMP (Simple Network Management Protocol) [RFC 1157] y trouve ses bases tout en intégrant certains concepts de gestion développés à l'ISO. En fait, les standards
Architecture en couches et normalisation
33
SNMP, établis depuis 1990, sont axés autour de deux aspects, la définition des protocoles d'échanges SNMP et la définition des informations d'administration des MIB. Le modèle
de
communication
SNMP définit essentiellement les protocoles permettant l'envoi de messages d'administration entre des managers et des agents. Un agent est un logiciel opérant à l'intérieur d'un équipement à gérer (terminal, serveur de terminaux, passerelle, pont, routeur, unité centrale, etc.) alors qu'un manager est un logiciel résidant dans une station de gestion de réseaux ayant la possibilité d'adresser des requêtes vers des agents. Le protocole S N M P fournit aux applications un ensemble très simple de commandes, qui sont : - GetRequest et GetNextRequest qui permettent à un manager de demander à un agent la lecture des informations concernant ses objets administrés ; - SetRequest qui permet à un manager de demander à un agent la mise à jour d'informations concernant ses objets administrés ; - GetResponse qui permet à un agent de renvoyer des informations à un manager lui ayant adressé un GetRequest, un GetNextRequest ou un SetRequest ; - Trap qui permet à un agent de signaler à un manager qu'une condition a été détectée localement dans son équipement. Chaque message SNMP, autre que les "traps", contient un identificateur de requête, une liste de variables (nom et valeur), un champ pour les types d'erreur (tooBig, noSuchName, badValue, readOnly, genErr) et un index d'erreur (indiquant le numéro de la variable en erreur). A travers un message SNMP, on ne peut adresser qu'une seule instance d'un objet spécifique. La répartition des rôles agent/manager n'est pas dynamique comme dans le modèle OSI. Une des principales faiblesses du protocole SNMP réside dans son manque de sécurité. Cet aspect a été amélioré avec la seconde version du protocole, SNMPv2 [RFC 1441]. Le modèle
informationnel
SNMP définit une collection d'objets "standards" à administrer à travers la spécification des MIB-I [RFC 1158] et MIB-II [RFC 1213] et récemment de la RMON MIB (Remote MONitoring MIB) [RFC 1271]. Les objets définis par SNMP ont une structure particulièrement simple. En effet, la définition d'un objet est limitée à un type simple ou à une table d'objets de types simples. La MIB-I correspond au premier lot de définitions d'objets SNMP. Elle contient une centaine d'objets, rangés par groupes fonctionnels au nombre de huit : "System", "Interfaces", "Address translation", "Internet Protocol (IP)", "Internet
34
Architecture des réseaux haut débit
Control Message Protocol (ICMP)", "Transmission Control Protocol (TCP)", "User Datagram Protocol (UDP)", "External Gateway Protocol (EGP)". Ces huit groupes permettent de gérer uniquement un réseau TCP/IP. Dernièrement, l'horizon des MIB-I et MIB-II s'est élargi avec l'introduction de la RMON MIB, dans laquelle neuf nouveaux groupes ont été définis ("Statistics", "History", "Alarms", "Hosts", "Host top N", "Traffic matrix", "Filters", "Packet capture" et "Events") afin d'apporter de nouvelles fonctionnalités (statistiques, historiques, détection de seuils d'alarme, gestion des hosts, estimation de flux, filtrage de capture de paquets, gestion des notifications d'événements, etc.). Cela confère un rôle plus important à l'agent qui exécute des tâches plus complètes afin de décharger le manager. Nous pouvons ainsi constater que les normes OSI de l'ISO couvrent les différents aspects importants de l'administration. De son côté, l'UIT-T s'intéresse principalement aux aspects fonctionnel et informationnel. Quant à SNMP, il permet de répondre rapidement aux premières préoccupations de l'administrateur et traite donc en priorité les modèles informationnel et de communication.
Architecture en couches et normalisation
35
Exercices Exercice
1.1
A quels types de besoins essaie de répondre le modèle OSI ? Exercice
1.2
Dans le modèle OSI, est-ce les TPDU qui encapsulent les paquets, ou le contraire ? Exercice
1.3
Dans quel(s) type(s) de trame achemine-t-on des paquets d'acquittement ? Même question pour les paquets d'établissement de connexion ? Exercice
1.4
Rappelez les avantages et inconvénients respectifs du mode de communication orienté connexion et du mode sans connexion. Exercice
1.5
Quel(s) problème(s) peut-on rencontrer lorsque, dans une architecture mixte, on superpose deux couches, l'une en mode connecté, l'autre en mode non connecté ? Exercice
1.6
Dans quelle(s) couche(s) du modèle OSI un contrôle d'erreur est-il mis en place ? Peut-il y avoir redondance ? Exercice
1.7
1. Que faut-il définir en premier, le protocole (N) ou le service (N) ? 2. Deux protocoles différents peuvent-ils rendre le même service ? 3 . Un protocole en mode connecté peut-il rendre un service en mode non connecté ? Si non, pourquoi ? Si oui, comment ? Exercice
1.8
Un utilisateur du service de session situé sur une machine A souhaite établir une connexion avec un autre utilisateur situé sur une machine B. On suppose que toutes les couches de communication opèrent en mode connecté, qu'aucune connexion n'est établie à quelque niveau que ce soit et qu'aucun incident ne se produit.
36
Architecture des réseaux haut débit
1 . Complétez le schéma suivant en indiquant les primitives de service invoquées sur la machine A. interface 6/5
interface 5/4
interface 4/3
S CONNECT. request
S. CONNECT. confirmation
2 . D o n n e z les primitives invoquées sur la machine B.
interface 3/2
Chapitre 2
Caractéristiques générales des réseaux locaux et des réseaux métropolitains
2.1.
Introduction
Comme nous l'avons défini au chapitre précédent, un réseau local est un réseau de taille réduite couvrant un domaine privé. Cette évidence a eu en fait énormément de conséquences sur les protocoles de communication d'un tel réseau. Un câble d'une longueur d'un kilomètre présente un taux d'erreurs moindre qu'un câble similaire d'une longueur de 100 km : cela permet d'utiliser des protocoles sans reprise sur erreur et donc plus simples et plus rapides. De plus, le temps de propagation très court permet d'envisager des techniques reposant sur la détection d'un signal en ligne ou sur un tour de rôle entre les stations. Enfin, sur des distances courtes, le signal peut être transféré à un débit plus important que sur de longues distances. Le développement des réseaux d'entreprise a donc conduit à développer de nouveaux protocoles adaptés à leurs besoins propres. De manière générale, on caractérise un réseau local par : - son support de transmission, - sa topologie, - sa méthode de contrôle d'accès au support. Il est important de définir précisément ces caractéristiques car chacune est étroitement dépendante des autres. Prenons l'exemple d'un réseau qui utilise la fibre optique, la topologie en bus multipoint et l'accès aléatoire y sont impossibles ; si
38
Architecture des réseaux haut débit
l'on veut tout de même un accès aléatoire, la topologie sera alors l'étoile que l'on qualifie souvent de "bus logique". Après avoir défini le cadre de développement des réseaux locaux et métropolitains, nous décrivons dans ce chapitre les principaux supports utilisés, les différentes topologies employées ainsi que les méthodes d'accès qui permettent de gérer le partage de la bande passante du réseau.
2.2. L'architecture
IEEE
Le besoin de normalisation au niveau des réseaux locaux s'étant très vite fait ressentir dès la fin des années 70, le comité 802 de l'IEEE a été formé afin d'élaborer et de proposer des spécifications relatives à un réseau local standard. L'approche adoptée par le comité pour son modèle architectural est une approche en couches, conforme au modèle de référence OSI de l'ISO. Le but visé étant de produire un standard permettant à des équipements informatiques interconnectés par un support physique unique, d'échanger des trames d'information, le comité 802 s'est restreint à l'étude des niveaux physique et liaison. Les standards produits correspondent ainsi à une implementation particulière des couches 1 et 2 du modèle OSI. La figure 2.1 illustre les relations entre le modèle OSI et le modèle IEEE. application présentation session transport réseau liaison de donnée;
contrôle de liaison logique (LLC) contrôle d'accès au support (MAC)
physique
physique
Modèle OSI
Modèle IEEE
F i g u r e 2 . 1 . Modèle OSI et modèle
IEEE
La couche physique est fonctionnellement la même que son équivalent dans le modèle OSI et traite essentiellement de la transmission de bits entre deux équipements informatiques. Sa particularité est qu'il est défini une couche physique par technique d'accès au support. La couche liaison de données est divisée en deux sous-couches : - la sous-couche MAC (Medium Access Control) : à la différence d'un réseau grande distance où les communications s'effectuent généralement sur des lignes point à point, les stations d'un réseau local partagent un seul et unique support de transmission, ce qui rend nécessaire un contrôle d'accès. La sous-couche MAC a
Caractéristiques des réseaux locaux et métropolitains
39
ainsi pour rôle d'assurer le partage du support entre tous les utilisateurs. Elle se situe immédiatement au-dessus de la couche physique ; - la sous-couche LLC (Logical Link Control) : sous-couche supérieure, elle a pour rôle de gérer les communications — les liaisons logiques — entre stations. Elle assure également l'interface avec les niveaux supérieurs.
application
802.10 Security and Privacy
liaison
802.2 Logical Link Control 802.1 Bridging
:SMA/CE
Token Bus
Token Rine
MAN
IVD
AnyLan
802.3
802.4
802.5
802.6
802.9
802.12
Fast Ethernet 802.14
MAC
802.10 Secure Data Exchange
PHY
802.1 Overview Architecture and Management
Le comité 802 n'a en fait pas donné lieu à un standard unique, mais plutôt à une série de standards visant à mieux couvrir l'ensemble des besoins. Plusieurs souscomités ont été créés, chacun traitant d'un sujet particulier pour lequel un standard spécifique est élaboré. La figure 2.2 montre les relations entre ces différents standards.
802.7 Broadband T A G 802.8 Fiber Optic T A G F i g u r e 2 . 2 . Les standards
IEEE
Le groupe 802.1 a été chargé de définir le cadre général de l'architecture. Ses travaux ont permis, dans le standard 802.1, la définition d'un glossaire, la définition des interfaces avec les niveaux supérieurs (la couche réseau), la spécification des outils de gestion de réseau et la spécification des règles d'interconnexion. Le service MAC est spécifié dans la norme ISO IS 10039. Le document 802.2 définit la souscouche LLC, tant au niveau des services fournis que des protocoles à utiliser. Les standards 802.3, 802.4, 802.5 et 802.6 définissent la sous-couche MAC et la couche physique des réseaux C S M A / C D , Token Bus et Token Ring et du réseau métropolitain DQDB respectivement. La méthode d'accès au support y est décrite et des recommandations sont données pour sa mise en œuvre. L'activité des groupes (TAG — Technical Advisory Groups), 802.7 et 802.8 sort du cadre initial des réseaux locaux : ils ne spécifient pas de standards mais donnent des conseils pratiques sur l'utilisation des supports large bande ou de la fibre optique. Les groupes 802.9, 802.12 et 802.14 ont été créés récemment. Le premier traite de
40
Architecture des réseaux haut débit
l'intégration de la voix et des données (IVD — Integrated Voice/Data) et de l'accès au réseau RNIS, les deux derniers travaillent sur de nouvelles spécifications d'Ethernet à 100 Mbit/s. Comme dans le modèle OSI, les transferts de l'information entre couches adjacentes d'un même système ou de même niveau sur des systèmes différents s'effectuent à l'aide de primitives de service. Pour chaque standard, on trouvera des spécifications relatives au service offert aux travers des primitives et des spécifications relatives au protocole. Les travaux ayant abouti au sein des souscomités 802.x de l'IEEE ont été adoptés par l'ISO en tant que normes de la série 8802-x [IS 8802-2, 8802-3, 8802-4, 8802-6, 8802-7J.
2.3.
S u p p o r t s de
transmission
L'élément de base d'un réseau local est le support physique de transmission. On y connecte les différents équipements terminaux au travers d'une prise qui est ellemême reliée à un adaptateur (figure 2.3). Ce dernier est responsable de l'interface équipement/réseau. A ce titre, il réalise le codage/décodage des signaux électriques. De plus, il gère le mécanisme d'accès au support et le mécanisme de détection d'erreurs de transmission.
support de transmission
i l prise adaptateur COmmunicateUT
traitement
transmission électrique
protocole d'accès
source ou puits de données
Figure 2.3. Les composants
2.3.1.
d'accès
Caractéristiques
Chaque type de support possède ses propres caractéristiques, ces dernières s'exprimant essentiellement en termes de : - bande passante, - technique de transmission, - atténuation, - poids et encombrement, - fiabilité (insensibilité aux perturbations électromagnétiques, résistance mécanique et thermique, etc.),
Caractéristiques des réseaux locaux et métropolitains
41
- coût (du support et des équipements nécessaires au transfert, de l'installation, de la maintenance, etc.). La bande passante, également appelée largeur de bande, représente la gamme de fréquences que peut transmettre le support. Si cette gamme correspond à l'intervalle [f], f i ] , la bande passante est alors définie par W = ij - f]. La caractérisation d'un support en bande passante est très importante, car d'elle dépend directement le débit binaire maximum ou capacité de transmission maximale. La relation est donnée par la formule de Shannon : C = W . l o g ( 1 + S/B) 2
où C est exprimé en bit/s, W est exprimé en Hz. S/B représente le rapport signal sur bruit, S étant la puissance moyenne du signal et B celle du bruit ; ce rapport n'étant pas quantifié, on choisit généralement de l'exprimer en décibels (dB) sous la forme 10 . log jo (S/B). Notons toutefois que C constitue une borne supérieure théorique et qu'il est extrêmement difficile, dans la pratique, d'approcher cette limite. La technique de transmission détermine la manière dont le support de transmission est employé pour véhiculer l'information. Les techniques les plus couramment utilisées pour les réseaux locaux sont la transmission en bande de base (numérique) et la transmission par modulation d'une porteuse (analogique). A titre d'exemple, le codage bande de base le plus utilisé dans les réseaux locaux est le codage Manchester ou biphase. Le codage consiste à représenter un bit de valeur binaire " 1 " par une transition montante au milieu de l'intervalle tandis qu'un bit de valeur binaire "0" est représenté par le symbole inverse (figure 2.4). L'intérêt de ce codage est qu'il assure au moins une transition du signal par symbole, permettant ainsi une bonne synchronisation de l'horloge du récepteur.
horloge
signal . binaire
code Manchester
0 -a -
Figure 2.4. Exemple de codage
Manchester
42
Architecture des réseaux haut débit
Dans les transmissions numériques, les bits de données sont véhiculés sur le support de transmission sous la forme d'impulsions discrètes électriques. Au fur et à mesure que les impulsions de données progressent sur le médium, le signal perd de sa puissance et les impulsions se déforment ; c'est le phénomène d'atténuation. Pour pallier ce problème, on utilise alors des répéteurs dont le rôle est de recevoir les signaux numériques et de les retransmettre avec leurs puissances et leurs formes originales. Les répéteurs régénèrent totalement les signaux et contribuent, de ce fait, à résoudre le problème des bruits. La transmission analogique requiert une bande passante plus importante que la transmission en bande de base. Le signal employé est de type analogique : il est continu et non discret. En fait, il se propage sur le médium sous la forme d'onde électromagnétique, caractérisée par son amplitude (niveau de voltage pour un support électrique, intensité du faisceau lumineux pour une fibre optique), sa fréquence et sa phase. Le signal de données est superposé à une porteuse en faisant varier (en modulant) l'une de ses trois caractéristiques. De la même façon qu'en codage bande de base, le signal électrique est atténué au cours de sa propagation sur le support, rendant nécessaire l'utilisation d'amplificateurs, dont le rôle est de recevoir les signaux et de les retransmettre à leur puissance originale. Malheureusement, si des bruits sont venus altérer ces signaux, ils seront eux aussi amplifiés. C'est pour cette raison qu'en transmission analogique, la qualité du signal tend à se dégrader avec la distance, même en utilisant des amplificateurs. Nous présentons dans la suite de ce paragraphe les différents supports de transmission. Bien que la plupart des supports employés dans l'industrie des télécommunications conventionnelles pourraient l'être dans le domaine des réseaux locaux et métropolitains, trois supports sont principalement retenus : les paires torsadées, le câble coaxial et la fibre optique. Même si l'utilisation systématique des supports métalliques a pu être remise en cause avec l'apparition de la fibre optique et les progrès faits en la matière, ils demeurent des supports d'avenir.
2.3.2. Les
paires
torsadées
Une paire torsadée est constituée de deux brins de cuivre, de diamètre inférieur au millimètre, isolés et agencés en spirale pour limiter les phénomènes d'interférences électromagnétiques parasites dues à l'environnement (diaphonie). Plusieurs paires sont groupées dans une même gaine protectrice pour former généralement un câble de 2, 4 ou 8 paires (4 le plus souvent). De façon générale, ce type de support possède une bande passante de quelques centaines de kHz permettant le transfert d'un signal modulé à un débit d'environ 10 kbit/s sur des distances de 5 à 6 km. Il est aussi possible de transférer directement un signal numérique à des débits allant jusqu'à 100 Mbit/s sur des distances courtes. 100 m au maximum. La connexion des équipements peut se fait soit en point à point soit en multipoint.
Caractéristiques des réseaux locaux et métropolitains
43
L'une des raisons pour lesquelles ce type de support est largement utilisé provient du fait que la plupart des installations téléphoniques l'utilisaient déjà (réutilisation de l'existant). Par ailleurs, il existe de nombreux produits de réseaux locaux reposant sur un câble téléphonique ordinaire et qui offrent des vitesses de transmission pouvant aller jusqu'à 10 Mbit/s. Les signaux véhiculés peuvent être numériques ou analogiques. Il s'agit donc d'un support simple et économique. En fait, ses principaux avantages résident, d'une part, dans un coût intéressant par rapport à celui du câble coaxial ou de la fibre optique et, d'autre part, dans la possibilité d'utiliser le précâblage téléphonique des immeubles diminuant ainsi de près de 40 % le coût total du réseau. Ses principaux inconvénients résident dans sa sensibilité aux perturbations électromagnétiques de l'environnement et dans une atténuation très importante du signal, proportionnelle à sa longueur. Les paires torsadées sont de ce fait souvent caractérisées par leur produit bande passante * longueur. Elles se distinguent entre elles par leur impédance (100, 120 ou 150 ohms), ainsi que par leur nature : - les paires non blindées (UTP — Unshielded Twisted Pair) ; - les paires blindées (STP — Shielded Twisted Pair) : le blindage est réalisé par une partie métallique, tresse ou ruban, visant à protéger le ou les conducteurs du câble des perturbations extérieures et à limiter le rayonnement du câble. Il est efficace contre les interférences à fréquences basses (inférieures à 10 MHz). Le câble blindé doit être relié à la masse, mais il peut apparaître comme une source d'interférences dès lors que les masses ne donnent pas en permanence les mêmes mesures ; - les paires écrantées : l'écrantage est réalisé par une fine feuille d'aluminium qui s'enroule autour du câble, le dispositif permettant de protéger le câble des interférences à fréquences hautes (supérieures à 1 MHz) tout en assurant une protection relative aux effets de masse. L'écrantage peut être utilisé en conjonction avec le blindage. Depuis l'explosion des réseaux et en l'absence de normalisation, le câblage a souvent été développé de façon anarchique à l'intérieur des bâtiments. Plusieurs années ont été nécessaires aux associations américaines EIA et TIA (Electronic Industries Association, Telephony Industries Association) avant d'obtenir en 1991 une première mouture de la norme EIA/TIA-568. Ce standard spécifie les minimums requis pour les câblages de télécommunication dans des environnements bureautiques. En particulier, elle définit la bande passante garantie et l'affaiblissement maximum (en fonction de l'impédance) pour chaque catégorie de câble de paires torsadées (tableau 2.1 ).
44
Architecture des réseaux haut débit
catégorie
affaiblissement (dB/km) fréquence (MHz)
100 ohms
120 ohms
150 ohms
UTP3
16
131
68
45
UTP4
20
102
73
50,5
UTP5
100
220
180
125
Tableau 2.1. Niveau de performances
par catégorie
de câble UTP
L'EIA/TIA recommande un connecteur de type RJ-45 (spécifié dans la norme ISO 8877) pour les paires UTP. Cette prise comporte huit broches, une par lien physique. L'utilisation des différentes broches est donnée dans le tableau 2.2 pour les deux versions du standard EIA/TIA-568. A titre d'exemple, Token Ring utilise les paires 1 et 3 alors qu'Ethernet 10BASET utilise les paires 2 et 4. paires 568A
paires 568B
broche
signal
paire 3 paire 3 paire 2 paire 1 paire 1 paire 2 paire 4 paire 4
paire 2 paire 2 paire 3 paire 1 paire 1 paire 3 paire 4 paire 4
1 2 3 4 5 6 7 8
émission donnée + émission donnée réception donnée + non utilisée non utilisée réception donnée non utilisée non utilisée
Tableau 2.2. Utilisation
2.3.3. Le câble
des différentes
paires dans
EIA/TIA-568
coaxial
Un câble coaxial est constitué de deux conducteurs cylindriques de même axe séparés par un isolant diélectrique. Différentes études ont permis de montrer que le rapport des diamètres des deux conducteurs devait être de 3,6 : on trouvera donc des câbles 2,6/9,5 ou 1,2/4,4 mm. Moins sensible que les paires torsadées aux phénomènes électriques (atténuation, interférences et autres), le câble coaxial offre des débits potentiels beaucoup plus importants (jusqu'à 150 Mbit/s). Mais là aussi, comme pour les paires torsadées, la bande passante est fonction de la qualité des conducteurs, de celle des isolants et de la longueur. Il y a deux types de câble coaxial qui diffèrent par leur impédance caractéristique qui correspond à la résistance du support. Le câble 50 ohms est généralement utilisé pour transmettre des signaux numériques en bande de base alors que le câble 75 ohms permet la transmission en large bande de signaux numériques ou analogiques. En particulier, le câble 75 ohms est utilisé depuis de nombreuses années dans l'industrie de la télévision câblée d'où son nom de câble CATV.
Caractéristiques d e s r é s e a u x l o c a u x et m é t r o p o l i t a i n s
45
Le câble 50 ohms est encore appelé câble « bande de base » (baseband) par opposition avec le câble CATV qui est dédié à des services large bande. Sa bande passante est de quelques centaines de MHz permettant des débits très élevés (plusieurs centaines de Mbit/s) en point à point et de l'ordre de 10 Mbit/s en multipoint pour former un bus passif. Il existe sous deux diamètres différents appelés "thick" (diamètres de 2,6/9,5) et "thin" (diamètres de 1,2/4,4). Le câble fin, plus souple et plus maniable, est désormais le plus utilisé. Ces propriétés en ont fait le support privilégié des réseaux locaux en bus. Le connecteur le plus répandu pour le câble épais est la prise vampire : le câble est percé avec le connecteur de manière à réaliser directement la connexion physique et électrique. La connexion sur câble fin utilise une prise en T, (appelée ainsi car elle ressemble à la lettre "T"), l'une des branches permettant de relier la station, les deux autres étant connectées au deux segments de câble.
2.3.4. La fibre
optique
La fibre optique peut être utilisée pour véhiculer des signaux de données sous forme de signaux optiques modulés. Elle est constituée d'un cylindre de verre extrêmement fin (le cœur) entouré d'une couche concentrique de verre (le revêtement) et joue le rôle d'un guide d'ondes lumineuses pour des longueurs d'ondes dans la gamme des infrarouges : 850 nm, 1 300 nm, 1 500 nm. L'index de réfraction du revêtement étant plus faible que celui du cœur, le faisceau lumineux est réfléchi vers le cœur dès qu'il heurte le revêtement. Une onde optique guidée par des réflexions successives peut être représentée par des faisceaux de rayons que l'on appelle "modes". En pratique, on réunit souvent plusieurs fibres au sein d'une même gaine protectrice pour former un câble. Outre la fibre elle-même, une liaison optique comporte une source de lumière, diode électroluminescente, diode laser ou rayon laser modulé qui convertit le signal électrique à transmettre en signal optique, et un détecteur de lumière, photodiode ou phototransistor qui restitue le signal électrique à partir du signal optique reçu (figure 2.5). La diffusion du signal sur la liaison optique n'est pas bidirectionnelle. Il n'est d'autre part pas possible de connecter de manière passive des prises sur une fibre, aussi la connexion est-elle forcément point à point. émetteur •"t—
électrique
récepteur
décodeur
Figure 2 . 5 . Connexion
codeur
à une fibre
optique
électrique
46
Architecture des réseaux haut débit
Les fibres optiques offrent des bandes passantes très importantes, de l'ordre du GHz pour un débit théorique de 2 Gbit/s (mais seulement 600 Mbit/s en pratique). Leur atténuation est très faible et, les signaux véhiculés n'étant, bien entendu, pas sujets aux interférences électriques, le taux d'erreurs est également très faible (de l'ordre de 1 0 ) . De plus, le câble optique est plus léger et moins encombrant qu'un support à base de cuivre. Néanmoins, le prix d'une liaison en fibre optique reste élevé, en raison des coupleurs optoélectroniques d'une part, et de l'installation de la fibre proprement dite d'autre part. Notons également que les raccordements restent délicats à effectuer et qu'ils posent des problèmes d'affaiblissement. 9
Il existe plusieurs types de fibre optique : - la fibre multimode à saut d'indice (diamètres : 50-125 um) dont la bande passante est de 40 MHz sur 1 km, - la fibre multimode à gradient d'indice (mêmes diamètres) dont la bande passante atteint 500 MHz sur 1 km, - la fibre monomode (diamètres : 2-8 p.m) qui est la plus fine. Elle ne transmet qu'un seul mode et présente le plus grand potentiel de bande passante, de l'ordre de 100 GHz/km. Toutefois, sa mise en œuvre délicate et son coût élevé font qu'elle n'est pratiquement employée que par les opérateurs de télécommunications pour les très grandes distances. Pour réaliser des liaisons multipoint, on relie de multiples fibres à un coupleur particulier qui est qualifié d'étoile passive ou d'étoile active. Une étoile passive permet de fusionner plusieurs fibres optiques : tout signal venant d'une fibre est divisé et retransmis sur toutes les fibres de sortie. L'étoile active en diffère par le fait que le coupleur central est un répéteur actif qui convertit donc le signal optique en signal électrique pour le diffuser en sortie ; on évite ainsi les pertes induites par la division du signal dans l'étoile passive. 2.3.5. Supports
non
guidés
Les supports présentés jusqu'ici ont la caractéristique commune d'être des supports à guide physique. Des supports immatériels, dits « non guidés », peuvent être également utilisés, notamment lorsque la pose d'un câble physique est source de problèmes. Les transmissions par ondes radio-électromagnétiques, par rayons infrarouges, par rayons lasers, par faisceaux hertziens ou par satellites évitent le creusage de canalisations — et ce parfois à travers le domaine public —, l'utilisation de répéteurs, — nécessaires dès lors que la longueur des câbles devient importante — et tout risque de rupture accidentelle des câbles. Le principal inconvénient de ces systèmes de transmission réside dans leur sensibilité aux conditions atmosphériques.
Caractéristiques des réseaux locaux et métropolitains
2.4.
47
Topologies
La topologie d'un réseau décrit la configuration selon laquelle ses stations sont interconnectées via le support de transmission. On distingue principalement trois types de topologies : l'étoile, le bus et l'anneau. 2.4.1.
L'étoile
Dans une topologie en étoile, un contrôleur central raccorde directement toutes les stations du réseau (figure 2.6). Toutes les communications entre deux stations quelconques passent par le nœud central, qui est alors chargé de les gérer et de les contrôler.
contrôleur centraT\
F i g u r e 2.6. Topologie
en
étoile
Le nœud central joue souvent le rôle d'un dispositif de commutation. Lorsqu'une station désire communiquer avec une autre station, le contrôleur établit un circuit entre elles ; les deux stations peuvent alors communiquer et les données être échangées entre elles exactement comme si elles étaient reliées par une liaison dédiée en point à point. Ce type de topologie est en fait employé depuis de nombreuses années pour les systèmes téléphoniques où les postes téléphoniques représentent les stations et le PABX (Private Auto-Branch eXchange) joue le rôle du contrôleur central. C'est une topologie simple, mais qui pose le problème de la fiabilité et de la puissance du nœud central. Il est possible d'étendre la notion d'étoile à plusieurs niveaux : on obtient alors une configuration en « flocon de neige » (figure 2.7).
F i g u r e 2 . 7 . Topologie
en flocon
de
neige
48
Architecture des réseaux haut débit
2.4.2. Le
bus
Dans une configuration en bus, chaque station est directement attachée au canal de transmission commun. Suivant le type de support utilisé, le bus peut être bidirectionnel (figure 2.8) ou unidirectionnel. La fibre optique ne permet que des bus unidirectionnels. terminateur
terminateur
Figure 2.8. Bus
bidirectionnel
Le bus bidirectionnel est utilisé principalement avec le câble coaxial et constitue une structure passive, qui présente l'avantage de ne nécessiter que des terminateurs aux extrémités du câble. Le terminateur est une résistance électrique d'impédance égale à celle du câble et qui évite les problèmes de réflexion du signal électrique qui arrive à l'extrémité du support. Les stations sont connectées via une prise (en T ou vampire) et envoient des informations grâce à une MAU (Medium Attachment Unit). Cette unité d'accès au support émet et reçoit des signaux électriques ; elle est passive et ne régénère pas le signal. Suivant le protocole d'accès, elle peut avoir d'autres fonctions. Le support unique étant partagé par l'ensemble des stations du réseau, si deux stations ou davantage se mettent à transmettre en même temps (au temps d'émission près), les signaux générés vont se superposer et se brouiller mutuellement. Ce phénomène est comparable à ce qui se passe dans une assemblée lorsque plusieurs personnes décident de prendre la parole en même temps, ce qui conduit à une cacophonie. On parle ici de collision ou encore de contention d'accès. Il est alors nécessaire de mettre en œuvre une politique de partage pour régler ces conflits : c'est la technique d'accès au support. Les stations étant connectées en multipoint à un support unique, lorsqu'une trame d'information est émise sur le support, elle est reçue par l'ensemble des stations ; il s'agit de la propriété naturelle de diffusion. Chaque station doit alors vérifier, d'après l'information d'adressage contenue dans la trame, si elle doit garder la copie de la trame et la traiter ou tout simplement l'ignorer. Le signal transmis sur le support n'étant pas régénéré au passage de la prise, son affaiblissement limite la longueur maximale d'un segment de support. Par exemple, pour un câble de 50 ohms, le segment est limité à 500 m. Cette longueur peut être augmentée en connectant plusieurs segments entre eux au moyen de répéteurs. Le répéteur amplifie et régénère les signaux qu'il reçoit sur chacun des segments de câble. En aucun cas, il ne mémorise des bits. On peut ainsi obtenir une topologie en arbre (figure 2.9). Dans ce type de configuration, le canal de communication est
Caractéristiques des réseaux locaux et métropolitains
49
constitué d'un câble à branches multiples, les stations étant attachées comme des feuilles aux branches. Là encore, toutes les stations reçoivent toutes les informations transmises. répéteur
répéteur
F i g u r e 2 . 9 . Utilisation
de répéteurs sur un bus
Dans le cas d'un bus unidirectionnel, deux supports physiques sont nécessaires, le premier pour permettre à une station d'émettre l'information vers les stations en "aval" et le second pour permettre à la même station de recevoir l'information émise par les stations en "amont". Par symétrie, chaque station est libre de communiquer avec n'importe quelle autre station, en utilisant l'un ou l'autre des deux bus. La figure 2.10 montre la topologie utilisée par le réseau métropolitain DQDB avec deux bus unidirectionnels réalisés en fibre optique.
F i g u r e 2 . 1 0 . Topologie
2.4.3. L
utilisant
deux bus
unidirectionnels
anneau
Le câble forme ici une boucle, à laquelle vient s'attacher chacune des stations par l'intermédiaire d'un répéteur. Les différents répéteurs sont reliés deux à deux par des liens en point à point de manière à former la boucle (figure 2.11). Les liens sont unidirectionnels et les répéteurs se contentent de recevoir bit à bit sur le lien d'entrée et de retransmettre sur le lien de sortie. Par conséquent, les informations circulent toujours dans le même sens. De façon similaire à ce qui se passe avec une topologie en bus, une trame envoyée par une station est reçue par l'ensemble des stations et c'est l'adresse qu'elle contient qui permet de déterminer si une station donnée doit en
50
Architecture des réseaux haut débit
tenir compte ou non. La diffusion d'information est ainsi supportée de façon naturelle. Il est également nécessaire de prévoir une politique de partage du support de transmission.
F i g u r e 2 . 1 1 . Topologie
en
anneau
Le signal étant régénéré par chaque répéteur, contrairement au bus, l'anneau est une structure active le rendant très sensible aux pannes, puisqu'une seule coupure suffit à mettre fin à son bon fonctionnement. D'autre part, cela implique le retrait explicite des informations (par l'émetteur, par le récepteur ou par une station de supervision). Le manque de fiabilité peut être pallié par un anneau doublé (figure 2.12). Les deux anneaux peuvent transmettre dans le même sens ou en sens inverse. Dans les deux cas, lorsqu'une coupure survient pour l'un des anneaux, l'autre peut prendre le relais, garantissant ainsi le bon fonctionnement de l'anneau en cas de coupure simple. boucle primaire
boucle secondaire F i g u r e 2 . 1 2 . Anneau
doublé
Les topologies de base pour les réseaux locaux présentent des propriétés identiques, telles que la diffusion et le partage du support entre toutes les stations connectées. Ce partage sera arbitré, le plus souvent de manière distribuée, par ce qu'on appelle le mécanisme ou encore le protocole d'accès au support.
Caractéristiques des réseaux locaux et métropolitains 2.5. Les familles de contrôle
51
d'accès
L'une des principales particularités des réseaux locaux et métropolitains est le partage d'un support de transmission unique entre les différents utilisateurs du réseau. La méthode de contrôle d'accès décrit comment les stations raccordées au réseau contrôlent leur accès au support de transmission, afin de prévenir ou de régler tout conflit possible [Rubin 90]. De nombreuses techniques, plus ou moins sophistiquées, ont été proposées (et continuent de l'être). Elles peuvent être centralisées, avec l'existence d'une station primaire chargée de régler les conflits d'accès, ou distribuées, avec une répartition du contrôle sur l'ensemble des stations. Elles peuvent être statiques ou dynamiques, déterministes ou non, équitables ou non (vis-à-vis des possibilités d'accès au support données à chacune des stations), avec ou sans contention d'accès. La technique d'accès retenue a des répercussions sur les caractéristiques du niveau physique. Inversement, une topologie particulière impose les composants d'accès et va donc plus ou moins bien s'adapter à une technique d'accès donnée. Un classement possible des différents mécanismes d'accès est le suivant, avec trois grandes familles : - l'accès statique, - l'accès déterministe, - l'accès aléatoire. Nous présentons par la suite les grands principes et quelques exemples pour chacune de ces familles, la liste des techniques présentées étant loin d'être exhaustive.
2.5.1. L'accès
statique
Cette famille de protocoles d'accès se caractérise par l'allocation statique de la bande passante. En d'autres termes, la bande passante est répartie de façon définitive entre les stations, soit temporellement, soit fréquentiellement. 2.5.1.1. Accès multiple
à répartition
dans le
temps
Cette méthode, appelée l'AMRT (Accès Multiple à Répartition dans le Temps) ou TDMA (Time Division Multiple Access), consiste à découper le temps en périodes 7", elles-mêmes découpées en n tranches de temps IT. Une unité spécifique est chargée de fournir la synchronisation et de générer périodiquement des trames de durée T. n étant le nombre total de stations, chaque station se voit allouer nominativement une tranche de temps à l'intérieur de chaque trame ou intervalle T. Elle obtient ainsi un droit d'accès périodique et exclusif au canal. La figure 2.13 illustre cette technique appliquée au cas d'un réseau avec quatre stations.
52
Architecture des réseaux haut débit fréquence
capacité du canal
temps
Figure 2.13. La technique
AMRT
Le terme de "multiplexage temporel" est parfois utilisé pour désigner cette méthode. Elle est surtout utilisée dans le cadre des applications téléphoniques pour le transfert de la voix numérique. 2.5.1.2. Accès multiple
avec repartition
en
fréquence
Cette méthode, appelée l'AMRF (Accès Multiple à Répartition en Fréquence) ou FDMA (Frequency Division Multiple Access), consiste à découper la bande passante en sous-bandes, chacune étant affectée à une seule station qui en possède l'usage exclusif et qui ne peut en aucun cas utiliser les autres sous-bandes. Cette technique est également connue sous le nom de "multiplexage fréquentiel". La figure 2.14 illustre le cas d'un réseau avec quatre stations. Cette technique est principalement utilisée dans les réseaux large bande, comme par exemple, pour la distribution de programmes de télévision sur câbles. fréquence capacité i du i canal
temps
F i g u r e 2.14. La technique
AMRF
Les techniques statiques de partage du support sont bien adaptées à des environnements où les ajouts/retraits de stations sont rares (comme dans les réseaux satellites) mais ne conviennent pas à des environnements aussi vivants que les réseaux locaux. En effet, les ajouts/retraits de stations y sont fréquents (parfois toutes les semaines) et nécessiteraient avec de telles techniques d'accès de redéfinir à chaque fois soit la structure de la trame soit la répartition en fréquence, opérations non aisées. Leur deuxième inconvénient est la perte de bande passante lorsqu'une station est inactive. On leur préfère donc des techniques dynamiques, qu'elles soient déterministes ou aléatoires.
Caractéristiques des réseaux locaux et métropolitains 2.5.2. L'accès
53
déterministe
Cette famille de protocoles d'accès se caractérise, entre autres, par une allocation dynamique de la bande passante. En d'autres termes, la bande passante n'est allouée à une station que si cette dernière en a réellement besoin. Une station doit donc pouvoir solliciter l'utilisation du canal chaque fois qu'elle souhaite émettre. Un mécanisme de décision permet d'élire parmi l'ensemble des stations celle qui sera invitée à émettre tout en veillant à l'équité d'accès entre les stations (à tour de rôle). A l'issue de la transmission ou si la station interrogée n'a rien à émettre, le même scénario d'élection recommence. Sur ce principe de base, deux approches sont possibles, selon la manière dont les demandes d'accès sont gérées : - le contrôle centralisé, par polling, - le contrôle décentralisé, par jeton. 2.5.2.1. Le
polling
Bien que la plupart des techniques de contrôle centralisé soient associées aux réseaux grande distance, il existe quelques réseaux locaux pour lesquels toutes les fonctions de contrôle sont centralisées à l'intérieur d'un seul et même équipement. Plus précisément, le polling constitue une méthode d'accès qui se prête particulièrement bien aux topologies en étoile ou en bus. Cette technique suppose l'existence d'une station dite "primaire" qui gère l'accès au support. Elle invite les autres stations, dites "secondaires", à émettre en leur envoyant un message de poil, selon un ordre établi dans une table de scrutation. Si la station secondaire interrogée a un message à émettre, elle l'envoie. Dans le cas d'une topologie en étoile, le message transite par la station primaire, qui se charge de le relayer vers la ou les stations destinataires, selon l'adresse véhiculée dans le message. Si la station interrogée n'a rien à envoyer, elle répond de manière négative au poil. Lorsque la station primaire en a fini avec une station secondaire, elle consulte la table de scrutation pour déterminer la prochaine station à interroger. La complexité de l'approche tient essentiellement dans la station primaire : la fiabilité et les possibilités d'extension du réseau reposent sur sa fiabilité et sa puissance. A faible charge, le temps d'accès peut s'avérer long puisqu'il faut tout de même scruter chaque station. On peut améliorer ce protocole de la façon suivante : après l'émission d'une trame ou lorsqu'elle n'a rien à émettre, une station secondaire passe la main à la station secondaire suivante. En cas de panne de la station primaire (détectable par un silence prolongé), une autre station peut prendre le relais et le réseau peut ainsi continuer à fonctionner. Cette variante est très proche des techniques à jeton. 2.5.2.2. Accès par
jeton
Selon cette technique, le contrôle d'accès s'effectue de manière répartie au moyen d'une trame particulière appelée jeton. Ce jeton matérialise le droit à la parole : à
54
Architecture des réseaux haut débit
tout instant, seul son possesseur peut émettre. Le jeton passe de station en station dans un ordre donné, distribuant ainsi le droit d'accès à toutes les stations. Le bon déroulement du protocole exige la participation de toutes les stations. La nature répartie de cette approche implique de prendre de nombreuses précautions ; en particulier, il faut pouvoir éviter qu'une station ne monopolise le jeton et être capable de détecter la perte ou la duplication du jeton. La complexité réside dans chaque station, ce qui rend cette approche plus robuste que celle centralisée du polling. On distingue deux méthodes d'accès par jeton, selon la topologie du réseau : - le jeton non adressé, - le jeton adressé. Jeton non adressé
sur
anneau
Lorsque le réseau local a une configuration en anneau, la méthode d'accès généralement employée est le passage de jeton entre les stations de proche en proche suivant le sens de transmission de l'anneau [Bux 81a]. Le fonctionnement de base est le suivant : le jeton, représenté par une configuration binaire particulière, circule en permanence sur l'anneau. Il représente le droit à émettre. Une station qui souhaite émettre doit attendre que le jeton marqué libre passe au niveau de son répéteur et s'en saisir. Une fois en possession du jeton, la station peut émettre ; elle marque le jeton occupé et l'insère dans la trame d'information. La trame circule ensuite le long de l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie au vol et positionne des bits dans la trame pour indiquer le statut de réception. Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de l'anneau (le répéteur associé ne répète pas la trame) et rend le jeton en le marquant libre. Le jeton est alors émis sur l'anneau à destination de la station voisine en aval et ainsi de suite, jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre. Le jeton étant passé entre les différentes stations de l'anneau de proche en proche, il n'y a pas lieu de lui associer une adresse de destination ; c'est pourquoi on parle de jeton non adressé. Il peut se produire des erreurs qui vont, par exemple, altérer le jeton et donc provoquer sa perte ou encore altérer l'adresse source d'une trame et donc empêcher la station émettrice de la reconnaître et de la retirer de l'anneau. La gestion de ces conditions d'exception est réalisée soit de manière centralisée par une station moniteur désignée soit de manière distribuée par un protocole coopératif entre toutes les stations. Plusieurs variantes du protocole peuvent être mises en œuvre quant à l'instant de relâche du jeton et quant à la station chargée de retirer la trame d'information de l'anneau.
Caractéristiques des réseaux locaux et métropolitains
55
La station émettrice peut libérer le jeton : 1. lorsqu'elle a reçu sa trame dans son intégralité : cette solution permet de vérifier des bits d'acquittements positionnés par le récepteur mais on limite le nombre de trames en circulation sur l'anneau à une seule en même temps ; 2. dès qu'elle reçoit l'en-tête de sa trame : on obtient un gain de temps par rapport à la première solution mais introduit une limitation sur la longueur de la trame ; 3. tout de suite après avoir transmis sa trame : le gain de temps est encore plus appréciable. De plus, l'utilisation de la bande passante est optimisée puisque plusieurs trames de sources différentes, peuvent être simultanément en circulation sur l'anneau. Par ailleurs, une trame circulant sur l'anneau peut en être retirée par l'un des deux protagonistes de l'échange : a. soit l'émetteur, sur reconnaissance de sa propre adresse (soit après réception complète de la trame, soit après réception de l'en-tête de trame seulement) ; b. soit le récepteur, auquel cas les acquittements au vol ne sont bien évidemment plus possibles. Cela n'est pas possible si le récepteur est multiple. A titre d'exemple, le Token Ring utilise la combinaison 2a et FDDI la combinaison 3a. Jeton adressé sur bus
Le concept de passage de jeton peut également être utilisé sur un réseau ayant une topologie en bus ou en arbre. La différence provient du fait que le jeton ne peut plus circuler implicitement de station en station. Il faut par conséquent utiliser un jeton adressé, qui sera envoyé explicitement à une station donnée selon une relation d'ordre définie sur les adresses des stations. Bien que la topologie physique soit en bus ou en arbre, la topologie logique est un anneau en ce qui concerne le passage du jeton. L'anneau virtuel est défini indépendamment de la situation physique des stations sur le câble. Chaque station connaît les adresses de son prédécesseur et de son successeur sur l'anneau virtuel.
Figure 2.15. Bus physique
et anneau
virtuel
Sur la figure 2.15, les stations sont attachées au support de transmission selon une séquence linéaire : A, B, C, D puis E. Toutefois, le jeton est passé selon la séquence représentée par les pointillés, à savoir : A, C, D, E et B, avant de revenir à A. On a ainsi un anneau logique, implanté sur la base d'adresses de stations
56
Architecture des réseaux haut débit
décroissantes. Le jeton est toujours passé à la station dont l'adresse est celle immédiatement inférieure, jusqu'à ce que la station avec l'adresse la plus faible le reçoive. Il est alors passé à la station avec l'adresse la plus grande, et ainsi de suite. Cette technique a été retenue pour Token Bus.
2.5.3. L'accès
aléatoire
Les mécanismes d'accès aléatoire mettent en jeu des concepts très simples, issus des techniques utilisées sur les réseaux radio. Leur caractéristique commune est qu'une station désirant émettre n'a pas besoin d'autorisation pour le faire : la sollicitation est matérialisée par l'accès direct au canal. Il peut alors se produire des conflits d'accès dès lors que le nombre de stations en compétition dépasse l'unité. Différentes techniques de résolution ont été proposées pour qu'en cas de conflit, une seule des stations en compétition soit autorisée à émettre. Ce type de mécanisme est particulièrement bien adapté aux topologies en bus. 2.5.3.1. Le protocole
Aloha
A l'origine de la famille de mécanismes d'accès aléatoire se trouve le protocole Aloha, initialement développé en 1970 pour relier les îles d'Hawaï par faisceaux hertziens [Abramson 70]. Dans Aloha, une station émet dès qu'elle a de l'information à envoyer. A l'émission de la trame, un temporisateur est armé avec une durée correspondant au délai de transfert aller et retour pris entre les deux stations les plus éloignées du réseau. Si le temporisateur parvient à expiration sans qu'aucun acquittement n'ait été reçu pour la trame, cette dernière est retransmise. Au bout de n retransmissions restées sans réponse, la station abandonne. A la réception de la trame, la station destinataire effectue une vérification du champ total de contrôle afin de vérifier que la trame n'a subi ni erreurs de transmission ni collision et renvoie un acquittement à la station émettrice si la trame est correcte. Ce principe est extrêmement simple à mettre en œuvre, totalement décentralisé et ne nécessite aucune synchronisation entre les stations. L'inconvénient est qu'il se produit des collisions dès que plusieurs stations émettent en même temps. Les stations impliquées dans la collision doivent alors retransmettre après une temporisation aléatoire (figure 2.16). SI
J
temporisation collision
temps
S 2
temporisation F i g u r e 2 . 1 6 . Collision
avec
Aloha
Caractéristiques des réseaux locaux et métropolitains
57
Intuitivement, on peut voir que cette anarchie totale au niveau de l'utilisation du support ne permet pas d'obtenir de bonnes performances. En fait, des analyses mathématiques ont montré que seules 18 % des trames candidates à la transmission pouvaient être émises avec succès [Schwartz 87]. Ce manque d'efficacité s'explique en partie par le fait qu'il suffit que le dernier bit d'une trame se superpose avec le premier bit d'une autre trame pour qu'il y ait collision et donc retransmission de deux trames ; de plus, la transmission des trames en collision n'est pas interrompue. Une version améliorée, dite « Aloha en tranches », consiste à découper le temps en tranches et à n'autoriser l'émission de trame qu'en début de tranche. Une conséquence immédiate est que, s'il se produit une collision, elle se produit sur l'ensemble de la tranche et des trames impliquées (figure 2.17). SI
S3
temporisation collision i temps
temporisation
S2
F i g u r e 2.17. Collision
avec Aloha
en
tranches
Cette discrétisation du temps permet de doubler le taux de réussite en l'amenant à 36 % [Lam 75]. Cette amélioration du débit a été obtenue en réduisant le nombre de collisions en les regroupant sur une tranche, ce qui évite de perturber les transmissions proches de cette tranche. Par contre, cette technique présente l'inconvénient de nécessiter une synchronisation au niveau de toutes les stations. Il faut également noter que pour les deux versions d'Aloha, le système devient instable (on a un débit qui tend vers 0) lorsque le nombre de stations tend vers l'infini. 2.5.3.2. CSMA
(Carrier
Sense
Multiple
Access)
Au début des années 70, R. Metcalfe eut l'idée de reprendre la technique Aloha pour l'exploiter sur un réseau de micro-ordinateurs reliés par un seul câble coaxial [Metcalfe 76] [Lam 80]. Un prototype de ce qui allait devenir Ethernet fut ensuite construit au centre de recherche de Xerox de Palo Alto. Partant du constat que, pour cet environnement, le temps de transmission des trames est largement supérieur au temps de propagation et que, par conséquent, toute émission de trame peut être détectée quasi instantanément par les différentes stations du réseau, R. Metcalfe introduisit le principe d'écoute de la porteuse avant transmission : une station doit écouter le canal avant de transmettre et elle ne peut transmettre sa trame que si le canal est libre. Tout comme dans Aloha, la détection de la collision se fait par non-
58
Architecture des réseaux haut débit
retour d'acquittement. Ce principe d'écoute de la porteuse, connu sous le nom de CSMA (Carrier Sense Multiple Access), permet de réduire sensiblement le nombre de collisions de trames. Néanmoins et malgré l'écoute au préalable, des collisions peuvent encore se produire et ce, à cause du délai de propagation. Le taux d'utilisation obtenu est meilleur que pour les deux versions d'Aloha. Il dépend en fait : - du temps de propagation du signal : plus il est faible, plus c'est efficace ; - de la longueur de la trame : une station qui a réussi à transmettre une trame a tout intérêt à l'envoyer la plus longue possible car la probabilité de collision est la même pour une trame longue que pour une trame courte. Il existe plusieurs variantes de la technique CSMA, selon le type de décision prise lorsque le canal est détecté occupé par une station souhaitant émettre : - CSMA non persistant : lorsque la station détecte un signal, elle attend un délai aléatoire avant de réitérer la procédure (écoute de la porteuse, et ainsi de suite...) ; ce temps choisi au hasard permet de réduire le nombre de collisions mais il diminue aussi le taux d'utilisation du canal ; - CSMA persistant : la station "persiste" à écouter le canal jusqu'à ce que celuici devienne libre et elle émet alors (c'est la variante de base retenue au niveau de la normalisation IEEE 802.3) ; cette méthode permet un gain de temps par rapport à la précédente, mais augmente malheureusement la probabilité de collision puisque les trames qui se sont accumulées pendant cette phase d'attente active vont toutes être transmises en même temps ; - CSMA p-persistant : lorsque le canal devient libre, la station émet avec une probabilité p et diffère son émission avec une probabilité (l-p) ; ceci permet de diminuer la probabilité de collision par rapport au CSMA persistant. L'efficacité de cette variante dépend de la valeur de p : si n stations attendent pour transmettre et que np > 1, il y aura certainement des transmissions multiples et des collisions. Les stations retransmettront alors avec le risque d'entrer de nouveau en collision ; il faut donc estimer n (la charge) et faire en sorte que np < 1. Si p est petit, les stations attendent plus longtemps mais les collisions sont réduites. A faible charge, le canal est mal utilisé. Ces variantes donnent des performances plus ou moins bonne, selon l'environnement d'utilisation de la technique (nombre de stations, répartition géographique des stations, répartition de la charge soumise entre les différentes stations, valeur de p , etc.). 2.5.3.3. CSMA/CD
(CSMA
with Collision
Detection)
Il s'agit d'une amélioration de la technique CSMA persistant, où une station qui émet continue à écouter le canal pendant sa propre transmission. L'efficacité du
Caractéristiques des réseaux locaux et métropolitains
59
mécanisme est accrue grâce à une détection précoce des collisions. Dès qu'une collision est détectée par une station émettrice, elle arrête sa transmission, elle émet une séquence de bourrage qui sert à renforcer la collision et à la rendre détectable par toutes les stations du réseau puis elle attend un délai aléatoire au bout duquel elle tentera de nouveau d'émettre sa trame. Cette technique ainsi que la norme afférente sont décrites dans le chapitre 3. Les principaux inconvénients du protocole CSMA/CD résident dans son instabilité à forte charge (le débit tend vers 0) et dans son indéterminisme : un délai maximum d'accès au support ne peut être garanti, la probabilité de subir une collision n'étant jamais nulle. 2.5.3.4. CSMA/CA
(CSMA
with Collision
Avoidance)
Le principe est le suivant : tout comme dans CSMA/CD, chaque station écoute la porteuse lorsqu'une transmission est en cours. Lorsque la transmission prend fin, chaque station attend un délai spécifique qui dépend de sa position à l'intérieur d'une liste logique de stations. Si aucune autre station n'a commencé à émettre à l'expiration de ce délai, la station peut commencer à émettre. Cette technique met implicitement en place un système de priorités. Différentes méthodes peuvent être utilisées pour gérer le cas où, à la fin du délai, aucune station n'a de trame à émettre : - la station de plus haute priorité (celle qui a la plus haute position dans la liste) émet une trame non significative qui va déclencher un nouveau délai propre pour chacune des stations ; - une alternative consiste à entrer dans le mode "libre pour tous", où n'importe quelle station peut alors transmettre et où l'on utilise alors les techniques de détection de collision pour résoudre les éventuels conflits. Cette technique permet de distribuer totalement le contrôle d'accès entre les différentes stations du réseau. C'est une particularité qu'elle partage avec les techniques à jeton.
60
Architecture des réseaux haut débit
Exercices E x e r c i c e 2.1 Dressez un tableau récapitulant les principaux avantages et inconvénients de chaque type de topologie. E x e r c i c e 2.2 Dressez un tableau récapitulant les principaux avantages et inconvénients de chaque type de mécanisme d'accès. E x e r c i c e 2.3 Donnez les paramètres permettant, dans le cas du jeton sur anneau, d'évaluer le temps maximum entre deux possibilités d'accès au support pour une station donnée. Exercice 2.4 Considérons le transfert d'un fichier de 1 Mo entre deux stations. Quels sont, s'il y a lieu : -
le temps de propagation entre les deux stations (7>), le temps d'émission d'une trame (Te), le temps de transfert avec acquittement d'une trame (7), le temps total de transfert (T ), le débit utile (Du). lol
IU3Ui3]]inb3e
31UBJJ
réseau
dans les cas suivants : 1. Le réseau local est en étoile et utilise la commutation de circuits. Le temps d'établissement est négligeable et la vitesse sur le support est de 64 kbit/s. Les deux stations sont distantes de 10 km et la vitesse de propagation est de 100 000 km/s. Il n'y a pas de protocole de transfert ni d'acquittement.
Caractéristiques des réseaux locaux et métropolitains
61
2. Le réseau local est un bus et les deux stations sont éloignées d'une distance d. Le capacité du support est de C bit/s et la taille d'une trame est de L bits dont O = 80 bits d'en-tête. Chaque trame doit être acquittée par une trame d'acquittement de longueur / égale à 88 bits avant de pouvoir transférer la trame suivante. La vitesse de propagation V est de 100 000 km/s. Donnez les équations de Te, T, T
tot
et D
v
en fonction de d, C, O et L .
Tracez les courbes de T e t de D pour : v
- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ; - L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1, 5, 10, 50 Mbit/s et d = 2 km ; 3 . Le réseau local est un anneau d'une longueur totale 2*d km, les deux stations étant éloignées de d km. L'acquittement par le destinataire est réalisé en marquant un bit particulier de la trame qui retourne à l'émetteur. La taille d'une trame est de L bits dont O = 80 bits d'en-tête. Il y a N répéteurs sur l'anneau ; chacun d'eux introduit un retard de 1 temps-bit au passage d'une trame. Donnez les équations de Te, T, T , et D t0
v
en fonction de d, C, O, N et L.
Tracez les courbes de T et de D pour : v
- d variant de 1 km à 10 km avec C = 1, 5, 10, 50 Mbit/s, N = 30 stations et L = 2 000 bits ; - N variant de 10 à 100 stations (par incrément de 10) avec d = 2 km, C = 1, 5, 10, 50 Mbit/s et L = 2 000 bits ; - L variant de 500 bits à 10 000 bits (par incrément de 500 bits) avec C = 1,5, 10, 50 Mbit/s, N = 30 stations et d = 2 km ; Résolvez pour les mêmes valeurs de d, C et L que précédemment avec N = 10, 100, 1 000.
Chapitre 3
Ethernet et Ethernet 100 Mbit
3.1. 3.1.1.
Introduction Historique
Ethernet est un réseau local en bande de base développé dans les laboratoires de la société Xerox à Palo Alto à la fin des années 70 [Metcalfe 76]. Le protocole d'accès au support est inspiré du système Aloha d'Abramson, testé au début des années 70 sur un réseau radio reliant les îles d'Hawaï [Abramson 70]. En 1980, les sociétés DEC et Intel rejoignent Xerox pour promouvoir ce réseau local [DEC 80]. En 1985, le protocole est amélioré et donne naissance à Ethernet Version 2, qui servira de base à la spécification par l'IEEE [IEEE 802.3]. Le principe de fonctionnement d'Aloha consiste à émettre dès qu'une donnée est prête, ce qui présente comme inconvénient l'apparition de collision entre deux transmissions simultanées et la perte des données transmises. Une station n'ayant pas reçu d'acquittement tente alors une retransmission de sa trame au bout d'un délai aléatoire. L'absence de règles d'accès au support partagé conduit à de très mauvaises performances. Le réseau Ethernet consistait en un réseau de micro-ordinateurs reliés par un même câble coaxial passif (d'où le nom d'Ether) selon une topologie en bus. Le principe d'Aloha a été amélioré de deux manières. Tout d'abord, une station désirant émettre écoute le canal avant toute transmission, évitant ainsi de nombreuses collisions. Ensuite, la détection d'une collision est accélérée car la station émettrice
64
Architecture des réseaux haut débit
écoute aussi sa propre transmission. Ce protocole d'accès a été normalisé par l'IEEE dans le standard 802.3 sous le nom de CSMA/CD. L'abréviation C S M A / C D signifie "Carrier Sense Multiple Access with Collision Detection", traduit littéralement par "accès multiple avec détection de présence de porteuse et détection de collision". Par abus de langage, Ethernet désigne un réseau local, c'est-à-dire un ensemble {support, services, protocoles} utilisé pour la mise en place d'un réseau local. La confusion entre le protocole CSMA/CD et Ethernet est souvent faite alors que des différences, même minimes, existent.
3.1.2. Le
standard
802.3
Cette spécification concerne : - l'équivalent de la couche physique de l'OSI qui prend ici le nom de "accès au support physique" (PMA — Physical Medium Access). De par les contraintes techniques imposées par la détection des collisions, les fonctions de cette couche peuvent être réparties entre le dispositif de raccordement à la paire coaxiale et la station proprement dite ; - la partie inférieure de la couche liaison de données prenant le nom de "contrôle de l'accès physique" (MAC — Medium Access Control). Cette sous-couche permet à la station de chercher à acquérir le droit à émettre et résout par conséquent les situations de contention. De plus, elle dirige les échanges avec la couche "accès au support physique". La figure 3.1 détaille l'architecture de ce standard.
physique-
r liaison-
couches hantes LLC Logical Link Control MAC Medium Access Control
DTE DTE - DataTerminal Equipment
FLS Physical Layer Signalling
AUI - Attachmenl Unit Interface M A U - Medium Attachment Unit
AUI PMA
MAU
MDI - Medium Dependent Interface PMA - Physical Medium Attachment
MDI médium F i g u r e 3 . 1 . Situation de la couche
MAC
Ethernet et Ethernet 100 Mbit
65
La couche physique se compose d'une sous-couche PLS (Physical Layer Signalling) qui effectue l'interface entre les sous-couches MAC et physique et de deux composants, une interface d'attachement (AUI — Attachment Unit Interface) et une unité d'accès au support (MAU — Medium Attachment Unit). L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble et des connecteurs. La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU. Le plan du chapitre s'articule autour des cinq points essentiels du standard IEEE 802.3 : -
le protocole MAC, les services MAC, le protocole PHY, les services PHY, les différents supports de transmission.
La dernière partie concerne les extensions d'Ethernet vers les hauts débits, souvent dénommées "Ethernet 100 Mbit/s".
3.2. Le protocole M A C 3.2.1. Principe
de fonctionnement
de
CSMA/CD
Le protocole CSMA/CD est un protocole aléatoire où les stations peuvent émettre à tout instant, ce qui donne lieu à des contentions d'accès. Pour diminuer les risques de contention, le protocole impose des règles minimales avant la transmission
d'une trame, pendant
3.2.1.1. Transmission
d'une
sa transmission
et en cas de
contention.
trame
La transmission d'une trame ne peut commencer que si le canal est libre. Avant de transmettre, une station se met à l'écoute du canal. Si elle ne détecte aucune porteuse sur le support, elle transmet (figure 3.2 (a)). Si elle détecte un signal en ligne, elle attend que le canal devienne libre pour émettre sa trame (figure 3.2 (b)). Avec cette technique, une station évite d'émettre lorsqu'une autre station est déjà en cours d'émission, ce qui réduit le nombre de collisions, sans pour cela les supprimer toutes !
66
Architecture des réseaux haut débit
S3 écoute SI émet
S2 émet
SI émet S3 émet temps
temps
S2 émet S2 écoute
S2 écoute
(a) écoute avant transmission Figure 3.2.
(b) collision de transmissions Principe
du CSMA
La figure 3.2 illustre deux scénarios de transmission. Dans les deux cas, une station SI écoute le support, le détecte libre et transmet. Une station S2 veut émettre à son tour et détecte le canal occupé. Tout au long de la transmission de S1, elle continue son écoute et transmet dès qu'elle détecte le canal libre. Dans le cas (a), S2 émet à la fin de la transmission de S I , après avoir attendu un délai inter-trame destiné à garantir un intervalle de silence minimum afin de faciliter la gestion du niveau physique. Dans le cas (b), une station S3 s'était mise à l'écoute du canal pendant la transmission de SI. A la fin de celle-ci, les stations S2 et S3 transmettent simultanément et entrent par conséquent en collision. 3.2.1.2. Détection
des
collisions
La collision se produit lorsqu'au moins deux stations constatent en même temps que le support de transmission est disponible et transmettent simultanément. Physiquement, une collision est donc un signal brouillé violant les règles du codage en bande de base. Pour pouvoir détecter une éventuelle collision, la station écoute aussi le canal pendant sa propre transmission. Si elle détecte un signal non conforme (i.e. une collision), elle stoppe immédiatement sa transmission et transmet une séquence de bourrage (Jamming Signal), pour avertir les autres stations. Cette séquence doit être suffisamment longue pour être notée par les autres stations du réseau ; le paramètre JamSize définit sa taille minimale. La figure 3.3 illustre le cas extrême où deux stations transmettent simultanément malgré l'écoute préalable. Nous définissons At le temps de propagation d'un signal entre les deux stations SI et S2, situées à chaque extrémité du support. Le scénario est le suivant : - à to, la station SI commence à émettre une trame. - à to + At - e, la station S2, à l'autre extrémité, détecte le canal libre et émet sa propre trame. - à to + At, la station S2 détecte la collision, elle stoppe sa transmission et envoie une séquence de bourrage, - à to + 2 At, S1 détecte la collision à son tour.
Ethernet et Ethernet 100 Mbit
67
On définit : - la période de vulnérabilité qui représente la durée pendant laquelle une station éloignée peut détecter le canal libre et transmettre à son tour ; elle est au maximum égale à un temps de propagation entre les deux stations les plus éloignées sur le support ; - la fenêtre de collision ou slot-time qui représente le délai maximum qui s'écoule avant qu'une station détecte une collision ou encore, le délai après lequel une station peut être certaine d'avoir réussi sa transmission ; elle est égale à deux fois le temps de propagation d'un signal sur le support. C'est l'unité de temps du protocole. tO S2
SI S1 commence sa transmission tO + At - e
S2
SI S2 commence sa transmission t 0 + At SI
S2 détecte la collision, arrête sa transmission et émet la séquence de bourrage tO + 2 At SI SI détecte la collision F i g u r e 3.3. Période de vulnérabilité
et fenêtre
de
collision
Nous nous sommes placés dans le pire cas en considérant les stations les plus éloignées. Si on considère une station émettrice quelconque, elle est assurée, au bout de la fenêtre de collision, soit de la réussite de sa transmission, soit d'une collision subie par sa trame. La durée de la fenêtre de collision a une influence sur la taille minimale d'une trame. En effet, pour que l'on puisse détecter la collision, il faut que la station écoute et donc qu'elle soit encore en train d'émettre. Il faut, par conséquent, que le temps d'émission d'une trame de longueur minimale soit supérieur au slot-time. Sur un réseau Ethernet classique, à 10 Mbit/s, le slot-time dure 51,2 us et la taille minimale d'une trame est de 64 octets.
68
Architecture des réseaux haut débit
3.2.1.3. Reprise
après
collision
Après avoir détecté la collision, la station doit retransmettre la même trame au bout d'un temps aléatoire qui dépend à la fois du slot-time et du nombre n de collisions successives déjà subies pour cette trame. L'algorithme qui calcule ce délai aléatoire, l'algorithme Binary Exponential Backoff, a été conçu de façon à minimiser le temps d'attente en cas de faible trafic et à minimiser le nombre de collisions successives en cas de trafic important. Il consiste à tirer une variable aléatoire entière M : 0 < M < 2 , où k = min (n, 10) et où n est le nombre total de collisions subies par la station pour la trame considérée. Le délai d'attente avant de tenter une nouvelle transmission est alors pris égal à M fois la fenêtre de collision. Lorsque n atteint 16, il y a abandon de la transmission. k
La technique CSMA/CD ne permet pas de garantir un délai maximum d'attente avant transmission. Ce n'est pas un protocole déterministe. Nous résumons les étapes d'une transmission de trame : 0. Le nombre de collisions est remis à zéro. 1. Si le support est libre, alors étape 3, sinon étape 2. 2. Ecouter en continu le canal jusqu'à ce qu'il se libère, puis étape 3. 3. Transmettre la trame et écouter le canal. Si une collision est détectée pendant la transmission, arrêter la transmission, diffuser une trame de signal de collision sur le réseau, puis étape 4. Sinon, étape 0. 4. Incrémenter le nombre de collisions subies, dérouler l'algorithme de backoff, attendre le temps tiré et retourner à l'étape 1. 3.2.1.4. Réception
d'une
trame
La topologie du réseau sous-jacent est équivalente à un support à diffusion où toutes les stations reçoivent tous les signaux transportés. La station est toujours à l'écoute du support ; dès qu'elle détecte un signal de porteuse, elle recopie les bits jusqu'à reconnaissance du délimiteur de fin de trame. Le champ de contrôle d'erreur est ensuite vérifié, puis l'adresse de destination comparée à celle de la station. Si la trame est correcte et qu'elle est bien destinée à la station, elle est remise au niveau supérieur (LLC normalement) ; dans le cas contraire, elle est simplement détruite.
3.2.2. Modèle
fonctionnel
de la couche
MAC
Ce modèle décrit les principales opérations de transmission et de réception entre les couches MAC et PHY ainsi qu'entre les couches MAC et LLC. Ces opérations nous donnent les idées de base pour réaliser l'implantation des fonctions du niveau MAC. Il faut considérer deux niveaux au sein de la couche MAC pour que celle-ci soit performante. Le niveau supérieur est dédié à l'encapsulation/désencapsulation des trames entre les couches M A C et LLC et le niveau inférieur à la gestion de l'accès à
Ethernet et Ethernet 100 Mbit
69
la couche PHY par le niveau MAC. A l'intérieur de chacun de ces niveaux, il faudra différencier les fonctions de transmission de trames et celles de réception de trames, qui sont indépendantes les unes des autres. L'organisation de ces opérations est décrite en figure 3.4. MA DATA.req
MA_DATA.conf
MA.DATA.ind
LLC —
4 TRANSMIT DATA ENCAPSULATION
RECEIVE DATA DECAPSULATION
la 11
2b 2c 12
TRANSMIT MEDIA ACCESS MANAGEMENT
RECEIVE MEDIA ACCESS MANAGEMENT
lb3467 8 9
2a 5 10
MAC
PLS PLS_SIGNAL.ind
+
PLS.DATA.ind
PLS_DATA.cc.nf
PLS_DATA.req
PLS_CARRIER.ind
Figure 3.4. Modèle fonctionnel
de la couche
MAC
Nous examinons maintenant les différentes fonctionnalités conduisant à la réalisation du service de cette sous-couche. 1)
Transmission d'une trame a) elle accepte les données de la sous-couche LLC b) elle présente une série de bits à la couche physique pour transmission sur le support
2)
Réception de la trame a) elle reçoit une série de bits provenant de la couche physique b) elle présente à la couche LLC les trames reçues soit avec une adresse de groupe/diffusion soit avec l'adresse de la station c) elle élimine les trames qui ne portent pas l'adresse de la station
3)
Attente avant transmission si le support est occupé
4)
Ajout du FCS aux trames sortantes
5)
Vérification des trames entrantes : FCS, longueur des différents champs de la trame et cohérence entre la valeur du champ longueur des données et la longueur effective des données au sein de la trame reçue
6)
Attente de la fin du délai inter-trame avant transmission
7)
Arrêt de la transmission dès qu'une collision est détectée
70
Architecture des réseaux haut débit
8)
Tentative de retransmission après une collision au bout du délai calculé par l'algorithme de reprise (backoff)
9)
Envoi de caractères de bourrage pour renforcer la collision et assurer sa propagation dans tout le réseau
10) Destruction des trames trop courtes 11 ) Construction de la trame 12) Extraction de la partie données des trames reçues
3.2.3. Structure
de
la
trame
Le format de la trame MAC défini dans le standard IEEE 802.3 est représenté en figure 3.5. Du fait du protocole de détection des collisions qui impose à la station de surveiller la bonne propagation de sa trame sur tout le réseau, il a été défini une taille minimale de trame égale à 6 4 octets. Cette longueur correspond pour un débit de 10 Mbits/s au temps de propagation maximum aller et retour sur un réseau de 2,5 km (spécification de base). Une taille maximale a également été définie, qui est de 1 518 octets. 7 octets
1 octet
2 ou 6 octets
amorce
marqueur de début
adresse destination
2 ou 6 octets
adresse source
2 octets
longueur
4 octets
données
octets de bourrage
FCS
Figure 3.5. Format de la trame MAC
La signification des différents champs est la suivante : - Amorce : elle est présente au début de chaque trame et comporte 7 octets initialises à 10101010. L'amorce permet de synchroniser les horloges des stations réceptrices. - Marqueur de début de trame (Start Frame Delimiter) : l'octet a la valeur 10101011 pour indiquer le début de la trame. Il permet la synchronisation par caractère. - Adresse destination (Destination Address) et Adresse source (Source Address) : ce sont des adresses physiques du réseau codées sur 2 ou 6 octets (figure 3.6). Les adresses de 16 bits ne sont administrées que localement, tandis que celles de 48 bits peuvent l'être soit localement soit globalement (adresse universelle normalisée par l'IEEE). Dans le champ destination, le bit de plus haut rang indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe :
Ethernet et Ethernet 100 Mbit 1 bit
15 bits
I/G
adresse
71
adresse sur 16 bits 1 bit
I/G
46 bits
1 bit
adresse
U/L
adresse sur 48 bits
l/G = 0 - adresse individuelle I/G = 1 - adresse de groupe U/L = 0 - adresse administrée globalement U/L = 1 - adresse administrée localement
Figure 3.6. Format des
adresses
L'utilisation d'une adresse de groupe permet à plusieurs stations de recevoir la même trame, on parle alors d'adressage multicast. Si la diffusion est faite sur tout le réseau, le champ destination ne comporte que des bits à 1, l'adressage est de type broadcast.
- Longueur du champ d'information (Length) : sur 2 octets, ce champ indique la longueur effective des données LLC en nombre d'octets, compris entre 0 et 1 500. Il permet de distinguer les données des éventuels octets de bourrage. - Données (Data) : champ de données LLC. - Bourrage (Pad) : des octets de bourrage sont ajoutés par la sous-couche MAC lorsque la taille des données est inférieure à 46 octets de données, ce afin de satisfaire la contrainte sur la taille minimale des trames. - FCS (Frame Control Sequence) : constitué d'un mot de 32 bits, ce champ contient la séquence de contrôle de redondance longitudinale, calculée sur tous les champs exceptés le préambule, le délimiteur de début de trame et le champ de contrôle lui-même. Ce contrôle permet de détecter les erreurs apparues lors de la transmission, dues généralement à des parasites. Le standard IEEE 802.3, bien qu'issu d'Ethernet, présente quelques différences ; ainsi la trame Ethernet ne comporte pas de champ Length, mais un champ Type qui sert à indiquer par quel point d'accès (SAP) passer pour que les données arrivent au niveau supérieur. Pour la trame 802.3, cette information est véhiculée dans le premier octet du champ information. D'autre part, la trame Ethernet ne propose que des adresses sur 6 octets.
3.2.4. Paramètres
du
protocole
MAC
Le paramétrage est destiné à obtenir, de toutes les stations raccordées, un comportement identique qui est indispensable au bon enchaînement du protocole résolvant les collisions inévitables par nature. Il est le même pour tous les supports
72
Architecture des réseaux haut débit
normalisés. Les paramètres recommandés par le standard IEEE 802.3 sont donnés en tableau 3 . 1 .
paramètre
signification
valeur
SLOT TIME
fenêtre de collision
512 temps-bit
INTERFRAME GAP
attente entre deux transmissions
ATTEMPT LIMIT
nombre maximal de retransmissions
9,6 fis 16
BACKOFF LIMIT
limite maximale de l'intervalle de tirage
10
JAM SIZE
taille de la séquence de bourrage
4 octets
MAX FRAME SIZE
longueur maximale de trame
1518 octets
MIN FRAME SIZE
longueur minimale de trame
64 octets
ADDRESS SIZE
longueur du champ d'adresse
48 bits
Tableau 3 . 1 . Paramètres
3.3.
Service
CSMA/CD
MAC
Le service MAC est utilisé par les entités de la couche LLC pour permettre l'échange des données entre les couches MAC et LLC. Le protocole CSMA/CD étant en mode non connecté, le service de la couche MAC ne concerne que le transfert de données. Les primitives de service de la sous-couche MAC sont au nombre de deux : - MA_DATA.request, - MAJDATA.indication. L'enchaînement de ces primitives est montré en figure 3.6. Dans cette figure, la primitive de requête est considérée comme une fonction qui retourne un status. De manière plus abstraite et moins dépendante des considérations d'implantation, on aurait pu tout aussi bien considérer l'existence d'une troisième primitive, MA_DATA.confirmation ou MA_DATA_STATUS.indication. émetteur
récepteur
MAJJATA.req
MA_DATA.ind
F i g u r e 3.7. Enchaînement des primitives
du service
MAC
Ethernet et Ethernet 100 Mbit 3.3.1. La
primitive
73
MA_DATA.request
Elle permet de transférer des données d'une entité LLC émettrice vers une ou plusieurs (en cas d'adresse de groupe) entités LLC réceptrices. Quand cette primitive arrive au niveau MAC de la station émettrice, une trame est constituée à partir des paramètres de cette primitive et des valeurs propres au niveau MAC, telles que l'adresse source, la longueur des données et la séquence de contrôle qui sont calculées. La sémantique de la primitive est la suivante : MA_DATA.request transmit_status ; où :
(dest_address, length_data, m_sdu, service_class) :
- le paramètre destination_address spécifie l'adresse de destination qui peut être une adresse individuelle ou une adresse de groupe ; - le paramètre length_data
indique la longueur des données LLC ;
- le paramètre m_sdu contient l'unité de données du service MAC, c'est-à-dire la trame LLC ; - le paramètre service_class indique la qualité de service demandée par la couche LLC ou un niveau supérieur. Il n'est pas utilisé dans la cas du protocole CSMA/CD qui ne fournit qu'une seule classe de service. La fonction retourne un compte-rendu sur le déroulement de la transmission dans transmit _status qui peut prendre deux valeurs, transmitOK pour signaler que la transmission s'est correctement déroulée et excessive jcollisionjerror pour signaler que la trame a subi un nombre excessif de collisions et que la transmission a été abandonnée.
3.3.2. La
primitive
MA _D AT
A.indication
Cette primitive indique à la couche LLC qu'une trame MAC vient d'arriver au niveau MAC. Elle n'est envoyée vers le niveau supérieur que si son format et son FCS sont corrects et qu'elle est réellement destinée à la station. Sa sémantique est : MA_DATA.indication (dest_address,source_address,m_sdu) : reception_status ; où : - destination_address définit l'adresse destination de la trame reçue, soit l'adresse individuelle de la station, soit celle d'un groupe de stations auquel elle appartient ; - le paramètre source_address
désigne la station émettrice de la trame reçue ;
- le paramètre m_sdu contient les données de la trame MAC reçue.
74
Architecture des réseaux haut débit
Le paramètre de retour Reception_status est utilisé pour communiquer au récepteur l'état de l'information après sa transmission. La valeur ReceiveOK permet d'indiquer que la trame ne comporte pas d'erreur et les données sont transmises au niveau LLC dans le paramètre m_sdu. LengthError signale que la valeur du champ longueur (Length) de la trame n'est pas cohérente avec la longueur des données réellement reçues. FrameCheckError indique qu'il n'y a pas égalité entre la valeur du champ FCS de la trame et le mot de contrôle calculé à la réception de la trame. Enfin, AlignmentError signale que la trame reçue est erronée : non seulement le champ de contrôle (FCS) n'est pas valide mais de plus, la longueur de la trame ne correspond pas à un nombre entier d'octets.
3.4.
La couche
physique
Le niveau physique est essentiellement divisé en trois parties (figure 3.1) : - la sous-couche PLS (Physical Layer Signalling) gère l'interface avec la couche MAC, permet de générer les signaux électriques pour les bits issus de la sous-couche MAC et inversement de coder les signaux physiques du support en signaux logiques pour la sous-couche MAC ; - 1'AUI (Attachment Unit Interface) n'est pas forcément physiquement présente et permet à la station d'être éloignée du support ; - la MAU (Medium Attachment Unit) réalise les principales fonctions du niveau physique et diffère selon le support de transmission utilisé. Cette configuration permet ainsi d'attribuer un minimum d'éléments électroniques au point d'accès au support physique et tous les aspects matériels et logiciels à la station (carte de contrôleur). Une station peut être alors distante du point d'accès au support. La transmission est le plus souvent en bande de base sur un câble coaxial (10BASE5, 10BASE2).
3.4.1. Sous-couche
PLS
La sous-couche PLS a pour tâche principale de transformer la suite de bits de la trame MAC en signaux électriques qui vont être véhiculés sur le support physique. En même temps, elle surveille le support et peut générer un signal de détection de collision.
Ethernet et Ethernet 100 Mbit 3.4.2. Interface
75
AUI
L'AUI définit l'interface entre la station proprement dite et la MAU. Elle consiste en un câble de 50 mètres au maximum avec un connecteur à chaque extrémité. Le câble comporte cinq paires symétriques blindées individuellement. Si la MAU se trouve physiquement sur la même carte que la fonction MAC, l'AUI n'est pas physiquement présente. L'AUI comporte deux circuits de données {Data_In et Data_Out) et deux circuits de contrôle pour commander la MAU {Control_Out) et pour donner l'état de la MAU (Control_In) ; un dernier circuit permet l'alimentation de la MAU. Le circuit Control_In - mau-available canal est libre ;
véhicule l'un de ces trois messages :
: la MAU est prête à envoyer une donnée sur le support et le
- mau-not-available sur le support ;
(optionnel) : la MAU n'est pas prête à envoyer une donnée
- signal-quality-error : il est envoyé en réponse à l'une de ces trois causes : un signal impropre, une collision ou l'achèvement d'un envoi de données pour confirmer que la signalisation de collision fonctionne correctement. Le circuit ControljOut - normal possibles ;
véhicule l'un de ces trois messages :
: met la MAU en mode normal, la transmission et la réception sont
- mau-request : demande à la MAU d'être disponible, la station souhaitant émettre des données ; - isolate : met la MAU en mode de surveillance, la MAU est isolée du support et la station peut ainsi observer le support en exécutant ses fonctions locales. Les signaux sont codés selon le procédé de codage Manchester. Le débit du câble est le même que celui du support physique utilisé, aucun tampon n'est alors nécessaire dans la MAU.
3.4.3. Fonctions
de
la
MAU
La MAU est un équipement destiné à relier une station à un support donné et à gérer toutes les fonctions dépendantes du support. Une station donnée peut alors être utilisée avec un autre support, en changeant uniquement de MAU. La MAU est une unité d'accès au support qui assure les fonctions suivantes : - transmission d'un signal sur le support, - réception d'un signal en provenance du support,
76
Architecture des réseaux haut débit
- reconnaissance de la présence d'un signal sur le support physique, - reconnaissance d'une collision, - interruption automatique d'une trame anormalement longue. Physiquement, c'est un "boîtier d'accès" rattaché au câble ou encore un circuit sur une carte en fond de panier directement connecté aux bus de la machine.
3.5.
Service
3.5.1. Les
PHY
primitives
de
service
Deux catégories de primitives sont présentes dans la couche physique : - deux primitives pour le transfert de données entre l'utilisateur MAC et le fournisseur de service PLS : • PLS_DATA.request (output_unit), • PLS_DATA.indication (input_unit) ; - deux primitives qui n'ont qu'une signification locale à l'interface MAC-PLS : • PLS_CARRIER.indication (carrier_status), • PLS_SIGNAL.indication (signal_status). Il est à noter qu'il n'y a pas de primitive de confirmation de transfert de données vers l'entité MAC émettrice. Les paramètres output_unit et input_unit représentent un seul élément binaire qui peut prendre l'une de ces valeurs : - ONE, ZERO : valeur binaire de la donnée, - DATA_COMPLETE : transmission terminée (seulement pour output_unit). Le paramètre carrier_status peut prendre les valeurs suivantes : - CARRIER_ON : signal de porteuse détecté par la MAU, - CARRIER_OFF : aucun signal de porteuse détecté par la MAU. Le paramètre signal_status peut prendre les valeurs suivantes : - SIGNAL_ERROR : la MAU a détecté une collision, - NO_SIGNAL_ERROR : la MAU n'a détecté aucune collision.
3.5.2. Génération
et
effets
La primitive PLS_DATA.request est générée par la sous-couche MAC lorsque celle-ci demande à transmettre un bit de données sur le support physique ou à arrêter la transmission. A la réception de cette primitive, l'entité de la sous-couche PLS encode et transmet un seul bit de données ou indique la fin de la transmission, selon le cas.
Ethernet et Ethernet 100 Mbit
77
La primitive PLS_DATA.indication est générée par la sous-couche PLS à destination de toutes les entités MAC du réseau après qu'une primitive de service PLS_DATA.request ait été reçue. La primitive PLS_CARRIER.indication rend compte de l'activité sur le support à la sous-couche MAC. Elle est générée par la sous-couche PLS à chaque changement de valeur du paramètre carrierjstatus. La primitive PLS_SIGNAL.indication indique l'état de la couche physique. Elle est générée par la sous-couche PLS dès qu'il y a un changement de la valeur du paramètre signal_status.
3.6. Les
supports
Ces dernières années ont vu la multiplication des supports CSMA/CD. La plupart des supports sont utilisés en respectant le protocole CSMA/CD tel qu'il est spécifié dans le standard 802.3. Cependant pour augmenter le débit j u s q u ' à 100 Mbit/s, de nouveaux protocoles d'accès ont été développés et qui sont appelés abusivement "Ethernet 100 Mbit". Nous détaillons d'abord le support de base de la spécification — le câble coaxial à 50 ohms ainsi que les répéteurs — et ensuite le support à base de paires torsadées. Nous récapitulons ensuite dans un tableau les principales caractéristiques des autres supports. Dans le paragraphe 3.7, nous présentons les propositions concurrentes pour un réseau Ethernet à 100 Mbit/s. Les différents supports adoptent une notation en trois parties : - débit du support en Mbit/s, - type de support, - longueur maximale d'un segment (unité = 100 m). Ainsi, le support noté 10BASE5 indique que le débit est de 10 Mbit/s, que le support est constitué de câble coaxial bande de base et qu'un segment de ce câble fait au maximum 500 m.
3.6.1. Supports
à base
de câble
coaxial
Trois spécifications à base de câble coaxial ont été définies : 10BASE5, 10BASE2 [IEEE 802.3a] et 10BROAD36. La spécification du support physique de type 10BASE5 (câble épais), basée sur Ethernet, fut la première spécification introduite dans le standard IEEE 802.3. Le support est donc le câble coaxial à 50 ohms blindé de bonne qualité (câble jaune de type RG11). Le support de type 10BASE2 utilise un câble coaxial fin et non blindé (câble noir RG 58), plus souple et plus simple à manipuler [IEEE 802.3a].
78
Architecture des réseaux haut débit
Le débit est de 10 Mbit/s, ce qui n'est pas sans conséquences sur les paramètres du protocole CSMA/CD (cf. 3.2.4). Chaque segment de câble est terminé par un terminateur d'impédance, communément appelé "bouchon", qui évite la réflexion du signal à son arrivée à l'extrémité du câble. Sur ce support, entre deux stations stations adjacentes stations connectées fin.
le codage des signaux se fait adjacentes est un multiple de ne sont pas en phase entre par segment est de 100 sur le
en bande de base. L'espacement 2,5 m, cela afin d'assurer que les elles. Le nombre maximum de câble blindé et de 30 sur le câble
La taille d'un segment est limitée à 500 mètres. Cependant, il est possible d'étendre la longueur du réseau en interconnectant plusieurs segments par l'intermédiaire de répéteurs (unités d'interconnexion permettant d'amplifier le signal), l'ensemble de ces interconnexions se comportant comme un support physique unique. Le standard limite à 4 le nombre de répéteurs sur un chemin de données entre 2 stations, ce qui a pour effet de limiter la longueur totale du réseau à 2,5 km. La spécification 10BROAD36 [IEEE 802.3b] concerne la transmission des services large bande (d'où son nom). Le câble utilisé est le câble CATV à 75 ohms. La transmission se fait par modulation de fréquence sur des segments de 3.6 km maximum.
3.6.2. Les
répéteurs
Nous nous intéressons ici aux répéteurs utilisés pour le réseau 10BASE5 qui est spécifié dans le standard [IEEE 802.3c]. Les répéteurs permettent d'étendre le réseau en juxtaposant deux brins (figure 3.8). Ils sont constitués de deux MAU, chaque MAU étant connectée à un segment différent. Le répéteur est transparent pour le réseau, c'est-à-dire qu'il n'y a pas de mémorisation et que les deux brins ne sont pas isolés l'un de l'autre. En conséquence : - les signaux numériques sont transmis dans les deux directions entre les deux segments ; - au passage, les signaux sont amplifiés et régénérés ; - si un répéteur détecte une collision sur un segment, il transmet des caractères de bourrage sur l'autre segment ; - si deux stations sur deux segments différents émettent en même temps, il y aura collision. Le débit maximum fournit par le réseau est de 10 Mbits/s. Un répéteur permet aussi de connecter des supports de types différents, par exemple : câble épais et câble fin ou câble coaxial et fibre optique. Cependant, les débits doivent être identiques puisqu'il n'y a aucune mémorisation dans un répéteur.
Ethernet et Ethernet 100 Mbit
79
répéteur
station câble terminateur transceiver
Figure 3 . 8 . Réseau
comportant
trois segments
de câble
Il est aussi possible de raccorder via une fibre optique deux segments de câble distants d'au plus 1 km (figure 3.9). La fibre est désignée par le terme de liaison inter-répéteur. Le répéteur contient deux MAU de types différents, d'un côté, la MAU pour câble coaxial et de l'autre, la FOMAU (Fiber Optic Medium Access Unit). Le débit sur la fibre optique sera de 10 Mbit/s.
réseau 10BASE5 ou 10BASE2
segment de fibre optique
répéteur
AUI
AUI FOMAU
Figure 3 . 9 . Raccordement
3.6.3. Supports
répéteur
à base
FOMAU
de deux câbles distants par une fibre
de paires
réseau 10BASE5 *" ou 10BASE2
optique
torsadées
L'utilisation du câble coaxial entraîne un coût non négligeable, de par le support lui-même et l'installation du câblage. L'utilisation de la paire torsadée remédie à ces inconvénients du fait de son coût et du pré-câblage téléphonique des immeubles. Deux spécifications ont vu le jour : 1BASE5 [IEEE 802.3e] et 10BASET (où T signifie Twisted Pair). Les stations sont raccordées en étoile à un équipement appelé hub qui joue le rôle de diffusion du bus passif. Le « hub » est un équipement de niveau physique comme le montre la figure 3.10. Il possède une multitude de ports, un port par connexion à une station. Son architecture comporte deux niveaux : le niveau MDI (Medium Dependent Interface) avec une entité par port d'accès et le niveau PLS pour la communication entre les ports.
80
Architecture des réseaux haut débit
HUB PLS MDI station
MDI hub
MDI station
supérieur
vers les stations
Figure 3.10. Architecture
vers un hub de niveau supérieur
simplifiée
d'un hub
Chaque station est connectée en point à point au hub grâce à deux paires torsadées, une pour chaque sens de transmission. La différence entre 1BASE5 et 10BASET vient du type de paires utilisées : 1BASE5 utilise des câbles UTP catégorie 3 (qualité téléphonique) alors que 10BASET utilise généralement des câbles UTP catégorie 5 (qualité données) et plus rarement des câbles UTP3 ou UTP4. L'utilisation de câbles STP n'est pas définie dans la spécification quoique certains produits les proposent. La longueur de ces paires est au maximum de 250 m pour 1BASE5 et de 100 m pour 10BASET (jusqu'à 150 m en fonction de l'atténuation du signal sur le support qui doit être au maximum de 11,5 dB). Le hub joue le rôle du bus passif : il retransmet les données qu'il reçoit d'une station vers toutes les autres stations. Par ailleurs, si au moins deux stations émettent simultanément vers le hub, il retransmet un signal de présence de collision à toutes les stations. Il est possible d'utiliser plus d'un hub dans un réseau de manière à former une hiérarchie de hubs (figure 3.11). Dans ce cas, un hub de niveau intermédiaire retransmet les données reçues d'une station vers le hub de niveau supérieur. Il retransmet les données reçues d'un hub supérieur à tous les hubs inférieurs et toutes les stations qui lui sont raccordées. Il est spécifié cinq niveaux de hubs au maximum pour satisfaire la contrainte de durée maximale sur le slot-time. Les hubs assurent également la fonction de répétition du signal. hub supérieur
hub intermédiaire
stations F i g u r e 3 . 1 1 . Réseau comportant
hub intermédiaire
stations une hiérarchie
de hubs
Ethernet et Ethernet 100 Mbit
3.6.4. Supports
à base
de fibre
81
optique
Trois types de supports à base de fibre optique ont été normalisés et sont regroupés sous l'appellation 10BASEF ; chaque type correspondant à une topologie différente [IS 8802-3-14]. La transmission de l'information se fait avec un débit de 10 Mbit/s en bande de base. La spécification 10BASEFP (P pour Passive Star) définit une topologie en étoile passive qui fusionne les fibres optiques s'y raccordant et permet l'éclatement du signal lumineux. Le cœur de l'étoile ne comporte aucun composant électronique et son temps de traversée est quasi nul. La distance transmetteur-étoile ne doit pas dépasser 500 m. Le support 10BASEFL (L pour Link) spécifie un type particulier de répéteurs, les répéteurs FOIRL (Fiber Optic Inter Repeater Link) qui permettent l'interconnexion de deux segments de câble ou de fibre optique à distance (figure 3.12). Cette liaison inter-répéteurs est de 1 km dans la première spécification et peut aller jusqu'à 2 km avec la nouvelle. Elle peut aussi servir à bâtir une topologie en étoile autour d'un répéteur multi-port.
réseau 10Base5
réseau 10Base5
fibre optique i répéteur \FOIRL
Figure 3.12. Interconnexion
répéteur FOIRL/
de deux câbles par une fibre
optique
Le support 10BASEFB (B pour Backbone) définit une topologie en étoile active permettant la mise en œuvre d'un réseau fédérateur. Il utilise des transmetteurs optiques FOMAU (Fiber Optic Medium Access Unit). La distance étoiletransmetteur peut aller jusqu'à 2 km.
82
Architecture des réseaux haut débit
3.6.5.
Récapitulatif
10BASET paires torsadées 10 Mbit/s 100 m
10BASEF fibre optique
3 600 m
5 hubs en cascade
—
0,5 m min
—
250 m max
—
100
30
—
—
—
Manchester
Manchester MAU intégrée sur carte contrôleur, compatible 10BASE5 bus
modulation pour les services large bande
Manchester
—
utilise un hub
utilise un hub
bus
étoile
étoile
normes support
10BASE5 coaxial 50
10BASE2 coaxial fin
10BROAD36 câble CATV
débit longueur segment
10 Mbit/s 500 m
10Mbit/s 185 m
10Mbit/s 1 800 m
taille réseau
2 500 m
925 m
interstations nb stations par segment codage remarque
2,5 m min
topologie
bus
Tableau 3.2. Récapitulatif
3.7. Ethernet
100
des différents
10 Mbit/s 1 km
supports
Mbit/s
Les nouveaux services multimédias sont gourmands en bande passante et le réseau local devient le goulot d'étranglement du système. Pour cette raison, tant les constructeurs que les utilisateurs ont la volonté de faire évoluer le réseau Ethernet vers les hauts débits, c'est-à-dire les 100 Mbit/s. Issues des travaux du comité 802.3, deux propositions d'évolution d'Ethernet s'affrontent et ont eu pour résultat la création de deux nouveaux comités : les comités 802.12 et 802.14. Ces deux propositions sont : - Fast Ethernet qui est l'évolution de la spécification 10BASET, définie par le comité 802.14 ; - lOOVGAnyLan utilise un nouveau protocole MAC, défini par le comité 802.12. Parallèlement à ces travaux, des approches totalement différentes mais toutes aussi opérationnelles voient le jour : - commutateur Ethernet, - Ethernet Isochrone.
Ethernet et Ethernet 100 Mbit 3.7.1. Fast
83
Ethernet
Cette proposition est soutenue par 3COM et a conduit à la création d'un nouveau groupe de travail à l'IEEE, le 802.14. La spécification est en cours de finition. Encore appelé 100BASET, Fast Ethernet est l'évolution naturelle de 10BASET. Le protocole reste identique à CSMA/CD et la topologie est en étoile. Fast Ethernet spécifie en fait trois supports différents : - 100BASETX utilise comme 10BASET des paires torsadées non blindées (UTP catégorie 5) mais sur des longueurs de câble réduites (100 m au maximum) pour permettre le débit de 100 Mbit/s. La couche physique est la même que celle de FDDI avec paires torsadées. - 100BASEFX utilise la fibre optique multimode sur des longueurs de plus de 200 m. La couche physique est la même que FDDI pour ce type de fibre. - 100BASET4 (anciennement 4T+) utilise des câbles comprenant 4 paires torsadées catégories 3, 4 ou 5. Trois paires sont utilisées pour les données et une paire pour détecter la collision. La longueur d'un tel câble ne devrait pas dépasser 100 m. Le codage utilisé est cette fois-ci, le codage 8B/6T qui code 8 bits dans 6 "trits" qui est un code à 3 états et permet une fréquence de transmission des symboles de seulement 25 MHz. Le point fort de ces propositions est de rendre possible la migration de 10BASET vers 100BASET en utilisant le même câblage mais avec cependant, de nouveaux composants d'accès. Le codage et le mode de transmission étant le même qu'en 10BASET. il est cependant possible de procéder à une migration progressive du réseau : équiper d'abord les serveurs en cartes 100 Mbit/s puis les stations de travail au fur et à mesure de leur renouvellement.
3.7.2.
lOOVGAnyLan
Cette proposition est supportée par Hewlett-Packard, IBM et A T & T Microelectronics. Elle est à l'étude au sein d'un nouveau groupe de travail, le groupe IEEE 802.12. Son nom « 100VG » provient de "Voice Grade" c'est-à-dire l'utilisation de paires torsadées de qualité téléphonique. Son objectif est, tout comme pour Fast Ethernet, d'augmenter le débit binaire des réseaux 10BASET sans devoir tout recâbler mais aussi d'améliorer l'accès au réseau. La compatibilité avec 10 BASET est assurée pour les points suivants : - topologie en étoile-arbre : hub et liens point à point, - hiérarchie d'au maximum 5 hubs,
84
Architecture des réseaux haut débit
- câblage identique (soit qualité données soit qualité téléphonique), spécifications de pose, de faisceaux et de connecteurs, - même format des trames Ethernet, - même fréquence de transmission (15-16 MHz). Les différences sont : - transmission et signalisation sur les 4 paires au lieu de 2 pour 10BASET, - signalisation Quartet pour la transmission sur les 4 paires à une fréquence faible (30 MHz), - codage plus efficace (5B/6B au lieu du codage Manchester), - un nouveau protocole d'accès au support, le protocole DPAM, - hub intelligent réglant les conflits d'accès grâce au protocole DPAM. Le protocole D P A M (Demand Priority Access Method) vise à améliorer l'utilisation du support qui est très faible avec CSMA/CD (moins de 50 % ) . Il appartient à la famille de protocoles de type polling [Watson 95]. Le partage d'accès au réseau est maintenant centralisé et concentré dans le hub. Une station qui désire transmettre une trame fait une requête vers le hub indiquant son niveau de service. Le niveau de service dépend du type de trafic : synchrone ou asynchrone. Si le réseau est libre, le hub acquitte la requête de la station et celle-ci peut envoyer sa trame vers le hub. Le hub retransmet directement cette trame vers la station destinataire avec une latence et un délai minimaux ; il n'y a pas diffusion. Si plus de deux requêtes arrivent simultanément au hub, il sert d'abord la requête de plus haute priorité. Si elles ont le même niveau de priorité, le hub sert ces requêtes à tour de rôle en allouant la bande passante de manière équitable. Ce protocole ne présente pas de dégradation de ses performances même lorsque la charge augmente. Simplement, le hub retransmet des trames en continu. La bande passante est donc garantie pour les applications de nature critique. Les supports préconisés sont de deux types : - le câble de 4 paires torsadées blindées (STP) avec une longueur maximale de segment limitée à 100 m, - la fibre optique multimode avec une longueur maximale de segment limitée à 1 km. Quoique utilisant un câblage identique à celui de 10BASET, la transmission sur les 4 paires ne permet pas de conserver les équipements de connexion aux paires.
Ethernet et Ethernet 100 Mbit
3.7.3. Ethernet
Full
85
Duplex
Ethernet Full Duplex est encore désigné sous les termes de "Switched Ethernet" ou de "commutateur Ethernet". Dans cette solution, le hub d'une étoile 10BASET est remplacé par un commutateur à très haut débit en vue d'améliorer l'utilisation des équipements par rapport à 10BASET. En effet, lorsqu'un nœud transmet une trame vers son hub de rattachement, ladite trame remonte la hiérarchie puis est rediffusée par le hub racine vers tous ses nœuds et tous les hubs inférieurs et ce, même si les deux nœuds sont connectés au même hub. Le commutateur évite ces transferts inutiles en agissant comme un pont multiport ; il ne retransmet une trame que sur son port de destination et effectue ainsi un routage de la trame. Il est toutefois beaucoup plus rapide qu'un pont car il utilise une technologie de commutation rapide permettant le décodage des adresses au vol sans avoir reçu l'intégralité de la trame puis sa propagation immédiate. Cette technique prend les noms de "retransmission rapide" (fast forward) ou de "routage au vol" (routing on the fly) et diffère donc de la commutation de paquets classique qui utilise le "stockage avant retransmission" (store-and-forward). L'apprentissage des adresses est comparable à celui d'un pont intelligent. Le commutateur améliore encore l'utilisation des équipements, d'une part, en évitant les collisions, chaque station étant connectée à un port différent et d'autre part, en permettant la commutation en parallèle de plusieurs communications. Cette dernière fonctionnalité est liée à l'architecture du commutateur (figure 3.13).
port 5
bulfer de sortie
buffer de sortie
interface Ethernet
interface Ethernet
buffer d'entrée
traitement lié à une interface
port 1
buffer d'entrée
butter de sortie i oiurrutUiiuiii
interface Ethernet
décodage adresse au vol apprentissage adresse source routage
port 2
buffer d'entrée
CPU buffer de sortie
port 4
interface Ethernet
buffer de sortie
table de routage adresse
port
interface Ethernet
buffer d'entrée
F i g u r e 3 . 1 3 . Architecture
buffer d'entrée
interne d'un commutateur
Ethernet
port i
86
Architecture des réseaux haut débit
Les paires torsadées raccordées au commutateur sont utilisées en full duplex (bidirectionnel simultané) avec le même débit d'accès dans chaque sens pouvant aller de 2 Mbit/s à 20 Mbit/s, voire 100 Mbit/s sur certaines implantations (figure 3.14). Par rapport à un pont, un commutateur Ethernet est moins cher mais il ne permet pour l'instant de connecter que des réseaux ou des équipements utilisant le même protocole d'accès. Tout comme les propositions d'Ethernet 100 Mbit/s, il permet de conserver le câblage 10BASET. Les performances varient d'un commutateur à l'autre et dépendent de sa puissance ; celle-ci est définie par sa rapidité de commutation et également par le nombre de communications qu'il peut traiter en parallèle. 16 ports commutés
station \— 10 Mbit/s
1 0
|
1 serveur J I
station
O-
e r v e u r 0 Mbit/s -
Mbit/s
serveur
2
Mbit/s | - 2 Mbit/s
D-
Figure 3 . 1 4 . Schéma
3.7.4. Ethernet
simplifié
d'un
commutateur
Ethernet
isochrone
Une autre proposition est actuellement à l'étude dans le groupe de travail IEEE 802.9. Elle est désignée sous le terme alléchant d"'Ethernet isochrone" bien que le protocole utilisé n'ait rien à voir avec celui d'Ethernet. En effet, le protocole d'accès est de type Slotted et se rapproche donc de celui de DQDB. La topologie est une étoile et le support physique serait compatible avec 10BASET. L'avantage de ce protocole est qu'il permet le transfert de données isochrones.
Ethernet et Ethernet 100 Mbit
87
Exercices Exercice
3.1
Soit un réseau local en bus de longueur D km. La vitesse de propagation du signal sur le support est de V km/s. La capacité de transfert du support est de C bit/s. Donnez la forme de L, longueur minimale d'une trame pour que le protocole CSMA/CD fonctionne. A. N. : C = 10 Mbit/s, D = 2,5 km, V = 100 000 km/s Exercice
3.2
Le protocole CSMA/CD spécifie une longueur minimale de trame de 512 bits. Quelle est la distance maximale d'un chemin de données entre 2 stations pour un réseau à 100 Mbit/s et une vitesse de propagation de 100 000 km/s ? Déduisez la longueur maximale d'un segment de paires torsadées sachant qu'un chemin de données est composé de 2 segments de paires torsadées. Exercice
3.3
Soit un réseau local en bus utilisant un protocole de type CSMA/CD et comportant 4 stations notées A, B, C et D. A l'instant t = 0, la station A commence à transmettre une trame dont le temps d'émission dure 6 slots. A t = 5, les stations B, C et D décident chacune de transmettre une trame de durée 6 slots. L'algorithme de reprise après collision est le suivant : PROCEDURE
backoff
(attempts VAR
{attempts
:
compteur
{maxbackoff CONST
slot_time
: =
VAR
delay
:
de
borne
sup.
51,2
;
=
10 ;
backoff_limit integer
;
:
INTEGER ;
maxbackoff
:
INTEGER)
t e n t a t i v e s de
IF
attempts
=
:=
{attente
avant
IF
attempts
<=
ELSE
2
delay wait END;
:=
backoff_limit :=
{maxbackoff int
(delay
(random *
tirage}
retransmission}
ELSE
THEN m a x b a c k o f f
de
{micro-secondes}
1
maxbackoff
; transmission
l ' i n t e r v a l l e
BEGIN
THEN
de
maxbackoff = *
2
1
0
maxbackoff)
slot_time)
*
2
} ;
;
;
}
88
Architecture des réseaux haut débit
r a n d o m est une fonction qui tire de manière aléatoire un nombre réel dans [0,1 [. i n t est une fonction qui rend la partie entière par défaut d'un réel. Dans l'exercice, on considérera que la fonction r a n d o m rend respectivement et successivement les valeurs données par le tableau suivant : stations 1
B
C
D
1/4
1/2
3/4
e
3/5
1/4
1/4
e
1/3
1/2
1/8
er
tirage
2 tirage 3 tirage
1. Dessinez un diagramme des temps gradué en slots décrivant le déroulement des différentes transmissions de trames, en adoptant la légende suivante : A
x
slot occupé par A
slot :
slol occupé par une collision slol inoccupé
0
1
2
A
A
A
A
A
A
2. Calculez sur la période allant de t = 0 à la fin de la transmission de la dernière trame le taux d'utilisation du canal pour la transmission effective de trames. Exercice
3.4
1. Deux stations entrent en collision. Pour A, il s'agit d'une première collision, alors que pour B, il s'agit de la seconde collision. Quelle est la probabilité qu'il y ait une nouvelle collision ? 2. En vous basant sur l'algorithme de Backoff, calculez le temps moyen D d'attente cumulé pour l'accès au support pour une station lorsqu'elle a subi n collisions successives pour une trame donnée. n
Exercice
3.5
On considère un réseau métropolitain sur fibre optique de débit 100 Mbit/s et qui couvre une distance de 100 km. Avec ces paramètres, quelles seraient les valeurs des principaux paramètres du protocole CSMA/CD : temps de propagation, taille minimale d'une trame, durée du slot-time ? Avec ces valeurs, montrez pourquoi le protocole CSMA/CD n'a pas été retenu comme protocole de réseau métropolitain. Exercice
3.6
Un réseau Ethernet à 10 Mbit/s vous paraît-il apte à transférer : - des images numérisées fixes (une photo satellite, par exemple), - des images animées (un film, par exemple) ? Justifiez votre réponse.
Chapitre 4
Accès à jeton : Token Ring et Token Bus
4.1.
Introduction
Contrairement aux méthodes d'accès aléatoire, les méthodes d'accès à base de jeton évitent toute contention d'accès au support en garantissant qu'une seule station à la fois peut émettre sur le support. Deux protocoles normalisés par l'IEEE utilisent cette technique de partage du support et diffèrent par la topologie du réseau : Token Ring (anneau à jeton) et Token Bus (bus à jeton). Dans ces deux approches, le droit à émettre est matérialisé par une trame particulière appelée jeton (token) qui est transmise de station en station, garantissant ainsi un accès équitable au support. La distribution d'un droit à émettre est héritée de la méthode de polling (cf. chapitre 2) mais contrairement à celle-ci, le passage du droit à émettre est ici complètement décentralisé. La solution Token Ring a été initialement commercialisée par la compagnie IBM, avec un plan de câblage original [Bux 83]. Le protocole a d'abord été spécifié dans le standard IEEE 802.5, puis repris tel quel dans la norme internationale IS 8802-5. Il s'agit d'un protocole d'accès sur un anneau unidirectionnel. Il utilise complètement les propriétés de la topologie physique du réseau : sachant que le jeton est une trame unique qui circule sur le réseau tant qu'aucune station ne s'en est saisie, l'équité est garantie par la structure d'anneau unidirectionnel qui implique le passage du jeton à tour de rôle au niveau de chaque station. La technique Token Bus a été mise en place dans des produits pour pallier l'indéterminisme d'Ethernet. Elle utilise le concept d'anneau logique pour la circulation du jeton entre les stations. Ses spécifications sont données dans le
90
Architecture des réseaux haut débit
standard IEEE 802.4 et la norme internationale IS 8802-4. Il faut également noter que cette technique a été retenue pour la couche MAC dans le profil d'architecture MAP (Manufacturing Automation Protocol). Le protocole Token Bus, bien que reposant sur le même principe d'accès que le Token Ring, utilise une topologie plus générale, le bus bidirectionnel. Pour conserver la propriété d'équité du protocole, l'accès au jeton par les stations est toujours fait à tour de rôle, au moyen d'un anneau logique. Les deux protocoles n'ont pas connu le même succès commercial. Token Bus a été retenu dans le profil d'architecture défini par le groupement MAP [Minet 89] mais n'est à ce jour mis en œuvre que dans un seul produit. De son côté, Token Ring est le réseau local le plus répandu après Ethernet, avec de nombreux produits disponibles sur le marché — IBM et non-IBM.
4.2.
Token
4.2.1. Principe
Ring de
l'accès
à
jeton
Un anneau à jeton consiste en un ensemble de stations connectées en série par un support de transmission (figure 4.1). L'information est transférée séquentiellement, bit à bit, d'une station active à la suivante et toujours dans le même sens. Une station peut être active et donc connectée à l'anneau (les stations A, C, D, E, F, G et H de la figure 4.1) ou inactive (station B) et ne participant pas aux échanges ; on dit que la station est dans l'état by-pass.
Figure 4.1. Configuration
physique
de
l'anneau
Une trame particulière, appelée jeton, circule en permanence sur l'anneau. Le jeton représente le droit à émettre. Pour émettre, la station doit obtenir le jeton ; en d'autres termes, le jeton doit passer au niveau de son répéteur pour que la station s'en saisisse. Une seule station possède le jeton à un instant donné, évitant ainsi tout risque de collision (figure 4.2). La station détentrice du jeton émet alors une ou plusieurs trames et ce, pendant un temps limité. La trame émise circule le long de l'anneau, allant de station en station. Chaque station qui en est destinataire la recopie et positionne au vol un ou plusieurs bits de son suffixe pour indiquer sa bonne ou sa mauvaise réception.
Accès à jeton : Token Ring et Token Bus
91
T : jeton Fi : trame i
les stations sont dans l'état Idle (repos) ; seul le jeton circule sur l'anneau
3/ la station A finit sa transmission
la station A souhaite émettre : elle retire le jeton de l'anneau et commence à émettre sa trame Fl
4/ la station C recopie au vol la trame Fl qui lui est adressée
6/ la station A remet le jeton sur l'anneau
F i g u r e 4 . 2 . Accès à l'anneau à jeton
Lorsque la trame revient à la station qui l'avait émise, cette dernière la retire de l'anneau (son répéteur ne la répète pas) et rend le jeton. Le jeton circule alors sur l'anneau jusqu'à ce qu'il soit de nouveau capturé par une station désirant émettre.
4.2.2. Structure
du
standard
802.5
Le standard 802.5 spécifie non seulement les couches MAC (Medium Access Control) et physique mais aussi une couche transversale aux deux premières qui concerne la gestion de la station et de l'anneau, réalisée par le protocole SMT (Station ManagemenT) (figure 4.3).
92
Architecture des réseaux haut débit
LLC Logical Link Control VJ
liaison
2
MAC
H
Medium Access Contre
PHY
Station 4anagemenT
Physical
physique
support
F i g u r e 4 . 3 . Architecture
4.2.3. Le
protocole
4.2.3.1. Les trames
MAC
Token Ring
802.5
MAC
Deux formats de trame différents sont utilisés par le protocole : le jeton et la trame. Le format du jeton est défini en figure 4.4. Chaque champ ne comporte qu'un seul octet. Cette trame représente le droit à transmettre sur l'anneau. Les champs du jeton ont la même signification que pour la trame mais ne sont pas positionnés de la même façon. SD
AC
SD - Starting Delimiter AC - Access Control ED - Ending Delimiter
ED
F i g u r e 4 . 4 . Format du jeton
Le format de la trame est défini dans la figure 4.5. Une trame peut transmettre des données ou des informations de contrôle de l'anneau. Par rapport aux standards 802.3 et 802.4, on remarque d'abord l'absence du champ "Préambule", rendu inutile par le fait que toutes les stations sont actives, donc synchronisées en permanence. -SFS SE
EFS-
-couverture du FCS— AC
FC
DA
SFS - Start of Frame Sequence FCS - Frame Check Sequence EFS - End of Frame Sequence S D - Starting Delimiter
SA
RI AC FC DA SA
FCS
INFO
- Access Control - Frame Control - Destination Address - Source Address
ED
RI - Routing Information INFO - Information ED - Ending Delimiter FS - Frame Status
F i g u r e 4 . 5 . Format d'une trame
FS
Accès à jeton : Token Ring et Token Bus
93
Les champs constituant la trame sont les suivants : - SD (Starting Delimiter), champ codé sur 1 octet, sert à délimiter le début d'une trame ou d'un jeton. Il a un format de type "JK0JK000", où J et K sont des symboles non binaires (ni 0, ni 1) ne pouvant apparaître ainsi dans le champ de données de la trame ; - l'octet AC (Access Control) permet l'accès au support car il contient le Token Bit qui est le discriminant entre les deux types de trame (positionné à 0 dans un jeton et à 1 dans toutes les autres trames) (figure 4.6). AC permet d'autre part de mettre en place la surveillance du retrait des trames grâce au bit M (monitor bit). Les bits P de priorité indiquent la priorité du jeton courant. Les bits R de réservation permettent à une station de plus grande priorité d'augmenter la priorité du prochain jeton (cf. 4.2.3.6) ;
P P P TM R RR
PPP - priority bits T - token bit M - monitor bit RRR - reservation bits
Figure 4.6. Le champ AC
- FC (Frame Control) décrit le type de trame et ses particularités. Les deux premiers bits, FF, définissent le type de trame (tableau 4.1). Les six bits suivants permettent de différencier les différents types de trame MAC (tableau 4.2). Dans une trame de données (trame LLC), on peut indiquer la priorité de la transmission dans les trois derniers bits du champ FC (ce qui donne un codage du type "01000PPP") ; FF
type de trame
1x
non défini
01
trame LLC
00
trame MAC
Tableau 4.1. Les bits FF du champ FC
champ FC
type de trame MAC
00000000
Test Address Double
00000001
Express Buffer
00000010
Beacon
00000011
Claim Token
00000100
Ring Purge
00000101
Active Monitor Present (AMP)
00000110
Standby Monitor Present (SMP)
Tableau 4.2. Le champ FC
94
Architecture des réseaux haut débit
- les adresses de destination (DA — Destination Address) et de source (SA — Source Address) sont des champs de 2 ou 6 octets. Elles ont la même signification que pour les autres types de réseaux locaux normalisés (figure 4.7). Le bit I/G donne le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1 ). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale ( U / L = 1). 1 bit
1 bit
46 bits
adresse de la station
I/G U/L
adresse sur 48 bits 1 bii
I/G
15 bits
adresse de la station adresse sur 16 bits
Figure 4.7. Structure
des champs
d'adresse
Pour identifier facilement des fonctions d'administration, il est défini des adresses fonctionnelles telles que '01' (en hexadécimal) pour le moniteur actif, '02' pour le serveur de paramètre de l'anneau, '08' pour le moniteur d'erreur de l'anneau ou encore '10' pour le serveur de rapport de configuration ; - le champ d'information de routage (RI — Routing Information) n'était pas présent dans les spécifications initiales de 1985. Il permet le routage de la trame par la station source, notamment lorsque la trame est appelée à traverser une succession de ponts. La longueur de l'information de routage étant variable (mais néanmoins comprise entre 2 et 30 octets), cinq des bits du premier octet permettent de la représenter (figure 4.8) ; 8 bits
de 2 à 30 octets
000 longueur
Routing Information
Figure 4.8. Format du champ RI
- le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets. Bien qu'aucune taille maximale ne soit définie, le temps de transmission d'une trame ne doit pas dépasser le temps maximum de détention du jeton de la station. La sémantique de ce champ est déterminée grâce au champ FC : les trames de données contiennent une trame LLC tandis que pour les trames MAC, le format de ce champ dépend du type précis de la trame ; - le champ de vérification (FCS — Frame Control Check), codé sur 4 octets, permet de vérifier l'intégrité de transmission de la trame ;
Accès à jeton : Token Ring et Token Bus
95
- le délimiteur de fin (ED — Ending Delimiter) est une séquence particulière, tout comme le délimiteur de début de trame, qui contient des symboles non binaires (J et K) (figure 4.9). De plus, le bit I positionné à 1 indique qu'il s'agit d'une trame intermédiaire dans une transmission multiple ; il est à 0 dans une trame unique ou sur la dernière trame d'une transmission multiple. Le bit E est transmis initialement à 0, il est positionné à 1 par la première station qui détecte une erreur lors du passage de la trame et n'est plus modifié par les autres stations ; I T fC M J
'
1 — 1 — I J, K - symboles non binaires If I i p 1-élément binaire 1 I - bit de trame intermédiaire E - bit d'erreur détectée
Figure 4.9. Le champ ED
- le status de la trame (FS — Frame Status) rend compte des conditions de réception de la trame. Deux indicateurs sont définis, A (adresse du destinataire reconnue) et C (trame copiée par le destinataire). Ces indicateurs sont répétés afin de sécuriser leur transmission. A C r r A C r r
A - bit d'adresse reconnue C - bit de trame copiée r - réservé
Figure 4.10. Le champ FS Une trame de moins de trois octets est invalide. 4.2.3.2. Transmission
d'une trame de
données
Le jeton circule de station en station et représente le droit à émettre. Une station qui ne désire pas émettre se contente de répéter les bits entrants en aval de l'anneau. Pour se saisir du jeton, la station arrête de répéter le signal entrant : elle modifie le Token Bit du champ AC et transmet ensuite les champs nécessaires à une trame : FC, adresses, données, FCS, etc. Pour pouvoir être pris, le jeton doit avoir un niveau de priorité inférieur ou égal à celui de la transmission en cours. Un temporisateur THT (Timer Holding Token) contrôle le temps maximum de détention du jeton par une station. 4.2.3.3. Remise du jeton et retrait de la trame
Après avoir transmis ses trames de données, la station attend l'en-tête de sa première trame ; elle vérifie que le champ SA (Source Address) est égal à sa propre adresse (My_Address) et retransmet le jeton dès qu'elle a fini de transmettre. Après avoir remis le jeton, la station continue à retirer de l'anneau toutes les trames qu'elle y avait émises.
96
Architecture des réseaux haut débit
4.2.3.4. Automate
de
transmission
Le standard spécifie les différentes fonctions MAC sous forme de trois automates d'états finis : - automate de fonctionnement (operational machine), - automate du moniteur en veille (standby monitor machine), - automate du moniteur actif (active monitor machine). Nous donnons ici une version simplifiée (sans le mécanisme de priorités) de la machine opérationnelle (figure 4.11). Elle correspond à la partie "transmission" d'une station et inclut donc les deux points décrits précédemment. Deux temporisateurs sont utilisés. Le premier, TRR (Timer Return to Repeat), définit le temps maximum de propagation sur l'anneau ; le second, THT (Timer Holding Token) définit le temps maximum de possession du jeton par la station. bits r
0 Répétition
erreur
fin ou expiration de TRR
données et jeton
Transmission _ de trames y
expiration de TRR
Retrait de trames
fin
Attente de retour ^V^d£jrames^-^ Figure 4.11. Automate
de
" O K /
transmission
La machine d'états est initialement dans l'état 0 (Répétition). Dans cet état, la station n ' a pas de trame à transmettre et se contente de répéter les bits entrants. Sur réception d'une requête de transmission de données ou d'une trame SMT, elle cherche à détecter le jeton. Dès réception du jeton, elle arme le temporisateur THT et passe dans l'état 1. Dans l'état 1 (Transmission de trames), la station émet toutes les trames de priorité supérieure ou égale à celle du jeton jusqu'à ce qu'il n'y ait plus de PDU à transmettre ou que le temporisateur THT ait expiré. La station émet ensuite une séquence de fin de trame (champs ED et FS) avec un bit I à 0 pour indiquer qu'il s'agit de la dernière trame, arme le temporisateur TRR et passe dans l'état 2. Après avoir détecté le jeton (Token Bit = 0), la station peut détecter des situations d'erreurs, telles que l'absence du champ ED pour le jeton ou la réception d'une trame de réinitialisation du réseau. La détection d'une anomalie provoque le retour à l'état 0. Dans l'état 2 (Attente de retour de trames), la station attend le retour de sa propre trame. Sur réception d'un champ SA (Source Address) contenant sa propre adresse, la
Accès à jeton : Token Ring et Token Bus
97
station réémet le jeton sur l'anneau et passe à l'état 3. Si le temporisateur TRR expire sans qu'elle n'ait reçu de trame portant son adresse, le compteur de trames perdues est incrémenté et la station retourne à l'état 0. Dans l'état 3 (Retrait de trames) : la station retire les trames émises jusqu'à réception de sa dernière trame (bit I positionné à 0) et retourne à l'état 0. Si elle ne reçoit pas la dernière trame, elle s'arrête lorsque TRR expire et retourne à l'état 0. 4.2.3.5.
Réception
Chaque station, tout en répétant les bits entrants, vérifie si la trame répétée lui est destinée, auquel cas, elle copie les bits en même temps qu'elle les répète. Deux types de trames peuvent lui être destinés, des trames de contrôle de l'anneau en provenance de la station moniteur ou des trames de données dont l'adresse de destination correspond à celle de la station. La station vérifie également si la trame répétée a subi des erreurs de transmission ; dans ce cas, elle positionne au vol le bit E du champ ED de la trame à 1 afin de signaler une erreur détectée. De plus, la station destinataire d'une trame positionne dans le champ FS de la trame les bits A et C à 1, indiquant ce faisant qu'elle a reconnu son adresse et qu'elle a pu copier la trame. 4.2.3.6. Niveaux de priorité IEEE 802.5 permet huit niveaux de priorité différents. Le mécanisme de priorités intervient entre les stations, certaines stations étant plus prioritaires que d'autres ; il permet, par exemple, à un pont d'écouler plus de trafic qu'une station ordinaire. A l'intérieur d'un niveau de priorité donné, l'accès au jeton est équitable entre les stations. La priorité d'un transfert est définie dans un des paramètres de la primitive de demande de transfert de données MA_DATA.request. Une station ne peut se saisir du jeton que si la priorité de ses PDU prêtes à être transmises est supérieure ou égale à celle du jeton. Chaque station gère un certain nombre de variables : - Pm : priorité du message (PDU) qui doit être transmis par la station, - Pr et Rr : registres qui contiennent respectivement la valeur des bits de priorités (PPP) et celle des bits de réservation (RRR) du champ AC de la dernière trame reçue, - Sr et Sx : piles utilisées pour stocker respectivement l'ancienne et la nouvelle valeur de priorité d'un jeton, - R : niveau de réservation transmis par une trame. Une station qui désire augmenter la priorité d'un jeton commence par réserver la priorité du prochain jeton lors du passage d'une trame. Tout en répétant les bits de la trame, la station va alors positionner les bits de réservation (RRR stockés dans Pr) avec sa propre priorité (Pm) dans le champ AC. Si celle-ci est plus grande (Rr < Pm), alors la station sauvegarde Pm dans R, sinon R reste inchangé. Si c'est
98
Architecture des réseaux haut débit
un jeton qui passe, la station peut modifier le champ de réservation du jeton uniquement si Rr < Pm < Pr. Quand la station capture le jeton (Pm > Pr), elle transmet toutes ses PDU de niveau de priorité supérieur ou égal à celui du jeton capturé (jusqu'à épuisement des PDU ou expiration de THT). Ensuite, la station remet le jeton avec la même priorité et une valeur de réservation égale au maximum de (Rr, Pm). Une station qui augmente le niveau de priorité du jeton a la responsabilité de restituer cette priorité au niveau précédent. Pour cela, elle gère deux piles Sx et Sr qui lui permettent de restituer cette priorité le moment venu. Un exemple de ce mécanisme de priorités est traité dans l'exercice 4.2. 4.2.3.7. Les temporisateurs
et les
drapeaux
Chaque station gère un certain nombre de temporisateurs dont les valeurs sont établies par défaut ou suite à un accord mutuel entre les utilisateurs du réseau local : - TRR (Timer Return to Repeat) sert à s'assurer que la station peut retourner à l'état de répétition (Repeat). Il est supérieur au temps de latence maximal de l'anneau, soit le délai de propagation d'un signal autour d'un anneau de longueur maximale augmenté des temps de latence de chaque station (par défaut, TRR = 4 ms) ; - THT (Timer Holding Token) sert à contrôler la période maximale pendant laquelle la station peut transmettre des trames après avoir pris le jeton. La transmission d'une trame ne peut commencer que si la station est "sûre" qu'elle peut être terminée avant l'expiration du THT (par défaut, THT = 8,9 ms) ; - TQP (Timer Queue PDU) détermine le délai avant envoi d'une trame SMP après réception d'une trame AMP ou SMP (par défaut, TQP = 20 ms) ; - TVX (Timer Valid Transmission) est utilisé par le moniteur actif pour détecter l'absence de transmission valide (par défaut, TVX = 10 ms) ; - TNT (Timer No Token) est utilisé pour détecter la perte du jeton (par défaut, TNT = 2,6 s) ;
- TAM (Timer Active Monitor) est utilisé par le moniteur actif pour déterminer la période d'envoi d'une trame AMP (par défaut, TAM = 7 s) ; - TSM (Timer Standby Monitor) est utilisé par les moniteurs en veille pour vérifier qu'il y a bien un moniteur actif sur l'anneau et pour détecter si un jeton circule en continu (par défaut, TSM = 15 s) ; - TER (Timer Error Report) sert à reporter les valeurs des compteurs d'erreurs dans des trames Report Error transmises au serveur d'erreurs (par défaut, TER = 2 s) ;
Accès à jeton : Token Ring et Token Bus
99
- TBT (Timer Beacon Transmit) définit le temps pendant lequel une station émet des trames Beacon avant de passer à l'état by-pass (par défaut, TBT= 16 s) ; - TBR (Timer Beacon Receive) définit le temps pendant lequel une station peut recevoir des trames Beacon de son voisin en aval avant de passer à l'état by-pass (par défaut, TBR = 160 ms). Les drapeaux sont utilisés pour mémoriser un événement particulier : - I-FLAG est positionné sur réception d'un champ ED avec le bit I mis à 0 ; - SFS-FLAG
est positionné sur réception d'une séquence SFS ;
- MA-FLAG est positionné sur réception d'un champ Source Address (SA) égal à l'adresse de la station ; - SMP-FLAG est positionné par les moniteurs en veille sur réception d'une trame SMP ou AMP avec les bits A et C à 0 ; - NN-FLAG est positionné par le moniteur actif sur réception d'une trame SMP ou AMP avec les bits A et C à 0 signifiant que le processus de notification est complet ; - BR-FLAG est positionné sur réception d'une trame Beacon et remis à zéro dès réception de toute autre trame.
4.2.4. Protocole
SMT
et gestion
des
fautes
La gestion est centralisée dans une station appelée moniteur actif (Active Monitor). Les autres stations sont en veille (Standby Monitor), capables de détecter à tout moment une défaillance du moniteur actif et de prendre la relève du contrôle. Le moniteur actif est la station qui a gagné le processus d'appel du jeton (Claiming Token) lors de l'initialisation de l'anneau. Pendant cette phase, chaque station arme son temporisateur TVX. S'il arrive à expiration, elle arme alors le temporisateur TNT. S'il expire aussi, elle peut transmettre une trame de contrôle de recherche de jeton (trame Claim Token). Si cette trame effectue une rotation de l'anneau sans que la station ait reçu de trames similaires en provenance d'autres stations (pour le vérifier, elle examine l'adresse source des trames MAC qu'elle reçoit et la compare à sa propre adresse), elle devient alors le moniteur actif et génère un nouveau jeton. Les autres stations deviennent moniteurs en veille et sont à l'écoute. Le moniteur actif reprend les erreurs portant sur le jeton et sur ce qui circule sur l'anneau. Pour cela, il positionne le bit M (Monitor) à 1 sur toutes les trames qu'il voit passer et réarme le temporisateur TVX à chaque nouveau passage de trame ou de jeton. L'absence de jeton est détectée par l'expiration de TVX ; le compteur d'erreurs est alors incrémenté et une purge de l'anneau est effectuée. Les trames non valides (moins de 3 octets) ou orphelines (trames dont le bit M est déjà positionné à 1) sont
1 00
Architecture des réseaux haut débit
retirées de l'anneau et donnent également lieu à une purge pendant TRR. Un jeton circulant de façon persistante avec une certaine priorité est retiré de l'anneau et remplacé par un jeton de priorité la plus faible. Les moniteurs en veille ont un rôle plus limité. A l'initialisation de l'anneau, chacun s'assure que son adresse de station est unique et qu'elle est connue de son voisin, chaque moniteur notant l'adresse de son voisin direct en amont. A l'état de veille, les moniteurs vérifient qu'il y a toujours un moniteur actif et signalent leur présence à leurs voisins grâce à un protocole coopératif appelé procédure de notification à ses voisins (Neighbor Notification). Cette procédure permet de vérifier la connexité de l'anneau. Elle se déroule de la façon suivante : - le moniteur actif commence par diffuser une trame AMP (Active Present)
Monitor
;
• la station immédiatement en aval effectue les opérations suivantes : • armement de TSM, • copie de la trame AMP et stockage de l'adresse de cette station (voisin en amont), • positionnement à 1 des bits A et C de la trame AMP, • armement du temporisateur TQP, • à expiration de TQP, transmission de sa trame SMP (Standby Monitor Present)
;
- la station voisine effectue le même travail sur réception de la trame SMP et ainsi de suite. Si son temporisateur TSM expire, un moniteur en veille commence à transmettre une trame Claim Token pour reprendre le rôle du moniteur actif. Si TNT expire ensuite, la station transmet une trame Beacon qui a pour objet de signaler une panne grave conduisant à une réinitalisation de l'anneau.
4.2.5. Services
MAC
802.5
Les services MAC spécifient deux interfaces différentes, la première étant celle avec LLC et la seconde avec celle de l'entité de gestion SMT. 4.2.5.1. Service
MAC pour
la sous-couche
LLC
L'interface MAC/LLC est définie au moyen de trois primitives de service, MA_DATA.request, MA_DATA.indication et MA_DATA.confirmation. Elle est spécifiée dans la norme IS 10039. La primitive MA_DATA.request permet de demander un transfert de trame LLC à l'entité sous-jacente MAC. Elle possède les paramètres suivants :
Accès à jeton : Token Ring et Token Bus - contrôle_de_trame
101
: il donne la valeur de l'octet FC à utiliser pour la trame
MAC ; - adresse_destination - m_sdu
: elle peut être individuelle ou de groupe ;
: c'est la trame LLC à émettre ;
- classe_de_ser\ice_demandée le transfert.
: il s'agit du niveau de priorité Pm à utiliser pour
MA_DATA.indication indique qu'une trame de format valide et à destination de la station a été reçue par la sous-couche M A C . Elle comporte les paramètres suivants : - contrôle_de_trame
: il donne la valeur de l'octet FC de la trame reçue ;
- adresse_destination - adresse_source - m_sdu
: elle peut être individuelle ou de groupe ; : elle identifie l'émetteur de la trame ;
: c'est la trame LLC reçue et délivrée ;
- état_de_réception : il indique le succès ou l'échec de la réception, le compte rendu portant sur l'état de la trame reçue (FR_GOOD ou FR_WITH_ERROR (la raison de cette erreur est signalée)), la valeur du bit E (zéro, un ou invalide), les valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou invalide) ; - classe _de ^service Journie transfert.
: c'est le niveau de priorité qui a été utilisé pour le
MA_DATA_confirmation n'a qu'une signification locale. Elle constitue pour l'entité LLC émettrice une réponse à la primitive MA_DATA_request, indiquant le succès ou l'échec de la transmission (mais pas de la réception). Ses paramètres sont : - état_de_transmission : il indique le succès ou l'échec de la transmission après le retour de la trame à l'émetteur, avec l'état de la trame (FR_GOOD ou FR_WITH_ERROR (la raison de cette erreur est signalée)), la valeur du bit E (zéro, un ou invalide) et les valeurs des bits A et C (zéro_zéro, un_zéro, un_un ou invalide) ; - classe_de_servicefournie pour le transfert. 4.2.5.2. Service
MAC pour
: c'est le niveau de priorité Pm effectivement utilisé
l'entité
SMT
L'interface entre la sous-couche MAC et l'entité SMT est purement locale à la station. Elle est utilisée par le moniteur pour contrôler les opérations de la souscouche MAC d'une ou de plusieurs stations. Les primitives de ce service sont les suivantes : -MA_INITIALIZE_PROTOCOL.request, - MA_INITIALIZE_PROTOCOL.confirmation,
1 02
Architecture des réseaux haut débit
-
MA_CONTROL.request, MA_STATUS.indication, MA_NMT_DATA.request, MA_NMT_DATA.indication, MA_NMT_DATA.confirmation.
M A J N I T I A L I Z E _ P R O T O C O L . r e q u e s t est utilisée par l'entité SMT pour initialiser ou modifier les paramètres opérationnels de la sous-couche MAC chaque fois qu'il y a réinitialisation de celle-ci. Les paramètres fournissent une adresse de station (individuelle, de groupe ou de diffusion) et une ou plusieurs valeurs de paramètres MAC (temporisateurs, priorité de la trame AMP, etc.). La réception de cette primitive oblige la sous-couche MAC de la station réceptrice à modifier les valeurs de ses paramètres. MA_INITIALIZE_PROTOCOL.confirmation est utilisée par la sous-couche MAC pour informer le SMT que la requête précédente est acceptée. Son paramètre status rend compte du succès ou de l'échec de la requête. MA_CONTROL.request est utilisée par le SMT pour contrôler les opérations de la sous-couche MAC définies dans le paramètre action_de_contrôle. MA_STATUS.indication est utilisée par la sous-couche MAC pour informer le SMT des erreurs et des changements d'états survenus. Son paramètre rapport_état peut prendre l'une des valeurs suivantes : - FRAME_CONDITION, - TX_CLAIM_TOKEN_STATE, - TX_BEACON_STATE, - RECEIVE_FRAME_BEACON, - ENTER_ACTIVE_STATE, - ENTER_STANDBY_STATE, - DUPLICATE_AND_DETECTED. Cette primitive est invoquée par la sous-couche MAC à la suite d'opérations des moniteurs en veille, du moniteur actif ou de la machine opérationnelle. MA_NMT_DATA.request, MA_NMT_DATA.indication, MA_DATA. confirmation ont les mêmes rôles respectivement que les primitives MA_DATA.request, MA_DATA.indication et MA_DATA.confirmation de l'interface LLC/MAC, si ce n'est qu'elles portent, non pas sur des trames LLC, mais sur des trames de contrôle MAC. Elles permettent donc l'envoi, la réception et la confirmation d'envoi de trames de contrôle MAC.
Accès à jeton : Token Ring et Token Bus 103
4.2.6. La
couche
4.2.6.1. Composants
physique de la couche
physique
-^-liaison-^
La couche physique est divisée en plusieurs fonctions (figure 4.12).
LLC Logical Link Control MAC Medium Access Control
physique
PHY Physical Medium Interface Cable
PHY/MIC Cable MIC
Medium Interface Connector MIC/TCU Cable
TCU Trunk Coupling Unit Figure 4.12. Structure de la couche
Trunk Cable
physique
La sous-couche PHY (physical) est responsable de l'interface avec la couche MAC. Le support (Trunk Cable) permet de transférer un signal en bande de base codé selon le procédé Manchester. La TCU (Trunk Coupling Unit) relie la station via un connecteur (Medium Interface Connector) au support qui peut être physiquement éloigné ou non de la station. 4.2.6.2. Rôle de la TCU La connexion effective de la station au support est assurée par la TCU que l'on appelle quelquefois répéteur, sa fonction essentielle consistant à répéter les bits entrants. En tant que point d'attache à l'anneau, la TCU assure l'insertion de données, la réception de données, la destruction de données et l'amplification des signaux. La figure 4.13 présente ses trois principaux états. Dans l'état By-Pass, la station est inactive et la TCU répète les bits entrants de l'amont vers l'aval. Dans l'état Listen, la station est active et la TCU copie chaque bit entrant vers la station tout en retransmettant vers l'aval. Dans cet état, on peut modifier un bit au vol. Enfin, dans l'état Transmission, la station transmet une trame et peut recevoir des bits depuis l'amont de l'anneau ; lorsque ces derniers appartiennent à une autre transmission, la station les stocke, le temps de sa transmission, avant de les retransmettre.
1 04
Architecture des réseaux haut débit
état By-Pass vers la station
anneau amont
de la station
anneaul aval
délai 1 bit
état Listen vers la • station!
anneau| amont
état Transmission
de la station
délai 1 bit
vers la station A
anneau aval
anneau amont
Figure 4.13. Fonctionnement
4.2.6.3. Le tampon
de
de la I station
I délai 1 bit
ai anneau| aval
de la TCU
latence
Le tampon de latence est utilisé par le moniteur actif à deux fins. Tout d'abord, lorsque toutes les stations sont dans l'état de répétition, le jeton ne doit pas revenir trop vite et l'anneau doit donc avoir une certaine latence exprimée en nombre de temps-bit (inverse du débit). Pour cela, un tampon de latence est inséré sur l'anneau, au niveau du moniteur actif, afin de mémoriser temporairement les bits entrants. Sa taille varie d'un système à l'autre mais un tampon d'au moins 24 bits paraît convenable. Par ailleurs, le tampon de latence sert aussi à compenser les variations de propagation du signal sur l'anneau (gigue), les stations étant synchronisées sur ce signal. Suivant la déviation du signal (en avance ou en retard), le moniteur actif insère ou retire des bits de l'anneau. 4.2.6.4. Supports
et
câblage
La solution de câblage la plus souvent retenue est celle spécifiée par IBM qui définit une étoile physique. Chaque station est reliée en dérivation à un point de concentration actif (AWC — Active Wiring Concentrator) ou lobe, via des paires torsadées. La figure 4.14 montre une configuration de câblage avec trois concentrateurs. Si la paire torsadée est de type téléphonique (catégorie 3), la distance concentrateur-station ne peut excéder 45 m et une boucle ne peut contenir au total
A c c è s à j e t o n : T o k e n R i n g et T o k e n B u s
105
pas plus de 72 stations. Si la paire torsadée est blindée et de qualité donnée (STP 1), la distance concentrateur-station est de 100 m maximum et la boucle peut contenir jusqu'à 260 stations. Ce dernier type de câble est celui préconisé par IBM. Il permet des débits de 4 ou 16 Mbit/s. Il est recommandé de l'utiliser pour des liaisons interconcentrateurs. station
msm
station
concentrateur AWC
station
Figure 4.14. Plan de câblage IBM
4.2.6.5. Spécification
des sen'ices
PHY
Comme pour la couche MAC, la couche physique de Token Ring spécifie deux types de service, l'un à l'interface PHY/MAC, l'autre à l'interface PHY/SMT. L'interface PHY/MAC est composée des trois primitives de service, PH_DATA.request, PH_DATA.indication et PH_DATA.confirmation. Chaque primitive ne spécifie qu'un seul paramètre appelé symbole, dont les valeurs possibles sont 0 (zéro binaire), 1 (un binaire), J (non_data_J) et K (non_data_K). La primitive PH_DATA.request permet le transfert d'un symbole de données de l'entité MAC vers la couche physique chaque fois que l'entité MAC a des signaux à émettre. La couche physique fournit un service de type synchrone, dans le sens où l'entité MAC ne peut soumettre de nouvelle primitive de requête tant qu'elle n'a pas reçu la confirmation associée à la requête précédente. Sur activation d'une demande de transfert, l'entité physique encode et transmet le symbole. Quand l'entité physique est de nouveau prête à accepter une autre requête de transmission, elle retourne à la sous-couche MAC une PH_DATA_confirmation lui signifiant la fin de la transmission du symbole. Le but de PH_DADA.confirmation est de synchroniser les envois de données de la sous-couche MAC avec le taux de réception de la couche physique. La primitive PH_DATA.indication représente le transfert de données de la couche physique vers l'entité réceptrice de la sous-couche MAC chaque fois que l'entité physique a décodé un symbole.
106
Architecture des réseaux haut débit
Le service de la couche physique défini à l'interface SMT permet à l'entité SMT de contrôler le fonctionnement de la couche physique. Il est défini au moyen de deux primitives, PH_CONTROL.request et PH_STATUS.indication. La première sert à demander à l'entité physique soit une insertion dans l'anneau (état insert), soit un détachement de l'anneau (état by-pass). La seconde est utilisée par la couche physique pour informer le SMT des erreurs éventuelles et des changements d'états significatifs qui se sont produits (détection de silence sur le support, tampon de latence trop grand ou trop petit, etc.).
4.3.
Token
Bus
Pour les applications à caractère temps réel, le déterminisme de l'accès au support est impératif. Cependant, la topologie en anneau implique un surcroît de fonctions de gestion — retrait des trames, vérification de la connexité de l'anneau, etc. — qui ne sont pas nécessaires avec une topologie en bus. La raison d'être du protocole Token Bus est donc de cumuler les avantages d'un protocole déterministe avec ceux d'une topologie simple à mettre en œuvre, d'où l'idée d'un accès avec jeton sur bus. Le protocole d'accès n'est cependant pas le même que celui de Token Ring. L'équité du protocole nécessite la mise en place d'un tour de rôle explicite entre les stations pour l'accès au support ; ce tour de rôle était implicite avec l'anneau physique. Le jeton est ici explicitement adressé à une station qui en sera le futur détenteur. Enfin, la gestion des stations est réalisée de manière totalement décentralisée entre toutes les stations, aucune n'ayant de rôle privilégié.
4.3.1. Principe
de l'accès
à jeton
sur
bus
Comme dans le Token Ring, la station détentrice du jeton conserve le jeton au maximum jusqu'à expiration d'un temporisateur THT (Token Holding Timer) et peut transmettre une ou plusieurs trames. De plus, elle peut demander des réponses à ces trames (poil) de la part des récepteurs. Les récepteurs peuvent donc, sur invitation, envoyer des trames au détenteur du jeton. Le jeton est figuré par une trame MAC d'un type particulier. Il contient une adresse destinataire et est passé explicitement de l'émetteur de la trame (détenteur actuel du jeton) au récepteur (nouveau détenteur). On parle de jeton adressé. 4.3.1.1. Anneau
logique
Le tour de rôle entre les stations pour l'accès au jeton est réalisé grâce au mécanisme d'anneau virtuel (ou anneau logique) qui détermine à qui une station doit remettre le jeton après l'avoir utilisé. L'anneau virtuel définit en fait une relation d'ordre sur les adresses des stations connectées au réseau et actives à un moment
Accès à jeton : Token Ring et Token Bus
107
donné. Cette relation correspond à l'ordre décroissant des adresses physiques des stations sur le bus. Chaque station connaît l'anneau virtuel grâce aux deux variables PS (Previous Station) donnant l'adresse de la station précédente sur l'anneau et NS (Next Station) donnant l'adresse de la station suivante sur l'anneau. Une troisième variable définit la propre adresse de la station. L'anneau virtuel est défini indépendamment de la situation physique des stations sur le câble. En figure 4.15, la station d'adresse 5 a comme prédécesseur sur l'anneau la station d'adresse 9 et comme successeur, la station d'adresse 3. station 9 PS = 1 NS = 5
station 5 PS = 9 NS = 3
station 1 PS = 3 NS = 9
stjation 3 PS = 5 NS = 1
station 4 PS = ... NS = ...
F i g u r e 4 . 1 5 . Exemple d'anneau virtuel sur un bus
Le maintien de ces variables ne peut se faire dans un connecteur passif sur le bus car il nécessite des mémoire vives ou des registres ; la station doit donc être active c'est-à-dire sous tension. Elle peut alors faire partie de l'anneau à condition de pouvoir y entrer. 4.3.1.2. Procédure
de réveil
L'ajout d'une nouvelle station active sur l'anneau se fait par la procédure dite de réveil et d'ajout de stations dans l'anneau. Cette procédure est complètement distribuée et elle est spécifiée dans le protocole. La procédure de réveil est lancée à l'instigation du détenteur actuel du jeton, avec pour but de faire entrer dans l'anneau un éventuel successeur. La station qui possède le jeton lance périodiquement (tous les N passages du jeton, 16 < N < 255) la procédure de réveil, juste avant de remettre le jeton à la station voisine et ce, seulement si le temps écoulé depuis la dernière fois où elle a eu le jeton n'est pas supérieur à un maximum appelé target_rotationjime (temps maximum de rotation cible du jeton). Cette condition vise à borner le temps maximum de rotation du jeton.
1 08
Architecture des réseaux haut débit
La procédure de réveil utilise les objets suivants : - la fenêtre de réponse ou slot-time est l'intervalle de temps pendant lequel une station peut entendre le début d'une réponse provenant d'une autre station. Sa durée est égale au temps d'émission d'une trame augmenté du temps maximum de propagation aller et retour d'une trame sur le bus ; - la trame solicit_successor communique à des stations désirant entrer dans l'anneau l'intervalle dans lequel doivent se trouver leurs adresses (délimité par l'adresse source et l'adresse successeur de cette source) ; - la trame set_successor constitue la réponse à la trame précédente et donne l'adresse du nouveau successeur de celui qui l'a sollicitée ; - le temporisateur TRT (Token Rotation Timer) définit le temps maximum de rotation du jeton. Pour illustrer le fonctionnement de la procédure de réveil, nous nous situons dans la configuration donnée en figure 4.15 pour laquelle nous supposerons que la station 4 est de nouveau active et qu'elle désire entrer sur l'anneau. Elle ne pourra le faire effectivement que lorsqu'une station la sollicitera et que cette station aura pour adresse celle de son prédécesseur naturel. Autrement dit, la station 4 devra attendre que la station 5 lance la procédure de réveil. Avant de remettre le jeton, la station 5 envoie donc une trame solicit_successor d'adresse source égale à 5 et d'adresse destinataire 3, ce qui définit un intervalle d'adresses [3, 5]. Elle attend ensuite une fenêtre de réponse ou slot-time. La station 4 se reconnaît et répond à la station 5 par une trame set_successor qui donne son adresse ; elle met à jour ses variables PS et NS (PS = 5, NS = 3). La station 5 reçoit alors la trame set_successor et met à jour sa variable NS (NS = 4). La station 5 transmet le jeton à la station 4. La station 4 est maintenant insérée sur l'anneau (figure 4.16). station 9 PS= 1 NS = 5
station 5 PS = 9 NS=4
I
station 1 PS =3 NS=9
station 3 PS = 5 NS= 1
sjation 4 PS = 5
Us =3
F i g u r e 4 . 1 6 . L'anneau virtuel après insertion d'une nouvelle
station
Accès à jeton : Token Ring et Token Bus
109
Nous avons décrit le cas où une seule station, à un instant donné et dans un intervalle d'adresses donné, désirait s'insérer dans l'anneau. Prenons maintenant le cas où deux stations satisfont la contrainte d'intervalle d'adresses. Toujours avec l'exemple de la figure 4.15, supposons que les stations d'adresses 6 et 7 souhaitent entrer sur l'anneau : elles ne le pourront que lorsque la station 9 lancera une procédure de réveil. La station 9 envoie donc une trame solicit_successor spécifiant un intervalle [5, 9]. Dans la même fenêtre de réponse, les stations 6 et 7 envoient chacune une trame set_successor. La station 9 va donc détecter une collision de trames au lieu d'une seule trame valide. Elle entame alors une reprise avec l'envoi d'une trame resolve ^contention et attend cette fois quatre slots-time. Se déroule alors entre les stations en compétition une procédure d'arbitrage réparti qui a pour objet de les départager. L'arbitrage se fait sur la valeur des deux premiers bits de l'adresse de chaque station candidate. Plus précisément, après réception de la trame resolve contention, l'instant d'émission de la trame set_successor sera déterminé par la valeur des deux premiers bits de l'adresse de chacune des stations en compétition : -
00 01 10 11
: émission immédiate, : début de la deuxième fenêtre, : début de la troisième fenêtre, : début de la quatrième fenêtre.
Si une station doit reporter son émission d'une ou de plusieurs fenêtres, elle écoute pendant ce temps le canal. Si elle détecte une transmission, elle n'enverra pas de trame set_successor pour cette procédure de réveil. De cette façon, une seule station à la fois entre dans l'anneau. Ici, les adresses sont 7, de valeur binaire "0111", et 6, de valeur "0110". Les deux premiers bits étant les mêmes, 6 et 7 vont encore émettre en même temps, en début de la deuxième fenêtre. La station 9 va retransmettre une trame resolve contention, mais l'arbitrage se fait cette fois-ci sur la deuxième paire de bits de l'adresse et uniquement pour les stations ayant émis la fois précédente. Dans notre exemple, les deux bits suivants sont respectivement "10" pour la station 6 et "11" pour la station 7. C'est donc la station 6 qui enverra une trame set_successor dans la troisième fenêtre, la station 7 se retirant. La station 9 mettra ensuite à jour ses variables et enverra le jeton à la station 6. Le protocole utilise des adresses représentées sur 48 bits ; par conséquent, le processus peut être répété au pire 24 fois. Néanmoins, les temps de propagation étant très courts, la durée de cette procédure n'est pas pénalisante. Le processus d'arbitrage et d'envoi de trames set_successor est tenté jusqu'à ce qu'une trame set_successor arrive bien ou jusqu'à ce qu'il n'y ait aucune réponse pendant quatre fenêtres ou encore jusqu'à ce qu'on ait épuisé tous les bits de l'adresse. Il est important de noter que cet arbitrage suppose l'unicité des adresses. Un cas particulier est celui où la station de plus petite adresse lance une procédure de réveil. Elle attend deux fenêtres de réponse et peut ainsi faire entrer deux stations dans l'anneau car elle seule peut faire entrer des stations d'adresses plus petites en plus de ses successeurs. Dans notre exemple, quand la station 1 envoie
1 10 Architecture des réseaux haut débit
une trame solicit_successor, la première fenêtre sert à faire entrer la station 0 (d'adresse inférieure à 1 ) et la deuxième fenêtre sert à faire entrer la station 10(1 > 9 > 10) si évidemment elle ne détecte aucune autre transmission. La suite du processus est la même. 4.3.1.3. Initialisation
de l'anneau
logique
Elle a lieu après une panne de la station qui possède le jeton ou lors de l'installation du réseau. Chaque station arme un temporisateur de détection d'inactivité. A expiration, chaque station envoie une trame Claim Token et attend un slot-time. S'il se produit des collisions, on procède comme précédemment : une station réémet au bout de 2, 4 ou 6 slots-time en fonction de ses deux premiers bits d'adresse. Lorsque la station a épuisé chaque paire de bits de l'adresse sans entendre d'autres transmissions que la sienne, elle considère qu'elle a réussi et qu'elle est détentrice du jeton. Elle lance alors une procédure de réveil pour faire entrer les autres stations dans l'anneau. 4.3.1.4. Retrait
d'une station de
l'anneau
Une station souhaitant se retirer de l'anneau avant sa mise hors tension, attend de recevoir le jeton et envoie alors une trame de contrôle de type set_successor à son prédécesseur. Elle transmet ensuite le jeton à son successeur. La station quitte ainsi l'anneau tout en maintenant la connexité de celui-ci. 4.3.1.5. Réception
d'une
trame
Le récepteur ne reçoit que les trames dont il est destinataire. L'émetteur a la possibilité d'activer le service d'interrogation du récepteur (Request with Response). A la réception d'une telle trame, le récepteur peut alors envoyer une trame de réponse, bien qu'il ne possède pas le jeton.
4.3.2. Structure
du standard
802.4
L'architecture du standard 802.4 est similaire à celle de 802.5. Le protocole spécifie donc le protocole MAC qui décrit la gestion de l'anneau logique et l'accès par jeton, la couche PHY avec son interface avec la couche MAC, la TCU, les supports ainsi que l'entité de gestion SMT transversale aux deux couches MAC et PHY.
Accès à jeton : Token Ring et Token Bus
-liaison-
LLC Logical Link Control
s
MAC Medium Access Control
M T
PHY
physique-
Physical
Station ManagemenT
Drop Cahle
TCU
Trunk Cable
Trunk Coupling Unit
F i g u r e 4 . 1 7 . Architecture
4.3.3. Le
1 11
protocole
MAC
Token Bus
802.4
Les principales fonctions du protocole MAC sont : - la constitution de l'anneau logique à l'aide de "tronçons virtuels", - l'ajout et le retrait individuels de stations, - la mise à jour des variables des stations, - la supervision et la maintenance du "jeton logique" (Logical Token) via : • le transfert du jeton de tronçon en tronçon, • la détection de jetons multiples ou de jeton perdu, • la vérification de l'adressage. Ces différentes fonctions sont mises en œuvre au travers de trames échangées « le bus, entre les entités MAC des différentes stations de l'anneau. 4.3.3.1. Les trames
MAC
Le format général de la trame MAC est donné en figure 4.18. —couverture du FCSPreamble
SD
FC
SD - Starting Delimiter FC - Frame Control
DA
SA
INFO
DA Destination Address SA - Source Address
FCS
ED
INFO - Information ED - Ending Delimiter
F i g u r e 4 . 1 8 . Format de la trame Token Bus
11 2 Architecture des réseaux haut débit
Les champs constituant la trame sont les suivants : - le préambule est une séquence arbitraire d'au moins un octet qui précède toute trame M A C ; - le délimiteur de début de trame SD (Starting Delimiter) de 1 octet sert à délimiter le début d'une trame. Il a le format "NN0NN000", où N est un symbole non binaire (ni 0 ni 1 ) ; - le contrôle de trame FC (Frame Control) décrit le type de trame et ses particularités. Les deux premiers bits, FF, définissent le type de trame : trame de données (LLC), trame de contrôle MAC ou trame de gestion de la station (tableau 4.3). Les six bits suivants permettent de différencier les différents types de trame MAC (tableau 4.4) ; FF
type de trame
11
non défini trame de gestion trame LLC trame de contrôle MAC
10 01 00
Tableau 4.3. Les bits FF du champ FC
champ FC
type de trame MAC
00000000
Claim token
OOOOOOOl
solicit_successor_ 1
00000010
solicit_successor_2
00000011
who_follows
00000100
resolve_contention
OOOOIOOO
token
00011000
set_successor
Tableau 4 . 4 . Le champ FC
Le champ FC des trames LLC suit un codage du type "01MMMPPP", où les bits M M M permettent d'identifier le type de service demandé : un transfert de données sans réponse, un transfert de données avec réponse (polling du récepteur) ou encore une réponse à une requête. Les bits PPP permettent de définir le niveau de priorité du transfert de données ; huit niveaux sont théoriquement possibles mais seuls quatre sont utilisés ; - les adresses de destination DA (Destination Address) et de source SA (Source Address) sont des champs de 2 ou 6 octets. Ils ont la même signification que pour
Accès à jeton : Token Ring et Token Bus
1 13
les autres types de réseaux locaux normalisés (cf. figure 4.7). Le bit I/G donne le type d'adresse — individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale (U/L = 1) ; - le champ de données (INFO) peut être vide ou contenir un ou plusieurs octets. La sémantique de ce champ est déterminée grâce au champ FC ; - le champ de vérification FCS (Frame Control Sequence) permet de vérifier l'intégrité de transmission de la trame. Il représente 4 octets ; - le délimiteur de fin ED (Ending Delimiter) est une séquence particulière, tout comme le délimiteur de début de trame, qui contient des symboles non binaires (symboles N). Le bit I qu'il contient indique, lorsqu'il est positionné à 1, qu'il s'agit d'une trame intermédiaire dans une transmission multiple ; il est donc à 0 dans une trame unique ou sur la dernière trame d'une transmission multiple. Le bit E est transmis initialement à 0, il est positionné à 1 par la première station qui détecte une erreur lors du passage de cette trame et n'est plus modifié par les autres stations.
NN1NN 1 I E
N - symbole non binaire 1 - élément binaire 1 I - bit de trame intermédiaire E - bit d'erreur détectée
Figure 4.19. Le champ ED
4.3.3.2. Temps maximum
de rotation
du jeton et
priorités
La bande passante du réseau est allouée en utilisant un jeton temporisé. Les principes en sont les suivants : - les trames de plus haute priorité sont transmises de toute façon dans la limite d'un temps maximum défini pour toutes les stations par le protocole de gestion ; - à chaque classe de priorité est associé un temps de rotation maximal du jeton ; - pour chaque classe, la station mesure le temps mis par le jeton pour faire le tour de l'anneau ; - si le jeton revient avant son temps maximal, la station peut envoyer des trames de cette classe jusqu'à expiration du temporisateur ; - si le jeton arrive après son temps maximal, la station ne peut envoyer de trames de ce niveau de priorité et elle relâche le jeton. IEEE 802.4 n'offre que quatre niveaux de priorité numérotés dans l'ordre croissant 0, 2, 4 et 6. Le niveau de priorité souhaité est un paramètre de la primitive de demande de transfert de données MA_DATA.request. La priorité intervient entre les trafics issus d'une même station, découpant ainsi la bande passante disponible lorsque la station possède le jeton en sous-bandes dédiées à chaque niveau de priorité.
1 14 Architecture des réseaux haut débit
Pour mettre en œuvre ce mécanisme de priorités, chaque station utilise quatre temporisateurs. Le temporisateur THT (Token Holding Timer) définit le temps maximal de possession du jeton pour envoyer des données de niveau 6. Les temporisateurs TRT4, TRT2 et TRTO (Token Rotation Timer for class 4, 2 and 0) définissent le temps maximum qu'un jeton peut mettre pour effectuer une rotation pour la transmission respectivement en classe 4, 2 et 0. La classe 6 est utilisée pour le trafic temps réel, puisqu'un accès est garanti tous les n* THT (n étant le nombre de stations). Lorsqu'il n'y a pas de données synchrones à transmettre, on peut transférer des données asynchrones. » 4.3.3.3. Gestion
des
fautes
La gestion des fautes liées au jeton est assurée par la station qui détient le jeton. Ces fautes concernent la duplication du jeton, les erreurs sur le jeton, les pannes de la station détentrice du jeton, les pannes du récepteur et enfin la perte du jeton. passage du jeton
écoute pendant 1 slot-time
trame valide
aucune transmission
collision attente pendant 4 slots-time
renvoi du jeton
e
2 fois who-follows
réception de set-successor
renvoi du jeton
aucune réponse
processus solicit-successor succès renvoi du jeton
aucune réponse
panne grave F i g u r e 4 . 2 0 . Surveillance
du jeton par la station qui le
possédait
Accès à jeton : Token Ring et Token Bus
1 15
Lorsque la station détentrice du jeton détecte une autre transmission sur le bus, elle en déduit qu'une autre station possède aussi le jeton (ceci peut se produire lorsque deux stations ont la même adresse). Dans ce cas, elle détruit son propre jeton et retourne à l'état d'écoute. Les trois fautes suivantes (erreur sur le jeton, panne du détenteur et panne du récepteur) apparaissent lors du passage du jeton. Aussi, après avoir transmis le jeton, l'émetteur du jeton écoute le support pendant un slot-time afin de détecter la transmission d'une trame ou d'un jeton par le nouveau détenteur du jeton. Dans ce cas, il retourne à l'état d'écoute. S'il entend une collision, il écoute de nouveau le support pendant quatre slot-times. S'il n'entend rien, il renvoie le jeton à son successeur et écoute de nouveau. S'il n'entend toujours rien, il transmet une trame who-follows qui demande l'identité de son successeur sur l'anneau logique. Cette trame est acquittée par une trame set-successor en provenance de son successeur. S'il ne reçoit rien, il entame une procédure de réveil qui va déterminer son nouveau successeur. Si cette procédure ne donne aucun résultat, il cesse toute transmission et lance une réinitialisation de l'anneau. La figure 4.20 résume les différentes actions liées à la surveillance du jeton. Il faut également prévoir le cas où le jeton se perd. Pour pouvoir détecter ce problème, chaque station qui passe le jeton arme un temporisateur bus Jdle Jimer. Si celui-ci arrive à échéance sans que la station n'ait détecté d'activité sur le canal, elle en conclut que le jeton a été perdu et entame alors un processus de régénération du jeton.
4.3.4. Services 4.3.4.1. Service
MAC
802.4
MAC pour la sous-couche
LLC
Le protocole Token Bus, comme les autres protocoles MAC, opérant en mode non connecté, le service de la couche MAC ne concerne que le transfert de données. Ce dernier peut s'effectuer en point à point ou point à multipoint, avec acquittement ou sans acquittement. Les primitives de service de la sous-couche MAC sont au nombre de trois. Il s'agit de MA_DATA.request, de MA_DATA.indication et de MA_DATA. confirmation. Leur sémantique est identique à celle des primitives de service du Token Ring (cf. 4.2.5). L'enchaînement de ces primitives est montré en figure 4.21. Le standard IEEE les définit sous forme de procédures. La primitive de confirmation donne à l'entité LLC émettrice un compte rendu à signification purement locale.
1 1 6 Architecture des réseaux haut débit Récepteur
Emetteur
MA_DATA.request
MA_DATA.confirmation MA DATA.indication
Figure 4.21. Enchaînement
des primitives
du service MAC
L'activation du service de confirmation autorise le récepteur de la trame de données à envoyer lui aussi une trame de données en réponse, même si l'entité MAC de celui-ci ne possède pas le jeton (figure 4.22). Ceci se fait grâce à la primitive MA_DATA.request pour laquelle le paramètre service_class indique et le niveau de priorité demandé par la couche supérieure et le service de confirmation de remise. Ce dernier peut prendre l'une de ces trois valeurs : request_with_no_response, request_with_response et response. Récepteur
Emetteur MA_D ATA.request (request_with_response)^
MA_DATA.indication (request_with_response)
MA_DATA.request (response)
MA_DATA.confirmation
MA_D ATA.confirmation MA_D ATA.indication Figure 4.22. Service de confirmation
de remise
La primitive MA_DATA.indication possède un paramètre quality qui définit le niveau de priorité du transfert et qui peut aussi indiquer l'activation du service de remise garantie. Dans ce cas, l'entité LLC peut transmettre une MA_DATA.request en réponse avec le paramètre senice_class positionné à la valeur response. 4.3.4.2. Sen'ice
MAC pour
l'entité
SMT
Les primitives de service MAC offertes à l'entité de gestion de la station (Station ManagemenT) sont décrites dans le tableau 4.5. Le passage de ces primitives est seulement local à l'entité MAC.
Accès à jeton : Token Ring et Token Bus
117
Ces services permettent : - de réinitialiser l'entité MAC, - de sélectionner la longueur des adresses MAC dans le réseau, - de spécifier les valeurs des temporisateurs et des temps utiles au protocole MAC, - de lire les valeurs des paramètres courants de l'entité MAC, - de notifier des changements dans ces valeurs, - de spécifier à quel(s) groupe(s) d'adresses la station appartient, - d'envoyer et de recevoir des trames de contrôle.
Primitives
Paramètres
Effet
MA INIT PROTOCOL.request MA_INIT_PROTOCOL.confirmation
protocole désiré, status qui indique la réussite de la réinitialisation
requête et confirmation pour réinitialiser la sous-couche MAC
MA_SET_VALUE.request MA_SET_VALUE.indication
nom_de_ vari able (adresse de la station, slot_time, temporisateurs de chaque niveau de priorité, TRT), sa valeur
permet de modifier la valeur d'une variable du protocole
MA_EVENT.indication
événements (changement d'adresse du successeur, ... )
indique l'arrivée d'un événement
MA_READ_VALUE.request MA_READ_VALUE.indication
variables (adresse du successeur, adresse du prédécesseur, nombre de stations dans l'anneau, temps de rotation du jeton mesuré, nombre de trames correctes reçues, nombre de trames erronées reçues, ...)
permet de lire la valeur d'une variable du protocole
MA_GROUP_ADDRESS request MA_GROUP_ADDRESS.indication
adresse de groupe
définit une nouvelle adresse de groupe
MA_FAULT_REPORT.indication
type de faute (adresse dupliquée, émetteur en panne, ...)
indique une faute au niveau MAC suite à une collision ou à un comportement incorrect
MA_CDATA.request MA_CDATA.indication MA_CDATA. confirmation
paramètres habituels pour un transfert de données
permet à l'entité SMT de transférer des trames SMT
Tableau 4.5. Récapitulatif
des primitives
MAC/SMT
1 1 8 Architecture des réseaux haut débit
4.3.5. La
couche
4.3.5.1. Les
physique
supports
Le standard IEEE 802.4 a retenu trois types de supports à base de câble coaxial 75 ohms (tableau 4.6). Les deux premiers sont appelés "carrierband", ce qui signifie que la bande passante du support est dédiée à une seule transmission analogique sur une seule fréquence porteuse. Il en résulte une simplification et un coût moindre des connexions sur le support. Les débits autorisés sont de 1, 5 ou 10 Mbit/s. Le troisième type de support est dédié au système large bande et permet trois canaux de données à des débits respectifs de 1, 5 et 10 Mbit/s avec des bandes passantes de 1,5 MHz, 6 MHz et 12 MHz ; il utilise un câble coaxial unique divisé en sousbandes de fréquences. Le support le plus récent est la fibre optique qui offre des débits de 5, 10 ou 20 Mbit/s. Les caractéristiques de la transmission du signal spécifient une bande passante de 270 nm et la longueur d'onde porteuse est située entre 800 et 910 nm. Ce support peut être utilisé avec n'importe quelle topologie logique en bus, c'est-à-dire possédant les propriétés de diffusion et de contention d'accès. Il est recommandé l'utilisation d'étoile active ou passive.
débit (Mbit/s)
Carrierband
Carrierband
Broadband
Fibre optique
1
5 - 10
1-5-10
5-10-20
1 , 5 - 6 - 12
270 nm
bande passante
—
—
modulation
Manchester
Phase coherent/
Phase continue
FSK
bus
bus
bidirectionnel
bidirectionnel
câble 75 ohms
câble 75 ohms
MHz
topologie support
Tableau 4.6. Les supports
4.3.5.2. Le service
AM/PSK
on-off
arbre
étoile passive ou active
câble 75 ohms
fibre optique
Token Bus
PHY
Les primitives de service qui définissent l'interface PHY/MAC sont au nombre de quatre : - PHY_DATA.request, - PHY_DATA.indication, - PHY_MODE.request, - PHY_NOTIFY.request. Les deux premières permettent respectivement d'émettre et de recevoir un symbole (0, 1 ou N) vers/de la couche physique. La primitive PHY_MODE.request permet de mettre l'entité physique dans l'un des modes émetteur (la station émet elle-même des symboles) ou répéteur (l'entité MAC de la station répète les bits d'un segment sur un autre). La primitive PHY_NOTIFY.request permet de notifier à la couche physique la fin de la transmission en cours.
A c c è s à j e t o n : T o k e n R i n g et T o k e n B u s
11 9
Exercices Exercice
4.1
On considère le réseau local de la figure suivante, comportant quatre stations désignées par A, B, C, et D. Chaque station accède au support en utilisant le protocole Token Ring. Lorsqu'une station possède le jeton, elle peut transmettre au plus une trame de données.
c B
Sur cet anneau, le temps de propagation entre chaque station est de 1 ms, le temps de transmission d'une trame est de 4 ms, le temps de transmission du jeton est de 1 ms. 1. Dessinez un diagramme des temps gradué en milliseconde décrivant le déroulement des différentes transmissions de trames selon le scénario suivant : -
à à à à
t t t t
= 0, = 0, = 4, = 8,
la station D possède le jeton B veut transmettre 2 trames A veut transmettre 1 trame D veut transmettre 1 trame
- à t = 23, C veut transmettre 2 trames 2. Quelle est la durée totale de l'exécution de ce scénario ? 3. Quel est le temps d'accès moyen au support ? Exercice
4.2
Le protocole Token Ring met en œuvre un mécanisme de priorités entre les stations de l'anneau. Le champ AC de la trame contient deux sous-champs pour ce faire : - P : priorité actuelle du jeton. - R : priorité réservée par une station pour le prochain jeton. A l'initialisation, P cl R ont pour valeur 1 (priorité la plus basse). Chaque station ;' gère 2 variables : - pj : priorité de la station i,
1 20 Architecture des réseaux haut débit - Sj : priorité sauvegardée et à restituer. La modification de la priorité du jeton et la prise du jeton suivent les règles des trois algorithmes suivants : Algorithme
de résen'ation
de la priorité
: la station / examine les champs P el R
de la trame de données qui passe au niveau de son répéteur : si p ; > R alors s, := R ; R := p, ;
Algorithme de remise du jeton : lorsqu'une station reçoit sa propre trame avec R * 1, elle remet le jeton sur l'anneau avec une nouvelle priorité telle que P := R Algorithme de prise du jeton : une station / ne peut prendre qu'un jeton tel que p , = P et elle émet alors une trame telle que : P •= Pi ; R ••= Sj ;
la station / positionne alors s, := 1 ; On considère l'anneau représenté dans l'exercice 4.1 et comportant quatre stations désignées par A, B, C et D ; les priorités p respectives de chacune des station sont : p = 1, p = 2, p = 3 et p = 1. Lorsqu'elle possède le jeton, une station ne peut transmettre qu'une seule trame. :
A
B
c
D
Les stations A, B et C désirent envoyer chacune trois trames à D. D n'émet rien. Le temps d'émission est nul et le temps de propagation est de 1 ms entre deux stations voisines. A t = 0, la station A possède le jeton et transmet une trame avec les valeurs P = 1 et R = 1. 1. Tracez un diagramme des temps où chaque axe des temps représente la transmission d'une station à sa voisine sur l'anneau. Indiquez l'ordre de réception des trames par D. 2. Donnez le temps total de transmission de toutes les trames. Exercice
4.3
Comparez les comportements de Token Bus et de CSMA/CD en fonction de la charge. Exercice
4.4
Un réseau local sur bus comporte quatre stations actives d'adresses respectives 2, 5, 6 et 7. On utilise le protocole Token Bus pour le partage du support. L'anneau logique est formé par une relation décroissante sur les adresses de station. Une station qui possède le jeton ne peut émettre exactement qu'une seule trame pendant THT (Token Holding Time). On prendra les hypothèses suivantes :
Accès à jeton : Token Ring et Token Bus
121
- les trames et le jeton ont la même taille, - un slot-time correspond au temps de transmission d'une trame ou du jeton, - le temps de traitement du jeton est négligeable. 1. Dessinez l'anneau logique en faisant figurer pour chaque station son adresse, la valeur des variables P (Prédécesseur) et S (Successeur). 2. Dessinez un diagramme des temps gradué en secondes (une seconde = un slottime) décrivant le déroulement des différentes transmissions de trames selon le scénario suivant : - le jeton est possédé par la station 7 - à t = 0, la station 5 a une trame à envoyer à la station 6 et autorise 6 à répondre ; cette dernière répond par une trame de réponse - à t = 1, la station 5 a une trame à émettre - à t = 6, la station 7 a deux trames à émettre et la station 2 aussi. 3. A quel moment la station d'adresse 4 pourra-t-elle entrer dans l'anneau logique ? Exercice
4.5
On considère une station connectée sur un réseau Token Bus ayant un débit de 10 Mbit/s. Le protocole permet de découper la bande passante du support en plusieurs sous-bandes, chaque sous-bande étant associée à un niveau de priorité de trafic. Les différents niveaux sont notés 6, 4, 2 et 0, le niveau 6 étant le plus prioritaire. Les valeurs utilisées pour les temporisateurs sont : -
TRT = TTRT4 TTRT2 TTRTO
TTRT6 = 2 ms = 1,8 ms = 1,6 ms = 1 ms
Lorsque le jeton arrive de nouveau à la station, le temporisateur TRT a un reliquat de 504 us. Quelle est la quantité de données que l'on peut transférer pour les niveaux de priorité 2 et 0, sachant que le trafic de niveau 6 nécessite l'envoi de 50 octets et celui de niveau 4 20 octets ?
1 22
Architecture des réseaux haut débit
Exercice
4.6
Sur un bus fonctionnant selon le protocole IEEE 802.4, quatre stations deviennent actives en même temps (par exemple, suite au démarrage des équipements d'une chaîne de montage). Que se passe-t-il ? Donnez l'ordre selon lequel les stations s'insèrent dans l'anneau logique. station 1 P= S=
station 4 P= S=
station 2 P = S =
station 9 P= S=
Chapitre 5
FDDI (Fiber Distributed Data Interface)
5.1.
Introduction
A l'origine, les protocoles IEEE 802.3, IEEE 802.4 et IEEE 802.5 étaient conçus pour fonctionner sur des supports "électriques", paires torsadées ou câbles coaxiaux, dont les débits sont de l'ordre de quelques dizaines de Mbit/s. Le progrès des technologies aidant, on peut désormais utiliser la fibre optique comme nouveau support à haute performance pour les réseaux locaux. Grâce à elle, les débits de l'ordre de la centaine de Mbit/s ne sont plus hors de portée. De plus, les propriétés physiques du support lui-même permettent d'atteindre des distances de transmission de l'ordre de la centaine de kilomètres. De nouvelles applications sont désormais envisageables. La solution la plus simple pour intégrer cette nouvelle technologie consiste à remplacer purement et simplement, au niveau physique, les anciens supports électriques par des câbles de fibre optique. Token Ring se prête particulièrement bien à cette opération, puisqu'il utilise des liaisons point à point. Malheureusement, si l'adaptation du nouveau médium permet d'atteindre de plus hauts débits, le protocole IEEE 802.5 ne permet plus d'optimiser la bande passante. En effet, sur un réseau de type Token Ring à 10 Mbit/s, le temps de transmission d'une trame de 1 000 bits est de 100 us. Sur un réseau de 20 km, pour un taux de propagation de 5 us/km, la trame va occuper l'ensemble de l'anneau durant sa transmission. C'est la raison pour laquelle le protocole IEEE 802.5 oblige une station émettant une trame à l'ôter elle-même de l'anneau avant de redonner un jeton, afin d'éviter tout risque de
1 2 4 Architecture des réseaux haut débit
collision. Dans le cas d'un réseau en fibre optique à 100 Mbit/s et d'une longueur de 100 k m , le t e m p s de transmission de cette m ê m e trame est de 10 us, alors que le délai de propagation sur l'anneau est de 500 us. Pour de tels débits de transmission, chaque trame n'occupe qu'une petite partie du support. Il devient alors inefficace de lui réserver la totalité de l'anneau. Pour cette raison et pour d'autres encore, il est rapidement apparu nécessaire de faire évoluer les protocoles couramment utilisés dans le cadre des réseaux locaux afin de les adapter aux fibres optiques et aux très hauts débits qu'elles permettent d'atteindre. FDDI est une réponse à cette attente [Ross 89], [Ross 90]. L'ANSI a proposé en 1987 les spécifications de FDDI qui ont été ensuite normalisées par l'ISO avec l'IS 9314. La norme spécifie les services et un protocole pour un réseau local à haut débit (100 Mbit/s) utilisant la fibre optique comme support. La topologie retenue est un anneau doublé contre-rotatif. Chaque station est reliée à la précédente par deux fibres optiques en point à point. L'anneau primaire est utilisé pour la transmission normale des données dans un sens, alors que l'anneau secondaire sert de secours inactif dans l'autre sens ; il n'est utilisé qu'en cas de coupure de l'anneau, suite à une reconfiguration automatique de l'anneau par rebouclage. Si plusieurs défaillances apparaissent simultanément, le réseau se scindera en plusieurs sous-anneaux indépendants. FDDI offre des distances de raccordement pouvant aller jusqu'à 200 km (en comptant les deux anneaux) et la possibilité d'interconnecter jusqu'à 1 000 stations. La distance maximale entre deux stations est de 2 km. Ces caractéristiques apparentent FDDI à la fois aux réseaux locaux et aux réseaux métropolitains.
Ethernet
Token Ring
FDDI
station de travail
Ethernet F i g u r e 5.1. Utilisation de FDDI comme réseau
pont ou routeur
fédérateur
On est en droit de se demander quelle est la réelle utilité d'un réseau local haut débit comme FDDI. Le surplus de bande passante offert par la fibre optique peut bien sûr servir à transmettre des données en temps réel, de la voix, du son ou encore des images mais l'utilisation principalement visée est la fédération de réseaux locaux à moyen débit. Un tel réseau fédérateur est souvent qualifié de réseau backbone car il
FDDI (Fiber Distributed Data Interface)
1 25
constitue l'épine dorsale du système de communication (figure 5.1). La capacité importante de transmission rend ainsi "transparent" à l'utilisateur le passage par le réseau fédérateur.
5.2. Architecture d'une station FDDI La figure 5.2 présente l'architecture générale d'une station FDDI. Nous verrons plus loin qu'il n'y a pas que des stations à être rattachées à l'anneau ; c'est pourquoi, d'une manière générale, on préfère le terme de nœud à celui de station. [,p L
L
U
\*
S M T Station ManagemenT
Logical Link Control Medium Access Control
PHY
PHYsical
pim rmu
Physical Medium Dependent
Figure 5.2. Architecture
d'une station
FDDI
La couche physique est divisée en deux sous-couches, PMD (Physical Medium Dependent) [IS 9314-3] et PHY [IS 9314-1]. Elle a pour rôle la transmission de bits sur le support physique. Plus précisément, PMD spécifie toutes les caractéristiques optiques et physiques des équipements employés pour assurer une connexion entre deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques) ; elle offre tous les services nécessaires aux communications numériques point à point entre les stations et permet surtout d'assurer l'indépendance du reste de l'architecture vis-à-vis des caractéristiques physiques du support. La sous-couche PHY (physique) assure l'interface entre la sous-couche MAC et la couche PMD. Elle est responsable du codage/décodage et de la synchronisation. La sous-couche MAC [IS 9314-2] (Medium Access Control) définit la méthode d'accès au support. Le protocole utilisé est très proche de celui spécifié pour l'IEEE 802.5 et pour le Token Ring. L'information, transmise sous forme de trames, est acheminée séquentiellement et unidirectionnellement comme un flot de symboles d'une station à la suivante. Pour transmettre des données, une station doit être en possession du jeton — le droit à émettre.
1 26
Architecture des réseaux haut débit
SMT [IS 10608-14] (Station ManagemenT) est une entité de gestion présente au sein de chacune des stations. Elle intervient à tous les niveaux de FDDI (PMD, PHY et MAC) et elle est responsable de l'initialisation, de la configuration et éventuellement de la reconfiguration de l'anneau (détection, isolation et reprise sur erreur, actions à entreprendre en cas d'incidents sur l'anneau).
5.3.
Définition d'un nœud FDDI
Il existe différentes configurations internes pour un nœud FDDI. Chaque nœud ne comporte qu'une entité SMT mais peut posséder différentes instances de MAC, PHY et PMD. Deux classes de nœuds sont définies : les nœuds à attachement simple et les nœuds à attachement double. Seuls les nœuds à attachement double sont directement reliés au double anneau, également appelé anneau principal. Un attachement double possède au minimum deux entités PHY et deux entités PMD alors qu'un attachement simple possède au minimum une entité PHY et une entité PMD. Un nœud est soit une station, soit un concentrateur. La différence est qu'une station comporte au moins une entité MAC (deux si elle est à attachement double) alors qu'un concentrateur n'en comporte pas. Une station à attachement double est appelée station de classe A et est directement reliée à l'anneau principal. Une station à attachement simple est dite de classe B et n'a pas par conséquent la possibilité de se rattacher directement à l'anneau principal. Elle est alors reliée à l'anneau via un concentrateur. Un concentrateur peut lui aussi avoir un attachement double ou simple. Un concentrateur à attachement double se trouve par conséquent sur le double anneau et offre à des nœuds à attachement simple la possibilité d'y être reliés. Ces nœuds sont alors les "esclaves" de ce concentrateur. Un concentrateur à attachement simple n'est pas rattaché au double anneau mais à un concentrateur à double attachement ou bien à un de ses homologues. Il est aussi le père d'une ou de plusieurs stations de classe B ; de cette manière, des arbres de concentrateurs sont créés tout autour de l'anneau principal et ce dans le but de relier les stations de classe B à ce dernier. Enfin, des concentrateurs à attachement nul sont également envisageables. Nous obtenons finalement les différents types de nœuds suivants : -
station à double attachement (DAS — Dual Attachment Station) station à simple attachement (SAS — Single Attachment Station) concentrateur à double attachement (DAC — Dual Attachment Concentrator) concentrateur à simple attachement (SAC — Single Attachment Concentrator) concentrateur à attachement nul (NAC — Null Attachment Concentrator)
FDDI (Fiber Distributed Data Interface)
1 27
Un exemple de topologie de réseau FDDI comportant les principaux types de nœuds décrits précédemment est présenté en figure 5.3.
réseau FDDI
DAS
DAC
SAS
SAC
F i g u r e 5.3. Exemple de topologie
de réseau FDDI
Les DAS sont divisées en DAS à simple MAC et DAS à double M A C . Un concentrateur doit avoir une entité PHY et une entité PMD supplémentaire pour chacune des connexions qu'il offre aux nœuds à simple attachement ou bien pour la connexion le reliant à son père (s'il n'est pas la racine de l'arbre de concentrateurs). Il possède une entité MAC pour les connexions avec ses esclaves. Leur présence n'étant pas systématique, un concentrateur pourra ne pas avoir d'entité MAC.
5.4. Fonctionnement
du protocole
FDDI
De la même manière que pour Token Ring et Token Bus, l'anneau FDDI est géré au niveau MAC par la circulation d'un jeton de station en station. La possession de celui-ci donne le droit d'émettre des données sur le support. En assurant la présence d'un seul jeton sur l'anneau à un instant donné, il est assuré qu'il n'y aura pas deux stations accédant au support au même moment. Une station désirant émettre, capture le jeton, le retire de l'anneau, transmet ses trames et retransmet le jeton. Chaque station régénère, répète et transmet les informations à la station suivante. La station destinataire recopie la trame dans sa mémoire tampon et la retransmet après avoir modifié les bits "adresse reconnue" et "trame copiée" du champ d'état. Il est de la responsabilité de la station émettrice de retirer de l'anneau les trames qu'elle y a placées. Cela est réalisé en plaçant à la suite de l'adresse source des symboles particuliers (Idle). La figure 5.4 illustre le fonctionnement de l'anneau : prise du jeton, émission, remise du jeton et retrait des trames.
1 28 Architecture des réseaux haut débit
T : jeton Fi : trame /'
1/ les stations sont dans l'état Idle (repos) ; seul le jeton circule sur l'anneau
'./ la station A souhaite émettre : elle retire le jeton de l'anneau et commence à émettre x sa trame Fl
3/ la station A génère et émet un nouveau jeton après la transmission de sa trame Fl
4/ la station C recopie au vol Fl qui lui est adressée
5/ la station B récupère le jeton et émet une trame F2
la station A retire de l'anneau sa trame Fl et recopie F2 qui lui est adressée
Il la station B retire la trame F2 de l'anneau
8/ les stations sont de nouveau dans l'état Idle
F i g u r e 5 . 4 . Fonctionnement
5.4.1. Données
synchrones
et
de l'anneau
FDDI
asynchrones
La couche M A C FDDI supporte deux classes de transmission de données : les données synchrones et les données asynchrones. La classe de transmission synchrone correspond à des données pour lesquelles le temps de transit doit être aussi bref que possible. Il s'agit dans la plupart des cas de données temps réel. Par opposition, la
FDDI (Fiber Distributed Data Interface)
129
classe asynchrone recouvre des flots de données plus sporadiques, en tout cas moins prioritaires que les informations dites synchrones. Huit niveaux de priorités sont dédiés à cette deuxième classe. De plus, toujours pour la classe asynchrone, il est possible de limiter l'accès à un groupe de stations en utilisant un jeton de type restreint. Par opposition, un jeton non restreint peut être capturé par n'importe quelle station du réseau. 5.4.2. Le jeton
temporisé
Quand une station est en possession du jeton, elle ne peut le garder indéfiniment. En fait, elle ne le possède que pour une durée limitée, pendant laquelle les données synchrones sont émises en premier, suivies éventuellement de données asynchrones si le temps imparti ne s'est pas écoulé. On parle alors comme pour Token Bus, de jeton temporisé. Ainsi, afin de pouvoir gérer l'anneau, le jeton et l'émission des différents types de données, la norme FDDI spécifie l'emploi d'un certain nombre de temporisateurs et de compteurs. - TTRT (Target Token Rotation Time). Il indique le temps moyen permis au jeton pour faire un tour complet de l'anneau. Sa valeur est négociée entre toutes les stations lors de la phase d'initialisation de l'anneau. Chaque station propose une valeur selon ses contraintes de temps de réponse. La valeur la plus faible parmi toutes les propositions est retenue comme référence commune : le protocole prendra en compte les conditions de la station la plus exigeante. La valeur opérationnelle du TTRT est T_OPR. Des études ont montré qu'une valeur de 8 ms pour T_OPR procure dans la majorité des cas une efficacité de 80 % tout en garantissant un temps d'accès inférieur à 1 s [Jain 90]. - T_MAX. C'est la valeur maximum que peut prendre TTRT. Si l'initialisation de l'anneau ne peut se faire pendant T_MAX, cela signifie que l'anneau présente un problème. La valeur par défaut est 165 ms. - T_MIN. C'est la valeur minimum que peut prendre TTRT. La valeur par défaut est 4 ms. - TRT (Token Rotation Timer). Chaque station mesure le temps de rotation réel du jeton à l'aide de ce temporisateur. Il reflète le temps à attendre avant de voir arriver le jeton ; il couvre donc le temps utilisé par les stations pour émettre des trames, pour faire circuler le jeton et le temps de propagation de l'anneau. A chaque fois qu'une station relâche le jeton, elle réarme ce temporisateur, sa valeur étant initialisée à T_OPR. Lors de la prochaine réception du jeton, le temps restant dans TRT permet de mesurer l'avance ou le retard du jeton. Si TRT expire avant le retour du jeton, le compteur LATE_CT est incrémenté de 1 pour indiquer une arrivée tardive du jeton. - THT (Token Holding Timer). Quand le jeton arrive en avance, le temporisateur THT est initialise avec son avance (soit TTRT - TRT). THT donne le temps qu'il reste à une station pour émettre des trames d'information de type asynchrone. C'est donc le temps restant avant que le temps maximum TTRT ne soit atteint pour la circulation du jeton.
1 30
Architecture des réseaux haut débit
- LATE_CT (Late Counter). Ce compteur enregistre le nombre d'expirations de TRT depuis la dernière réception du jeton. Sa valeur ne doit pas dépasser 1 en condition normale. Si le jeton revient avant que TRT n'expire et que LATE_CT = 0, cela signifie que le jeton est en avance sur sa date de retour attendue et il est alors possible de transmettre en mode synchrone et en mode asynchrone. D'un autre côté, si TRT expire alors que LATE_CT = 1 (le jeton a par conséquent un retard d'au moins 2 * T_OPR), la station déclenche une réinitialisation de l'anneau (via un processus Claim). Lorsque le jeton est en avance, LATE_CT est remis à zéro. - TVX (Timer Valid Transmission). Ce temporisateur est initialise à chaque réception d'un jeton (non restreint) ou d'une trame valide. Il permet de s'assurer que l'anneau reste opérationnel. L'expiration du TVX d'une des stations déclenche une reconfiguration de l'anneau. On peut s'interroger sur l'utilité de TVX, puisque, comme nous l'avons vu, tout retard du jeton de 2 * T_OPR déclenche automatiquement une réinitialisation de l'anneau. La réponse est très simple : si la valeur de TVX est plus petite que celle de T_OPR, TVX détecte plus rapidement les problèmes de transmission, ce qui améliore d'autant l'efficacité du réseau. De plus, TVX permet de détecter un problème que TRT n'est pas en mesure de repérer. Quand les stations ont terminé d'utiliser un jeton restreint (bande passante asynchrone réservée à un nombre limité de stations), la dernière station doit réémettre un jeton non restreint (bande passante asynchrone répartie de manière équitable entre toutes les stations de l'anneau). Si elle émet par erreur un jeton restreint, l'expiration de TVX évitera que ce jeton circule sur l'anneau indéfiniment, en bloquant tout autre trafic. La valeur à laquelle est initialise TVX doit cependant être suffisamment importante pour que son expiration soit synonyme de problème important. La norme FDDI spécifie que la valeur par défaut de TVX doit être supérieure à 2,35 ms. Cette valeur correspond au temps maximum autorisé de parcours sur l'anneau pour une trame de longueur maximale. La figure 5.5 illustre l'utilisation des variables THT et TRT au niveau d'une station FDDI [Stallings 93]. On suppose que TTRT = 100 ms et que le temps alloué aux émissions de trames synchrones est égal à 30 ms. TRTj THT
TRT
(ms)
THT
F i g u r e 5.5. Utilisation des temporisateurs
et compteurs
FDDI
F D D I (Fiber Distributed Data Interface)
131
A Un jeton arrive à la station. La station n'a aucune trame à envoyer. La station laisse passer le jeton. B
Le jeton revient à la station. A cet instant, TRT = 40 et LATE_CT = 0. Le jeton est donc en avance. THT est initialise avec la valeur de TRT soit 4 0 ms et TRT est réinitialisé à la valeur de TTRT soit 100 ms.
C
30 ms après l'événement B, la station a épuisé son temps d'émission synchrone. Elle a des données asynchrones à transmettre. Elle déclenche donc THT et commence à émettre.
D
40 ms après l'événement C, THT expire, (à C, THT valait 40 ms). La station est alors dans l'obligation de stopper ses émissions de trames asynchrones. Elle génère un jeton qu'elle transmet sur l'anneau.
E
TRT expire sans que le jeton ne soit de retour. La valeur du temporisateur TRT est positionnée à 100 (TRT=
F
TTRT = 100 ms) et LATEjCT
Le jeton réapparaît. Puisque LATE_CT données asynchrones.
5.4.3. Format
des
= 1.
= 1, il n'est pas possible d'émettre de
trames
Comme dans tous les protocoles de niveau MAC, les données sont envoyées sur le support sous forme de trames. Il existe deux types de trames, les jetons et les trames d'information ; ces dernières pouvant en fait contenir ou non des données issues des couches supérieures. 5.4.3.1. La trame
FDDI
FDDI ne fournit qu'un seul format de trame pour transmettre aussi bien des trames LLC que des trames MAC ou encore des trames SMT (figure 5.6).
PA
EFS
- couverture du FCS-
SFS-
SD
SFS - Start of Frame Sequence FCS - Frame Check Sequence EFS - End of Frame Sequence PA - Préambule
FC
DA
SA
INFO
S D - Starting Delimiter FC - Frame Control DA - Destination Address SA - Source Address
Figure 5 . 6 . Format de trame FDDI
EE
ED
FS
INFO - Information ED - Ending Delimiter FS - Frame Status
1 32
Architecture des réseaux haut débit
Les champs constituant la trame sont les suivants : - le préambule (PA) est constitué d'au moins 16 symboles I (Idle). Il permet l'acquisition de la synchronisation-bit. Par rapport à l'émetteur, les stations en aval qui répètent la trame ou le jeton avec leur propre horloge peuvent modifier la taille de ce champ ; - le délimiteur de début (SD) est constitué de deux symboles, J et K ; - le contrôle de trame (FC) décrit le type de trame et ses particularités. Le bit C, bit de classe, indique si le service est asynchrone (C = 0) ou synchrone (C = 1). Le bit L, bit de longueur d'adresse, indique si les adresses MAC sont codées sur 16 bits (L = 0) ou 48 bits (L = 1). Les bits FF, bits de format de trame, permettent, conjointement avec les bits ZZZZ de caractériser le jeton et de distinguer les trames MAC, LLC et SMT. Les bits ZZZZ permettent, quant à eux, d'associer à la trame un éventuel niveau de priorité. Le tableau 5.1 donne la signification des différents codages possibles du champ FC ; C
L F F Z Z Z Z
type de trame
0
L O 0 O 0 O O
trame vide
1
0
0
0
0
0
0
0
jeton non restreint
1
1
0
0
0
0
0
0
jeton restreint
deO
L O O O O O l
à
0
L
0
0
1
1
1
de
1
à
1
L
0
0
1
1
1
de
C
L
0
1
r
0
0
0
à
C
L
0
1
r
1
1
1
de
C
L
1
0
r
0
0
0
à
C
L
1
0
r
1
1
1
C
L
1
1
r
r
r
r
trame SMT
1
L O O O O O l
trame MAC
1 trame LLC trame d'implantation réservé
L et C peuvent prendre les valeurs 0 ou 1 r est réservé et mis à 0
Tableau 5.1. Le champ FC
- les adresses de destination (DA) et de source (SA) ont la même signification que pour les autres types de réseaux locaux normalisés (figure 5.7). Le bit I/G donne le type d'adresse, individuelle (I/G = 0) ou de groupe (I/G = 1). Le bit U/L indique si l'adresse a été allouée par une administration universelle (U/L = 0) ou locale ( U / L = 1) ;
FDDI (Fiber Distributed Data Interface)
1 bit
I/G
32 bits
Mbits
1 bit
sous-adresse de station
N° anneau
U/L
13 3
adresse sur 48 bits 7 bits
8 bits
N° anneau
sous-adresse de station
1 bit
VG
adresse sur lo Dits Figure 5.7. Structure des champs d adresse
- le champ de données (INFO) peut être vide ou contenir un nombre pair de symboles. Sa taille est limitée à 9 000 symboles (4 500 octets). La sémantique de ce champ est déterminée grâce au champ FC ; - le champ de vérification (FCS), codé sur 32 bits, permet de vérifier l'intégrité de transmission de la trame ; - le délimiteur de fin (ED) est constitué d'un symbole T (Terminate)
;
- le status de la trame (FS) contient les indicateurs de contrôle qui reflètent la validité de la trame et ses conditions de réception et qui utilisent les symboles R (Reset) et S (Set). Trois indicateurs sont définis : E (erreur détectée), A (adresse reconnue), C (trame copiée). D'autres indicateurs peuvent être ajoutés, éventuellement suivis d'un symbole T. 5.4.3.2. Le jeton Le format du jeton est tout à fait similaire à celui d'une trame d'information (figure 5.8). Bien entendu, on ne retrouve pas le champ INFO, mais simplement les champs de préambule (16 symboles I minimum), de délimitation de début de trame (symboles JK), de contrôle (2 symboles, 10 000 000 pour un jeton non restreint et 11 000 000 pour un jeton restreint) et de délimitation de fin de trame (2 symboles T).
1
PA
SD
PA - Préambule S D - Starting Delimiter
FC
FC - Frame Control ED - Ending Delimiter
Figure 5.8. Format du jeton
5.4.4. Processus
ED
FDDI
Claim
Contrairement à Token Ring, FDDI ne donne pas de privilèges à une station particulière qui deviendrait ainsi "monitrice de l'anneau". Chaque station surveille l'anneau en permanence afin de détecter des conditions d'anomalie qui nécessiteraient
1 34 Architecture des réseaux haut débit
une (ré)initialisation de l'anneau. Lorsque cette éventualité se produit, la station entre dans une phase appelée processus Claim. Cette phase permet de négocier la valeur du TTRT et de déterminer la station qui engendrera le premier jeton. Pour cela, chaque station émet continuellement des trames dites de négociation (Claim frame), contenant dans le champ t_req la valeur du TTRT qu'elle aimerait voir appliquer. Bien entendu, plus une station a besoin d'émettre des données urgentes, plus elle aura tendance à réclamer un TTRT de faible valeur. Chaque station écoute également le support et analyse les trames de négociation qu'elle reçoit. Si le TTRT reçu est plus élevé que le sien, la station rejette la trame et continue de négocier pour sa propre valeur. En revanche, si le TTRT reçu est inférieur à celui qu'elle réclame, elle se retire de la négociation et répète la trame reçue. La première station qui reçoit une de ses propres trames Claim remporte la négociation. Elle peut alors initialiser son compteur T_OPR avec le TTRT finalement négocié et qui est celui qu'elle réclamait. Dans l'exemple proposé en figure 5.9, c'est la station S3 qui remporte la négociation.
2/ 6/
SA = 2 T_req = 4 SA = 3 r_req = 3
SA = 3
S A = 1 T_req = 5
S2 5/
SA = 3
FDD]
S3 T_req = 3
3,
T reo. = 4
n
_req = 3
SI
T_req = 5
T_req = 3
S4
4/
SA = 3 T_req = 3
T_req = 5 F i g u r e 5 . 9 . Processus
Claim
Sa première action est ensuite d'émettre un jeton. Dès réception du premier jeton, les autres stations savent qu'une station a remporté la négociation. Elles initialisent, elles aussi, leur compteur T_OPR à la valeur du TTRT négocié, mais aucune d'elles n'a encore le droit d'émettre des données ; elles se contentent de répéter le jeton. Lorsque ce dernier a effectué un tour complet de l'anneau et qu'il revient à la station qui l'a généré, la station sait que l'anneau est prêt à fonctionner ; elle peut commencer à émettre des données ou relâcher le jeton immédiatement.
F D D I (Fiber Distributed Data Interface)
5.4.5. Fonctionnement
13 5
normal
Le but du protocole MAC de FDDI est d'éviter que des données moins urgentes soient émises par une station alors qu'une autre aurait du trafic plus prioritaire à émettre sur le support. Il faut que le temps d'accès au support soit équitablement réparti entre toutes les stations et ce pour les différents niveaux de priorité. Une première solution est de garantir un temps de rotation minimal pour le jeton. Il ne faut pas qu'une station le monopolise, même si elle doit traiter du trafic urgent. L'émission des données asynchrones est conditionnée par l'arrivée en avance du jeton. De plus, une station ne peut les émettre que durant le temps mesuré par THT, c'est-à-dire pour une période équivalente à l'avance du jeton. Par ailleurs, même si l'on peut émettre des données synchrones dès réception d'un jeton en avance ou non, la durée d'émission ne peut excéder une borne fixée à l'avance par la couche SMT. Celle-ci doit être calculée de telle sorte que la somme des bornes pour toutes les stations n'excède pas le TTRT. Ainsi, pour un tour de jeton, on est sûr que le temps d'émission synchrone global ne dépassera pas le TTRT négocié. C'est ainsi que l'on peut montrer que le temps de rotation maximal pour un jeton est en fait égal à 2 * T_OPR.
5.4.6. Processus
Beacon
Quand une station détecte que le processus de négociation initial a échoué ou alors sur simple requête de la couche SMT, elle met en place un processus Beacon. C'est le cas lors d'une coupure physique de l'anneau. Le processus Beacon a pour objet de localiser la panne afin d'entamer les actions de recouvrement qui s'imposent. 4/
SA = :
SA = 3
Beacon
11 S A = 2
Beacon
31
Beacon
SI
FDDI
S3
D
SA = 3
Beacon
5/
SA = 2
Beacor
21 S A = 3
Beacon
SA = 2
Beacon
S4
F i g u r e 5.10. Processus
Beacon
1 36
Architecture des réseaux haut débit
Durant ce processus, chaque station émet continuellement des trames Beacon. Si elle reçoit d'autres trames Beacon, elle cesse d'émettre les siennes et recopie celles en provenance de l'amont. Ainsi, la station suivant immédiatement la liaison défectueuse va remplir l'anneau avec ses propres trames, identifiées par l'adresse source. Par ailleurs, s'il y a coupure, aucune autre station ne va recevoir les trames Beacon qu'elle avait émises. De cette manière, le problème est localisé précisément sur la liaison en amont de la station remplissant l'anneau de ses trames Beacon. Les actions nécessaires au recouvrement de l'erreur peuvent alors être entamées, grâce à la couche SMT. Dans l'exemple de la figure 5.10, la station S3 est la première à détecter une anomalie de fonctionnement de l'anneau. Elle commence à envoyer des trames Beacon. Chaque station répète les trames Beacon reçues. La trame Beacon reçue et répétée par la station SI est perdue. La station S2 est la seule à ne pas recevoir de trames Beacon. On a donc isolé le segment défaillant.
5.5.
Services
FDDI
Nous nous intéressons ici aux services, en d'autres termes aux interactions intercouches L L C / M A C , MAC/PHY et PHY/PMD. La figure 5.11 montre les différentes entités constituant une station FDDI ainsi que leurs interactions. Les échanges de primitives réalisés entre ces entités sont expliqués ci-après. LLC
LPDU
LPDU
MSDU
MSDU
MAC MPDU
s
2/^
^
MPDU 5/
M T
PHY
3/j
f
!"
4/
PMD
i
I/ 2/ 3/ 4/ .V 6/ 7/ 8/ 9/
MA_UNITDATA.request (FC[ 1 ]. DA[ 1 ], MSDU[ 1 ], classe_service[ 1 ], suite! ']>••• FC[n], DA[n], MSDU[n]. classe_service|n], 0. classe jeton) PH_UNITDATA.request (ph_request(symbole)) PM_UNITDATA.request (bit) PIvLSIGNAL.indication (status_transmission) PH_UNITDATA_STATUS.indication (status_transmission) MA_UNITDATA_STATUS.indication (nb_SDU. status^transmission. classe_service) PM.UNITDATA.indication (bit) PH_UNITDATA.indication (ph_indication(symbole)) MAJJNITDATA.indication (FC. DA. SA. MSDU. statusjéceplion) F i g u r e 5 . 1 1 . Utilisation
des primitives
de
service
FDDI (Fiber Distributed Data Interface) 5.5.1 Service
13 7
MAC
L'originalité du service MAC est que la primitive d'émission de données, MA_UNITDATA.request, permet de demander le transfert de plusieurs SDU dans un même appel pour rentabiliser le haut débit du canal. Pour la transmission d'une ou plusieurs SDU d'une sous-couche LLC à une autre sous-couche LLC (voire plusieurs LLC), la sous-couche MAC construit par encapsulation la ou les trames (MPDU — MAC Protocol Data Units) à émettre, à partir de la ou des MSDU (MAC Service Data Units) passées en paramètres de la primitive MA_UNITDATA.request. Chaque sous-ensemble de paramètres {FC, adresse_destination, MSDU, classe_service, suite} caractérise une trame et est en fait traité comme une sous-requête. L'ensemble des paramètres de la primitive permet de créer les MPDU correspondantes aux différentes MSDU. A la réception et capture d'un jeton approprié, la station commence à émettre ses trames dans l'ordre précisé par la primitive et en accord avec les règles de temps de maintien du jeton (THT) et de temps de rotation du jeton (TRT). Lors de la transmission, une séquence de contrôle (FCS) est calculée pour chaque trame et est insérée en fin de trame. Si TRT ou THT expire ou qu'une trame ne peut être émise du fait de son paramètre classe_service (si TRT a expiré ou THT = 0 seules les trames synchrones peuvent être émises), alors la transmission cesse et un jeton est généré, en fonction du paramètre classejeton (restreint ou non). La primitive MA_UNITDATA_STATUS.indication fournit une réponse locale à la primitive MA_UNITDATA.request précédemment invoquée, signifiant le succès ou l'échec de cette dernière via le paramètre status_transmission. Elle est équivalente à la primitive de confirmation des protocoles IEEE. Le paramètre nb_SDU détermine le nombre de MSDU transmises. Si la requête portait sur plus d'une MSDU, status_transmission s'applique à toutes les MSDU transmises ; il indique en fait si les indicateurs A et C de la trame MAC ont été correctement positionnés par l'entité distante MAC. Le paramètre classe_service indique la classe de service qui a été fournie pour le transfert (synchrone ou asynchrone). La primitive MA_UNITDATA.indication indique le transfert de données de la sous-couche MAC à la sous-couche LLC au niveau des entités réceptrices. Il y a une indication générée pour chaque trame reçue. Ses paramètres sont FC — la valeur du champ FC de la trame MAC, DA — l'adresse du destinataire, MSDU — le champ d'information de la trame — et le paramètre status_réception qui indique si la trame reçue par la couche MAC est correcte ou non.
5.5.2 Services
PHY
et
PMD
La primitive PH_UNITDATA.request définit le transfert de données d'une souscouche MAC à l'entité physique locale. Le symbole spécifié par le paramètre ph_request (symbole) est l'un des suivants : J, K, T, R, S, I ou alors l'un des symboles de données appartenant à {0..9, A, B, C, D, E, F } .
138 Architecture des réseaux haut débit L'entité physique envoie à son entité M A C utilisatrice une primitive PH_UNITDATA.indication chaque fois que la couche physique décode un symbole. La primitive PH_UNITDATA_STATUS.indication fournit un acquittement local à la primitive PH-UNITDATA.request. Le paramètre status_transmission indique le succès ou l'échec de la requête. La primitive PM_UNIDATA.request permet à une entité PHY de transmettre un code-bit NRZI à une entité PMD. Inversement, l'indication correspondante, PM_UNITDATA.indication, est utilisée par une entité PMD pour transmettre un code-bit NRZI à une entité PHY. La primitive PM_SIGNAL.indication permet à une entité PMD d'indiquer à une entité PHY le niveau du signal optique reçu par cette même entité PMD. Le status est correct si le niveau du signal est en dessus d'une valeur seuil minimum.
5.6. Administration
de
FDDI
Toute la difficulté du protocole FDDI réside dans la gestion de l'anneau. Il faut qu'en cas de problème, la continuité de l'anneau soit préservée, que l'allocation des ressources reste équitable, que la prise du jeton soit renégociée, les erreurs détectées et corrigées, etc. Le protocole Token Ring (cf. chapitre 4) utilise une station particulière, appelée moniteur, ayant en charge la totalité de la gestion du réseau. Cependant, à la suite d'un incident, l'anneau FDDI peut être partitionné en plusieurs sous-anneaux. L'approche moniteur centralisé nécessiterait alors un gestionnaire par sous-anneau. De plus, une station à double attachement peut, le cas échéant, constituer un anneau à elle seule et elle doit par conséquent être en mesure de s'autogérer. C'est pourquoi il a été décidé qu'une entité de gestion serait présente dans chacun des nœuds FDDI — station ou concentrateur. Cette entité de gestion locale qui fait partie intégrale d'une station FDDI est appelée SMT (Station ManagemenT) [IS 10608-14]. Chaque station est gérée par un agent qui décide des actions à entreprendre. Il donne des ordres ou demande des informations à la station et reçoit des notifications d'elle. Les différents agents du réseau FDDI peuvent s'échanger des informations via des protocoles prévus à cet effet. A titre d'exemple, l'un des protocoles permet à une station d'obtenir l'adresse MAC de la station adjacente. Chaque entité SMT gère sa propre MIB (Management Information Base) qu'elle met à jour régulièrement grâce aux réponses aux requêtes qu'elle envoie et aux notifications reçues lors de changements significatifs des paramètres opérationnels. Un protocole offre la possibilité à une entité SMT de consulter, voire de modifier des objets d'une entité SMT distante. SMT contrôle le fonctionnement des couches MAC, PHY et PMD, fournit des services au système de gestion du réseau NMS (Network Management System) et
FDDI (Fiber Distributed Data Interface)
139
communique avec d'autres agents SMT. Son rôle principal est la gestion de la configuration du réseau, ce qui regroupe la gestion des connexions, du bypass, de l'initialisation, de la détection d'erreurs ou de pannes, de la reconfiguration, de la détection d'adresses dupliquées, etc. SMT doit initialiser la couche MAC en lui transmettant les paramètres dont elle a besoin et peut à tout moment effectuer des modifications selon le comportement du réseau. De façon plus générale, on a deux types de communications : - les communications inter-stations : elles utilisent des protocoles de gestion distante (cf. 5.6.2) ; - les communications intra-station qui concernent l'ensemble des informations échangées entre SMT et les différentes couches composant une station FDDI ainsi que les échanges mis en œuvre pour le fonctionnement et la synchronisation des automates constituant l'entité SMT. Le travail à effectuer par SMT est décomposé et réalisé par des sous-entités. Il n'est en effet pas concevable qu'une entité de gestion s'occupe de l'attachement au lien, de la connexion des différents ports, de la configuration et de la couche MAC. SMT est donc découpé en plusieurs entités auxquelles sont associés des automates décrivant leur fonctionnement.
5.6.1. Blocs
et
entités
SMT
SMT est composé de deux grands blocs : CMT (Connection ManagemenT) et RMT (Ring ManagemenT). 5.6.1.1. Lé- bloc CMT CMT est responsable de la gestion des composants de la couche physique et de leurs interconnexions ainsi que de la configuration des entités MAC et PHY à l'intérieur d'une station pour réaliser l'attachement logique de cette station au réseau FDDI. Un attachement physique à FDDI comprend un ou plusieurs ports, une entité PHY et une entité PMD par port ainsi qu'une ou plusieurs entités MAC. Une entité port implémente les sous-couches PHY et PMD et garantit le codage et décodage des symboles ainsi que leur transmission à travers le support optique. C M T réalise l'insertion et le retrait de port, la connexion des entités de port PHY aux entités MAC. Il contrôle et dirige l'établissement de l'attachement du média au réseau FDDI et les connexions physiques avec les ports des autres stations et concentrateurs. Les fonctions de CMT sont : - l'établissement et l'initialisation des connexions physiques : • lancement du test du chemin, • contrôle du commutateur optique de dérivation (bypass), • test de continuité de la connexion, • refus des connexions illégales ou indésirables, • signaux sur la topologie physique,
140
Architecture des réseaux haut débit
• boucle locale de configuration avec le MAC voisin ; - le contrôle de la configuration de la station : • placement des entités MAC valides ; - la détection des fautes au niveau physique : • surveillance de la continuité du lien, • reconfiguration sur faute de niveau physique ; - le support des fonctions de traçage des fautes ; - le test de fiabilité des liens ; - le contrôle de la qualité des liens ; - le support des états de maintenance de ligne ; - l'indication de disponibilité de connexion. C M T est composé de trois entités : - l'ECM (Entity Coordination Management) porte sur l'interface entre le média et le réseau FDDI (coordination de tous les ports associés avec cet attachement physique et contrôle de la fonction de dérivation de la couche PMD). Elle avertit l'entité PCM lorsque le médium est disponible et lance le test du chemin pour localiser les fautes (MAC local et MAC amont). Il n'y a qu'une seule instance d'ECM présente dans une station ou un concentrateur FDDI ; - l'entité PCM (Physical Connection Management) gère la connexion physique entre un port local et un port d'une autre station. Elle initialise la connexion des ports voisins et gère les signaux entre ces ports. Elle fournit les signaux nécessaires à l'initialisation d'une connexion, au refus d'une mauvaise connexion et à la maintenance. Il n'y à qu'une instance de PCM par port d'attachement ; - l'entité CEM (Configuration Element Management) gère la configuration des entités MAC et des ports à l'intérieur d'une station ou d'un concentrateur. Elle réalise l'interconnexion des entités PHY et MAC pour configurer les ports et les entités M A C dans un nœud. Afin de réaliser ces interconnexions, des "commutateurs", appelés CCE (Configuration Control Element), sont nécessaires. On peut les voir comme des aiguillages qui relient des ports et des entités MAC à l'intérieur d'une station. Les commutateurs réalisent donc la notion de chemin (path), un chemin étant l'interconnexion entre une entité port et une entité MAC. CEM connecte et déconnecte les ports selon les drapeaux de PCM. Il y a une instance de CEM par port. 5.6.1.2. Le bloc
RMT
RMT est responsable de la gestion de la couche MAC. Il reçoit des informations d'état en provenance de MAC et CMT et rapporte l'état de MAC. Il y a une instance de RMT par entité MAC.
F D D I (Fiber Distributed Data Interface)
141
Les fonctions de RMT sont : - la détection des fautes dans la couche MAC : • identification d'un échec de Beacon, • détection des duplications d'adresses qui empêchent l'anneau de devenir opérationnel, • résolution des duplications d'adresses pour rendre l'anneau opérationnel ; - l'initialisation des fonctions de traçage d'erreurs ; - la notification de la disponibilité de MAC pour l'envoi de données.
autres entités de gestion de station
La figure 5.12 résume l'architecture de SMT au niveau d'une station FDDI.
RMT
MAC / par MAC
E
pkrpo* CCE
CEM
C M / par nœud
/ pkrpoM PHY PCM PMD
CMT
contrôle du commutateur opt de dérivation
mm Figure 5.12. L'architecture
5.6.2. Les
services
port
de SMT
SMT
Les fonctions et services de trames SMT peuvent être utilisés par des fonctions de gestion de plus haut niveau qui rassemblent des informations et exercent un contrôle sur le réseau FDDI. En effet, SMT sert d'interface entre les stations de l'anneau FDDI et le système de gestion du réseau NMS (Network Management System). SMT transmet à NMS les informations recueillies tout au long de l'acheminement des trames, comme par exemple les taux d'erreurs ou le nombre de trames envoyées ou reçues. Des protocoles de communication inter-stations permettent d'établir des statistiques sur le réseau, de détecter, d'isoler et de résoudre les fautes survenues sur un anneau, de surveiller la configuration du réseau et les paramètres opérationnels, tout cela pour satisfaire les exigences de performance et de connectivité des applications :
1 42
Architecture des réseaux haut débit
- Neighbor
Notification
Protocol
permet :
• à MAC de déterminer l'adresse logique de la station en amont et celle de la station en aval, • de détecter les duplications d'adresses MAC SMT sur un anneau opérationnel, • de vérifier périodiquement les opérations du MAC local (chemins d'émission et de réception). Ces fonctions sont réalisées périodiquement en échangeant des trames NIF (Neighbor Information Frame) entre MAC et son voisin en aval le plus proche ; - Status Report Protocol permet à une station d'annoncer périodiquement son état. Lorsque des compteurs ont dépassé des seuils donnés, des conditions sont signalées à l'aide de trames SRF (Status Report Frame). Par exemple, une condition d'erreur de trame MAC est activée si le taux d'erreurs des trames MAC excède un seuil prédéfini ou, encore, une condition de duplication d'adresse est signalée si une entité MAC détecte qu'elle ou sa voisine en amont possède une adresse dupliquée ; - Parameter Management Protocol permet une gestion à distance des stations en agissant sur l'ensemble des attributs de la MIB FDDI d'une station par l'intermédiaire d'opérations Get, Add, Change et Remove. Les trames PMF (Parameter Management Frame) permettent de réaliser ces opérations. Bien que SMT ait défini ses propres protocoles pour la gestion à distance de stations FDDI, d'autres protocoles de gestion système peuvent être utilisés, tels que SNMP d'Internet ou CMIP de l'ISO. De plus, la communauté Internet a développé une MIB FDDI SNMP pouvant être manipulée par le protocole SNMP. Il existe entre SMT et les différentes couches de FDDI (MAC, PHY et PMD) des primitives de services permettant à SMT de contrôler et de gérer ces couches. Ces primitives sont internes à la station : - entre SMT et MAC : • SM_MA_INITIALIZE_PROTOCOL.request est utilisée pour une demande de reconfiguration de la couche MAC acquittée par une indication qui indique le succès ou l'échec de la primitive ; • SM_MA_UNITDATA.request permet le transfert de données vers une ou plusieurs entités SMT homologues acquittée par une indication qui indique le succès ou l'échec de la primitive ; • SM_MA_TOKEN.request est utilisée par SMT pour demander le jeton lorsque des données doivent être transférées alors qu'elles présentent des contraintes de temps ;
FDDI (Fiber Distributed Data Interface)
143
- entre RMT et MAC : • SM_MA_CONTROL.request permet de contrôler des opérations de l'entité MAC locale. Une indication permet alors à MAC d'informer SMT des changements d'états significatifs étant survenus ; - entre CMT et PHY : • SM_PH_LINE_STATE.request correspond à une demande d'émission pour un flot continu de symboles identiques (lors de l'insertion ou du retrait d'une station) ; • SM_PH_CONTROL.request permet le contrôle des opérations de PHY. Une indication permet ensuite à PHY d'avertir CMT des changements d'états ; - entre SMT et PMD : • SM_PM_Signal.Indication permet à PMD de renseigner SMT sur l'état du niveau du signal optique entrant ; - entre CMT et PMD : • SM_PM_CONTROL.request permet l'activation/désactivation de l'émetteur optique par SMT ; • SM_PM_BYPASS.request permet l'insertion ou le retrait de SMT de l'anneau ; - entre SMT et RMT : • SM_RM_CONTROL.request permet à SMT de contrôler RMT. Une indication permet alors à RMT d'informer une entité SMT locale de changements significatifs (machine à états, MAC_Avail, Loop_Avail, Trace_started, DA_Flag, NO_Flag) ; - entre SMT et CMT : • SM_CM_CONNECT.request : SMT, par cette primitive, demande à CMT d'entamer une séquence de connexion ou de déconnexion ; • SM_CM_CONTROL.request permet à SMT de contrôler C M T . Une indication émise par CMT notifie SMT de changements d'états significatifs (machine de ECM ou CFM, Path_test, etc.). D'un point de vue administration de réseaux (modèle organisationnel), MAC est un Agent pour RMT et RMT est un Manager pour MAC. Aussi, PHY et PMD sont des Agents pour CMT et CMT est un Manager pour PHY et PMD. De la même façon, RMT et CMT sont des Agents pour SMT et SMT est un Manager pour RMT et CMT.
144 Architecture des réseaux haut débit
5.6.3. La MIB
SMT
Dans la spécification de SMT, un certain nombre d'objets de gestion sont définis, avec leurs attributs, les actions qu'ils supportent et les notifications qu'ils émettent, dans le but de faciliter l'administration d'un réseau FDDI dans un environnement OSI. La figure 5.13 décrit le modèle de gestion de FDDI. Elle montre les relations entre les objets de gestion d'un réseau FDDI et les composants de SMT. Les objets de gestion dans S M T sont ceux de la station (ou du concentrateur), de ses entités MAC, de ses chemins et de ses ports. chemins de données en transmission
chemins de données •n réception
trames SMT >pérations _
RMT nnérntinns
agent de gestion
objet SMT
lOtifications
opérations
notifications
notifications
abjet(s) MAC
objet(s) D A TU
CMT opérations notifications
objet(s) PORT
station FDDI
Figure 5.13. Le modèle
de gestion de SMT
La classe d'objets SMT modélise l'ensemble des informations nécessaires à la gestion d'un nœud FDDI. Une seule entité SMT y est présente. La classe d'objets SMT contient des attributs (identificateur de la station, numéro de version, nombre de MAC dans la station, chemins disponibles dans la station, possibilités de configuration, états des automates ECM et CFM, etc.), des opérations (actions sur SMT) et des notifications. La classe d'objets MAC modélise l'ensemble des informations nécessaires à la gestion d'entités MAC à l'intérieur d'un nœud FDDI. Plusieurs entités MAC peuvent y être présentes (jusqu'à 255). A chaque entité MAC est associée une instance de la classe d'objets MAC. La classe d'objets MAC contient des attributs (nombre de trames reçues ou transmises, valeurs maximales pour T_MAX et TVX, état de l'automate de RMT, etc.), des opérations (actions sur MAC) et des notifications.
FDDI (Fiber Distributed Data Interface)
145
La classe d'objets PORT modélise l'ensemble des informations nécessaires à la gestion d'entités PORT à l'intérieur d'un nœud FDDI. Plusieurs entités PORT peuvent y être présentes (jusqu'à 255). A chaque entité PORT est associée une instance de la classe d'objets PORT. La classe d'objets PORT contient des attributs (type du port, état des automates de CEM et de PCM, taux d'erreurs sur le lien, raison du refus de la connexion, etc.), des opérations (actions sur PORT) et des notifications. La classe d'objets PATH modélise l'ensemble des informations nécessaires à la gestion d'entités PATH à l'intérieur d'une station — les chemins. A chaque entité PATH est associée une instance de la classe d'objets PATH. Un PATH permet d'interconnecter les PORT et les MAC. La classe d'objets PATH contient des attributs (status du chemin, configuration du chemin, allocation de la bande passante synchrone pour ce chemin, valeurs maximales de T_MAX et TVX pour le chemin, etc.), des opérations (actions sur PATH) et des notifications.
5.7. L a c o u c h e
physique
Comme nous l'avons vu en figure 5.2, la couche physique est divisée en deux sous-couches, PMD (Physical Medium Dependent) et PHY.
5.7.1. Couches
PHY
et
PMD
La sous-couche PHY a pour principal objectif d'offrir une interface identique à la sous-couche MAC quelle que soit la PMD sous-jacente c'est-à-dire quel que soit le support. Elle est responsable de la transmission de bits sur le support physique, du codage/décodage et de la synchronisation. La technique de codage adoptée, pour des raisons d'efficacité, est le codage 4B/5B NRZI qui consiste à associer à tout groupe de 4 bits un mot de code de 5 bits appelé symbole. L'intérêt de ce type de codage est d'éliminer les longues suites de 0 (qui pourraient empêcher le récepteur de se synchroniser sur l'horloge de l'émetteur) et de permettre l'introduction de symboles supplémentaires utiles au protocole. Les symboles de 5 bits sont ensuite codés selon le procédé NRZI (Non Return to Zero Inverted) qui consiste à produire une transition du signal sur la ligne chaque fois et uniquement lorsqu'un bit à 1 est transmis, afin de maintenir la synchronisation du récepteur sur l'émetteur. La figure 5.14 (a) montre un exemple de codage NRZI.
1 46
Architecture des réseaux haut débit
1
1
1
1
— p é r i o d e — 2
1
1
1
1
bits par période (62,5 Mhz)
(a) NRZI 1
1
i
i
î
i
!
i
4 bits par période (32,25 Mhz)
- période-
(b) MLT-3 Figure 5.14. Codage d'une suite de "I"
5.7.2. Couche
PMD
et supports
de
FDDI
La couche PMD spécifie toutes les caractéristiques optiques et physiques des équipements employés pour assurer une connexion entre deux stations adjacentes de l'anneau (câbles, connecteurs, commutateurs, émetteurs et récepteurs optiques). Au départ, une seule PMD a été normalisée, basée sur une fibre multi mode. Du fait du coût de son raccordement, des propositions plus économiques ont été faites utilisant soit une fibre moins chère (Low-Cost Fiber) ou la paire torsadée. Ces propositions sont conçues par l'ANSI et en cours de normalisation à l'ISO. Cependant des produits sont d'ores et déjà disponibles sur le marché. 5.7.2.1.
MMF-PMD
Initialement, PMD [IS 9314-3] spécifie les caractéristiques de la station et le câblage sur la base de fibre multimode (à gradient d'indice 62,5/125 u m de préférence) ou monomode (8-10 um). D'autres fibres multimodes peuvent être utilisées, aussi la norme spécifie les paramètres de qualité du signal à respecter de manière à assurer l'interopérabilité. Le choix de ce support a été motivé par sa qualité, tant au niveau de sa bande passante (autorisant des débits élevés) que de sa faible atténuation (autorisant des distances de transmission importantes) et que de son immunité aux bruits (limitant le taux d'erreurs de transmission). PMD spécifie un connecteur optique duplex à base de LED (cf. 2.3.4) transmettant sur une longueur d'onde nominale de 1 300 nm sur des liens d'au plus 2 km.
FDDI (Fiber Distributed Data Interface)
5.7.2.2.
147
SMF-PMD
Certains réseaux FDDI nécessitent des connexions inter-stations supérieures à 2 km c'est pourquoi il a été spécifié une couche SMF-PMD (Single Mode FiberPMD) [ANSI 184]. Sur fibre optique monomode, l'émission se fait grâce à des diodes lasers permettant l'extension de la distance inter-stations jusqu'à 60 km sur des réseaux privés. 5.7.2.3. FDDI sur
SONET
Pour fédérer des réseaux locaux relativement distants, il a été proposé une alternative au lien direct par câble privé en utilisant le système de transmission public sur fibre optique, SONET (Synchronous Optical NET work) [ANSI Tl-105]. SONET est un système de transmission optique numérique utilisé dans les réseaux publics qui définit une hiérarchie de débit ainsi qu'une structure d'enveloppe — il est décrit en détail dans le chapitre 8. FDDI sur SONET (SPM — SONET Physicallayer Mapping) utilise le niveau STS-3 à 155 Mbit/s. 5.7.2.4.
TP-PMD
Malgré ses performances, la méthode d'accès FDDI est restée marginale, avec une utilisation principalement confinée à la fédération de réseaux locaux classiques. Pour basculer de la dizaine de Mbit/s offerte par Ethernet ou Token Ring à la centaine de Mbit/s offerte par FDDI, il est nécessaire de procéder à un recâblage des locaux, d'installer des concentrateurs FDDI, d'installer des cartes à composants optiques onéreux, etc. En fait, le coût élevé des composants optiques s'est avéré être le principal obstacle à un déploiement rapide de FDDI, même s'il a diminué de plus de 50 % dans ses quatre premières années. Tout cela a amené un bon nombre de constructeurs à démarrer des développements de FDDI sur paires torsadées, avec des appellations diverses : générique avec CDDI (Copper DDI) ou plus spécifiques avec TP-DDI (Twisted Pair DDI) ou SDDI (Shielded twisted pair DDI). Parallèlement, un projet de normalisation du protocole sur câblage en cuivre était lancé à l'ANSI et devrait être validé sous le nom de TP-PMD (Twisted Pair — Physical Medium Dependent) [ANSI 201]. Les principaux problèmes engendrés par l'utilisation de supports métalliques sont liés à la puissance du signal et aux interférences électromagnétiques. En effet, l'atténuation augmente avec l'élévation de la fréquence du signal et, pour maintenir un bon rapport signal sur bruit, il faut soit augmenter le niveau de signal (davantage de puissance), soit avoir recours à des techniques de codage qui produisent des signaux à fréquence plus faible. L'augmentation de puissance entraînant une augmentation des interférences, il est alors préférable d'utiliser des techniques de codages adaptées.
1 48
Architecture des réseaux haut débit
Les supports retenus sont la paire torsadée blindée (STP) type 1 et la paire torsadée non blindée (UTP) catégorie 5. Dans le cas du premier, le blindage présente l'avantage de prévenir les interférences électromagnétiques et l'utilisation du codage 4B/5B NRZI reste possible. Dans le cas de la paire non blindée, la technique de codage qui a été retenue est le MLT-3 (MultiLevel Transmission 3). Ce codage peut être vu comme une extension du NRZI sur trois niveaux. Ces trois niveaux sont représentés par +1, 0 et - 1 . Comme dans le NRZI, un bit à 0 est codé par l'absence de transition, et un bit à 1 par la présence d'une transition. Les transitions successives vont dans le même sens (elles sont soit ascendantes, soit descendantes) mais changent de sens dès que le signal atteint le niveau +1 ou - 1 . La figure 5.14 donne l'exemple du codage d'une suite de huit bits à " 1 " dans le cas du NRZI à deux niveaux et du MLT-3 à trois niveaux. Après le codage 4B/5B, le signal FDDI a un débit binaire brut de 125 Mbit/s (100 Mbit/s utiles * 5/4). Avec le codage NRZI, chaque période de signal consistant en 2 bits, on obtient une fréquence de signal à 62,5 MHz. Avec le codage MLT-3, la période est de 4 bits et conduit à une fréquence de 32,25 MHz. Pour renforcer la protection contre les interférences électromagnétiques, l'ANSI a également adopté un mécanisme d'embrouillage chargé de répartir uniformément l'énergie du signal sur tout son spectre. Depuis la mi-93, les annonces de produits TP-PMD sont nombreuses. Malheureusement, le standard n'étant pas définitivement figé, ces offres restent plus ou moins propriétaires (attention à l'inter-opérabilité !). Par ailleurs, la baisse continuelle du prix de la fibre et des composants optiques ainsi que la limitation en distances (100 m au lieu de 2 km pour FDDI) expliquent en partie le peu d'intérêt porté à cette technologie par les constructeurs et les utilisateurs. 5.7.2.5.
LCF-PMD
Toujours dans l'optique de diminuer les coûts de FDDI, l'ANSI, parallèlement à ses travaux sur TP-PMD, a créé un comité appelé LCF-PMD (Low-Cost Fiber — Physical Medium Dependent) [ANSI 237]. Comme le nom le suggère, le comité s'était donné comme objectif de trouver une fibre moins chère que la fibre multimode 62,5/125 um spécifiée dans la norme FDDI. D'autres alternatives, telles que la fibre plastique ou la fibre 200/300 um, ont été considérées avant d'être abandonnées dès lors qu'il fut admis que le coût réel portait, non pas sur la fibre elle-même, mais sur les équipements. La suite des travaux a donc porté sur la spécification d'émetteurs et de récepteurs optiques à moindre coût. Ces derniers sont moins chers car d'une part, la distance maximale entre deux équipements a été ramenée à 500 m et d'autre part, les contraintes de qualité (puissance d'émission et de réception) ont été rendues moins strictes.
FDDI (Fiber Distributed Data Interface)
149
5.8. Les dérivés 5.8.1. FDDI
II
FDDI II est une extension de FDDI qui lui reste compatible [IS 9314-5]. II ajoute à F D D I la possibilité d'acheminer du trafic isochrone (véhiculé traditionnellement grâce à une technique de commutation de circuits) en sus des trafics asynchrone et synchrone (généralement véhiculés par commutation de paquets). En effet, FDDI ne se prête pas à la transmission de flux continus à débit constant. Même si la classe de service synchrone permet de garantir un débit minimum, elle ne permet pas de traiter et de restituer un flux de données uniforme sans aucune variation. Les services visés sont ceux qui nécessitent un accès strictement périodique, tels que la voix, le son ou encore les images numériques. La technique utilisée dans FDDI II pour rendre un service en mode circuit consiste à imposer une structure de trame toutes les 125 us. Une connexion en mode circuit repose alors sur un intervalle de temps donné dans la trame récurrente. Les canaux sont établis par SMT. 5.8.1.1. Architecture
de FDDI II
La couche physique et SMT sont semblables à ceux de FDDI. La différence porte sur la sous-couche MAC. Deux nouveaux composants y sont introduits (figure 5.15) : - HMUX (Hybrid Multiplexer) se charge de multiplexer les trames MAC et les données isochrones soumises par IMAC, - IMAC (Isochronous MAC) fournit une interface entre FDDI et le service isochrone (représenté par le multiplexeur de circuits commutés). LLC
multiplexeur de circuits commutés
MAC IMAC
HMUX
s M T
PHY
PMD
Figure 5.15. Architecture
de FDDI II
1 5 0 Architecture des réseaux haut débit
5.8.1.2. Mode de fonctionnement
hybride
Un réseau FDDI II peut fonctionner selon deux modes : - en mode de base : seul le service en mode paquet est disponible et on retrouve alors un fonctionnement strictement identique à celui de FDDI ; - en mode hybride : les services en mode paquet et en mode circuit sont simultanément offerts. Quand des stations FDDI et FDDI II coexistent sur un même réseau, seul le mode de base peut être utilisé. Lorsque le mode de fonctionnement hybride est utilisé, une station primaire est chargée de générer un cycle toutes les 125 u s . Un cycle est en fait une trame circulant sur l'anneau et dont le contenu est visible par toutes les stations du réseau. Il sera retiré de l'anneau par cette même station primaire. A 100 Mbit/s, la longueur d'un cycle est de 12 500 bits. Sa structure est donnée en figure 5.16. On y trouve un préambule de 5 symboles, soit 20 bits, servant à assurer la synchronisation, l'en-tête de cycle, codé sur 12 octets et contenant des informations sur l'utilisation du reste du cycle, 16 canaux à haut débit (WBC — Wide Band Channel) de 96 octets chacun et, enfin, le DPG (Dedicated Packet Group) constitué de 12 octets dédiés uniquement au trafic de type paquet et entrelacés avec les 16 WBC. A un instant donné, l'anneau peut contenir plusieurs cycles. en-tête de cycle
préambule
DPG 0[
DPG 11L
• 16 octets ~
F i g u r e 5 . 1 6 . Structure d'un cycle FDDI II
% rangées
WBC is
WBC 14
WBC 13
WBC 12
WBC 1 1
WBC 10
WBC 9
WBC 8
WBC 7
WBC 6
WBC 5
WBC 4
WBC 3
WBC 2
WBC 1
WBCO^
DPG 1
FDDI (Fiber Distributed Data Interface)
15 1
Chaque canal à haut débit offre une capacité de 6,144 Mbit/s et peut être utilisé en mode circuit comme en mode paquet. En regroupant tous les canaux utilisés en mode paquet avec le DPG, on obtient un canal de paquets de données, dont la capacité varie alors de 768 kbit/s à 99,072 Mbit/s par pas de 6,144 Mbit/s et dont l'accès est contrôlé par le mécanisme de jeton temporisé. La répartition des octets sur les différents canaux est réalisée par le multiplexeur hybride HMUX. La sous-couche IMAC peut diviser un canal WBC en sous-canaux. Le tableau 5.2 donne la répartition de la capacité entre les différents canaux.
nombre de bits par cycle
débit (Mbit/s)
surdébit (préambule + en-tête) N canaux en mode circuit canal de paquets de données
116 N*768 96 + ( 1 6 - N ) * 768
total
12 500
0,928 N * 6,144 0.768 + ( 1 6 - N ) * 6,144 100
Tableau 5.2. Répartition
de la capacité
entre les canaux
5.8.2. F FOL FDDI et FDDI II fonctionnent tous deux à 100 Mbit/s et il faudrait un réseau fédérateur offrant un débit encore plus élevé pour interconnecter plusieurs réseaux FDDI. Aussi a-t-il été ressenti, au sein de l'ANSI, le besoin d'une suite au réseau FDDI qui serait à FDDI ce que FDDI est aux réseaux tels que Token Ring. Le projet FFOL (FDDI Follow-On Lan) a ainsi démarré sur une nouvelle génération de réseaux à hauts débits [Ross 92], [Hamstra 92], [Fink 92]. Les objectifs visés initialement étaient de : - servir de réseau fédérateur, de la même façon que FDDI, dans un premier temps ; - servir de réseau local d'attachement de stations, dans un deuxième temps, ce pour répondre aux besoins d'interconnexion de stations de travail à très hautes performances ; - tirer profit de l'expérience acquise avec FDDI ; - anticiper le besoin (FDDI a mis 8 ans pour être complètement spécifié) ; - être prêt pour 1995 (!!!). Pour atteindre ces objectifs, la démarche qui a été choisie a été, non pas une mise à niveau de FDDI, mais plutôt une refonte complète des protocoles et des services, notamment pour des raisons de compatibilité avec les débits des transporteurs internationaux (SDH) et les systèmes de transmission de cellules.
I 52
Architecture des réseaux haut débit
Les besoins qui ont été identifiés pour FFOL sont nombreux et portent sur différents points : - les services : FFOL doit présenter bien évidemment une compatibilité ascendante avec ses prédécesseurs FDDI (services asynchrone et synchrone) et FDDI II (service isochrone des canaux à large bande). Il doit permettre aisément l'interconnexion de plusieurs réseaux FDDI, aussi bien que l'interconnexion avec SMDS ou le BISDN. Enfin, l'éventail des applications à supporter est très large et va des applications traditionnelles (transfert de fichiers, transactionnel) aux nouvelles applications multimédias, en passant par les applications temps réel. - les débits : 1,25 Gbit/s sur de la fibre optique multimode, les débits de charge utile devant être conformes à ceux définis dans la hiérarchie SDH ; - la topologie et les considérations de câblage : la topologie de câblage en anneau double est à conserver pour pouvoir utiliser des réseaux FDDI existants ou des pré-câblages d'immeubles en fibre optique ; - le codage : il est sujet à discussion, un codage de type 4B/6B ou de type 8B/10B — qui autoriserait davantage de codes de contrôle — ou un autre procédé qui permettrait d'augmenter le parallélisme sur l'interface électrique ? - les modes d'accès au support : FFOL doit supporter le mode paquet pour les services asynchrone et synchrone, le mode circuit pour le service isochrone et aussi le mode asynchrone (type ATM) pour les services avec ou sans connexion ; - les méthodes d'accès au support : les techniques envisagées sont l'anneau ou le bus avec temps discrétisé, l'anneau ou le bus à insertion de registre ou encore l'anneau ou le bus à jeton ; - la topologie logique : l'anneau et le bus permettent un point de contrôle centralisé pour générer des tranches de temps ou allouer des ressources. L'anneau permet de plus un mécanisme de reprise réparti et de son côté, le bus ne pose pas de problème de retrait de trames ; - les propriétés de l'accès au support : il s'agit principalement de mécanismes de réservations, de pré-allocations et de priorités, du mécanisme utilisé pour retirer les trames dans le cas d'un anneau et du multicast (envois multi-destinataires) ; - la reprise sur erreur et sur panne : elle est vue au travers d'un mécanisme de redondance et de temps maximum pour la reprise et la reconfiguration. Les travaux au sein de l'ANSI sont en cours mais ils ont été récemment ralentis par la mise en concurrence avec d'autres standards visant le gigabit (ATM, HIPPI (High Performance Parallel Interface), etc.) [Tolmie 92].
FDDI (Fiber Distributed Data Interface)
1 53
Exercices Exercice
5.1
Comparez les réseaux FDDI et Token Ring en termes de débit, codage, taille maximale de trame, format de trame, système de priorités, relâche du jeton, topologie, distance inter-stations et de couverture géographique. Exercice
5.2
Indiquez la signification des bits A, C et E situés dans le champ FS de la trame FDDI et précisez leur rôle. Exercice
5.3
La couche physique du protocole FDDI utilise le codage 4B/5B NRZI, chaque symbole étant codé sur 5 bits. Comme le codage Manchester, il assure suffisamment de transitions pour éviter une dérive de phase entre les horloges de la station émettrice et de la station réceptrice. Quel est donc l'avantage d'un tel codage par rapport au codage Manchester habituellement utilisé ? Exercice
5.4
Remplacez les ... par les mots manquants : Lorsque le jeton arrive et T R T o 0: THT := . . . (1) . . . ; si LATE_CT = . . . ( 2 ) . . . alors TRT := TTRT ; émission synchrone ; si LATE_CT = 0 et THT > 0 alors émission asynchrone pendant THT ; LATE_CT : =
. . . (3) . . . ;
Lorsque le jeton arrive et TRT = 0 : LATE_CT : = . . . ( 4 ) . . . ; TRT : = . . . (5) . . . ;
Exercice
5.5
Quels types d'erreurs peuvent entraîner la circulation de plusieurs jetons sur l'anneau ? Exercice
5.6
Des données isochrones peuvent-elles être transmises grâce à la classe de service synchrone de FDDI ?
1 54 Architecture des réseaux haut débit Exercice
5.7
On considère une station connectée à un réseau FDDI de débit 100 Mbit/s. Le temps de rotation du jeton sur l'anneau est de 2 ms. Dans l'implantation considérée, seuls trois niveaux de priorités sont possibles pour les données asynchrones, notés 0. 2 et 4, où 4 représente la priorité la plus élevée. La station génère plusieurs types de trafic, répartis comme suit : - t r a f i c synchrone : 10 connexions synchrones transférant 25 octets à chaque passage de jeton ; - trafic asynchrone de priorité 4 : 1 3 Mo de données temps réel ; - trafic asynchrone de priorité 2 : transfert d'une image de 1 Mo ; - pas de trafic de niveau 0. Sachant que le surdébit d'une trame FDDI (préfixe et suffixe) est de 28 octets et que le temps de possession du jeton (THT) est toujours de 50 us : 1. Quelles sont les valeurs respectives des temps de transmission pour chaque type de trafic ? 2. Combien d'octets de l'image seront envoyés à chaque passage du jeton ? 3. Quel sera le temps total de transfert de l'image ? 4. Combien de stations au maximum peuvent être actives simultanément ? Exercice 5.8 [Walrand 93] Montrez qu'en l'absence de trafic synchrone à transmettre, la durée entre deux passages du jeton est inférieure à TTRT + THT. On considérera pour cela deux stations A et B sur un anneau FDDI, où A est le prédécesseur de B et on notera t le temps de propagation de A à B. En supposant que l'assertion est vraie pour A, on montrera qu'elle est vraie pour B. p
Exercice
5.9
On considère un réseau FDDI à 100 Mbit/s et comportant 300 nœuds. Chaque nœud introduit un délai d de 16 temps-bit lors du passage d'une trame. Le jeton a une longueur de 100 bits. Le temps de propagation sur la fibre est de t = 3 , 9 . 1 0 s. L'efficacité du réseau est définie comme étant le temps utile sur le temps d'un cycle lorsque toutes les stations transmettent. En d'autres termes, c'est le ratio entre le temps passé par les stations à transmettre des trames et le temps de rotation du jeton. Exprimez l'efficacité du réseau en fonction de TTRT. 4
p
A.N. : TTRT
= 10 ms.
FDDI (Fiber Distributed Data Interface)
Exercice
1 55
5.10
On désire comparer deux mécanismes de priorités entre plusieurs types de trafic d'une même station utilisant un protocole de jeton temporisé. On considère 4 niveaux de priorité : 1 > 2 > 3 > 4. Les deux algorithmes sont : Algorithme 1 : TTRT : durée cible de rotation du jeton TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT
THT : temporisateur armé à l'arrivée du jeton et initialise avec le reliquat de TRT SA : durée de la transmission des données de haute priorité 1) à l'arrivée du jeton, THT = TRT 2) transmission du trafic de priorité 1 pendant SA 3) pour les niveaux de priorité /, i = 2, 3, 4, transmission des données de niveau i jusqu'à épuisement des données à transmettre ou expiration de THT
4) armer TRT 5) rendre le jeton Algorithme 2 : TTRT : durée cible de rotation du jeton (la même pour toutes les stations) Chaque station définit 3 durées et utilise 4 temporisateurs : TTRTj : durée limite de rotation du jeton pour la classe de priorité /, i = 2, 3, 4 TRT : temporisateur réarmé à chaque relâche de jeton et initialise à la valeur de TTRT
TRTj : temporisateur de la classe de priorité i, i = 2, 3, 4, réarmé à chaque relâche du jeton et initialise avec la valeur de TTRTj 1) arrivée du jeton 2) émission des trames de niveau des données à transmettre 3) émission des trames de niveau 4) émission des trames de niveau 5) émission des trames de niveau
1 jusqu'à expiration de TRT ou épuisement 2 jusqu'à expiration de TRT 3 jusqu'à expiration de TRT 4 jusqu'à expiration de TRT
2
3
4
6) armer les temporisateurs 77? 7\ TRT , TRT 2
3
et
TRT
4
7) rendre le jeton 1. Dans l'algorithme 2, on désire garantir un temps de cycle d'au plus TTRT. Quelle relation existe-t-il entre les durées TTRT, TTRT , TTRT, et TTRT ? 2
4
2. Sur un diagramme des temps, montrez le fonctionnement des deux algorithmes, en expliquant les conditions de votre exemple. 3. Ces deux mécanismes sont-ils équivalents ? Si oui, pourquoi ? Si non, donnez les conditions pour avoir une équivalence.
Chapitre 6
DQDB (Distributed Queue Dual Bus)
6.1.
Introduction
DQDB (Distributed Queue Dual Bus) [IEEE 802.6] a été adopté par 1TEEE sous le nom de protocole MAN (Metropolitan Area Network) dans le standard 802.6. Rappelons que les caractéristiques des réseaux métropolitains sont proches de celles des réseaux locaux, puisqu'ils permettent multi-accès et diffusion. Cependant, ils couvrent des distances plus importantes, de plusieurs dizaines de kilomètres, et ont pour objectif principal l'interconnexion à haut débit (de l'ordre de 100 Mbit/s) de réseaux locaux. Le protocole DQDB est issu des travaux menés par Telecom Australia dans le projet QPSX (Queued Packet and Synchronous Switch) [Newman 88]. Il a été retenu comme standard MAN car il présente une bonne stabilité de ses performances sous forte charge et fournit un service isochrone orienté connexion tout en permettant le transfert de trafic asynchrone en mode connecté ou non. Le service isochrone s'appuie sur une trame de cellules répétée toutes les 125 us dans laquelle certaines cellules sont réservées au transfert isochrone en fonction du débit de la connexion. Le mode asynchrone utilise la bande passante restante. FDDI est le principal concurrent de DQDB même si FDDI est de plus en plus utilisé comme réseau local haut débit sur paires torsadées plutôt que comme réseau fédérateur. DQDB en conjonction avec le service SMDS (cf. chapitre 9) s'est développé principalement aux Etats-Unis mais n'a pas vraiment réussi à s'implanter en Europe où le choix du réseau support pour l'interconnexion de réseaux locaux s'est davantage orienté vers des liaisons haut débit et le relais de trames, puis à moyen terme, vers le réseau large bande.
1 58
Architecture des réseaux haut débit
Les débits retenus pour DQDB sont de 45 Mbit/s, 155 Mbit/s et pourront évoluer ultérieurement jusqu'à 600 Mbit/s. La topologie du réseau DQDB est constituée d'une paire de bus unidirectionnels de sens inverse. Pour pouvoir émettre et recevoir vers/de l'ensemble des stations du réseau, chaque station est connectée en émission et en réception sur chaque bus. La figure 6.1 montre la configuration logique d'une telle topologie. Par convention, le bus supérieur est noté bus A et le bus inférieur est noté bus B. bus A i
nœud
±1
nœud
nœud
±1
bus B
Figure 6.1. Topologie
T
±1 J
générateur de trames
^
terminateur de trames
du réseau
DQDB
Sur chaque bus, le temps est discrétisé en tranches de temps appelées slots ou cellules. A l'extrémité amont de chacun des bus, un générateur émet une suite finie de cellules contenue dans une trame ; cette trame est répétée toutes les 125 LIS pour permettre le transfert de trafic isochrone. Le nombre de cellules dans la trame dépend du débit physique sur le bus. Le partage entre les stations se fait au moyen d'un tour de rôle réalisé de manière distribuée et garantissant une équité d'accès entre les stations, un temps d'accès déterministe et une bonne utilisation de la ressource de transmission. Les performances du protocole de la file distribuée sont stables quelle que soit la charge. Sous faible charge, le temps d'accès est négligeable. Sous forte charge, le taux d'utilisation est proche de 100 % car toute la bande passante est utilisée et le surplus de gestion du protocole est faible. N'utilisant pas de mécanisme de type jeton, le protocole n'est pas sensible aux erreurs et nécessite peu de gestion des fautes. Pour peu qu'un générateur de cellules puisse émettre périodiquement une trame de cellules, le protocole fonctionne sur tous types de supports. Enfin, la structure de la cellule DQDB est compatible avec celle du protocole ATM définie pour le réseau large bande. On verra aussi que les mécanismes de fragmentation/réassemblage des entités asynchrones ainsi que les mécanismes de stockage de l'entité isochrone sont comparables avec les mécanismes fournis par les AAL (ATM Adaptation Layer) pour ces mêmes services.
DQDB (Distributed Queue Dual Bus)
159
6.2. Architecture d'un nœud D Q D B Comme les autres standards IEEE, le standard DQDB spécifie deux couches de protocoles. Il s'agit ici de la couche physique et de la couche DQDB. L'architecture fonctionnelle d'un nœud DQDB est présentée en figure 6.2. La couche physique possède les fonctionnalités de la couche physique OSI et spécifie la manière d'utiliser différents supports de transmission. L'entité PLCF (Physical Layer Convergence Function) permet de présenter un service uniforme à la couche DQDB et ce quel que soit le support utilisé. Contrairement à FDDI, la couche physique n'est pas divisée en deux sous-couches. LLC Logical Link Control
M
LME Layer Management Entity
MCF MAC Convergence Function
COCF Connection Oriented Convergence Function
I
ICF Isochronous Convergence Function
-5 o PAF Pre-Arbitrated Functions
QAF Queue Arbitrated Functions
o
U
CF Common Functions LME Layer Management Entity
PLCF Physical Layer Convergence Function
medium
medium
1
Figure 6.2. Architecture
3 S2 O
fonctionnelle
d'un nœud
DQDB
La couche DQDB assure les différents modes d'accès au support et correspond à la sous-couche MAC définie dans les autres standards de réseaux locaux. Contrairement à ces derniers, elle fournit en plus du service sans connexion habituel, deux services supplémentaires à la sous-couche LLC, soit les trois services suivants : - un service asynchrone sans connexion qui permet le transfert de données n'ayant pas de contraintes temporelles,
16 0
A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t
- un service asynchrone orienté connexion qui permet le transfert de données sporadiques, - un service isochrone orienté connexion qui permet le transfert de trafic ayant de fortes contraintes temporelles. Les entités MCF (MAC Convergence Function), COCF (Connection Oriented Convergence Function) et ICF (Isochronous Convergence Function) permettent de présenter le service attendu par les couches supérieures indépendamment de la méthode d'accès utilisée. Pour les services asynchrones, DQDB met en œuvre la méthode de la "file d'attente distribuée", réalisée dans l'entité fonctionnelle QAF (Queued Arbitrated Functions). Pour le service isochrone, DQDB emploie une méthode d'accès avec réservation préalable, réalisée par l'entité fonctionnelle PAF (Pre-Arbitrated Functions)(cf. 6.3). Enfin, les entités LME (Layer Management Entity) fournissent les fonctions de gestion propres à chaque couche.
6.3. Accès au support 6.3.1. Accès
temporel
synchrone
L'accès à la transmission se fait par l'intermédiaire d'un train continu de cellules ou slots de taille fixe qui circule sur chaque bus. En réception, les stations lisent et copient les données depuis les cellules. En émission, les stations écrivent dans les cellules sous le contrôle du protocole d'accès, la SDU étant fragmentée puis transmise dans autant de cellules que nécessaire. Comme les bus A et B sont unidirectionnels et fonctionnent en sens inverse, les stations du réseau effectuent un routage en fonction de la destination de leur émission ; par exemple, dans la configuration de la figure 6.3, la station j écrit dans une cellule du bus A pour transmettre vers la station k et inversement, dans une cellule du bus B pour transmettre vers la station i. Pour diffuser de l'information, la station émet sur les deux bus simultanément. bus A
station
station
station
bus B
Figure 6.3. Train
de
cellules
DQDB (Distributed Queue Dual Bus)
161
Les générateurs placés à l'extrémité de chacun des bus émettent le train de cellules (encore appelé trame de synchronisation) toutes les 125 u s ce qui correspond à une trame de 2 430 octets maximum pour un débit normalisé de 155 Mbit/s. De la longueur de la trame de synchronisation dépend le nombre de cellules transportées.
6.3.2. La
cellule
DQDB
La cellule DQDB a une taille fixe de 53 octets. Notons que la longueur et la structure des cellules DQDB sont compatibles avec celles des cellules utilisées dans la technique ATM. La figure 6.4 donne le format général de la cellule DQDB. Le premier octet véhicule le champ de contrôle d'accès à la cellule (AC — Access Control) ; celui-ci se décompose en cinq sous-champs : - le bit BB (Busy Bit) indique l'état d'occupation de la cellule ; une valeur à 1 signifie que la cellule est occupée par un transfert de données, une valeur à 0 signifie qu'elle est libre ; - le bit Type indique le type de la cellule et par conséquent le type de service autorisé à l'utiliser : il est positionné à 0 pour les cellules QA (Queued Arbitrated) utilisables par le service asynchrone et à 1 pour les cellules PA (Pre-Arbitrated) utilisables par le service isochrone ; - le bit PSR (Previous Slot Reserved) vise à permettre la réutilisation de la même cellule grâce au retrait du segment par le précédent récepteur. Il n'est pas encore utilisé pour le moment ; - les deux bits Res (Reserved) sont inutilisés et réservés pour un usage ultérieur. Ils sont positionnés à 00 par défaut ; - les trois bits RQ, de requête, servent à mettre en œuvre le protocole de la file d'attente distribuée. Ce dernier utilise trois niveaux de priorité possibles pour le trafic asynchrone. A chaque niveau de priorité est associé un bit de requête (request bit) de poids compris entre 0 (basse priorité) et 2 (haute priorité).
1 octet
52 octets
AC (Access Control)
segment
1 bit
1 bit
BI
type
1 bi
mm
2 bits
3 bit:
Res
RO
BB • Busy Bit PSR - Previous Slot Reserved Res - Reserved RQ - Request Bits
Figure 6.4. Format de la cellule
DQDB
1 6 2 Architecture des réseaux haut débit
6.3.3. Les t r o i s classes de s e r v i c e s La trame de synchronisation contient différents types de cellules (PA ou QA) utilisables par l'un ou l'autre des services offerts par la couche DQDB. Dans la suite, nous décrivons l'utilisation des cellules par les trois classes de service, à savoir isochrone, asynchrone avec ou sans connexion. 6.3.3.1. Le mode
isochrone
Le mode isochrone est orienté connexion. Préalablement à tout transfert de données, un protocole de signalisation permet d'établir une connexion isochrone ou circuit. La connexion peut être point à point ou point à multipoint. La demande d'établissement de la station définit le débit moyen désiré, ce qui est traduit par l'entité de gestion par une périodicité de transfert associée à un nombre d'octets isochrones transférés à chaque période. La connexion isochrone est identifiée par un identificateur appelé VCI (Virtual Channel Identifier) transporté dans l'en-tête du segment de la cellule. Le générateur de cellules a la charge de réserver suffisamment de cellules pour satisfaire aux contraintes de la connexion (période) ; elles sont forcément de type PA (Pre-Arbitrated) et le champ VCI de leur segment est initialise avec celui de la connexion isochrone. Une cellule PA contient 48 octets de charge utile (cf. 6.4.4) qui peuvent être partagés par des stations différentes. Lors de l'établissement d'une connexion isochrone, une station se voit donc attribuer par la gestion du réseau une quantité d'octets dans la cellule PA d'un certain VCI ainsi que la position de ces octets à l'intérieur de la cellule (position relative par rapport au début du champ de données du segment PA). La station mémorise alors VCI, position des octets et l'identificateur (CEP — Connection End Point) de la connexion isochrone correspondante dans une table. Pour accéder à une cellule PA, la station examine tout d'abord son VCI puis écrit ou lit les octets à partir de la position indiquée dans sa table. Ce multiplexage des connexions isochrones dans une même cellule évite la gaspillage de bande passante ; en effet, une communication téléphonique ne nécessite qu'un octet toutes les 125 u.s, il est alors possible de multiplexer 48 communications téléphoniques dans une même cellule. Une cellule PA dont le VCI n'est pas défini dans la table de la station est ignorée par la station. 6.3.3.2. Le mode asynchrone
sans
connexion
Le mode asynchrone sans connexion utilise les cellules de type QA (Queued Arbitrated). Etant sans connexion, le champ VCI n'est pas utilisé et tous ses bits sont positionnés à 1. Sur réception d'une requête de transmission LLC, l'entité MCF encapsule la SDU dans une IM-PDU (Initial MAC PDU). Ensuite, elle la fragmente en blocs de 44 octets pour l'adapter à la taille réduite de la cellule. Elle ajoute un préfixe et un suffixe aux fragments qui deviennent ainsi des segments. Le préfixe permet notamment d'associer un segment à une IM-PDU au moyen du champ MID (Message IDentifier). Le MID est unique sur le réseau et se retrouve
DQDB (Distributed Queue Dual Bus)
16 3
dans tous les segments constituant un même message évitant ainsi le transport de l'adresse destinataire dans chaque segment. Le préfixe sert aussi à indiquer la position du fragment dans la PDU (début, milieu, fin) ainsi que son numéro de séquence. Enfin, la station place dans l'ordre d'arrivée des SDU et dans l'ordre de fragmentation, les segments dans une file d'attente locale des segments à transmettre. La station qui a au moins un segment à transmettre prend alors part au protocole de la file distribuée où toutes les stations désirant transmettre concourent pour l'accès aux cellules QA vides. Ce protocole ne concerne que l'envoi du segment placé en tête de la file d'attente de la station. Ce qui signifie que la station ne peut émettre qu'un segment à la fois. Elle entrera de nouveau en compétition pour l'envoi du segment suivant. En réception, chaque station examine toutes les cellules QA qui passent. Si le segment reçu est un segment de début de message, elle examine aussi l'adresse de destination : si le segment lui est destiné, la station enregistre alors la valeur de MID. Elle continue alors à scruter les cellules QA et copie tous les segments contenant le MID enregistré jusqu'à réception d'un segment de fin de message. 6.3.3.3. Le mode asynchrone
avec
connexion
Le mode asynchrone avec connexion utilise, à l'instar du mode précédent, les cellules de type QA. Ce mode orienté connexion permet de transférer des données sur des canaux virtuels. La procédure de segmentation et réassemblage est la même que celle utilisée par le mode asynchrone sans connexion. Les connexions établies après une procédure de signalisation sont caractérisées par leurs valeurs de VCI contenues dans l'en-tête de segment. L'accès aux cellules vides se fait aussi grâce au protocole de la file distribuée que nous décrivons dans le paragraphe suivant. A la différence du mode isochrone, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.
6.3.4. Protocole
de
la file
distribuée
L'accès aux cellules QA est contrôlé par deux bits du champ AC, le bit d'occupation (busy bit) qui indique si la cellule est vide ou occupée et le bit RQ du niveau de priorité considéré qui sert à signaler aux autres stations une requête de transmission d'un segment et à prendre position dans la file distribuée. La file distribuée est une fonction qui permet la formation et le fonctionnement d'une file de segments QA distribuée à travers le réseau. La file distribuée détermine l'instant d'émission d'une station en fonction de l'instant de sa requête et des requêtes des autres stations ; elle évite le phénomène de famine où une station en
164
Architecture des réseaux haut débit
amont du bus utiliserait tous les slots disponibles. Ce protocole donne des performances analogues à celles d'une file centralisée, avec la garantie d'un temps d'accès borné. La file distribuée est contrôlée par des compteurs dans chaque nœud. Une file distribuée séparée fonctionne pour chacun des bus avec des compteurs propres à l'intérieur du sous-système MAC de chaque nœud. Ces compteurs sont contrôlés même si la station n'a aucun segment à envoyer. Voyons maintenant le fonctionnement de la file distribuée. Dans un souci de simplicité, nous ne considérerons qu'un seul niveau de priorité. Lorsqu'elle a un segment à transmettre, une station doit d'abord le signaler aux autres stations en envoyant une requête aux stations placées en amont du bus sur lequel elle désire transmettre. Si la station veut émettre sur le bus A, elle prévient alors les stations en amont d'elle-même (sur le bus A) grâce à une requête sur le bus B. Elle modifie alors le bit RQ du premier slot qui passe sur le bus B si celui-ci était initialement à 0. Pour gérer la formation d'une file sur le bus A, il faudra alors gérer d'une part, le bit d'occupation BB sur le bus A et d'autre part, le bit de requête RQ sur le bus B. Dans le même temps, toutes les stations gèrent une file des segments à transmettre pour le bus A. Cette file est matérialisée par deux compteurs internes à chaque station : - le compteur de requêtes RC (Request Counter) est incrémenté à chaque nouvelle demande d'émission d'une station située en aval sur le bus A, c'est-à-dire à chaque passage d'un bit RQ positionné à 1 sur le bus B. Il est décrémenté à chaque passage d'une cellule vide (bit d'occupation à 0) sur le bus A car cela signifie qu'une requête pour un nœud en aval va être satisfaite (figure 6.5 (a)) ; - le compteur d'émission CD (CountDown counter) indique le nombre de requêtes d'émission faites par les stations en aval à satisfaire avant que la station puisse transmettre ses propres informations. Il est décrémenté à chaque passage d'une bus A.
bus A
. slot vide
slot vide
compteur de requêtes RC
compteur de requêtes RC
requête
compteur à rebours CD
requête busB
(a) comptage des requêtes Figure 6.5. Gestion des compteurs
bus B (b) attente avant transmission de la file
distribuée
DQDB (Distributed Queue Dual Bus)
165
cellule vide (bit d'occupation à 0) sur le bus A (figure 6.5 (b)). Lorsqu'il atteint zéro, le tour de la station est arrivé et elle peut transmettre dans le prochain slot vide qui passe sur A. Le compteur RC est géré en continu, que la station ait ou non un segment à transmettre. Le compteur CD n'est utilisé que lorsque la station a un segment à transmettre. Récapitulons les opérations exécutées par un nœud qui désire envoyer un segment sur le bus A : - envoyer une requête sur le bus B ; - transférer la valeur courante du compteur de requêtes RC dans le compteur à rebours CD et remettre le compteur RC à 0. Le compteur CD contient donc le nombre de requêtes à satisfaire avant que le nœud puisse transmettre ; - décrémenter de 1 le compteur CD chaque fois qu'un slot vide passe sur le bus A ; - incrémenter de 1 le compteur RC chaque fois qu'une requête pour le bus A passe sur le bus B. Le compteur RC contient donc le nombre de nouvelles requêtes c'est-à-dire transmises après que le nœud ait fait la sienne ; - si le compteur CD est égal à zéro, écrire le segment dans le prochain slot vide qui passe sur A. A noter qu'un nœud ne peut pas enregistrer une requête venant d'un nœud en amont sur le bus A. La file distribuée garantit que les nœuds en amont auront accès au moment approprié du fait de leur position sur le bus. Considérons l'exemple de la figure 6.6 où un sous-réseau contient 4 nœuds en attente de transmission. Les compteurs de requête (RQ) et à rebours (CD) sont initialement à zéro et tous les slots passant sur le bus A sont occupés (par des segments PA, par exemple). Les nœuds S4, S2 et S3 effectuent chacun une requête dans cet ordre. Les figures (a), (b) et (c) montrent le déroulement de chaque requête et la mise à jour des compteurs. Sur la figure (d), un slot vide passe sur le bus A entraînant la décrémentation des compteurs et la transmission du nœud S4 dont le compteur était déjà à zéro. Les prochains slots vides seront affectés au nœud S2 puis au nœud S3, ce qui respecte l'ordre de leurs requêtes. En outre, DQDB gère en option trois niveaux de priorité différents, chacun d'eux étant associé à l'un des trois bits du sous-champ RQ du champ AC de la cellule. Le mécanisme de priorité permet à un segment de priorité haute d'être émis avant un segment de priorité plus faible. La station effectue donc une requête en fonction du niveau de priorité de son segment dans le bit RQ adéquat. Chaque station ne gère
66
Architecture des réseaux haut débit
bus A
bus B (a) le nœud S4 effectue une requête
bus A -
bus B (b) le nœud S2 effectue une requête
bus A
bus B (c) le nœud S3 effectue une requête
bus A •
bus B (d) le nœud S4 transmet son segment F i g u r e 6 . 6 . Fonctionnement
de la file
distribuée
donc plus deux compteurs par bus, mais deux compteurs par niveau de priorité et par bus soit trois files distribuées par bus et six files en tout. Le passage d'un slot vide consistera à décrémenter d'abord le compteur de plus haute priorité. La priorité est
DQDB (Distributed Queue Dual Bus)
167
absolue en ce sens qu'un segment de priorité faible ne peut être transmis que s'il n'y a pas de segment de priorité supérieure à transmettre par une station du réseau, même si la requête pour le segment de haute priorité a été faite après celle du segment de faible priorité.
6.3.5. Equilibrage
de la charge
(BandWidth
Balancing)
De nombreuses études ont montré que cette méthode induit un partage de la bande passante qui n'est pas équitable sous des conditions de forte charge et pour un réseau très étendu. Le protocole n'est plus équitable car les nœuds situés près du générateur de tranches ont accès plus facilement au canal de transmission. En effet, lorsque le réseau est étendu, le temps de propagation sur le bus n'est plus négligeable et la requête d'un nœud aval arrive après un délai au nœud le plus en amont. Ce délai laisse à ce dernier le temps d'utiliser la première cellule QA vide puisqu'il ne fait jamais de requête. Cette inéquité s'accentue avec la distance et le débit du réseau. Proposé par AT&T et adopté par 1TEEE, le mécanisme de Bandwidth Balancing permet de contourner ce problème [Hahne 90], [Sumita 92). Il consiste, pour chaque station qui a transmis successivement n segments, à laisser passer une cellule vide bien que son compteur CD soit à zéro. Un compteur supplémentaire (BWB_CNT) est alors nécessaire pour compter le nombre de cellules vides successives utilisées par la station. Dès que ce compteur atteint un seuil, la station laisse passer la cellule vide suivante et remet ce compteur à zéro. Une station n'utilisera donc qu'un pourcentage de la bande passante qu'elle aurait pu utiliser (90 % pour n = 9). De nombreuses autres variantes ont été proposées pour pallier le problème de I'inéquité de DQDB [Sadiku 94].
6.4. Les unités de données du protocole 6.4.1. Fragmentation
et
encapsulations
DQDB successives
Dans les entités des services asynchrones (MCF et COCF), la SDU transmise à la couche MAC subit des adaptations qui consistent tout d'abord à ajouter les informations nécessaires à la gestion du protocole, puis à ajuster sa taille à celle de la cellule (figure 6.7). Ainsi, la SDU est d'abord encapsulée dans une IM-PDU (Initial MAC PDU) qui est ensuite fragmentée, chaque fragment étant encapsulé dans une DM-PDU (Derived MAC PDU). Chaque DM-PDU est à son tour encapsulée dans un segment qui correspond à la zone de données de la cellule.
1 6 8
A r c h i t e c t u r e d e sr é s e a u x h a u t d é b i t
SDU IM-PDU fragment 1
fragment 2
fragment 3
fragment 4
--•
V"—
DM-PDU
DM-PDU
BOM
DM-PDU
COM
segment
DM-PDU
; COM
segment
EOM
segment
segment
BOM - Beginning Of Message COM - Continuation Of Message EOM - End Of Message
Figure 6.7.
6.4.2. L'IM-PDU
Fragmentation
(Initial
MAC
et
encapsulations
Protocol
de
Data
la
SDU
Unit)
L'IM-PDU est utilisée par le mode de transfert asynchrone. Elle peut être assimilée à une trame de niveau MAC. Une IM-PDU comprend un en-tête, une zone de données, des octets de bourrage pour amener F IM-PDU à un multiple de 4 octets, un champ de contrôle d'erreur ainsi qu'un suffixe (figure 6.8). 24 octets
Oà 9188 octets
IM-PDU Header
Data
4 octets
20 octets
Common PDU Header
MCP Header
1 octet
Res
1 octet
0 à 3 octets 0 ou 4 octets
2 octets
PAD
Common PDU Trailer
CRC32
" 0 à 20 octets
1 octet
Header Extension 8 octets
BEtag BAsize
4 octets
DA
8 octets
1 octet
2 octets
Res BEtag
Length
6 bits 2 bits
SA
f octet
- - • 2 octets
PI
PL QoS/HEL
(60 - N) bits
ATbits-
3 bits
Padding
MSAP Address
Delay
Bridging
-,.--'4 bits
Address Type
Figure 6.8.
Format
de
1 bit
1 bit 3 bits
Loss CIB HEL
l'IM-PDU
L'en-tête de l'IM-PDU comprend un champ de 4 octets, commun aux deux services asynchrones, et un champ de 20 octets, spécifique au service sans connexion, le champ MCP (MAC Convergence Protocol) ainsi qu'un champ Header Extension qui n'est pas encore défini à ce jour.
D Q D B (Distributed Queue Dual B u s )
16 y
Le champ commun contient un octet réservé à une utilisation future et positionné à zéro. Le champ BEtag (Beginning-End Tag) est un numéro de séquence de IM-PDU incrémenté de 1 à chaque émission, modulo 256, qui permet de contrôler les opérations de segmentation et de réassemblage effectuées sur la SDU. Le champ BAsize (Buffer Allocation size) indique la taille minimale du tampon nécessaire à la réception de la SDU. Le champ MCP Header ne concerne que le mode sans connexion et fournit donc tous les renseignements nécessaires à la transmission d'une telle PDU. Ainsi, on trouve les adresses de destination (DA — Destination Address) et de source (SA — Source Address) ainsi que des indications concernant le service de transfert désiré. Le format des adresses est différent de celui utilisé par les réseaux locaux car la longueur de l'adresse peut aller jusqu'à 60 bits, permettant ainsi d'adresser un plus grand nombre de stations. Les champs adresses peuvent contenir trois types d'adresse de MSAP (MAC Service Access Point) qui diffèrent de par leur longueur ( 16, 48 ou 60 bits). Sur 60 bits, il est permis des adresses au format E.164 qui définit le plan d'adressage RNIS sur 15 digits. Si l'adresse est gérée par une administration publique, les trois premiers chiffres désignent le pays (défini par l'UIT) et les deux champs suivants, de longueur variable, désignent respectivement le réseau public et le numéro d'abonné à ce réseau. Les quatre premiers bits précisent le type et la longueur d'adresse. Les différents codes du champ Address Type sont donnés dans le tableau 6.1. code
signification
0100
adresse sur 16 bits
1000
adresse sur 48 bits
1100
adresse sur 60 bits, individuelle, publique
1101
adresse sur 60 bits, individuelle, privée
1110
adresse sur 60 bits, de groupe, publique
1111
adresse sur 60 bits, de groupe, privée
autre
réservée
T a b l e a u 6 . 1 . Le champ Address
type
Tous les bits du champ Padding sont positionnés à 0. Prenons comme exemple le cas d'une adresse de MSAP codée sur 48 bits. Le champ Padding est alors constitué de 60 - 48 = 12 bits, tous égaux à 0. Le champ MSAP Address se décompose, selon un schéma similaire à celui utilisé par les réseaux locaux, en un bit I/G (égal à 0 lorsque l'adresse est individuelle et à 1 lorsqu'elle est de groupe), un bit U/L (égal à 0 lorsque l'adresse est gérée globalement et à 1 lorsqu'elle l'est localement), suivis des 46 bits proprement dits d'adresse.
1 70
Architecture des réseaux haut débit
Le champ PI (Protocol Identifier) identifie l'utilisateur du service MAC (LLC ou entités de gestion). Le champ PL (Pad Length) indique la longueur du champ de bourrage de l'IM-PDU qui est de 0,1,2 ou 3 octets, de telle sorte que la longueur totale des champs données et bourrage soit un multiple de 4 octets. Le champ QoS/HEL de MCP Header est divisé en quatre sous-champs dont la sémantique est la suivante : - Delay (délai) permet d'activer le service de transfert avec priorité au délai court ; - Loss (perte) est actuellement inutilisé et est positionné à 0. Son rôle vise à définir une priorité à la perte des trames en cas de congestion ; - CIB (CRC32 Indicator Bit) indique la présence (CIB = 1 ) ou l'absence (CIB = 0) du champ CRC32 dans l'IM-PDU ; - HEL (Header Extension Length) indique la longueur en unité de 32 bits du futur champ Header Extension. Le dernier champ du MCP Header, Bridging, est réservé pour une utilisation future dans le cadre de l'interconnexion au niveau de la couche MAC. Il définirait alors le nombre maximum de ponts que l'IM-PDU aurait le droit de traverser ; décrémenté à chaque pont traversé, une valeur nulle provoquerait la destruction de l'IM-PDU. Le champ de données (Data) contient l'unité de données MAC, la SDU. Sa longueur est comprise entre 0 et 9 188 octets inclus. Le champ PAD possède une longueur égale à 0, 1, 2 ou 3 octets. Sa longueur exacte est telle que : nb_octets(PAD) = 3 - modulo (3 + nb_octets(Data) + nb_octets(MCP Header) + nb_octets(Header Extension), 4). La longueur d'une IMPDU doit être multiple de 4. Le champ PAD permet donc de rajouter des octets de b o u r r a g e afin d'obtenir cette condition nécessaire à la fonction de fragmentation/réassemblage de l'IM-PDU en DM-PDU. Le champ CRC32 permet de détecter les éventuelles erreurs de transmission. Il est optionnel. Le champ de suffixe, Common PDU Trailer, répète le champ BEtag d'en-tête afin de fournir une sécurité supplémentaire. Une condition nécessaire mais non suffisante de validité de l'IM-PDU est que les deux champs BEtag présentent la même valeur. Le champ Length contient la longueur totale en octets des champs Data, MCP Header, Header Extension et CRC32. La valeur de ce champ permettra de contrôler la longueur de L'IM-PDU après fragmentation et réassemblage.
DQDB (Distributed Queue Dual Bus)
6.4.3. La DM-PDU
(Derived
MAC Protocol
Data
171
Unit)
La taille de l'IM-PDU pouvant être trop longue pour être directement insérée dans un slot pour sa transmission, elle est fragmentée en un ou plusieurs fragments d'au plus 44 octets. Un préfixe (DM-PDU Header) et un suffixe (DM-PDU Trailer) de 2 octets chacun sont ajoutés à chaque fragment pour former une DM-PDU (figure 6.9). 44 octets
2 octets
Segmentation Unit
DM-PDU Trailer
2 octets
DM-PDU Header 2 bits
4 bits
1 Obits
- - 6 bits
10 bits
Segment Type
Sequence Number
MID
Length
CRC
Figure 6.9. Format de la DM-PDU
L'en-tête contient l'information nécessaire au réassemblage dune IM-PDU et représentée dans trois champs : le type de segment (Segment_Type), le numéro de séquence (Sequence Number) et l'identificateur de message (MID) : - le champ SegmentJType est codé en fonction de la longueur de l'IM-PDU et de la position du fragment dans celle-ci (tableau 6.2) ; longueur de l'IM-PDU
position du fragment
Segment Type
< 44 octets
un fragment unique
SSM (Single Segment Message)
premier fragment
BOM (Beginning Of Message)
fragment intermédiaire
COM (Continuation Of Message)
dernier fragment
EOM (End Of Message)
> 44 octets
Tableau 6.2. Type de
DM-PDU
- le champ Sequence Number contient un numéro de séquence incrémenté modulo 16 qui permet au moment du réassemblage de l'IM-PDU de vérifier l'ordre et la réception effective de toutes les DM-PDU ; - le champ MID permet au récepteur de reconnaître à quelle IM-PDU appartient chaque DM-PDU reçue. Le suffixe de la DM-PDU (DM-PDU Trailer) contient les informations nécessaires à la détection d'erreurs au niveau de cette DM-PDU : - le champ Length indique le nombre d'octets qui occupent le champ Segmentation Unit de la DM-PDU. Ce nombre est un multiple de 4 et inférieur ou
1 72
Architecture des réseaux haut débit
égal à 44. Pour les DM-PDU de type BOM et COM, la valeur de ce champ est toujours égale à 44. Les DM-PDU de type SSM ont une longueur comprise entre 28 et 44 octets, et les DM-PDU de type EOM, une longueur comprise entre 4 et 44 octets ; - le champ CRC permet de détecter les erreurs apparues lors de la transmission.
6.4.4. Le
segment
Le segment constitue la charge utile (payload) de la cellule DQDB. Un segment QA inséré dans un slot QA transporte des données QA, alors qu'un segment PA encapsulé dans un slot PA, transporte des données PA. Chaque segment est composé d'un en-tête de 4 octets et d'un champ de données de 48 octets (figure 6.10). 4 octets
48 octets
Segment Header
Data
20 bits
2 bits
VCI
Payload Type
~ '2 bits - - - - 8 bits
Segment Priority
F i g u r e 6 . 1 0 . Format d'un
HCS
segment
L'en-tête du segment est composé des champs suivants : - l'identificateur de canal virtuel (VCI) auquel appartient la cellule, utilisé uniquement en mode connecté ; - le type des données transportées (Payload Type) : pour les données utilisateur, ce champ est positionné à 00, les autres valeurs étant réservées ; - le champ de priorité (Segment Priority) n'est pas utilisé pour l'instant et est positionné à 00 ; - le champ HCS (Header Check Sequence) permet de détecter les erreurs sur l'entête de segment.
6.5. Le protocole
DQDB
La couche DQDB comprend un ensemble de blocs fonctionnels (cf. figure 6.2). Il s'agit de la fonction de convergence MAC (MCF), de la fonction de convergence orientée connexion (COCF) et de la fonction de convergence isochrone (ICF) qui fournissent les différents types de service DQDB. Nous allons détailler le fonctionnement de ces différentes entités.
DQDB (Distributed Queue Dual Bus)
6.5.1. Fonction
de
convergence
MAC
17 3
(MLh)
Ce bloc fonctionnel fournit à la couche LLC le service MAC DQDB pour les services asynchrones. 6.5.1.1. Processus
d'émission
Le processus d'émission du bloc M C F est responsable de la création d'une IMPDU à partir des paramètres de la primitive MA-UNITDATA.request reçue de la couche LLC. Il assure ensuite la fragmentation de cette IM-PDU ainsi que 1'encapsulation des fragments obtenus dans des DM-PDU. Chaque DM-PDU est ensuite passée à l'entité Q A F (Queue Arbitrated Function) qui effectue la transmission des DM-PDU dans des segments QA, à la priorité demandée (figure 6.11). LLC - Logical Link Control M A_UN1TD ATA.request MCF - MAC Convergence Function création d'une IM-PDU IM-PDU
segmentation de l'IM-PDU unité de segmentation création d une DM-FDL DM-PDU, VCI, type de charge utile, priorité de segment OAF - Queue Arbitrated Functions F i g u r e 6 . 1 1 . Le processus
6.5.1.2. Processus
de
d'émission
du bloc de convergence
MAC
réception
Ce processus de réception a pour but de réassembler une IM-PDU à partir des fragments contenus dans les DM-PDU reçues par le bloc MCF. Le réassemblage est réalisé à partir des DM-PDU effectivement adressées à la station et sous les conditions suivantes : Segment_Type de type QA, VCI identiques dans l'en-tête de segment (en mode connecté), DM-PDU reçues sans erreur, MID identiques dans l'entête de la DM-PDU. Le processus de réception initialise une nouvelle IM-PDU à chaque fois qu'il reçoit une DM-PDU de type BOM (Beginning Of Message) destinée à la station. Il enregistre alors VCI et MID, puis il concatène les DM-PDU
1 74
Architecture des réseaux haut débit
correctes correspondantes et de type COM (Continuation Of Message) dans l'ordre de leur numéro de séquence ; le réassemblage est terminé lors de la réception de la DMPDU de type EOM (End Of Message).
LLC - Logical Link Control MAJJN1TDATA. indication MCF - MAC Convergence Function extraction de MSDU
DM-PDU (SSM;
validation de 1'IM-PDl
IM-PDU réassemblage de l'IM-PDl DM-PDU (BOM, COM, EOM) sélection du processus de réassemblage D M - P D U , VUl,
type de charge utile, priorité de segment QAF - Queue Arbitrated Functions
Figure 6.12. Le processus de réception du bloc de convergence MAC
Chaque IM-PDU reconstituée est validée si elle vérifie les quatre critères suivants : - la valeur du sous-champ Length est égale au nombre d'octets reçus pour l'IMPDU moins 8 octets (ces derniers correspondent à la longueur des champs Common PDU Header et Common PDU Trailer qui ne sont pas comptabilisés dans le champ Length) ; - la valeur du champ BEtag de l'en-tête est égale à celle du suffixe ; - le total de contrôle (s'il existe) est correct ; - la valeur du champ HEL de l'en-tête MCP est comprise entre 0 et 5.
D Q D B (Distributed Q u e u e Dual B u s )
175
Si l'un des critères n'est pas vérifié, 1TM-PDU est rejetée. Si ces quatre conditions sont vérifiées, la fonction d'extraction extrait le champ de données de l'IM-PDU correspondant à la MSDU et initialise les paramètres de la primitive MA_UNITDATA.indication à partir des autres champs de l'IM-PDU (adresses et priorité). Ensuite, une primitive MA_UNITDATA.indication est transmise avec ses paramètres vers la sous-couche LLC (figure 6.12).
6.5.2. Fonction de fonctionnelle PAF
convergence
isochrone
(ICF)
et
entité
L'entité fonctionnelle PAF (Pre-Arbitrated Functions) de la couche DQDB assure le contrôle d'accès aux canaux isochrones. Les canaux isochrones sont préalablement établis par un processus de signalisation qui ne fait pas partie de la couche DQDB. L'établissement définit, entre autres, la valeur de l'identificateur de la connexion, le VCI, qui permet à l'entité fonctionnelle PAF de reconnaître les segments utilisés pour cette connexion. A l'établissement, est aussi défini pour cette connexion, le déplacement des octets dans le segment pour lire ou écrire ses données. Chaque station enregistre ces paramètres (VCI et déplacement des octets) associés au point d'extrémité de connexion (CEP) dans une table des connexions isochrones établies. Les blocs de fonctions PAF reçoivent et transmettent des octets du service isochrone, à débit moyen garanti, mais ces octets ne sont pas forcément distribués régulièrement. L'irrégularité de leurs arrivées dépend de la distribution des slots PA générés par la fonction de marquage de slots de la station d'extrémité, ainsi que du nombre d'octets portés par chaque slot PA pour chaque connexion isochrone. Le rôle de l'ICF (Isochronous Convergence Function) est, si nécessaire, de fournir une temporisation afin de lisser toute irrégularité d'arrivée des octets de service isochrone, de façon à obtenir le taux d'arrivée souhaité par l'utilisateur du service isochrone. Un bloc ICF maintient deux tampons séparés (un d'arrivée, l'autre de transmission). Il existe différents types d'ICF définis pour différents types de service isochrones, suivant les exigences de temporisation d'un utilisateur particulier de service isochrone.
6.5.3. Fonction
de
convergence
orientée
connexion
(COCF)
Comme les connexions isochrones, les connexions asynchrones sont établies par une procédure de signalisation qui retourne la valeur du VCI allouée à la connexion. L'entité COCF (Connection Oriented Convergence Function) mémorise pour chaque connexion établie son point d'extrémité de connexion (CEP) qui identifie l'utilisateur, son VCI et le bus sur lequel elle émet ou reçoit des segments. Lors d'une demande de transfert de données, les procédures de fragmentation et de réassemblage sont les mêmes que pour le bloc MCF. Toute donnée émise par le
1 76
Architecture des réseaux haut débit
bloc COCF est une IM-PDU, avec quelques différences cependant, par rapport à l'IM-PDU transférée par le bloc MCF : - les champs réservés (Res) de l'en-tête d'IM-PDU (Common PDU Header) et du délimiteur de fin de PDU (Common PDU Trailer) peuvent contenir des valeurs non nulles ; - le champ BAsize de l'en-tête d'IM-PDU peut contenir une valeur supérieure ou égale à celle du champ Length du délimiteur de fin de PDU pour la même donnée à transférer, pour des raisons d'allocation de tampons à la réception. Autre différence, le champ de données des DM-PDU issues d'une telle IM-PDU, de type BOM ou COM, peut être partiellement rempli. Comme l'accès aux cellules vides est dynamique, c'est la station qui initialise le VCI dans la cellule au moment où elle écrit le segment dans une cellule QA. Le VCI est donc utilisé comme identificateur d'une communication entre stations alors que le MID identifie un message particulier de cette communication.
6.5.4. Fonctions
communes
(CF)
Le bloc de fonctions communes (CF — Common Functions) utilisé par les entités fonctionnelles QAF et PAF définit un protocole entre ces entités et la couche physique. Il réalise le relais des slots et des octets de gestion entre les deux SAP physiques.
6.6. Les services
DQDB
La couche DQDB fournit trois types de services : le service MAC (ou service asynchrone sans connexion), le service isochrone et le service asynchrone orienté connexion. Il est donc défini différents ensembles de primitives de service correspondant à chacun de ces services.
6.6.1. Primitives
du
service
MAC
Trois primitives de services sont définies pour le service MAC fourni à la couche LLC, Rappelons que la couche LLC est responsable de l'établissement de la connexion logique entre stations. Ces primitives sont : - MA_UNITDATA.request (adresse_source, adresse_destination, priorité, données, classe_de_service) permet le transfert d'une unité de données MAC depuis une entité LLC à une autre entité LLC ou plusieurs entités LLC dans le cas d'une adresse de destination de groupe. Les paramètres adresse_source et adresse_destination indiquent les adresses d'émission et de destination des données. Le paramètre priorité
DQDB (Distributed Queue Dual Bus)
177
indique la priorité souhaitée pour le transfert de données et peut prendre une valeur parmi 8 possibles. Le paramètre données correspond à la SDU à transférer. Enfin, le paramètre classe _de ^service indique la classe de service à utiliser pour le transfert de données : synchrone, asynchrone avec connexion ou isochrone ; - MA_UNITDATA.indication (adresse_source, adresse_destination, priorité, données, classe_de_service) indique la réception de l'unité de données MAC à une entité LLC. Si aucune erreur ne s'est produite, alors le contenu de cette primitive est identique à celui de la primitive MA_UNITDATA.request de l'émetteur ; - MA_STATUS.indication (status) indique à l'entité LLC un changement d'état dans le fonctionnement du service MAC DQDB. Elle n'a qu'une portée locale. Les différents états de fonctionnement de la couche DQDB sont : - fonctionnement normal, - données non transmises car le nœud est isolé du réseau, - données non transmises car le réseau est en cours d'initialisation ou de reconfiguration, - autre raison de non-fonctionnement.
6.6.2. Primitives
du
service
isochrone
DQDB
Le service DQDB isochrone permet le transfert de données entre deux utilisateurs de ce service à travers une connexion isochrone préalablement établie. Ce service fournit une période moyenne d'envoi des données ainsi qu'une bande passante garantie sur le support. Les primitives définies pour ce service sont : - ISU_DATA.request (ISDU) qui permet le transfert d'un octet du service isochrone à travers une connexion préalablement établie. Le paramètre ISDU transporte un seul octet de service isochrone ; - ISU_DATA.indication (ISDU) qui indique l'arrivée d'un octet isochrone sur une connexion. La table des connexions isochrones établies pour ce nœud permet de déduire le VCI à partir du CEP de la primitive de requête et inversement, pour la primitive d'indication.
6 . 6 . 3 . Primitives connexion
du
service
de
données
asynchrones
orienté
Ce service supporte le transfert de données à travers des canaux virtuels. Il est asynchrone car il ne garantit aucune périodicité de transfert des données. Les détails de ce service et des primitives utilisées sont en cours d'étude au sein du groupe de
1 78
Architecture des réseaux haut débit
normalisation IEEE 802.6. La figure 6.13 résume l'ensemble des primitives utilisées par la couche DQDB. MA_UNITDATA.request LLC
MAJJNITD ATA. indicatior M A _ J 1A1 U à . indication
couche DQDB
ISU DATA.reauest
service isochrone
ISILDATA.indication
F i g u r e 6 . 1 3 . Primitives de service de la couche DQDB
fi.!.
T. a
r n n r h p nhvKÏnne
6 . 7 . 1 . Les
différents
supports
La couche DQDB est indépendante de la couche physique, aussi peut-on mettre en œuvre différents supports et différents débits tout en conservant le même protocole d'accès. Trois systèmes de transmission ont été retenus dans le standard 802.6 : - le système ANSI DS-3, à un débit de 44,736 Mbit/s sur câble coaxial ou fibre optique ; - le système de transmission SONET/SDH, à des débits de 155,52 Mbit/s et plus sur fibre optique monomode ; - le système de transmission G.703, à des débits de 34,368 Mbit/s et 139,264 Mbit/s sur des supports métalliques. Pour chaque système de transmission, une sous-couche de convergence est définie pour fournir le même service à la couche D Q D B . A l'heure actuelle, seule la fonction de convergence correspondant au système de transmission DS3 est définie.
6 . 7 . 2 . Le
service
physique
Chaque station appartenant au réseau DQDB qui n'est pas en tête de bus (c'est-àdire générateur de slots) est reliée physiquement aux deux bus, A et B. Deux points d'accès au service physique (PH-SAP) sont donc définis : PH-SAP_A permet de recevoir sur le bus A et d'émettre sur le bus B, PH-SAP_B permet de recevoir sur le bus B et d'émettre sur le bus A (figure 6.14).
DQDB (Distributed Queue Dual Bus)
179
couche DQDB PH-SAP_A
PH-SAP.B
couche physique bus A busB
bus A busB F i g u r e 6 . 1 4 . Les services
de la couche
physique
Les primitives fournies par la couche physique et utilisées par la couche DQDB sont : - PH_DATA.request (octet, type) demande le transfert d'un octet depuis la couche DQDB locale à la couche DQDB distante. Le paramètre type indique le type de l'octet, SLOT_START pour le premier octet d'une cellule, SLOT_DATA pour un octet suivant dans la cellule et DQDB JvlANAGEMENT pour des données de gestion ; - PH_DATA.indication (octet, [status]) est générée par la couche physique afin d'indiquer la réception d'un octet. Le paramètre status, facultatif, indique à la couche physique que l'octet proposé pour le transfert est soit valide, soit invalide ; - PH_STATUS.indication (status) est générée par la couche physique afin d'indiquer l'état opérationnel du lien de transmission bidirectionnel associé avec l'un des SAP ; - PH_TIMING_SOURCE.request (source) fournit l'origine de la fréquence d'horloge à la couche physique. L'horloge est fournie soit de manière externe ou interne au nœud ou encore reçue de l'un des bus ; dans ce dernier cas, une autre station fournit l'horloge au bus, par exemple, le générateur de cellules ; - PH_TIMING_MARK.indication synchronisation toutes les 125 us.
signale l'arrivée d'une information
de
1 80
Architecture des réseaux haut débit
Exercices
Exercice
6.1
Un réseau métropolitain utilisant le protocole DQDB comporte cinq stations désignées par A, B, C, D et E. bus A A
B
C
D
E
bus B
On suppose que le temps de propagation de A à E est égal au temps de transmission d'un slot. On suppose aussi qu'une station incrémente son compteur avant de le décrémenter et avant d'effectuer une requête de transmission (positionnement du bit RQ sur l'autre bus). Rappelons enfin qu'une nouvelle requête ne peut être effectuée que lorsque la précédente est satisfaite et qu'une requête ne permet la transmission que d'un seul segment. Le scénario étudié est le suivant : - les stations ne désirent transmettre des données que sur le bus A ; - les slots 0, 1,2, 3, 5, 10 et 15 sont occupés par des transmissions isochrones (slots PA) ; - à t = 1, D veut émettre 3 segments ; - à t = 2, B et C veulent émettre chacune 2 segments ; - à t = 5, E veut émettre 3 segments ; - à t = 9, A veut émettre 3 segments. 1. Sur un tableau, où chaque ligne représente un slot du bus A, montrez l'évolution dans le temps des compteurs RQ et CD pour chacune des stations. On utilisera les conventions suivantes : - un slot occupé par la transmission du premier segment de la station 1 sera noté A l ; - un slot occupé par une transmission isochrone est représenté par X (une croix). bus B bus A temps émission requêtes 0
X
—
A
c
B
RQ
CD
RQ
0
0
0
CD 0
D
commentaires
RQ
CD
RQ
CD
0
0
0
0
Remarque — Il est inutile de faire figurer les compteurs de la station E car ils restent à zéro.
DQDB (Distributed Queue Dual Bus)
1 81
2. Pour chacune des stations, calculez le débit effectif (ou débit utile) de transmission des slots. Commentez. Exercice
6.2
débit maximum (Mbit/s)
Commentez les courbes ci-dessous qui représentent le débit maximum obtenu pour les réseaux FDDI et DQDB pour différentes tailles de trames et longueurs de réseaux [Ahmad 92].
160 200 taille réseau (km) technologie
taille trame I
»1«
64 octets
1 518 octets
4 000 octets
= FDDI = DQDB
1 82
Architecture des réseaux haut débit
Exercice
6.3
délai d'accès (us)
Commentez les courbes ci-dessous qui représentent le comportement de DQDB pour différentes stations situées à différentes positions sur le bus [Ahmad 92].
position de l'utilisateur
10 km
50 km
100 km
200 km
j
Chapitre 7
LLC (Logical Link Control)
7.1.
Introduction
Dans l'architecture IEEE, la couche liaison de données est divisée en deux souscouches, MAC pour le niveau inférieur et LLC pour le niveau supérieur. Nous avons pu voir à plusieurs reprises que les réseaux locaux et métropolitains se singularisent par le partage du support de transmission. C'est le rôle de la sous-couche MAC que de gérer et de contrôler l'accès des stations du réseau à ce support unique. Ses fonctions ne vont pas au-delà. La sous-couche LLC intervient alors, au-dessus de MAC, afin de rendre un service comparable à un service de liaison OSI. En particulier, LLC est chargé de gérer les communications entre stations et d'assurer l'interface avec les couches supérieures (couche réseau). Ses spécifications sont données dans le standard IEEE 802.2 et sont reprises dans la norme internationale IS 8802-2 de l'ISO. Le standard 802.2 définit : - le protocole de la sous-couche LLC commune aux standards IEEE de niveau MAC (802.3, 802.4, etc.), - l'interface de service fournie à la couche réseau, - l'interface de service fournie par la sous-couche MAC.
1 84
Architecture des réseaux haut débit
7.2. Services fournis à la couche
réseau
LLC offre un certain nombre de services à la couche réseau. Conformément aux principes de structuration en couches du modèle OSI, une entité de réseau désirant accéder aux services de LLC doit le faire à travers un mécanisme d'identification de service, appelé "point d'accès au service" (SAP — Service Access Point). Trois types de services sont fournis à la couche réseau : - service sans connexion, - service avec connexion, - service sans connexion avec acquittement.
7.2.1. Service
sans
connexion
:
LLC1
Le service LLC1 est un service en mode datagramme. Le transfert de données peut se faire en point à point, en point à multipoint ou en diffusion. LLC1 n'offre donc que l'émission et la réception de trames sans : - aucun séquencement ; - aucune forme d'acquittement de la part du destinataire (par conséquent, pas de garantie de livraison, ni de notification en cas d'échec) ; - aucun contrôle d'erreur. Le service LLC 1 repose donc sur un protocole peu complexe et trouve son utilité dans les contextes suivants : - lorsque les couches supérieures fournissent déjà un service de détection et de traitement d'erreur ainsi qu'un service de séquencement. Dans de nombreux réseaux locaux, les systèmes d'extrémité implantent les couches 3 à 7 et utilisent un service datagramme au niveau réseau et un service en mode connecté au niveau transport, par exemple TCP/IP ou TP4/CLNP. Il est donc inutile de dupliquer ce service, avec toute la lourdeur qui en découle, au niveau LLC ; - lorsque l'application n'exige pas une garantie de transmission de chacune de ses unités de données. En particulier, il existe des applications pour lesquelles le mode connecté est injustifié voire même pénalisant. Citons, entre autres : • la collecte de données : c'est le cas d'applications qui recueillent des données provenant de différents capteurs permettant de contrôler l'exécution d'une tâche. La perte occasionnelle d'une donnée ne compromet pas le contrôle si l'on sait que les données suivantes devraient arriver rapidement ; • la diffusion de données : comme, par exemple, la diffusion de messages d'intérêt commun à tous les utilisateurs d'un réseau (changement de l'adresse d'un service, distribution des tops d'une horloge, etc.) ; • le transactionnel : l'interrogation d'un serveur se limite souvent à une seule séquence de type question-réponse. L'établissement d'une connexion n'est
LLC (Logical Link Control)
185
généralement pas nécessaire, l'utilisation du service étant contrôlée au niveau applicatif ; • le temps réel : pour les applications qui présentent des contraintes temporelles strictes, l'utilisation du mode connecté introduirait des délais trop longs ou trop variables. Les primitives qui permettent d'utiliser ce service sont au nombre de deux et portent, bien sûr, sur le transfert de données. La figure 7.1 montre l'enchaînement de la primitive de requête et de la primitive d'indication. utilisateur DL.UNITDATA.req ( adresse source, adresse destination^ données, priorité )
utilisateur
fournisseur , du service
Figure 7.1. Les primitives
DL.UNITDATA.ind ( adresse source, adresse destination, ^ .données, priorité ) de service
LLC1
Les paramètres ont la signification suivante : - l'adresse source spécifie l'utilisateur local de LLC ; - l'adresse destination spécifie l'utilisateur distant de LLC. Elle peut représenter une adresse individuelle ou de groupe (puisque LLC1 permet de fonctionner en point à point, en multipoint ou en diffusion) ; - la priorité indique le niveau de priorité désiré pour le transfert de la donnée. Ce paramètre est directement passé à l'entité MAC qui a la responsabilité d'implanter ou non un mécanisme de priorité (CSMA/CD, par exemple, ne supporte pas de système de priorités). Le standard ne spécifie pas l'intervalle de valeurs possibles : cela est dicté par la sous-couche MAC et les valeurs possibles doivent être connues de l'utilisateur de LLC.
7.2.2. Service
avec
connexion
:
LLC2
Le service LLC2 utilise les trois phases de fonctionnement du mode connecté, à savoir, la phase d'établissement de la connexion, la phase de transfert de l'information ainsi que la phase de libération de la connexion. Par essence, l'existence d'une connexion logique implique que le fournisseur du service LLC, à chaque extrémité de la connexion, garde une trace des données en cours d'émission et de réception. Pendant le transfert de données, LLC2 garantit que toutes les unités de données sont correctement délivrées à leur destinataire (sans erreur, ni perte, ni duplication, ni déséquencement). S'il y a échec, LLC2 le notifie à son utilisateur.
1 86 Architecture des réseaux haut débit
Le mode LLC2 est donc bien adapté aux applications qui nécessitent des échanges de longue durée (transfert de fichiers, accès distant à un système fonctionnant en temps partagé). La couche réseau accède aux services LLC2 au moyen de primitives réparties en cinq groupes. 7.2.2.1. Etablissement
de
connexion
Pour l'établissement de connexion, les quatre primitives utilisées sont : - DL_CONNECT.request (adresse source, adresse destination, priorité), - DL_CONNECT.indication (adresse source, adresse destination, priorité), - DL_CONNECT.response (adresse source, adresse destination, priorité), - DL_CONNECT.confirmation (adresse source, adresse destination, priorité). Dans le cas de l'établissement réussi (figure 7.2), la priorité de l'indication est la même que celle de la requête. Par contre, celle de la réponse peut lui être inférieure. La priorité de la confirmation est égale à la priorité de la réponse. La priorité est associée à l'ensemble de la connexion et peut être utilisée pour déterminer les ressources que l'entité LLC va allouer à la connexion. Elle est passée à l'entité MAC pour chaque unité de données transférée sur la connexion logique. utilisateur DL_CONNECT.req ( adresse source, adresse destinatiolïr priorité )
fournisseur du service
DL_CONNECT.conf ( adresse source, adresse destination, priorité ) Figure 7.2. Etablissement
utilisateur DL_CONNECT.ind ( adresse source, adresse destination, priorité )
DL_CONNECT.resp ( adresse source, adresse destination, priorité )
de connexion
réussi
Dans le cas d'un croisement de requêtes de connexion (figure 7.3), une seule connexion est établie, les entités LLC fournissant une confirmation à chacun des utilisateurs. La priorité la plus faible est la priorité reconnue.
LLC (Logical Link Control) fournisseur du service
utilisateur
DL_CONNECT.req ( adresse source, adresse destination, priorité )
utilisateur
DL_CONNECT.req ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
F i g u r e 7 . 3 . Croisement
7.2.2.2. Libération
187
et refus de
de requêtes
de
connexion
connexion
La libération de connexion est un service non confirmé. Les primitives utilisées sont donc au nombre de deux : - DL_DISCONNECT.request (adresse source, adresse destination), - DL_DISCCONNECT.indication (adresse source, adresse destination, raison). Le paramètre raison indique la raison de la déconnexion et si la libération provient du fournisseur (figure 7.4 (a)) ou de l'un des deux utilisateurs (figure 7.4 (b)). utilisateur
fournisseur du service
utilisateur DL_DISCONNECT.ind ( adresse source, adresse destination, raison )
DL.DISCONNECT.ind ( adresse source, adresse destination, raison ) ^-^^ (a) par le fournisseur utilisateur DL_DISCONNECT.req ( adresse source, adresse destination )
fournisseur du service
utilisateur
DL_DISCONNECT.ind ( adresse source, adresse destination, raison ) (b) par un utilisateur
F i g u r e 7 . 4 . Libération
de
connexion
1 8 8 Architecture des réseaux haut débit
Le fournisseur peut refuser d'établir une connexion (figure 7.5 (a)). Cela arrive par exemple, lorsque : - l'entité LLC locale n'est pas capable d'établir la connexion (manque de ressources, mauvais fonctionnement local, etc.), - l'entité LLC distante ne répond pas à la requête de connexion, malgré N tentatives successives. De même, l'utilisateur appelé a la possibilité de refuser l'appel entrant en répondant par une demande de déconnexion (figure 7.5 (b)). utilisateur
fournisseur du service
utilisateur DL_CONNECT.req ( adresse source, adresse destination, priorité ) DL.CONNECT.conf ( adresse source, adresse destination, raison)
(a) par le fournisseur utilisateur
fournisseur du service
utilisateur DL_CONNECT.req ( adresse source, adresse destination, priorité )
DL_CONNECT.ind ( adresse source, adresse destination, priorité )
DL_CONNECT.conf ( adresse source, adresse destination, priorité )
DL_CONNECT.resp ( adresse source, adresse destination,) (b) par l'utilisateur distant Figure 7.5. Refus
7.2.2.3. Transfert
de
d'établissement
données
En mode connecté, le transfert de données se fait en point à point, soit d'un utilisateur de LLC vers un autre utilisateur. Les primitives invoquées sont (figure 7.6) : - DL_DATA.request (adresse source, adresse destination, données), - DL_DATA.indication (adresse source, adresse destination, données).
LLC (Logical Link Control)
utilisateur
189
utilisateur
fournisseur du service
DL_DATA.req ( adresse source, adresse destination, données)
DL_DATA.ind ( adresse source, adresse destination, données )
Figure 7.6. Transfert
de
données
Une confirmation à l'utilisateur émetteur n'est pas nécessaire, puisque le service en mode connecté garantit la remise correcte de ses données. En cas de problème, l'utilisateur est averti par des fonctions de déconnexion ou de réinitialisation. 7.2.2.4. Réinitialisation
de
utilisateur DLJŒSET.ind ( adresse source, adresse destination, raison ) DL_RESET.resp ( adresse source, adresse destination )
connexion utilisateur
fournisseur du service
DL_RESET.ind ( adresse source, adresse destination, raison ) k. DL_RESET.resp ( adresse source, adresse destination )
(a) par le fournisseur utilisateur
utilisateur
fournisseur du service
DL.RESET.req ( adresse source, adresse destination T DLJRESET.conf ( adresse source, adresse destination )
DL_RESET.ind ( adresse source, adresse destination, raison ) DL_RESET.resp ( adresse source, adresse destination ) (b) par un utilisateur
Figure 7.7. Réinitialisation
de connexion
réussie
A tout moment, le fournisseur ou l'un des utilisateurs peut réinitialiser la connexion logique sur détection d'une erreur grave ; il y a éventuellement perte de données (existence de données envoyées par une entité LLC mais non encore acquittées par l'autre entité) puisque la connexion retrouve son état initial et que tous
1 90 Architecture des réseaux haut débit
les numéros de séquence utilisés par le protocole sont remis à 0. La réinitialisation constitue un service confirmé, avec les quatre primitives suivantes : - DL_RESET.request (adresse source, adresse destination), - DL_RESET.indication (adresse source, adresse destination, raison), - DL_RESET.response (adresse source, adresse destination), - DL_RESET.confirmation (adresse source, adresse destination). Le paramètre raison indique qui est à l'initiative de la réinitialisation, le fournisseur (figure 7.7 (a)) ou l'un des utilisateurs du service LLC (figure 7.7 (b)). 7.2.2.5. Contrôle
de flux
Le contrôle de flux dans le service LLC2 intervient à l'interface réseau/LLC et repose sur deux primitives : - L_CONNECTION_FLOWCONTROL.request (adresse source, adresse destination, valeur), - L_CONNECTION_FLOWCONTROL indication (adresse source, adresse destination, valeur). Elles servent à réguler le flot de données entre la couche réseau et la sous-couche LLC. Chaque fois que cela s'avère nécessaire, la couche réseau utilise une primitive de requête L_CONNECTION_FLOWCONTROL pour indiquer à la couche LLC la quantité de données qu'elle est prête à recevoir (figure 7.8 (b)). De même, la souscouche LLC utilisera l'indication pour signifier à la couche réseau combien de données elle peut accepter sans risque d'en perdre (figure 7.8 (a)). Si le paramètre valeur est nul, le flot de données associé à la connexion est suspendu. utilisateur DL_CONNECTION_ FLOWCONTROL.ind ( adresse source, adresse destination, valeur )
utilisateur
fournisseur du service
(a) par le fournisseur utilisateur
utilisateur
fournisseur du service
DL_CONNECTION_ FLOWCONTROL.req ( adresse source, adresse destination, valeur ) (b) par un utilisateur Figure 7.8. Contrôle
de flux à
l'interface
LLC (Logical Link Control) 7.2.3. Service
sans
connexion
avec
acquittement
:
191
LLC3
On peut se demander quelle peut être l'utilité d'un tel type de service. Considérons le fait que le mode connecté oblige l'entité LLC à gérer une table pour chaque connexion active. Si un utilisateur émet vers un grand nombre de destinataires et qu'il souhaite une garantie sur la remise de ses données, le service en mode connecté devient très difficilement gérable à cause du nombre de tables nécessaires. Un exemple de ce type d'application est le contrôle de processus pour lequel un site central doit communiquer avec de nombreux processeurs ou contrôleurs programmables. Un autre intérêt du service LLC3 est de fournir un système de polling avec garantie de réponse. Ici encore, dans le cas d'un contrôle de processus, il peut être nécessaire d'acquérir des données de la part d'un capteur possédant une faible capacité de calcul. Dans ce cas, l'implantation de ce service est plus simple et mieux approprié que le service en mode connecté. Un dernier exemple concerne aussi l'environnement industriel pour lequel certains signaux d'alarme ou de contrôle sont très importants et possèdent des contraintes de temps. Un acquittement est alors nécessaire pour garantir à l'expéditeur que son signal a été reçu mais le caractère urgent du signal oblige l'expéditeur à ne pas perdre de temps avec l'établissement préalable d'une connexion. LLC3 est un service qui s'utilise en point à point uniquement. On peut le voir comme étant constitué de deux services indépendants : - DL_DATA_ACK : service avec remise garantie ; - DL_REPLY : service de polling avec réponse garantie, qui permet à un utilisateur de demander des données préalablement préparées par un autre utilisateur ou d'échanger des données avec un autre utilisateur. 7.2.3.1. Service avec remise
garantie
Ce service repose sur l'utilisation de trois primitives : - DL_DATA_ACK.request (adresse source, adresse destination, données, priorité, classe_de_service), - DL_DATA_ACK.indication (adresse source, adresse destination, données, priorité, classe_de_service), - DL_DATA_ACK_STATUS.indication (adresse source, adresse destination, priorité, classe_de_service, status). Ce service permet à un utilisateur : - d'envoyer des données à un utilisateur distant, - de recevoir une confirmation immédiate de la remise de ses données (figure 7.9 (a)) ou de l'échec de la remise (figure 7.9 (b)).
1 9 2 Architecture des réseaux haut débit
utilisateur DL_DATA_ACK.req ( adresse source, adresse destination, données, priorité, classe de service )
fournisseur du service
utilisateur DL_DATA_ACK.ind ( adresse source, adresse destination, données, priorité, classe de service )
DL.DATA.ACKJ*-""""^ STATUS, ind ( adresse source, adresse destination, priorité, classe de service, status ) (a) réussite utilisateur DL_DATA_ACK.req ( adresse source, adresse destination, données, priorité, classe de service )
fournisseur du service
utilisateur
DL_DATA_ACK_ STATUS.ind ( adresse source, adresse destination, priorité, classe de service, status ) (b) échec F i g u r e 7.9. Service avec remise
garantie
Le paramètre classe_de_service indique si un service d'acquittement doit être mis en œuvre dans la sous-couche MAC pour le transfert de la donnée. Cette option est notamment possible avec le standard IEEE 802.4. Token Bus. Le paramètre status indique si l'unité de données transmise a été reçue correctement par l'entité LLC distante ou sinon la cause de l'échec. Un échec peut avoir une cause locale ou distante telle que l'impossibilité de transmettre ou l'absence de réponse de l'entité distante. 7.2.3.2. Service
de polling
avec réponse
garantie
Ce service permet à un utilisateur de solliciter une donnée d'un utilisateur distant et, optionnellement, de transmettre une unité de données en même temps.
LLC (Logical Link Control)
193
II utilise les primitives suivantes : - DL_REPLY.request (adresse source, adresse destination, données, priorité, classe_de_service), - DL_REPLY.indication (adresse source, adresse destination, données, priorité, classe_de_service), - DL_PvEPLY_STATUS.indication (adresse source, adresse destination, données, priorité, classe_de_service, status), - DL_REPLY_UPDATE.request (adresse source, données), - DL_REPLY_UPDATE_STATUS.indication (adresse source, status). Considérons le cas d'un système à polling avec un utilisateur primaire et plusieurs utilisateurs secondaires. Si un utilisateur secondaire a une unité de données à transmettre, il doit attendre d'être sollicité pour le faire. Les primitives DL_REPLY_UPDATE permettent d'éviter cette attente. Un utilisateur peut, par la primitive de requête, délivrer une unité de données à son entité LLC locale qui la conserve en l'associant au SAP de son utilisateur, et qui l'enverra à un utilisateur distant chaque fois que cela lui sera demandé. Chaque fois que l'utilisateur local voudra faire une mise à jour sur la donnée qu'il met à la disposition des autres utilisateurs, il pourra le faire en invoquant à nouveau la primitive D L _ R E P L Y _ U P D A T E . r e q u e s t . L'entité LLC répond à une D L _ R E P L Y _ UPDATE.request par une DL_REPLY_UPDATE-STATUS.indication (figure 7.10). Le paramètre status indique un succès si l'unité de données a bien été associée au SAP de l'utilisateur, ou un incident si cette association n'a pu être réalisée (pour cause d'insuffisance de tampons par exemple). fournisseur du service
utilisateur
utilisateur
DL_REPLY_UPDATE. req ( adresse source, données ) \
DL_REPLY_UPDATE_ STATUS.ind ( adresse source, status ) Figure 7.10. Preparation
de données pour une réponse à un polling
Du côté de l'utilisateur demandeur de données, le service peut être invoqué grâce à la primitive DL_REPLY.request. Cette primitive permet, outre le fait de solliciter des données associées au paramètre adresse destination, de transférer optionnellement de l'information (paramètre données). Si l'entité locale ne peut pas traiter la requête, elle retourne immédiatement une primitive DL_REPLY_STATUS.indication avec le
1 94
Architecture des réseaux haut débit
paramètre status indiquant la nature de l'incident (figure 7.11 (b)). Sinon (figure 7.11 (a)), la requête est transmise à l'entité destinataire avec les résultats suivants : - l'entité LLC destinataire génère une DL_REPLY.indication vers l'utilisateur distant. Si la requête de l'utilisateur local était accompagnée d'une unité de données, cette dernière est délivrée à l'utilisateur destinataire par la primitive d'indication ; - si une unité de données est associée au SAP du destinataire (suite à une invocation par ce dernier de la primitive DL_REPLY_UPDATE.request), elle est transmise en retour à l'entité LLC source. Si aucune unité de données n'est associée, l'entité LLC destinataire envoie un message à l'entité LLC source pour l'informer de cette absence de données. Quand le message est reçu par l'entité LLC source, elle génère une DL_REPLY_ STATUS.indication. Si tout s'est bien passé, l'entité source délivre l'unité de données provenant de l'entité LLC distante. Sinon, le paramètre status indique la nature de l'incident comme par exemple, l'absence de réponse de l'entité destinataire ou l'absence d'unité de données associée au SAP distant. utilisateur DL_REPLY.req ( adresse source, adresse destination, données, priorité, classe de service )~~
fournisseur du service
utilisateur DL_REPLY.ind ( adresse source, adresse destination, données, priorité, classe de service )
D L R E P L Y STATUS.ind ( adresse source, adresse destination, données priorité, classe de service, status ) (a) réussite utilisateur DL_REPLY.req ( adresse source, adresse destination, données, priorité,^ classe de service )
fournisseur du service
utilisateur
\
DL_DATA_ACK STATUS.ind ( adresse source, adresse destination, données priorité, classe de service, status ) (b) échec F i g u r e 7 . 1 1 . Service
de
polling
LLC (Logical Link Control) 7.3.
Interface
195
MAC/LLC
Cette interface, spécifiée dans le standard 802.2, est totalement sans connexion. Elle contient les primitives qui permettent à la sous-couche LLC d'accéder aux services de la sous-couche MAC : - MA_UNITDATA.request (adresse source, adresse destination, données, priorité, classe_de_service), - MA_UNITDATA.indication (adresse source, adresse destination, données, status_réception, priorité, classe_de_service), - MA_UNITDATA_STATUS.indication (adresse source, adresse destination, status_transmission, priorité_utilisée, classe_service_utilisée). Les paramètres ont la signification suivante : - les adresses source et destination spécifient des adresses MAC. Une adresse destination peut être individuelle ou de groupe ; - le paramètre données
contient la PDU LLC ;
- la priorité spécifie la priorité désirée pour le transfert de l'unité de données ; - la classe_de_service spécifie si un mécanisme d'acquittement doit être utilisé pour la transmission de l'unité de données ; - le paramètre status_réception indique le succès ou l'échec de la transmission de la trame entrante : par exemple, si une erreur est détectée dans une trame entrante, cette information est reportée à la sous-couche LLC qui peut l'utiliser dans le cadre de son propre contrôle d'erreur ; - la primitive MA_UNITDATA_STATUS.indication est passée de l'entité MAC à l'entité LLC pour confirmer le succès ou l'échec du service demandé par une requête antérieure. Si la classe_de_service indique une non-utilisation de l'acquittement (ce qui est le cas général), la primitive d'indication est générée immédiatement après la tentative de transmission et indique seulement si l'entité MAC locale a ou n'a pas réussi à transmettre la trame. Dans le cas contraire, la primitive d'indication n'est passée que lorsqu'un acquittement est reçu de l'entité MAC destinataire ou lorsque le nombre maximum de transmissions pour une trame a été atteint ou encore lorsqu'une panne locale se produit. Remarquons que cette primitive d'indication de compte rendu sert de confirmation pour l'entité émettrice ; on la retrouve ainsi dans d'autres spécifications sous le nom de MA_UNITDATA.confirmation ; - le paramètre status transmission est utilisé pour retourner de l'information d'état à l'entité locale LLC demandante. Les types de status qui peuvent être associés avec cette primitive sont dépendants de ('implementation et du type de protocole MAC utilisé (par exemple, un nombre excessif de collisions peut constituer une information de compte rendu retourné par une entité MAC CSMA/CD).
1 96 Architecture des réseaux haut débit
7.4.
Protocoles LLC
Le protocole LLC défini dans le standard IEEE 808.2 s'apparente au protocole HDLC [IS 3309] utilisé par les réseaux grande distance : ils ont des formats et des fonctions similaires. Cela est surtout vrai dans le cas du mode connecté. Il y a en fait trois protocoles LLC, selon le type de service offert. Il est possible, pour une station donnée, de supporter plus d'un type de service et donc d'implémenter plus d'un protocole.
7.4.1. Unités
de
données
Les trois protocoles LLC utilisent le même format de trames, similaire au format des trames HDLC (cf. figure 7.12). 1 octet
1 octet
adresse
adresse
DSAP
SSAP
1 ou 2 octets
n octets (n > 0 )
information
contrôle
Figure 7.12 Format des trames LLC
Les deux champs d'adresse comportent chacun une adresse de 7 bits et un bit de contrôle : dans le cas du DSAP, il indique s'il s'agit d'une adresse individuelle ou d'une adresse de groupe (autorisée uniquement en LLC1) (bit I/G) ; dans le cas du SSAP, il indique si la trame est une commande ou une réponse (bit C/R). Le champ de contrôle identifie le type de PDU — trame d'information, trame de supervision ou trame non numérotée — et spécifie plusieurs fonctions de contrôle ; sa longueur est de 1 ou 2 octets, selon son type (figure 7.13). Les trames qui sont numérotées (champs N(S) et N(R)) le sont modulo 128. Le bit P/F (Poil/Final) permet à une trame de commande de demander une réponse et à une trame de réponse d'être associée à la commande l'ayant suscitée. trame d'information (I)
0
trame de supervision (S)
1 0
trame non numérotée (U)
1
N(S) S
S
0
0
0
P/F
N(R)
0 P/F
N(R)
1 M M P/F M M M
N(S) - numéro de séquence en émission N(R) - numéro de séquence en réception S - bit de fonction de supervision M - bit de fonction de modification P/F - bit Poil/Final
Figure 7.13. Champ de contrôle des PDU LLC
LLC (Logical Link Control)
197
Le tableau 7.1 donne l'ensemble des trames employées par la sous-couche LLC. code service en mode non connecté information non numérotée échange d'identification
UI XID TEST
test service en mode connecté information prêt à recevoir non prêt à recevoir
I RR RNR REJ SABME
rejet fonctionnement en mode équilibré libération ou déconnexion acquittement non numéroté mode déconnecté rejet de trame service en mode non connecté acquitté information acquittée sans connexion séquence 0 information acquittée sans connexion séquence 1
DISC UA DM FRMR
commande réponse code binaire
X X X X X X X X
LLC
de
type
110OP0O0 1111 P/F 101 1100P/F111
X X X X
OxxxP/Fxxx 10000000
X X X
10100000 10010000 1111P110 1100P010 1100F110 111F000 1110F001
ACO
X
X
1110P/F110
AC1
X
X
1U0P/F111
Tableau 7.1. Trames utilisées par le protocole
7.4.2. Protocole
X X X
LLC
1
Le service LLC de type 1 se réduisant au minimum, le protocole qui lui est associé est extrêmement simple, avec seulement trois PDU. La trame UI est utilisée pour transférer des données utilisateur, qui sont fournies et délivrées via les primitives DL_UNITDATA. Il n'y a ni acquittement, ni contrôle de flux, ni contrôle d'erreur (toutefois, il y a détection d'erreur et rejet éventuel au niveau de la sous-couche MAC). Les deux autres trames, XID et TEST, servent aux fonctions d'administration associées aux trois types de LLC. Elles sont toutes deux utilisées de la façon suivante : chaque entité LLC peut émettre une commande (bit C/R = 0) XID ou TEST. L'entité LLC destinataire doit alors envoyer en retour une réponse XID ou TEST. Le champ d'information contient de l'information d'administration.
1 98
Architecture des réseaux haut débit
Le standard n'impose pas une utilisation précise de la trame XID, mais suggère plusieurs cas d'utilisation possibles, par exemple : - une commande XID avec un LSAP nul peut être utilisé pour solliciter une réponse d'une station quelconque ("Etes-vous là ?") ; - une commande XID avec une adresse de DSAP de groupe peut servir à déterminer l'appartenance à un groupe. En particulier, une adresse globale (diffusion) peut servir à identifier toutes les stations actives ; - un échange de XID avec des LSAP nuls peut servir à identifier les types de protocoles LLC implémentés ; - un échange de XID avec des LSAP différents peut servir à identifier les types de service offerts à ces LSAP ; - une entité LLC peut annoncer sa présence avec une adresse globale. La commande TEST est utilisée pour forcer l'entité LLC distante à répondre par une autre réponse TEST, afin de réaliser un test de base du chemin de transmission entre deux entités LLC.
7.4.3. Protocole
LLC
de type
2
Le principe est très similaire à celui de HDLC avec un fonctionnement en mode équilibré (ABM — Asynchronous Balanced Mode). Il utilise les trois types de trames I, S et U (figure 7.13 et tableau 7.1) : - les trames d'information (I) permettent de transférer les données utilisateur. Les champs N(S) et N(R) servant au contrôle d'erreur et au contrôle de flux et véhiculent respectivement un numéro de séquence en émission et un numéro de séquence en réception (numéro d'acquittement) ; - les trames de supervision (S : RR, REJ, RNR) mettent en œuvre les mécanismes d'acquittement, de contrôle d'erreur et de contrôle de flux ; - les trames non numérotées (U : SABME, DISC, UA, DM, FRMR) réalisent principalement les fonctions d'établissement, de libération de connexion, ainsi que d'autres fonctions de contrôle.
7.4.4. Protocole
LLC
de type
3
Chaque PDU transmise est acquittée. Le protocole utilise deux nouvelles PDU (inexistantes dans HDLC) non numérotées : ACO (Acknowledged Connectionless, Seq. 0) et AC1, leur codage ne différant que par un seul bit. Les données utilisateur sont encapsulées dans une trame de commande AC et doivent être acquittées par une
LLC (Logical Link Control)
199
trame de réponse AC. Le contrôle de flux est de type send-and-wait (utilisation d'une fenêtre d'émission de taille égale à 1 ) et le contrôle d'erreur de type ARQ (utilisation d'acquittements positifs et de retransmissions sur temporisateur). Pour se prémunir contre les pertes de PDU, un émetteur alternera l'utilisation de ACO et de AC1 dans ses trames de commande ; le destinataire répondra avec une PDU ACn de numéro opposé à celui contenu dans la commande. Il est à noter qu'un protocole LLC de type 4 fut un moment candidat à la normalisation des protocoles LLC mais qu'il n'a finalement pas été adopté.
200 Architecture des réseaux haut débit
Exercices Exercice
7.1
Pour les différents types d'application énumérés ci-après, quelle est la classe de procédure LLC qui convient le mieux ? Justifiez brièvement votre réponse. Les types d'application sont : -
application messagerie télécopie, transfert de contrôle de
Exercice
transactionnelle, X.400, fichiers, processus.
7.2
Sur un réseau local Ethernet, une station effectue la diffusion d'une trame à toutes les autres stations. Au niveau LLC, indiquez comment est réalisée la reprise sur erreur, le cas échéant, de cette trame si le protocole est de type : - LLC1, - LLC2, - LLC 3. Exercice
7.3
Pourquoi n'y a-t-il pas de PDU de commande associée au service de contrôle de flux de LLC2 ? Exercice
7.4
On considère une architecture utilisant LLC3 au-dessus de Token Ring. La primitive MA_DATA.confirmation est-elle d'une réelle utilité dans le cadre du service avec remise garantie offert par LLC3 ? Que se passe-t-il lorsque des erreurs de transmission se produisent sur une trame ? Exercice
7.5
On considère une architecture de communication en environnement manufacturier utilisant LLC3 au-dessus de Token Bus. Dans cet environnement, une console de supervision A vient scruter une variable d'état mise à jour périodiquement par un automate programmable industriel B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC et les échanges de PDU dans les couches LLC et MAC lors de l'activation du service de polling avec réponse garantie par l'utilisateur UA de LLC situé sur la console A.
LLC (Logical Link Control) Exercice
201
7.6
Deux stations A et B sont connectées à un réseau local 802.3. L'échange se fait avec le protocole LLC2. La station A souhaite transférer deux trames d'information à la station B. Montrez sur un diagramme l'enchaînement des primitives aux interfaces LLC et MAC ainsi que les LLC-PDU et MAC-PDU transmises, pendant les phases d'établissement et de transfert.
Chapitre 8
ATM (Asynchronous Transfer Mode)
8.1.
Introduction
Actuellement, les services du téléphone, de transfert de données et d'image sont supportés par des réseaux distincts. Du fait du coût de ces différents réseaux et de leur partitionnement, le réseau large bande doit offrir sur un réseau unique l'ensemble de ces services avec comme objectif l'optimisation des coûts de câblage, de maintenance et de gestion pour l'opérateur. Les moyens de réaliser cette intégration sont d'une part, la fibre optique qui offre les débits nécessaires aux services d'images numérisées et d'autre part, la technique de commutation ATM qui permet une grande souplesse dans l'allocation des débits aux connexions réseau.
8.2. Nouveaux 8.2.1. Les
services et
services
large
multimédia bande
Aux applications classiques d'interconnexion de réseaux locaux ou de supercalculateurs qui demandent de plus en plus de bande passante viennent s'ajouter de nouveaux services dits services large bande. Les récents développements dans les technologies de traitement de l'information ont permis le développement d'applications innovantes (vidéoconférence, visiophone, bases de données géographiques, vidéodiffusion, télédiffusion haute définition, etc.) alliant informatique et télécommunications et concernant de nombreux domaines : médecine, édition, tourisme, journalisme, administration, information [Szuprowicz 95]. Les particuliers sont également visés avec le
204
Architecture des réseaux haut débit
développement de nouveaux services de loisirs, tels la vidéo à la demande ou les jeux interactifs. Toutes ces nouvelles applications nécessitent des traitements complexes et variés : des systèmes d'archivage d'images fixes associés à des bases de données, des serveurs vidéo haute performance, des transmissions haut débit et des moyens d'impression de documents couleur ainsi que l'accès multiple et à distance aux banques d'informations. Dans le même temps, il a été défini de nouvelles méthodes de travail coopératif, comme l'élaboration de documents communs par des utilisateurs distants ou la mise en place de conférences où les conférenciers sont situés dans des sites différents. Au fur et à mesure que les stations de travail gagnent en puissance et en possibilités, la demande pour ces nouvelles applications croît rapidement pour s'étendre des milieux professionnels aux particuliers. Pour s'imposer sur le marché, le réseau large bande devra proposer un vaste éventail de services. Ces derniers sont classés dans la recommandation 1.211 en deux grandes catégories : - les services dits interactifs représentant les services de conversation, de messagerie et de consultation, - les services de distribution comprenant les services liés à la diffusion d'information ou d'images. Le tableau 8.1 donne des exemples d'applications associées à chacune des catégories de services. La plupart des services large bande mettent en jeu plusieurs types d'information et sont donc appelés services multimédias. Les services multimédias sont des services numérisés par un processus spécifique ; ils manipulent des données sonores, des données informatiques ainsi que des images, qu'elles soient fixes ou animées. catégorie
services
applications
services interactifs
conversation
téléphonie, visiophonie, télécopie, données interactives courrier vidéo, courrier électronique avec transfert de documents vidéotext large bande, télévente, consultation de journaux, d'images fixes
messagerie
consultation
services de distribution
sans commande de présentation à l'usager avec commande de présentation à l'usager
Tableau 8.1. Services
vidéo (TV, TVHD), journal électronique, canaux TV multilangues enseignement à distance, téléenseignement
large bande et
applications
ATM (Asynchronous Transfer Mode) 8.2.2. Caractéristiques
des
trafics
205
multimédias
La difficulté du transfert de toutes ces informations sur le même réseau réside dans le fait qu'aucune application ne demande le même débit et n'obéit aux mêmes contraintes. On distingue deux types de contraintes : les contraintes temporelles et les contraintes de qualité de service (QoS — Quality of Service). Les contraintes temporelles concernent le caractère temps réel, asynchrone ou isochrone de l'application. Les services de distribution avec commande de présentation à l'usager ont un caractère temps réel, comme par exemple la distribution de programmes de télévision. Les services interactifs ont aussi un caractère temps réel (cas du téléphone). De par la technique de codage MIC — Modulation par Impulsion et Codage, la voix téléphonique génère un trafic isochrone (un octet toutes les 125 us) en plus de son caractère temps réel. De leur côté, les applications informatiques de transfert de données sont qualifiées d'asynchrones car elles ne présentent aucune contrainte temporelle forte (toute proportion gardée, de l'ordre de la seconde à la minute). Les contraintes de QoS des services du réseau large bande sont définies dans la recommandation 1.356 par trois paramètres qui sont le taux de perte de cellules, le délai de transfert de la cellule et la variation du délai de transfert (également appelée gigue cellule ou encore CDV — Cell Delay Variation). Le tableau 8.2 donne pour quelques exemples d'applications multimédias, des valeurs indicatives pour les paramètres de QoS qui leur sont associés. MPEG1 et M P E G 2 (Moving Picture Expert Group) sont des normes définissant la numérisation du son et des images animées [IS 11172]. application
débit
données
2 Mbit/s
taux d'erreur bit
gigue
—
io
6
3.10 "
10
8
300 ms
130 ms
m-"
10
8
300 ms
130 ms
lu"
distribution TV MPEG1
1,5 Mbit/s
4.10"
M PEG 2
10 Mbit/s
6.10
vidéoconférence
délai de transfert 1 ms
7
64 kbit/s 2 Mbit/s 64 kbit/s 5 Mbit/s 20-50 Mbit/s
videophone
taux de perte des cellules
3.10
Tableau 8.2. Contraintes
13
12
de quelques
4.10 "
0,8 ms
1 ms
io-'°
5 ms 7
6,5 ms 7
2.10
9
applications
multimédias
Dans ce tableau, on constate que les applications citées sont plus ou moins sensibles aux pertes, les informations ayant subi une compression étant les plus sensibles. Certaines sont aussi très sensibles au délai de transfert, telle la distribution de programmes de télévision haute définition qui présente un caractère temps réel excluant toute reprise sur erreur par retransmission.
206
Architecture des réseaux haut débit
(a) trafic CBR
(b) trafic VBR F i g u r e 8 . 1 . Trafics CBR et VBR
Les trafics issus des services multimédias sont très différents. Ils se divisent en deux familles : les trafics à débit constant ou continu (CBR — Constant Bit Rate) et les trafics à débit variable (VBR — Variable Bit Rate) (figure 8.1). Le trafic CBR peut être caractérisé simplement par son débit maximal encore appelé débit crête ; par exemple le débit crête d'un transfert de voix numérisée est de 64 kbit/s [G.711]. Le tableau 8 . 3 donne des exemples de débit crête pour les principaux services CBR. La gestion du trafic CBR est aisée pour le réseau. En général, elle consiste à allouer la bande passante correspondante au débit crête de la source pendant toute la durée de la communication, que celle-ci soit active ou pas. Services
Débit crête
Téléphone
64 kbit/s
Son HI-FI stéréo Télécopie Groupe III
1,4 kbit/s 14.4 kbit/s
Télécopie Groupe IV
64 kbit/s
Tableau 8 . 3 . Débits crêtes de certains services
CBR
Le trafic VBR est qualifié de trafic sporadique. Typiquement, il alterne des périodes d'activité pendant lesquelles des données sont générées à un débit très élevé (on parle de rafale ou de burst en anglais) avec des périodes de silence où très peu de données sont générées voire aucune ; la durée de chacune de ces périodes est aléatoire ainsi que le débit de la période d'activité. Dans certains cas, le trafic VBR peut varier de manière continue sans distinction de périodes. On est amené ainsi à définir le débit crête comme étant le débit maximum pendant la période d'activité et le débit moyen comme le débit calculé sur les deux périodes (activité et silence). Compte tenu des spécificités du processus de numérisation utilisé, les différents services à débits variables ne présentent pas les mêmes caractéristiques en termes de débit crête, de périodes d'activité et de silence ; ces paramètres dépendent pour beaucoup de l'information elle-même et sont difficilement prédictibles.
ATM (Asynchronous Transfer Mode)
207
8.3. Le réseau large bande 8.3.1.
Normalisation
Dès 1990, l'UIT-T a établi un ensemble de recommandations qui définissent le cadre général et les principes de base du réseau large bande ou RNIS-LB (Réseau Numérique à Intégration de Services-Large Bande ou B-ISDN pour BroadbandIntegrated Service Digital Network) (celles-ci sont notées en gras dans le tableau 8.4). D'autres recommandations concernent des points spécifiques du RNIS-LB. Description
Recommandations UIT-T
Aspects large bande du RNIS
1.121
Aspects service
1.211
Architecture fonctionnelle
1.327
Modèle de référence
1.321
Aspects réseau généraux
1.311
Couche ATM
1.150, 1.361
Couche AAL
1.362,1363
Interface Usager-Réseau (UNI)
1.413,1.432
Principes OAM
1.610
Contrôle de congestion
1.371
Performance du transfert de cellule ATM
I.35B
Services de données sans connexion
1.364
Relais de trames au-dessus d'ATM
1.555,1.365
Signalisation Usager-Réseau (en cours)
Q.2931
Signalisation AAL
Q.2100, Q.2110. Q.2130. Q.2140
Vocabulaire
1.113
T a b l e a u 8 . 4 . Recommandations
8.3.2. Modes
de transfert
dans
un réseau
RNIS-LB
commuté
Le mode de transfert dans un réseau vise à partager la ressource réseau entre plusieurs communications simultanées en combinant deux techniques : le multiplexage et la commutation. Le multiplexage consiste à mélanger plusieurs canaux basse vitesse sur un même canal haute vitesse. La commutation aiguille une communication provenant d'un lien en entrée vers un lien en sortie. Conceptuellement, le multiplexage prend place à l'entrée du réseau tandis que la commutation est au cœur du réseau.
208
Architecture des réseaux haut débit
Le mode de transfert utilisé sur un réseau à commutation dépend étroitement du service offert. Sur le réseau téléphonique, c'est le mode synchrone (STM — Synchronous Transfer Mode) encore appelé mode circuit. Sur les réseaux de transmission de données, c'est le mode asynchrone (ATM — Asynchronous Transfer Mode) encore appelé mode paquet. 8 . 3 . 2 . 1 . Le mode de transfert
synchrone
Dans le réseau téléphonique, l'information transportée est la voix numérisée. Du fait de la numérisation par le procédé MIC, elle se présente sous la forme d'un octet émis périodiquement, toutes les 125 us. Le multiplexage temporel synchrone est alors bien adapté. Dans cette technique, le temps est découpé en cycles, eux-mêmes découpés en tranches de temps de taille fixe. Chaque tranche de temps contient exactement un octet de voix numérisée. Le cycle est appelé multiplex. Lors de l'établissement d'une communication, il y a réservation d'une tranche de temps nominale à l'intérieur du cycle et ce pendant toute la durée de la communication ; l'allocation de bande passante est donc statique. Le cycle est strictement synchronisé avec la voie basse vitesse, il est donc répété toutes les 125 u s de manière à respecter la contrainte d'isochronisme (figure 8.2). - multiplex—
AB C D
lignes basse vitesse
M U X
A
B
C
D
E : A
B
ligne haute vitesse
E Figure 8.2. Le multiplexage
synchrone
La reconnaissance d'un canal particulier au sein d'un multiplex se fait par la position de sa tranche de temps à l'intérieur du cycle ; elle est fixe pour la durée de la communication. La fonction de commutation est réalisée grâce à une table de translation mise à jour lors de l'établissement d'une communication. Elle indique pour chaque tranche de temps la nouvelle position qu'elle occupera dans le prochain multiplex. Du fait que les multiplex arrivent et repartent à la même vitesse au niveau d'un commutateur, il n'y a pas de stockage de l'information (seulement un stockage transitoire de durée très brève). 8.3.2.2. Le mode de transfert
asynchrone
Le trafic de données informatiques ne suit quant à lui aucune régularité, alternant l'envoi de grandes quantités de données avec des périodes de silence ; il est qualifié
ATM (Asynchronous Transfer Mode) 209 d'asynchrone. Dans ce contexte, l'allocation statique de la bande passante n'est pas très efficace, aussi a-t-on préféré une allocation dynamique en fonction des besoins instantanés de chaque communication [Doll 72]. Les unités de données sont structurées dans des paquets. L'en-tête du paquet permet d'identifier à quelle communication le paquet appartient, soit grâce aux adresses source et destination soit par un identificateur de communication délivré lors de l'établissement de cette d e r n i è r e . A la différence du mode de transfert synchrone, il n'y a aucune synchronisation entre voies basse vitesse et voie haute vitesse et par conséquent, pas de structure de cycle. L'arrivée des paquets se produisant de manière asynchrone et le débit de la voie haute vitesse pouvant être inférieur à la somme des débits des voies basse vitesse, les paquets peuvent être stockés temporairement dans des tampons avant d'être retransmis. tp
tl
t2
bande passante perdue
t3
A
Al Bl
B2 C2 ^
premier cycle
B
deuxième cycle
(a) multiplexage synchrone en-tête
~C~
|
bande passante gagnée \
5 Al ~D~
Bl î B2 C2
- < - à t l - » - •—à t;
b) multiplexage asynchrone Figure 8.3. Multiplexages
synchrone
et
asynchrone
La figure 8.3 montre la différence en termes d'utilisation de la bande passante entre les techniques synchrone et asynchrone. La commutation asynchrone consiste à recevoir un paquet, à examiner son en-tête puis à le retransmettre vers un lien de sortie. Les paquets sont là aussi stockés dans des tampons avant leur commutation et également avant la retransmission en sortie. Ce mode utilise des files d'attente qui introduisent une part plus ou moins importante d'indéterminisme. Les voies basse vitesse n'étant pas toutes actives en même temps, on peut accepter davantage de voies basse vitesse en entrée du multiplexeur, on qualifie alors le multiplexage asynchrone de multiplexage statistique. Les tampons sont là pour absorber un surplus temporaire de trafic. Si toutes les voies sont actives en même temps, il peut y avoir perte de paquets par suite d'une saturation des tampons. 8.3.2.3. Choix de
l'ATM
En mode synchrone, les mécanismes du réseau déterminent le débit d'une communication et le terminal doit adapter son débit à celui-ci. Si le terminal n'a rien à envoyer, il y a gaspillage de bande passante. De plus, le débit disponible sur le réseau est toujours multiple d'un débit de base. En mode asynchrone, le terminal
2 10 Architecture des réseaux haut débit
dicte le débit d'émission et peut envoyer des débits qui varient de quelques kbit/s à plusieurs dizaines de Mbit/s. Le mode asynchrone possède donc la propriété de multidébit nécessaire aux services décrits en 8.2. Il assure donc l'indépendance entre les terminaux et les équipements de multiplexage et de commutation ; on parle d'anisochronisme à l'accès. La deuxième motivation provient du fait que les applications multimédias demandent, outre des débits élevés, des délais de transfert courts. Cette deuxième contrainte a conduit à simplifier au maximum le protocole de transfert. Nous présentons ses caractéristiques dans le paragraphe suivant.
8.3.3. Principes
fondamentaux
du
mode
ATM
La technique ATM spécifiée pour le réseau large bande se caractérise par : - l'absence de contrôle de flux à l'intérieur du réseau à partir du moment où la communication a été acceptée ; - l'absence de contrôle d'erreur car d'une part, la transmission sur fibre optique présente une bonne qualité de transmission et d'autre part, détection et reprise diminuent le débit utile ; - un mode orienté connexion pour faciliter la réservation des ressources et assurer le séquencement des PDU ; - l'absence de contrôle de perte au niveau du réseau car des ressources suffisantes ont été allouées aux connexions lors de leurs établissements ; - une unité de transfert appelée cellule, de taille réduite pour faciliter l'allocation mémoire dans les commutateurs et permettre un meilleur entrelacement des flux et une commutation rapide ; - un en-tête de cellule de taille limitée et aux fonctions réduites pour assurer une commutation rapide. La cellule ATM de 53 octets contient 48 octets d'information (encore appelés champ payload) et 5 octets d'en-tête (figure 8.4). La longueur de la cellule est le résultat d'un consensus technologique entre les Américains (64 octets) et les Européens (32 octets). 8
7
6
5
4
3
2
1
1 2
en-tête 5 octets
3 4 5 6
information 48 octets
53
F i g u r e 8 . 4 . Format général de la cellule ATM
ATM (Asynchronous Transfer Mode)
8.3.4. Connexions 8.3.4.1. Principe
2 11
ATM
de la connexion
virtuelle
L'acheminement des cellules dans le réseau large bande se fait par établissement préalable d'une connexion de voie virtuelle (VCC — Virtual Channel Connection) de bout en bout entre les intervenants de la communication (source et destinataire). Par abus de langage, nous appelons simplement connexion virtuelle, la connexion de voie virtuelle. Une connexion virtuelle ATM est une concaténation de tronçons de voie virtuelle (VCL — Virtual Channel Link) juxtaposés. Un tronçon de voie virtuelle est défini sur un lien entre deux nœuds. Le protocole d'établissement consiste à choisir le chemin que doit emprunter la connexion virtuelle dans le réseau en fonction de ses besoins en bande passante, de sa destination finale et des ressources disponibles. Une fois la connexion établie, les cellules transmises sont transférées en séquence sur le chemin tracé. Le protocole d'établissement d'une connexion ATM fait partie du plan de signalisation (qui sera défini en 8.3.6). Les connexions sont de bout en bout et peuvent être point à point ou point à multipoint (d'ores et déjà pour les spécifications de l'ATM Forum et à partir de la phase 2, selon le planning établi par l'UIT-T), unidirectionnelles ou bidirectionnelles (dans ce dernier cas, symétriques ou asymétriques en termes de bande passante). 8.3.4.2. Translation
des valeurs
de VCI
La connexion virtuelle est identifiée sur chaque tronçon de voie virtuelle par un identificateur de voie virtuelle appelé VCI (Virtual Channel Identifier). Cet identificateur ainsi que le lien emprunté sont enregistrés au moment de l'établissement, dans chaque nœud traversé par la connexion, dans une table de translation. Prenons comme exemple une connexion virtuelle unidirectionnelle de bout en bout établie entre deux terminaux utilisateur A et B. Quand A demande la connexion à B, le réseau initialise le VCI à la valeur a. Les cellules transmises par A seront donc étiquetées avec un VCI égal à a. D'autre part, le réseau affecte la valeur z à la connexion arrivant en B (figure 8.5).
A
VCI = a ^
VC
Ll
VCI = b
VC
L2
VCI = x
L3
VCI = y
VC
f c
VC
connexion de voie virtuelle (VCC) Figure 8.5. Exemple
de connexion
virtuelle
L4
VCI = z 1
• VC
B
2 1 2
A r c h i t e c t u r e d e s r é s e a u x h a u td é b i t
Les valeurs des VCI en entrée et en sortie du commutateur sont enregistrées avec les informations de routage dans une table de translation. Lors de la commutation d'une cellule, le commutateur effectue la translation des valeurs de VCI en même temps qu'il route la cellule sur le lien adéquat en sortie. En reprenant l'exemple de la figure 8 . 5 , une connexion virtuelle provenant du lien de A et identifiée a sera commutée vers le nœud L 2 et portera le VCI b sur ce lien (figure 8 . 6 ) . Le nouveau VCI servira à la prochaine unité de commutation rencontrée par la cellule. A l'entrée du nœud L l , la cellule arrive sur le port A avec le VCI a et sort sur le port L 2 avec le VCI b. e n t r é e a
a
V C I
A
L 2
b
A
p o r t
nœud Ll
sortie
L 2
b j
F i g u r e 8.6. Translation des valeurs de VCI au nœud Ll
Comme plusieurs dizaines de milliers de connexions virtuelles peuvent traverser un commutateur, la table de translation peut occuper un espace mémoire considérable et le temps de recherche à l'intérieur de la table devenir important. Pour pallier cet inconvénient, les connexions virtuelles de l'utilisateur sont multiplexées dans des connexions de conduit virtuel (VPC — Virtual Path Connection) que nous appelons par abus de langage, conduit virtuel. 8 . 3 . 4 . 3 . Le conduit
virtuel
Une connexion de conduit virtuel (VPC — Virtual Path Connection) contient des faisceaux de voie virtuelle qui sont commutés ensemble comme une seule unité (figure 8 . 7 ) . De la même manière que pour la voie virtuelle, la connexion de conduit virtuel est composée d'une concaténation de tronçons de conduit virtuel (VPL — Virtual Path Link) juxtaposés. La connexion de conduit virtuel est établie par l'opérateur du réseau de manière permanente. La notion de conduit virtuel est transparente à l'utilisateur.
VC
v r
VP
VP
couche physique
vr VP
F i g u r e 8.7. Multiplexage
VC VP
des VC et des VP
ATM (Asynchronous Transfer Mode) 2 1 3 L'identification d'une connexion virtuelle se fait donc par deux champs de l'entête de la cellule : - VCI (Virtual Channel Identifier) : l'identificateur de voie virtuelle identifie les connexions allouées dynamiquement. Avec 16 bits, le champ VCI autorise jusqu'à 64 000 connexions de voie virtuelle pour chaque conduit ; - VPI (Virtual Path Identifier) : l'identificateur de conduit virtuel identifie les connexions statiques (semi-permanentes). Le champ VPI est codé sur 8 ou 12 bits et permet ainsi 256 ou 4 096 conduits virtuels. 8.3.4.4. Commutation
à deux
niveaux
Le réseau ATM s'organise en deux sous-couches comme le montre la figure 8.8.
VCI VPI
transmission brasseur F i g u r e 8 . 8 . Brasseur
commutateur et
commutateur
A chacune de ces sous-couches correspond un équipement de commutation particulier. Les commutateurs de VP (niveau inférieur) n'examinent que la partie VPI. A ce niveau, toutes les connexions de VC de même VPI sont commutées ensemble. Un tel commutateur est appelé brasseur de conduits. Seule la valeur de VPI y est translatée. Les commutateurs de VC (niveau supérieur) examinent la partie VPI + VCI. La commutation de la cellule est alors réalisée sur la base de la concaténation du VCI et du VPI. Ce type de commutateur termine un tronçon de voie virtuelle et nécessairement une connexion de conduit virtuel. 8.3.4.5. Exemple
d'allocation
de VCI/VP1 dans un réseau
ATM
On considère le réseau RNIS-LB de la figure 8.9 :
F i g u r e 8 . 9 . Exemple
de RNIS-LB
2 1 4 Architecture des réseaux haut débit Dans ce réseau, on suppose que : - les usagers F et H accèdent par des accès distincts sur le nœud 2 et communiquent avec l'usager X, - le serveur X a un tronçon de VP avec le nœud 3, - une connexion de VP ne comporte, dans la mesure du possible, qu'un seul tronçon de VC. On distingue deux cas : a. Les deux VCC sont multiplexées sur la même VPC. b. Chaque VCC passe dans une VPC différent. La figure 8.10 donne un exemple de tables de routage où les nœuds 1, 2, 3 et 4 sont des brasseurs de VP et les autres nœuds des commutateurs de VC. Les contraintes pour les valeurs de VPI et VCI des deux connexions entre elles sont : - VPI différents entre 2-4 et 4-6, - mêmes VPI, VCI différents entre 6-1, 1-3 et 3-X (hypothèse 2).
Figure 8.10. Exemple d'allocation
de VC1/VP1 dans un résea,
La figure 8.11 donne un exemple de tables de routage où les nœuds 2 et 3 sont les commutateurs de VP, les autres nœuds étant des commutateurs de VC. Les :ontraintes pour les valeurs de VPI et VCI des deux connexions entre elles : - VPI différents entre 6-7 (hypothèse 3), - VPI identiques, VCI différents entre 7-3 et 3-X (hypothèse 2).
ATM (Asynchronous Transfer Mode) 2 1 5
Figure 8.11. Exemple d'allocation
de VCIA^PI dans un réseau
La configuration (a) est la plus intéressante car elle comporte le moins de commutations de VC. Les VC sont commutées en faisceaux par les brasseurs.
8.3.5. Architecture
du réseau
large
bande
Le réseau large bande est constitué de trois parties, le réseau de distribution qui permet de relier les utilisateurs, le réseau de commutation qui réalise la commutation à haut débit et le réseau de transmission qui a la charge du transport physique de l'information. 8.3.5.1. Interfaces
du
RNIS-LB
Comme pour le RNIS-BE (Bande Etroite), la normalisation s'est dotée d'une configuration de référence de l'installation privée. La frontière avec le réseau public est définie par des interfaces normalisées à des points de référence (figure 8.12). L'accès au réseau par un utilisateur se fait par deux points de référence, Tg et SR. Au point de référence TR, est définie l'interface usager-réseau (UNI — User-Network Interface). L'UNI fournit un service de réseau. Dans le modèle de référence du RNISLB, ce service est découpé horizontalement en deux couches, PHY et ATM. Au point de référence SR, l'interface de raccordement terminale est à l'étude. La connexion de deux réseaux ATM est décrite quant à elle par la NNI (NetworkNode Interface). L'interface SNI (Subscriber-Network Interface) est définie pour un réseau SMDS (Switched Multimegabit Data Service) (cf. chapitre 9).
216
Architecture des réseaux haut débit
UNI I
NNI
NT2 réseau privé
réseau public 1
réseau public 2
SNI
»SB
SMDS V
F i g u r e 8 . 1 2 . Les différentes
8.3.5.2. Configuration
de référence
interfaces
d'accès
à l'UNI
L'utilisateur peut désigner comme terminal un ensemble de terminaux raccordés entre eux par un réseau local. L'accès au RNIS-LB est alors soit direct soit via une installation privée d'abonné c'est-à-dire un réseau local (figure 8.13).
TE2
R —•
B-TASB
•
ou B-TE2
B-NT2
TB
c
B-NTl
B-TE1 -opérateur-
installation d'abonné toint de reterence
groupement tonctionnel
F i g u r e 8 . 1 3 . Configuration
de référence
de
l'utilisateur
Les groupements fonctionnels sont : - B - N T 1 (Broadband Network Termination), terminaison de la liaison de raccordement, se trouve chez l'usager mais appartient à l'opérateur et comporte les équipements pour le raccordement de l'installation privée au point de référence T 3 . Ce point de référence est la limite légale du domaine privé. B - N T 1 effectue la terminaison de la ligne de transmission et les fonctions OAM (Operation And Maintenance) associées ; - B - N T 2 constitue l'ossature de l'installation privée (réseau privé) avec des topologies possibles en étoile, bus ou anneau. Ce groupement exécute la commutation et le multiplexage des cellules ATM et comporte les fonctions de raccordement multiple de terminaux au point S B et de mise en communication interne ;
ATM (Asynchronous Transfer Mode)
2 17
- B-TA (Broadband Terminal Adaptor) est un module d'adaptation lorsque le terminal ne présente pas d'interface compatible à l'interface définie au point de référence S B - Il comporte en particulier les couches ATM et AAL (définies en 8.3.6) nécessaires au terminal considéré ; - B-TE1 (Broadband Terminal Equipment), le terminal RNIS-LB lui-même. L'installation privée a d'abord été construite autour d'un PABX. Puis, avec l'apparition de l'informatique décentralisée, les concepts de réseaux locaux et récemment de réseaux métropolitains ont émergé et se sont imposés. Pour jouer son rôle fédérateur, il est probable que l'installation privée devra s'orienter vers un mode de transfert ATM. Ainsi, elle pourrait tirer profit de tous les avantages de l'ATM (flexibilité, simplicité, rapidité, indépendance aux applications). De plus, la compatibilité avec le RNIS-LB serait assurée. Si les souhaits des opérateurs coïncident avec ceux des utilisateurs, la technique retenue doit alors être la même. On parle dans ce cas de réseau local ATM ; ce dernier est organisé en un réseau de VP. 8.3.5.3. Réseau de
distribution
Le réseau de distribution est lui-même divisé en un réseau d'accès et un réseau de collecte (figure 8.14). -réseau de distributioi
MUX
réseau
usager
vers le mmutatei
eseau de collecte TLO
1KCJ
-réseau d'accès-
TRC
veis ie brasseur r
ï -
\MUXI/E
TRO
EE
5 c: z
/
F i g u r e 8 . 1 4 . Le réseau de
M U X I/E
distribution
2 1 8 Architecture des réseaux haut débit
Les équipements du réseau de distribution sont les suivants : - T R O : la Terminaison de Réseau Optique est placée soit chez l'usager soit dans le réseau, au point de concentration situé à quelques centaines de mètres de l'usager ; - T L O : le Terminal de Ligne Optique regroupe toutes les fonctions de contrôle et de maintenance du réseau d'accès ; - M U X I/E : le Multiplexeur d'Insertion-Extraction est capable d'insérer et d'extraire les données d'un ou de quelques usagers particuliers dans un flux de données. Il s'agit en réalité d'un brasseur dériveur ; - MUX : le multiplexeur de collecte a le même rôle que le multiplexeur précédent mis à part qu'il ne comporte pas de fonction d'insertion/extraction ; - brasseur de collecte : son rôle est d'aiguiller les différents flux ATM du réseau de collecte, essentiellement vers les nœuds du réseau de commutation. Le multiplexeur peut être de type STM ou de type ATM. Le multiplexeur STM retransmet les cellules telles qu'elles arrivent. Le multiplexeur ATM extrait les cellules ATM de la trame de transmission (dans le cas d'une trame SDH (cf. 8.2.5.7)), supprime les cellules vides (et les cellules non valides) et multiplexe les cellules valides pour les mettre dans un conteneur virtuel. Le réseau d'accès permet le raccordement des usagers au réseau de collecte. Bien que le coût des équipements optiques soit en baisse (TRO, TLO), un raccordement par câblage optique pour les particuliers reste actuellement relativement onéreux. Ce type de raccordement reste économiquement viable pour les usagers professionnels. Deux topologies du réseau d'accès sont possibles : - en point à multipoint (anneau, bus, arbre-étoile) : le câblage optique est partagé entre plusieurs usagers (entreprises à débits d'accès faibles ou particuliers) pour diminuer le coût du câblage ; - en point à point : pour les grands utilisateurs professionnels. Le réseau de collecte vise à faciliter la gestion des conduits du réseau de distribution. Par son dimensionnement, il garantit à l'opérateur la souplesse d'exploitation et la possibilité d'évolution. La figure 8.15 montre la topologie maillée d'un réseau de collecte.
ATM (Asynchronous Transfer Mode)
2 19
reseau d'accès brasseui ^ers le réseau de
réseau de collecte 7
| T | multiplexeur I/E
|M | multiplexeur
F i g u r e 8 . 1 5 . Topologie
8.3.5.4. Réseau
transport ATM
de commutation
maillée du réseau de
collecte
ATM
Du fait de ses deux niveaux de commutation, le réseau de commutation du RNISLB est hiérarchisé en deux sous-réseaux : le réseau commuté qui traite les appels des utilisateurs en temps réel et le réseau brassé qui s'occupe de la commutation des conduits virtuels (figure 8.16). La couche de réseau brassé permet de constituer une infrastructure de conduits servant de support à un réseau superposé de commutateurs publics ou privés.
' reseau commuté
.commutateur/
voie virtuelh reseau brasse
brasseur
F i g u r e 8 . 1 6 . Le réseau de
commutation
Le réseau de commutation utilise comme équipements d'une part, des brasseurs numériques — qui ne commutent que des VP — et d'autre part, des commutateurs ATM — qui commutent à la fois des VP et des VC.
2 2 0 Architecture des réseaux haut débit
La figure 8.17 illustre le fonctionnement d'un commutateur ATM. L e commutateur reçoit une cellule ATM, analyse son en-tête, effectue la translation des VCI/VPI. Grâce au routage enregistré dans la table de translation, il commute immédiatement la cellule vers le lien prédéfini de sortie. La commutation des cellules étant en fait effectuée par plusieurs modules en parallèle, il est nécessaire de veiller à ce que deux cellules n'arrivent pas au même instant en entrée du tampon de sortie (contrôle de collision). La cellule devra éventuellement avoir à attendre avant d'être multiplexée et retransmise sur le lien de sortie. Il n'y a donc aucune relation temporelle entre les instants d'arrivée et de sortie de la cellule ; on parle d'anisochronisme à la commutation. analyse de l'en-tête traduction de l'en-tête
commande de commutation file d'attente multiplexage de sortie
cellule reçue|
cellule émise
m commutation de cellules
Figure
8.17.
Fonctionnement
d'un
contrôle ue collision
commutateur
ATM
Le développement du réseau ATM se fait en deux temps, tout d'abord le déploiement du réseau brassé, puis celui du réseau commuté, ce dernier offrant les services commutés. 8.3.5.5. Réseau
de
transmission
L'ATM peut être utilisé sur n'importe quel système de transmission. L'UIT-T propose trois systèmes de transmission du flux de cellules (figure 8.18) : - un système reposant sur le système hiérarchique numérique plésiochrone (PDH — Plesiochronous Digital Hierarchy), - un système reposant sur le système hiérarchique numérique synchrone (SDH — Synchronous Digital Hierarchy), - un système reposant sur une structure équivalente à la cellule. Les deux premiers sont des systèmes hiérarchiques issus de systèmes existants ; le mode de transmission y est synchrone. PDH est le système de transmission numérique actuellement en vigueur. SDH provient du système SONET proposé antérieurement par Bellcore.
ATM (Asynchronous Transfer Mode) 2 21 système de transmission et support physique hiérarchie numérique
basé sur la cellule
f
SDH
PDH
Synchronous Digital Hierarchy
Plesiochronous Digital Hierarchy
Figure 8.18. Les trois systèmes
8.3.5.6. Le système
de transmission
de
transmission
PDH
Le système PDH est le système de transmission numérique actuel fondé sur le débit d'une voie téléphonique du RNIS à 64 kbit/s (un octet de voix transféré toutes les 125 us). Le multiplexage de voies téléphoniques consiste par conséquent en un multiplexage temporel synchrone par caractères de 8 bits chacun, avec un octet par canal transporté. PDH repose sur deux hiérarchies différentes définies dans des recommandations de l'UIT-T : - en Amérique du Nord et au Japon, la hiérarchie utilise un multiplex de 24 canaux (soit 24 octets auxquels est ajouté un bit de synchronisation), soit un débit de 1,544 Mbit/s (recommandation G.733) (figure 8.19 (a)) ; - en Europe, elle utilise un multiplex de 32 canaux (soit 32 octets), soit un débit de 2,048 Mbit/s (recommandation G.732) (figure 8.19 (b)). ^
193 bits =125 us
^
«4—canal 1—^*—canal 2—»-> 12
3 4 5 6 7 8 1 2 3 4 5 6 7 8
|-4-canal 24—fc» \ ^
1 2 3 4 5 6 7 g'|'
(a) Multiplex G.733 (USA et Japon)
bit 193
-256 bits = 125 us- canal 1
- canal 2-
-canal 321 2 3 4 5 6 7
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
(b) Multiplex G.732 (Europe) Figure 8.19. Format du
multiplex
222
Architecture des réseaux haut débit
La hiérarchie du système plésiochrone comprend cinq niveaux appelés ordres (figure 8.20). 64 kbit/s er
1 ordre
2 Mbit/s e
2 ordre
30
8 Mbit/s e
3 ordre
34 Mbit/s
4 ordre 140 e
Mbit/s
5 ordre 1565 e
Figure 8.20. Les cinq niveaux de la hiérarchie
Mbit/s
plésiochrone
A partir du deuxième ordre, les équipements sont des multiplexeurs numériques. Ils multiplexent les trames des systèmes d'ordre précédent reçues en entrée en une nouvelle trame appelée affluent. 8.3.5.7. Le système
de transmission
SONET
SONET (Synchronous Optical NETwork) a été initialement développé au sein de la société Bellcore (Bell Communication Research) avant d'être adopté par l'UIT-T dans les recommandations G.707, G.708 et G.709. Sa motivation provient du remplacement des supports électriques utilisés en téléphonie par de la fibre optique permettant des débits plus élevés. C'est l'un des protocoles les plus répandus pour la transmission sur fibre optique. Son objectif est de permettre la flexibilité du multiplex (c'est-à-dire la possibilité de le réorganiser simplement), la facilité d'exploitation, la prise en compte des évolutions futures vers les hauts débits et le raccordement par des interfaces optiques. SONET fournit une hiérarchie des débits. Le premier niveau de la hiérarchie est désigné par STS-1 (Synchronous Transport Signal level 1) en notation numérique ou OC-1 (Optical Carrier level 1) en notation optique et fournit un débit de 51,84 Mbit/s. Les autres niveaux, notés STS-« ou OC-n, sont des multiples de n fois STS-1 ou OC-1 (tableau 8.5). Le système de transmission est synchrone.
débit (Mbit/s) 51,84 155.52 622,08 1244,16 2488,32
désignation SONET - STS/OC 1 3 12 24 48
Tableau 8.5. Hiérarchie
de débits
désignation ITU-T - STM —
1 4 8 16 SONET-SDH
ATM (Asynchronous Transfer Mode)
223
Les données sont transmises dans des trames, chaque trame étant vue comme un tableau d'octets de 90 colonnes et 9 lignes d'octets (figure 8.21). SONET est un système synchrone qui répète une trame toutes les 125 us, ce qui conduit au débit de 51,84 Mbit/s. L'en-tête SOH (Section OverHead) occupe les trois premières colonnes et comprend les informations liées au transport et nécessaires aux fonctions de contrôle et de gestion du réseau. La section de régénération est prise en compte à chaque répéteur SONET. La section de multiplexage est prise en compte par les multiplexeurs SONET. La quatrième ligne comporte des pointeurs. 1
î 2 3 •
4
™
•
1 S
O
STS-l
N
2
3
Regenerator Section Overhead pointers
5
Multiplexor Section Overhead
6 7 8 u
en-tête (SOH)
trame SONET
F i g u r e 8 . 2 . La trame SONET et son en-tête
La règle est qu'une trame STS-H est construite avec n trames S T S - 1 , ce groupe de n trames devenant ainsi l'unité de transmission du niveau n. Avec S T S - 1 , les trames de données sont émises une à une. Avec S T S - 3 , elles sont émises par groupes de trois. S O N E T définit également une hiérarchie logique en termes de couches de fonctionnalités et une hiérarchie physique en termes d'équipements utilisés. La figure 8.22 montre les quatre couches utilisées dans la hiérarchie logique : - la couche photonique ou couche physique proprement dite qui transfère le signal optique modulé, - la couche section qui convertit les signaux électriques en signaux lumineux, - la couche ligne, responsable de la synchronisation et du multiplexage et qui comporte les fonctions de maintenance et de protection, - la couche conduit qui prend en charge le transport de bout en bout des données. services]
|services
<
enveloppe
conduit bloc STS-n
ligne section photonique terminal
trame
T
lumière
répéteur
multiplexeur SONET
F i g u r e 8 . 2 2 . Hiérarchie
logique
SONET
terminal
224
Architecture des réseaux haut débit
La hiérarchie physique de SONET comporte les différents équipements indiqués dans la figure 8.23. Le multiplexeur d'insertion et extraction (ADM — Add and Drop Multiplexor) est capable d'insérer et d'extraire des canaux de la trame SONET. multiplexeur d'insertion et d'extraction
!•—~~
répéteur
iCr-
multiplexeur SONET
multiplexeur d'insertion et d'extraction
-o
section
•-
(STE)
"ligne
-
(LTE)
-
•
(PTE + LTE) -conduitSTE - Section Terminal Equipment LTE - Line Terminal Equipment PTE - Path Terminal Equipment
F i g u r e 8 . 2 3 . Hiérarchie
8.3.5.8. Le système
de transmission
physique
de SONET
SDH
C o m m e S O N E T , le système de transmission SDH (Synchronous Digital Hierarchy) est un système qui peut transporter différents types de flux comme par exemple, les canaux du RNIS ou les cellules ATM. Son but est d'apporter un système planétaire unique de transmission numérique normalisée. SDH a été développé pour assurer le multiplexage sur des supports dont les débits sont de plusieurs centaines de Mbit/s. Pour cela, il propose un jeu élémentaire de normes internationales de multiplexage pour des liens à haut débit. Il vise à éviter l'apparition de plusieurs standards de multiplexage pour les liens à haut débit comme cela a été le cas pour les liens téléphoniques à faible débit utilisant PDH. Toutes les fonctions de synchronisation sont réalisées par le système SDH, générant ainsi un surdébit supplémentaire. Son avantage tient dans le fait que des produits SDH sont déjà opérationnels dans les réseaux de certains opérateurs. Par ailleurs, SDH fournit à l'ATM le support de transmission de qualité dont il a besoin en raison de la quasi absence de correction d'erreur dans l'ATM. De plus, grâce à ses capacités de gestion, SDH s'impose face à la PDH. SDH est un dérivé de SONET, mais avec des normes et des débits différents. Les débits de l'UIT-T commencent à 155,52 Mbit/s, débit désigné par STM-1 (Synchronous Transport Module level 1). La raison de ce choix est que STM-1 est le premier signal à s'adapter au mieux aux signaux plésiochrones, en l'occurrence au signal d'ordre 4 (139,264 Mbit/s). Chaque niveau de débit est noté STM-n. Le premier niveau STM-1 est identique au niveau STS-3 de SONET. Le tableau 8.5 montre la relation entre les niveaux SONET et SDH.
ATM (Asynchronous Transfer Mode)
225
La trame SDH est composée d'un SOH (Section OverHead), d'un POH (Path OverHead) et d'une zone de données (figure 8.24). 1
H 1
9 10
270
S O H
charge utile
P t r
HS
O
H
STM-1
155,52 Mbit/s
F i g u r e 8 . 2 4 . La trame
SDH
La trame STM-1 est le plus petit granule de la ligne SDH ; elle a un débit de 155,52 Mbit/s, une durée de 125 us et une fréquence de répétition de 8 kHz. La trame comporte 19 440 bits (9 * 270 octets). 8.3.5.9. Le système
de transmission
en mode
cellule
La trame transportée par le système de transmission correspond ici à la cellule. Le système de transmission fournit une séquence de bits, transportée de manière continue, sans cadencement régulier, dans laquelle la cellule est directement transmise (figure 8.25). Comme aucune horloge n'est fournie au récepteur, l'horloge de ce dernier peut être soit dérivée du signal reçu du nœud local, soit fournie par l'horloge de l'équipement utilisateur. Des systèmes de ce type pourraient être utilisés à la périphérie du réseau pour des configurations d'accès exigeant un système de transmission optimisé. champ ^~~de données
cellule vide
cellule de maintenance
en-tête Je cellule F i g u r e 8 . 2 5 . Système
8.3.6. Modèle
de référence
du
basé sur la
cellule
RNIS-LB
Dans les systèmes de communication récents, une approche en couches est utilisée pour l'organisation de toutes les fonctions de communication. Les fonctions de ces couches et les relations inter-couches sont décrites dans un modèle de référence de protocole. Ont été ainsi spécifiés : - le modèle de référence OSI dans la recommandation X.200 en 1978, - le modèle de référence du RNIS-Bande Etroite dans la recommandation 1.320 en 1988,
226
Architecture des réseaux haut débit
- le modèle de référence du RNIS-Large Bande dans la recommandation 1.321 en 1991. Le modèle de référence du RNIS-BE a introduit le concept de plans séparés pour la distinction des fonctions de gestion, de contrôle et d'usager. Ce concept a été repris et étendu pour le RNIS-LB. Le modèle de ce dernier organise les fonctions de communication en couches et en plans en principe homogènes et indépendants les uns des autres.
couche AAL
gestion de plans
couches de niveaux supérieurs
gestion de couches
plan de gestion
couche ATM couche PHY |
F i g u r e 8 . 2 6 . Modèle de référence du RNIS-LB
Les plans sont au nombre de trois (figure 8.26) : - le plan d'usager décrit le transfert d'informations d'usager ; tous les mécanismes associés, tels que le contrôle de flux ou d'erreur, y sont inclus. Dans ce plan, la pile de protocoles met l'accent sur la couche ATM, qui incarne le caractère multiservice (et donc multidébit) de la technique ; cette couche est commune à double titre : différentes couches AAL (Adaptation ATM Layer) permettent de porter les différentes applications ; différentes couches PHY traduisent la compatibilité de l'ATM avec différents systèmes de transmission sous-jacents (par exemple, SDH, PDH ou transmission en mode cellule) ; - le plan de commande matérialise le fait que les fonctions de traitement d'appels utiliseront un réseau de signalisation fondé sur l'ATM et il comporte les fonctions de signalisation nécessaires pour établir, superviser et libérer un appel ou une connexion ; - le plan de gestion illustre le fait que des liens entre couches sont indispensables à la gestion et à l'exploitation d'un réseau. Il est scindé en deux sousensembles, la gestion de plans et la gestion de couches. La gestion de plans est responsable de la coordination de tous les plans et comprend, en conséquence, toutes
ATM (Asynchronous Transfer Mode)
227
les fonctions de gestion qui portent sur le système global. Elle n'est pas structurée en couches, contrairement à la gestion de couches. Cette dernière réalise les fonctions de gestion relatives aux ressources et aux paramètres résidant dans ses entités de protocole. En particulier, elle gère les flux spécifiques d'information OAM (Operation And Maintenance) pour chaque couche.
8.3.7. La gestion
du réseau
large
bande
Le plan de gestion est spécifié principalement dans la recommandation 1.610 qui décrit les fonctions de maintenance de l'interface UNI et les accès au réseau. Les opérations de contrôle et de maintenance (OAM — Operation And Maintenance) concernent cinq fonctionnalités (cf. tableau 8.6).
Description
Actions gestion des performances
l'entité administrée est surveillée par des fonctions de vérification continues ou périodiques
détection des pannes
les défaillances présentes ou prévisibles sont détectées par des vérifications continues ou périodiques
localisation des défaillances
la localisation de l'entité en panne est déterminée par des systèmes de test internes ou externes si l'information sur les pannes est insuffisante
protection du système
les effets d'une entité en panne sont réduits au maximum en la circonspectant ; l'entité est exclue des opérations les moyens de protection et de reconfiguration sont activés
information sur les pannes et les défaillances
l'information de panne est communiquée aux autres entités administrées
Tableau 8.6. Fonctionnalités
de F OAM
Les fonctions OAM dans un environnement ATM coïncident avec les cinq niveaux hiérarchiques associés à ATM et PHY (figure 8.27). Ces dernières sont réalisées au moyen de flux de maintenance bidirectionnels composés de cellules spécifiques : les cellules OAM. Elles sont insérées ou extraites aux différents points de connexion des VCC : commutateur, brasseur, multiplexeur, répéteur. Elles permettent de réaliser des mesures de qualité sur les équipements situés entre les points d'insertion et d'extraction. Les cellules de maintenance sont véhiculées par la
228
Architecture des réseaux haut débit
connexion virtuelle et sont routées comme les données normales ; elles suivent donc le même chemin physique. La distinction entre les cellules du flux de maintenance et celles du flux de données normales est faite grâce au champ PTI (Payload Type Identification) de l'en-tête de la cellule (cf. 8.5.5).
Couche ATM
Flux OAM F5
Niveau
Voie virtuelle
Connexion de voie virtuelle Tronçon de voie virtuelle
Connexion de conduit virtuef
F4
Conduit virtuel
Tronçon de .Conduit virtuel
Conduit de transmissio
Couche physique
F3
Conduit de transmission
Section numérique F2
Point de connexion des niveaux
Section de répétition
Extrémité des niveaux
Fl
Figure 8.27. Flux de maintenance
OAM
Il existe cinq types de flux de maintenance : F l , F2, F3, F4, et F5. L'ensemble des cellules Fl constitue un flux pour l'exploitation et la maintenance des répéteurs. Le flux F3 a le même rôle mais opère au niveau du conduit (cf. SONET). Le flux F2 permet la gestion du multiplexage des cellules dans une structure de trame. Les flux F4 et F5 se situent respectivement au niveau du chemin virtuel et de la connexion virtuelle. Les cellules OAM sont identifiées par le champ PTI de la cellule. La hiérarchie des flux ATM détermine une portée pour chaque flux OAM à l'interface usager-réseau (UNI) (figure 8.28).
A T M ( A s y n c h r o n o u s Transfer M o d e )
LT
B-NT1
B-NT2
Brasseur
LT
-Xh Fl
- 0 - 0
Fl
-« F2
F2
229
F2 F3
F3 F4 F5 ET : Exchange Termination LT : Line Termination
Figure 8.28. Portée des flux à l'interface usager
8.4.
La
coucne
8.4.1. Structure
réseau
r n i
de la couche
PHY
La couche physique, définie dans la recommandation 1.432, est applicable à l'interface UNI (User-Network Interface). Le support souhaité est la fibre optique mais il est envisageable d'utiliser également des supports électriques. La couche physique est responsable du transport correct de cellules et de la remise, aux couches supérieures, d'information de synchronisation afin de permettre des services tels que l'émulation de circuit. La couche physique est divisée en deux sous-couches afin de permettre plusieurs supports différents tout en offrant toujours le même service à la couche ATM. Il s'agit de : - la sous-couche TC (Transmission Convergence) qui présente à la couche ATM un service uniforme indépendamment du support de transmission utilisé. Elle assure les fonctions d'adaptation du débit, de génération de la séquence de contrôle HEC portant sur l'en-tête, de délimitation des cellules, d'adaptation de trame et de génération/réception des trames ; - la sous-couche PM (Physical Medium) qui dépend du support de transmission utilisé. Elle assure principalement les fonctions de synchronisation bit et d'accès au support.
230
Architecture des réseaux haut débit
L'unité de données échangée entre les deux sous-couches est constituée d'un flot d'octets associé à des informations de synchronisation (figure 8.29). ATM cellules valides synchronisation
PHY TC - Transmission Convergence suite d octets synchronisation
PM - Physical Medium
Figure 8.29. Flux d'information
8.4.2. La
sous-couche
Physical
entre sous-couches
Medium
physiques
(PM)
Cette sous-couche est responsable de la transmission et de la réception correctes des bits sur le support. Elle assure principalement la synchronisation bit en réception ainsi que les fonctions dépendantes du support (support de type optique ou électrique). L'émetteur est tenu d'insérer des bits de synchronisation et d'assurer le bon codage de l'information. Pour une interface électrique, il est recommandé d'utiliser deux câbles coaxiaux de longueur comprise entre 100 et 200 m. Pour une interface optique, la longueur de la fibre est d'au moins 800 m. Cependant, les caractéristiques du support sont encore à l'étude. Quatre débits d'accès sont définis à l'interface UNI [ATM Forum 94] : 44,736 Mbit/s, 100 Mbit/s et deux interfaces à 155,52 Mbit/s (STS-3c et STM1). D'autres débits et d'autres supports physiques pourront être ultérieurement définis.
8.4.3. La 8.4.3.1.
sous-couche
Transmission
Convergence
(TC)
Fonctionnalités
A ce niveau, les bits sont déjà reconnus puisqu'ils proviennent de la couche PM. La sous-couche réalise cinq fonctions : - la génération/réception de la trame de transmission, - l'adaptation du flux ATM au système de transmission,
ATM (Asynchronous Transfer Mode)
23 1
- la délimitation (ou cadrage) des cellules, - la génération/vérification du HEC (Header Error Control), - l'adaptation du débit cellule. Les deux premières fonctions permettent d'adapter le flux de cellules ATM au format utilisé par le système de transmission sur le support physique et vice versa. Elles sont donc spécifiques au système de transmission utilisé dans le réseau de transmission (PDH, SDH, mode cellule). Les autres fonctions sont identiques quel que soit le système de transmission. 8.4.3.2. Adaptation
au système
SDH
Le transport du flux des cellules ATM est fait par une projection dans un conteneur appelé C-4. On lui ajoute un en-tête de conteneur de 9 octets, le Path OverHead (POH), qui contient des informations de gestion de la sous-couche TC. Le conteneur C-4 et le POH constituent un conteneur virtuel appelé VC-4 qui compose la charge utile de la trame STM-1 (figure 8.30). Le champ POH est transmis de bout en bout du conduit de transmission. Un de ses pointeurs (H4) est utilisé pour déterminer le déplacement entre lui-même et la frontière de la cellule. Avec STM-1 (155,52 Mbit/s), le débit utilisable par les cellules est de 149,760 Mbit/s. 1 1
STM-1
4
270
9 10
S O H Ptr S O H
9
/
VC-4 VC-4
/
/
a. O
C-4 149,760 Mbit/s
I F i g u r e 8 . 3 0 . Format du conteneur
virtuel
VC-4
La longueur du champ d'information de la trame SDH n'est pas multiple de celle de la cellule. Aussi, les limites de cette dernière n'ont pas une position fixe au sein de la trame, ce qui impose une fonction de délimitation de cellules. Les cellules sont cadrées à partir de la première colonne et de la première ligne du tableau de la trame STM-1 jusqu'à remplissage de la ligne (figure 8.31). Si une cellule ne tient pas complètement sur une ligne, elle est coupée et le premier segment se trouve au bout de la ligne ; tandis que le deuxième segment est transporté au début de la ligne i+l.
232
Architecture des réseaux haut débit
CL
O I
debit de gestion
conteneur ATM
conteneur virtuel CL
O X I O
"D
réseau SDH
ATM
Figure 8.31. Adaptation
8.4.3.3. Adaptation
au système
au format
SDH
PDH
La structure de trame est celle définie dans la recommandation G.751 (définition des structures de trames pour le multiplexage d'affluents). La différence avec SDH porte sur la faiblesse des moyens de maintenance offerts par cette trame. Le transport des cellules ATM dans des trames PDH présente l'avantage d'utiliser un réseau de transmission existant. La fourniture des fonctions de gestion équivalentes à celles de la SDH est en cours de normalisation. 8.4.3.4. Adaptation
au mode
cellule
Si le système de transmission repose sur la cellule, la trame de transmission contient exactement une cellule. La mise en trame ou cadrage ainsi que la synchronisation sont réalisées par la fonction de délimitation de trames décrite cidessous. Elle sert à retrouver la cellule dans le flux de bits. Les informations pour l'exploitation et la maintenance de la couche physique elle-même (qui sont véhiculées dans le SOH et le POH dans le système SDH) sont transmises dans des cellules spéciales PL-OAM (Physical Layer-Operation And Maintenance). Ces cellules sont identifiées par un en-tête spécial (champ Payload Type de la cellule) et ne sont pas remises à la couche ATM. Il y a au maximum 26 cellules ATM consécutives qui seront suivies d'une cellule de gestion (figure 8.32). cellule vide
26 cellules ATM maximum Fl
F3 Figure 8.32. Séquence
de cellules
et
délimitation
ATM (Asynchronous Transfer Mode)
233
Une cellule de maintenance ou une cellule vide doit être insérée toutes les 26 cellules ATM car l'interface UNI reste la même quel que soit le système de transmission (SDH ou mode cellule). Le débit utile doit donc rester le même : le ratio 26/27 est égal au ratio 149,76/155,52. 8.4.3.5. Délimitation
de
cellules
Il s'agit ici de délimiter les cellules à l'intérieur du flux de bits ou d'octets délivré par la sous-couche PM. Le mécanisme conventionnellement utilisé et qui consiste à délimiter par des drapeaux de début et de fin n'est pas aisé à mettre en œuvre à des vitesses élevées. Mais, comme les cellules ATM sont de longueur fixe, d'autres mécanismes de délimitation sont par ailleurs possibles. La technique qui a été retenue utilise le champ HEC (Header Error Control) de la cellule. Le principe en est le suivant : si un champ HEC est reconnu correct pour n cellules consécutives, la synchronisation est considérée comme obtenue ; inversement, la synchronisation est considérée comme perdue si ce champ a été trouvé incorrect pour m cellules consécutives. L'algorithme de délimitation de cellules utilise le diagramme à trois états de la figure 8.33.
RECHERCHE
SYNC
PRESYNC
n confirmations successives ie délimiteurs de cellule corrects
F i g u r e 8 . 3 3 . Automate
de delimitation
de
cellule
Initialement, le récepteur est dans l'état RECHERCHE. Dans cet état, le système scrute bit par bit la suite de bits entrants tout en recherchant un mot de code de 5 octets pour lequel le calcul du HEC est correct (c'est-à-dire un en-tête correct). Si c'est le cas, il passe dans l'état PRESYNC où les délimiteurs sont vérifiés cellule par cellule ; n'importe quel délimiteur faux fait retourner à l'état RECHERCHE. Si /; délimiteurs de cellule corrects et consécutifs sont découverts, le système bascule dans l'état SYNC. Le système considère qu'il a perdu la "délimitation de cellule" si un délimiteur de cellule est manquant m fois consécutives. Les paramètres n et m déterminent respectivement les vitesses à laquelle le système obtient la synchronisation de cellules et à laquelle il détecte la perte de synchronisation de cellules. Pour les valeurs de n = 6 et m = 7 (utilisées lorsque le système de transmission est SDH), le temps de cadrage est de l'ordre de 30 us pour un débit de 155,52 Mbit/s.
234
Architecture des réseaux haut débit
Ce mécanisme est fiabilisé en introduisant un embrouillage du champ d'information de la cellule qui rend aléatoires les bits du champ d'information. Ce brouilleur garantit que les bits du champ d'information suivent une séquence pseudoaléatoire, de manière à ce que la probabilité que le résultat du HEC corresponde au champ d'information soit négligeable. 8.4.3.6. Calcul
et vérification
du champ
HEC
Dans l'en-tête de chaque cellule, un champ d'un seul octet, le HEC (Header Error Control), protège le transfert de l'en-tête de la cellule. Le champ HEC est calculé par un polynôme générateur qui permet la correction d'une seule erreur bit et la détection de plusieurs erreurs bit. La couche physique ne doit transmettre que des cellules valides à la couche ATM. Par conséquent, chaque en-tête de cellule est vérifié. Les cellules qui comportent des erreurs multiples sont détruites alors que les cellules correctes ou corrigées sont considérées comme valides et passées à la couche ATM. Pour minimiser les fonctions des protocoles ATM et assurer l'indépendance sémantique d'ATM par rapport aux informations véhiculées, le champ d'information n'est pas concerné par cette vérification. La correction d'un seul bit en erreur (dans l'en-tête de la cellule) n'est possible que si l'automate de délimitation des cellules est dans l'état SYNC. L'état par défaut de l'automate de protection de l'en-tête est le mode correction. L'automate est très bien adapté aux types d'erreurs attendus avec les systèmes optiques, qui sont soit des erreurs simples, soit des erreurs groupées. Devant une première erreur, l'automate fait l'hypothèse qu'il s'agit d'un groupe d'erreurs, hypothèse infirmée ou confirmée par l'en-tête de la cellule suivante (figure 8.34). erreurs multiples (cellule détruite)
pas d'erreur (pas action)
mode correction
pas d'erreur (pas d'action)
erreur(s) détectée(s) (cellule détruite)
mode détection
erreur simple (erreur corrigée)
F i g u r e 8 . 3 4 . Automate de détection d'erreurs 8.4.3.7. Adaptation
de
sur l'en-tête de cellule
débit
Le débit du flux utile ATM doit être adapté à celui du système de transmission. Le flux de cellules ATM est complété par insertion de cellules vides (figure 8.35). En réception, ces cellules sont supprimées. Cette justification permet au flux ATM d'ignorer toutes les caractéristiques de la structure de transmission sous-jacente autre que le débit mis à sa disposition ; on parle d'anisochronisme à la transmission. Un multiplex A T M peut être alors transporté par n'importe quel système de transmission. Les cellules vides sont distinguées des autres types de cellules par un champ de l'en-tête, le champ Payload Type. Le débit inutilisé sur une artère est
ATM (Asynchronous Transfer Mode)
235
récupéré par le filtrage des cellules vides au passage d'un multiplexeur ou d'un nœud de commutation ATM. De ce fait, le réseau ne transporte que les informations utiles. cellules ATM " (débit D l )
ATM PHY
autres cellules PHY 1_ (débit D2)
+
cellules vides - (débit D3)
-
T L
I
conduit de transmission Figure 8.35. Insertion
8.4.4. Services
de la couche
de cellules
vides
PHY
L'unité de service de la couche physique (PHY-SDU) est la cellule. La primitive DATA.indication (présence d'une unité de données) ne communique que les cellules valides à la couche ATM, en d'autres termes les cellules dont l'en-tête a été reconnu correct par la vérification du HEC. Une information supplémentaire d'horloge est également fournie, non pas pour les besoins propres de la couche ATM, mais pour être renvoyée au niveau supérieur AAL qui pourra en déduire, si nécessaire, l'horloge de réseau. Les fonctions liées au HEC sont exécutées par la couche PHY (figure 8.36). cellule valide
DATA.request ATM PHY
I
champ Information
en-tete
horloge
HEC en-tete
k
DATA.indication champ Information
Figure 8.36. Service PHY
On distingue deux types de cellules valides : - les cellules ATM qui sont remises au niveau ATM et qui sont soit assignées à une application (cellules assignées) soit non assignées (cellules non assignées) telles les cellules OAM ou les cellules de réservation de ressources ;
236
Architecture des réseaux haut débit
- les cellules du niveau physique qui ne sont pas remises à la couche ATM et parmi lesquelles on trouve les cellules vides et les cellules de gestion (OAM) du niveau physique.
8.5. L a c o u c h e
ATM
8.5.1. Fonctions
de
la couche
ATM
La couche ATM est définie dans les recommandations 1.150 (B-1SDN ATM Functional Characteristics) et 1.361 (B-ISDN ATM Layer Specification). La couche ATM est totalement indépendante du support physique utilisé et par conséquent de la couche PHY. Par ailleurs, afin de satisfaire sa vocation multiservice, la couche ATM est indépendante de l'application. Quatre fonctions se dégagent de cette couche : - le multiplexage/démultiplexage de cellules : dans le sens de la transmission, les cellules en provenance de VP et VC individuels sont multiplexées formant ainsi un flux composite, normalement non continu. Côté récepteur, la fonction de démultiplexage éclate le flux de cellules entrant en plusieurs flux de cellules, un par VP ou VC ; - la commutation de cellules (translation de VPI/VCI) : cette fonction est appliquée dans les nœuds de commutation et/ou les brasseurs. Dans un brasseur, la valeur du champ VPI de chaque cellule entrante est translatée en une nouvelle valeur de VPI pour la cellule sortante. Dans un commutateur, les valeurs des champs VPI et VCI sont translatées en de nouvelles valeurs ; - la génération/extraction de l'en-tête de cellule : cette fonction est appliquée aux points de terminaison de la couche ATM. En émission, après avoir reçu le champ d'information de la cellule en provenance de la couche supérieure (AAL). la fonction de génération ajoute les quatre premiers octets de l'en-tête (le HEC étant calculé par la sous-couche TC). En réception, la fonction d'extraction enlève l'en-tête et passe uniquement le champ d'information de la cellule à l'AAL ; - le contrôle de flux générique (GFC — Generic Flow Control) : cette fonction n'est présente qu'à l'interface UNI. Elle est encore sujette à des travaux de normalisation. A l'origine, il s'agissait de fournir à des terminaux le moyen de se partager de façon équitable le même accès au réseau dans des configurations logiques en multipoint.
8.5.2. Structure
de
l'en-tête
de la
cellule
La recommandation 1.113 (Vocabulary of terms for broadband Aspects of ISDN) définit la cellule comme suit : "Une cellule est un bloc de longueur fixe. Elle est
ATM (Asynchronous Transfer Mode)
237
identifiée par un en-tête à la couche ATM du modèle de référence RNIS-LB" (figure 8.37). L'en-tête ne comporte que des informations relatives, directement ou indirectement, au bon acheminement de la cellule à travers le réseau. L'octet de protection correspond au champ HEC utilisé par la couche PHY. en-tête
1 octet
protection
PHY
48 octets
AAL et application
champ Information
ATM
4 octets
Figure 8.37. Cellule et couches du modèle
RNIS-LB
Deux structures d'en-tête ont été définies, une par type d'interface. Ces interfaces sont l'UNI (User-Network Interface) ou le NNI (Network-Node Interface) (figure 8.38). 8
7
6
5
4
3
2
1
GFC
VPI
2
VPI
VCI
4
5
6
2
CLP
HEC (a) à l'interface UNI Figure 8.38. Les structures
4
5
4
3
1
2
VPI VPI
VCI VCI
3
PTI
VCI
7
1
VCI
3
8
1
PTI
VCI
5
CLP
HEC (b) à l'interface NNI d'en-tête
de cellule
A l'interface UNI, l'utilisation des différents champs est la suivante : - GFC (Generic Flow Control) permet l'accès multiple à une connexion virtuelle ; - VPI (Virtual Path Identifier) et VCI (Virtual Channel Identifier) identifient la connexion virtuelle établie et permettent la commutation des cellules ;
238
Architecture des réseaux haut débit
- PTI (Payload Type Identifier) identifie le type du contenu de la zone de données ; - CLP (Cell Loss Priority) indique le niveau de priorité à la perte de la cellule, haut lorsque CLP = 0 et bas lorsque CLP = 1 ; - HEC (Header Error Control) contient la séquence de contrôle d'erreur sur l'entête (calculée par la couche PHY). L'en-tête de cellule utilisé à l'interface NNI ne diffère du précédent que par l'absence du champ GFC et par l'extension du champ VPI de 8 à 12 bits.
8.5.3. La gestion
des
erreurs
Trois types d'erreurs peuvent affecter la cellule transmise : - les pertes et les arrivées incorrectes de bits de la zone de données, suite à des erreurs de transmission, - les pertes et les arrivées incorrectes de cellules causées par un mauvais routage de la cellule, lui-même dû à une erreur de transmission sur l'en-tête ou à une mauvaise interprétation de l'en-tête par un commutateur, - les pertes de cellules dues à la congestion d'une file de commutateur. Les erreurs ne sont pas reprises au niveau ATM mais laissées au soin des couches supérieures.
8.5.4.
Priorités
Deux sortes de priorités existent : - la priorité spatiale : certaines cellules ont une probabilité de perte plus élevée (en cas de congestion, il y a élimination des cellules de faible priorité) ; - la priorité temporelle : certaines cellules peuvent rester dans le réseau plus longtemps que d'autres (lorsque la durée de vie des cellules est limitée, elle permet d'augmenter les performances temps réel du réseau). La fourniture de ces priorités est réalisée de deux manières : - explicitement, en définissant un champ dans l'en-tête pour identifier la priorité (bit CLP), - implicitement, en affectant à l'établissement une priorité à chaque connexion virtuelle, négociée par signalisation.
ATM (Asynchronous Transfer Mode)
8.5.5. Type
du
239
contenu
Les cellules de données et les cellules de maintenance OAM suivent le même chemin. On les distingue grâce au champ PTI (Payload Type Identifier) de l'en-tête. Le champ PTI indique (tableau 8.7) : - le type de contenu transporté (cellule de données utilisateur, cellule de gestion), - le type de données utilisateur (niveau 0, niveau 1), - si la cellule a rencontré des situations de congestion. valeur 000 001 010 011 100 101 110 111
signification données utilisateur, niveau 0. pas de congestion données utilisateur, niveau 1, pas de congestion données utilisateur, niveau 0, congestion données utilisateur, niveau 1, congestion cellule de gestion du flux OAM F5 de bout en bout cellule de gestion du flux OAM F5 local cellule de gestion des ressources réservé
Tableau 8.7. Le champ PTI
8.5.6. Services
de
la couche
ATM
L'unité de service de la couche ATM (ATM-SDU) est le champ d'information de 48 octets de la cellule. Seules deux primitives sont définies pour le transfert de données dans le plan d'usager : - ATM_DATA.request permet à la couche AAL de demander à la couche ATM le transfert de données. Elle utilise les paramètres suivants : • les données à transmettre contenues dans l'ATM-SDU, • la priorité à la perte (valeur du bit CLP), • l'indication d'encombrement (valeur du champ PTI), • l'indication de type du données (valeur du champ PTI) ; - ATM_DATA.indication permet à la couche ATM de signaler à la couche AAL la réception de données. Elle transmet les paramètres suivants : • les données reçues contenues dans l'ATM-SDU, • l'indication d'encombrement (valeur du champ PTI), • l'indication du type de données (valeur du champ PTI). D'autres paramètres sont en cours de discussion dans les instances de normalisation.
240
Architecture des réseaux haut débit
8.6. La couche 8.6.1.
AAL
Rôle
La couche ATM étant indépendante du type de service offert à l'application, la couche AAL doit assurer la translation et l'adaptation entre ce que demande l'application et ce qu'offre le service ATM. L'indépendance entre application et réseau s'exprime selon deux aspects, temporel et sémantique. Reprenons les caractéristiques du service de couche ATM : - caractéristiques temporelles : • indépendance du rythme terminal/réseau : la mise en cellules des informations du terminal (source) se fait selon son activité et à sa propre cadence (non pas à celle du réseau). Côté réseau, l'émission de ces cellules se fait lorsque le réseau a des ressources disponibles. Tout lien de synchronisation entre l'horloge du terminal et celle du réseau est donc supprimé : on parle d'asynchronisme ou encore d'anisochronisme à l'accès ; • respect de l'ordre de la séquence d'émission ; • variation du délai de transfert des cellules (gigue de cellule ou CDV — Cell Delay Variation) ; • absence de contrôle de flux au niveau cellule ; - caractéristiques sémantiques : • transparence au réseau : il n'y a pas de relation entre les unités de service (générées par les applications) et les unités de transfert (les cellules) ; • absence de tout contrôle du réseau sur les données utilisateur transportées ; • possibilité d'erreurs de transmission affectant l'information (puisque seules les erreurs portant sur l'en-tête de cellule sont détectées par le HEC) ; • pertes ou insertions (gains) de cellules. On peut ainsi voir que le format fixe des cellules entraîne une conversion de format, que l'indépendance temporelle application/réseau impose si nécessaire une synchronisation du destinataire sur la source et que l'absence de contrôle d'intégrité sur les informations transférées nécessite des mécanismes de contrôle d'erreur de bout en bout. En fait, les mesures à prendre pour corriger ces effets dépendent des contraintes posées par les applications : si l'application ne présente aucun caractère temps réel, aucun mécanisme de récupération d'horloge n'est nécessaire (cas d'un service de données par exemple) ; par ailleurs, si l'application n'a pas de contrainte forte quant à l'intégrité des données, aucun mécanisme de contrôle d'erreur n'est nécessaire (cas d'un service de vocal). Une série de mécanismes d'adaptation destinés à répondre aux contraintes de format, de temps et de sémantique propres aux différentes applications ont été définis. Le rôle de l'AAL est donc de restaurer la qualité requise par l'application à partir de la qualité offerte par le réseau.
ATM (Asynchronous Transfer Mode)
8.6.2. Classification
des
241
services
Les services large bande qui sont fournis au-dessus de la couche ATM sont répertoriés en quatre classes, chacune ayant ses propres exigences vis-à-vis de l'AAL. La classification repose sur trois paramètres : - la relation temporelle entre la source et la destination : quelques services nécessitent une relation temporelle entre la source et la destination, pour d'autres, elle n'a pas lieu d'être. Par exemple, les échantillons de voix numérisée à 64 kbit/s ont une relation temporelle claire, ce qui n'est pas le cas d'un transfert de fichiers entre machines. Quelquefois, les services à relation temporelle sont également appelés services temps réel ; - le débit binaire : certains services présentent un débit constant, d'autres un débit variable ; - le mode de connexion : les services peuvent être soit connectés soit non connectés. Parmi les huit combinaisons théoriquement possibles ont été retenues les quatre classes suivantes (tableau 8.8) : classe A synchronisation débit
classe B
nécessaire constant
mode
classe C
classe D
non nécessaire variable
connecté
Tableau 8 . 8 . Les quatre classes de service et leurs
non connecté caractéristiques
Des exemples possibles sont : - pour la classe A : la voix à 64 kbit/s et la vidéo à débit constant (ces services sont du type émulation de circuit) ; - pour la classe B : les services audio et vidéo à débit variable ; - pour la classe C : le transfert de données et la signalisation en mode connecté ; - pour la classe D : le transport de données en mode non connecté (un exemple étant donné par SMDS).
242
Architecture des réseaux haut débit
8.6.3. Structuration
de
la couche
AAL
L'AAL est divisée en deux sous-couches : la SAR (Segmentation And Reassembly), sous-couche inférieure, et la CS (Convergence Sublayer), sous-couche supérieure. 8.6.3.1. La sous-couche
SAR
Cette sous-couche est orientée réseau et elle est responsable du changement de format entre les AAL-SDU et les cellules. En émission, elle segmente la AAL-SDU selon la longueur appropriée au champ d'information d'une cellule ATM. Elle masque donc aux couches supérieures la transmission par cellules. En réception, elle réassemble les contenus du champ d'information des cellules ATM afin de restituer le flux d'origine pour la couche supérieure. De manière générale, les fonctions couvertes par SAR concernent la segmentation/réassemblage et la détection des pertes/gains de cellules (par numérotation). 8.6.3.2. La sous-couche
CS
La sous-couche CS est orientée service et elle est de loin la plus complexe des deux sous-couches de l'AAL. Son rôle est de fournir le service AAL au niveau de l'AAL-SAP. Elle comporte les fonctions spécifiques à la restauration des caractéristiques du service considéré. Par conséquent, chaque service fait appel à une CS dédiée et adaptée à ses exigences propres. Il faut donc définir des CS sur mesure au cas par cas. En effet, il est difficilement envisageable de couvrir l'ensemble des besoins des applications avec quelques CS génériques. De façon générale, les fonctions couvertes par CS portent sur le multiplexage de connexions AAL sur une connexion ATM, la reprise sur erreurs (pertes), la récupération d'horloge (synchronisation de bout en bout) et l'absorption de la gigue de cellule. Dans l'état actuel des travaux de normalisation, il n'y a pas de points d'accès au service (SAP) définis entre ces sous-couches. Dans certaines applications, SAR et/ou CS peuvent être vides. La recommandation 1.363 décrit les combinaisons de protocoles SAR et CS à utiliser avec les différentes classes de service. Néanmoins, d'autres combinaisons peuvent être utilisées et d'autres SAR et CS peuvent être définies.
8.6.4. Mécanismes
utilisés
par
l'AAL
Les protocoles de la couche A A L reposent sur les mécanismes de segmentation de la SDU, de compensation de la gigue cellule, de traitement des pertes et gains de cellules et de synchronisation des extrémités.
ATM (Asynchronous Transfer Mode)
8.6.4.1.
243
Segmentation
La segmentation des données utilisateur se fait en cinq étapes (figure 8.39) : application
SDU utilisateur 1
,
CS-PDU
AT1V
SAR
AAl.
ES-
partie utile
segmentation - ' ajout du préfixe ' ' 'éassemblage et du .uffixeSAR
i ajout de l'en-tête AT vl
i
1
^
SAR-PDU
partieutile
'
l
É
cellule j^J^
partie utile
F i g u r e 8 . 3 9 . Segmentation
O'y'y'
au sein de la couche AAL
1. AAL reçoit la SDU utilisateur 2. CS y ajoute un suffixe et un préfixe pour constituer la CS-PDU 3. SAR découpe la CS-PDU en morceaux de taille fixe pour l'adapter au champ d'information de la cellule 4. SAR ajoute également des informations de contrôle (qui dépendent du service AAL) 5. Les SAR-PDU (ou segments) sont passées à la couche ATM 8.6.4.2. Compensation
de la gigue de
cellule
La gigue représente les variations des temps de transfert des cellules. Borner ces variations revient à déterminer l'excursion maximale. Cette dernière représente la différence entre le transfert le plus rapide et le transfert le plus lent. Une fois cette excursion connue, il suffit alors de différer initialement la restitution au terminal récepteur de la valeur de cette excursion (figure 8.40).
emission
sortie du réseau sortie de l'AAL
t ttt f A\ A
\k
--•>-:t--f-:t-,t délai initial de restitution
F i g u r e 8 . 4 0 . Compensation
de la gigue
cellule
244
Architecture des réseaux haut débit
8.6.4.3. Traitement
des gains et pertes de
cellules
La détection des pertes et des gains de cellules est faite grâce à une numérotation en séquence des cellules émises. La numérotation est une fonction de la sous-couche SAR. Elle est faite modulo 8 dans le champ SN (Sequence Number). Les cellules insérées sont détruites. Les pertes de cellules sont signalées à la sous-couche CS qui entreprend les actions spécifiques à chaque application, les alternatives possibles étant de : a) ne rien faire ; b) s'accommoder de la perte en masquant le défaut : avec les informations déjà reçues, le récepteur va chercher à imaginer les informations manquantes. Par exemple, pour une application vidéo, il peut y avoir interpolation entre les points adjacents ou recopie des points manquants à partir de l'image précédente ; c) tenter de recréer le champ d'information manquant à l'insu de l'application : des codes correcteurs sont insérés dans le flux. La méthode est puissante mais elle doit être appréciée selon deux paramètres, le surdébit (overhead) engendré et le temps de traitement associé ; d) procéder à la retransmission du champ d'information manquant. Bien évidemment, le choix de l'action à entreprendre dépend du service considéré : si l'on a affaire à un service à contraintes temps réel (de la vidéo par exemple), l'action d) n'est pas envisageable à cause du délai de propagation trop important que cela engendrerait ; a contrario, l'action d) est préférable aux autres pour un service de transfert de données informatiques. 8.6.4.4. Synchronisation
des
extrémités
La synchronisation des extrémités permet d'obtenir un rythme d'émission des données équivalent à celui de leur réception. Elle sert aussi à corriger les variations de fréquence de l'horloge de restitution. Les méthodes de synchronisation se divisent en deux familles : synchronisation du récepteur sur l'émetteur et synchronisation grâce à l'horloge réseau. Une méthode de synchronisation entre le récepteur et l'émetteur consiste en l'asservissement de l'horloge de restitution sur le niveau de remplissage du tampon de réception (figure 8.41). Cette méthode utilise le fait que le réseau ATM véhicule une horloge de manière implicite en comptant le nombre de bits par seconde parvenant au récepteur. Néanmoins, il faut être en mesure d'éliminer la gigue qui perturbe la mesure du niveau de remplissage. Ce procédé ne fonctionne correctement que pour des débits d'émission constants.
ATM (Asynchronous Transfer Mode)
245
du réseau accélère
max moyen
H)
ralentit rythme d'extraction
min f
vers les couches supérieures Figure 8.41. Synchronisation
par asservissement
sur le niveau de
remplissage
La deuxième méthode consiste à synchroniser les deux extrémités sur une horloge de référence commune, typiquement celle fournie par la couche physique à savoir le réseau de transmission. Cette méthode ne fonctionne pas lorsque l'une des extrémités est raccordée au RNIS-LB via un réseau privé local (qui est purement asynchrone).
8.6.5. Types
d'AAL
Les contraintes de service ne sont pas les mêmes pour chacune des quatre classes de service. Le service AAL est rendu avec des variantes qui donnent lieu à plusieurs types de protocole AAL. L'UIT-T a choisi de développer un nombre limité de protocoles AAL ; actuellement, quatre types d'AAL sont déjà définis ou en cours de définition. La correspondance classe de service/type d'AAL n'est pas encore définitive. Le tableau 8.9 donne cependant une première ébauche de correspondance : classes de services
A
B
C
type d'AAL
1
2
3/4 ou 5
Tableau 8.9. Correspondance
D
entre classes et types
d'AAL
Jusqu'en juin 92, les quatre types suivants d'AAL étaient définis : - AAL Type 1 : service à contraintes temporelles et à débit constant, - AAL Type 2 : service à contraintes temporelles et à débit variable, - AAL Type 3 : service sans contraintes temporelles (données), à débit variable et en mode connecté, - AAL Type 4 : service sans contraintes temporelles (données), à débit variable et en mode non connecté.
246
Architecture des réseaux haut débit
Début 1994, les deux derniers types ont été regroupés en raison de leur grande ressemblance dans un même type tandis que sous la poussée de certains constructeurs on définissait un nouveau type également adapté au transfert de données : - A A L Type 3/4 : service sans contraintes temporelles (données) à débit variable, - A A L Type 5 (SEAL — Simple and Efficient Adaptation Layer) : service sans contraintes temporelles (données) en mode non connecté. Pour les AAL de données (3/4 et 5), la CS subit un découpage supplémentaire en deux sous-couches, CPCS (Common Part Convergence Sublayer) qui comporte les fonctions communes de la CS et SSCS (Service Specific Convergence Sublayer) qui comporte des fonctions spécifiques à un service donné (figure 8.42).
Service Specific CS
CS-
(éventuellement nulle)
SSCS
AAL-SAP
AAL
Common Part CS
CPCS I
primitives-
SAR
SAR
-primitives—
ATM-SAP F i g u r e 8.42. Découpage
8.6.6. AAL
des AAL de donnée
1
L'AAL de type 1 est dédiée aux services de classe A . Son utilisation sert à rendre un service d'émulation de circuit. Elle offre les services suivants : - le transfert de SDU avec un débit d'émission constant et leur remise au même débit, - le transfert d'information temporelle entre la source et la destination, - le transfert d'information de structure entre source et destination, - l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée par l'AAL.
ATM (Asynchronous Transfer Mode)
8.6.6.1. Fonctions
247
de la SAR
La couche SAR définit un format de SAR-PDU sur 48 octets dont 47 octets utiles (figure 8.43). 4 bits
4 bits
SNP SN
47 octets charge utile
en-tête
Figure 8.43. Format de la SAR-PDU de l'AAL I
La charge utile (payload) est constituée de 47 octets provenant de la CS-PDU. Le champ SN (Sequence Number) est constitué d'un bit CSI (CS Indicator) indiquant l'existence d'une fonction CS (CSI est fourni pour la signalisation) et d'un numéro de séquence SC (Sequence Count) codé sur 3 bits. Ce dernier est initialise à 0 et incrémenté modulo 8 ; il permet à la CS de détecter des pertes ou des insertions de payloads de SAR-PDU — qui correspondent à des pertes ou des insertions de cellules. Le champ SNP (Sequence Number Protection) protège l'en-tête de la SARPDU avec la correction d'erreurs simples et la détection d'erreurs multiples. Il correspond à un CRC-3 renforcé par un bit de parité. Le récepteur passe le résultat de sa vérification (valide/invalide) à la CS. 8.6.6.2. Fonctions
de la CS
Elles dépendent du type de service traité : émulation de circuit, vidéo, voix, audio. Ce sont la récupération en réception de la structure des données, la récupération en réception de l'horloge d'émission, la gestion de la gigue de cellule, la fourniture de rapports de performance de bout en bout (occurrences de pertes/insertions de cellules, de famine/débordement de tampons, d'erreurs bit, etc.) et le contrôle d'erreur. Pour ce dernier, dans le cas de l'émulation de circuit et de la vidéo, le SC (Sequence Count) passé par l'émetteur et qui est transporté par la SAR permet de détecter puis de détruire les insertions de cellules. Par ailleurs, SC associé au niveau de remplissage du tampon de réception permet de détecter les pertes de cellules : elles peuvent être compensées en introduisant des payloads de SAR-PDU de bourrage. Pour la vidéo, de manière optionnelle, l'information manquante peut être récupérée en utilisant un mécanisme d'autocorrection (FEC — Forward Error Control) associé à un mécanisme d'entrelacement d'octets.
8.6.7.
AAL
2
L'AAL de type 2 est dédiée aux services de classe B. Les services qu'elle offre sont : - le transfert de SDU avec un débit d'émission variable, - le transfert d'information temporelle entre la source et la destination,
248
Architecture des réseaux haut débit
- l'indication, si nécessaire, de perte ou d'erreur sur l'information non récupérée par l'AAL. Ces fonctions sont en cours d'étude.
8.6.8. AAL
3/4
L'AAL de type 3/4 est dédiée aux services de données orientés connexion ou sans connexion (classes C et D). Les caractéristiques de service sont : - le transfert de l'AAL-SDU d'un AAL-SAP vers un ou plusieurs AAL-SAP à travers le réseau ATM (figure 8.44) ; AAL-SAP)
(AAL-SAP)
AAL-SAP
connexion A A l
ATM
connexion A A L
(AAL-SAP)
AAL
(AAL-SAP
connexion ATM multipoint
connexion ATM point-à-point
Figure 8.44. Connexions
AAL 3/4
- le choix d'une qualité de service (QoS — Quality of Service) via le choix d'un AAL-SAP pour le transfert de données (figure 8.45) ; AAL-SAP2)
(AAL-SAP3J
QoSl
QoS2
QoS3
AAL
(AAL-SAP?)
IATM-SAP
ATM
lATM^SAPl)
Figure 8 . 4 5 . Choix de la QoS à l'AAL 3/4
- 1 existence de deux modes de service : • le mode message par lequel une AAL-SDU est transportée dans une AALIDU (Initial Data Unit) (figure 8.46 (a)),
ATM (Asynchronous Transfer Mode)
249
• le mode continu par lequel une AAL-SDU est transportée en plusieurs AAL-IDU (figure 8.46 (b)) ; AAL-SDU - interface A A L —
AAL-IDU SSCS-PDU (a) mode message
AAL-SDU nterface AAL
AAL-IDU AAL-IDU AAL-IDUSSCS-PDU (b) mode continu
F i g u r e 8 . 4 6 . Modes de
service
- l'existence de deux modes de fonctionnement : • le mode assuré par lequel toute AAL-SDU assurée est remise avec le contenu exact envoyé par l'utilisateur, • le mode non assuré par lequel des AAL-SDU entières peuvent être altérées voire perdues. 8.6.8.1. Fonctions de la SAR Ces fonctions permettent de transférer plusieurs SAR-SDU de longueur variable de façon simultanée sur une même connexion ATM entre entités AAL. La fonction de segmentation et de réassemblage consiste à accepter des SARSDU de longueur variable de la CPCS et à construire des SAR-PDU contenant jusqu'à 44 octets de données (figure 8.47). en-tête—
—
charge utile
•
suffixe
ST
SN
MID
pay load
LI
2 bits
4 bits
10 bus
44 octets
6 bits
•
CRC 10 bits
F i g u r e 8 . 4 7 . Format de la SAR-PDU de l'AAL 3/4
Il y a préservation de la SAR-SDU grâce aux champs ST (Segment Type) et Ll (Length Indicator). ST indique si la SAR-PDU véhicule le début (valeur BOM), un segment intermédiaire (valeur COM), la fin (valeur EOM) ou l'intégralité (valeur
250
Architecture des réseaux haut débit
SSM) d'une SAR-SDU. Ll donne le nombre d'octets de données d'utilisateur dans le champ payload. Le contrôle d'erreur est assuré grâce au champ CRC (Check Redundancy Control) de la SAR-PDU. Les SAR-PDU erronées sont rejetées. Il est toutefois prévu de fournir une option de remise de données altérées avec l'indication adéquate en mode non assuré. Les pertes/insertions de SAR-PDU sont détectées grâce au champ SN (Sequence Number). Les SAR-SDU avec pertes ou insertions de SAR-PDU sont rejetées ou bien délivrées avec l'indication appropriée. Le multiplexage/démultiplexage de connexions AAL-CPCS sur une même connexion ATM est réalisé grâce au champ MID (Multiplexing IDentifier) : toutes les SAR-PDU d'une même SAR-SDU ont le même MID. Le MID étant spécifique à une CPCS-PDU, l'entité AAL réceptrice peut procéder au réassemblage de la CPCSPDU. Ce même champ MID permet également le maintien en séquence des SARSDU à l'intérieur d'une connexion CPCS. Il est possible d'abandonner (en mode continu) une SAR-SDU partiellement transmise, par l'utilisation d'une SAR-PDU d'abandon (identifiée par des valeurs particulières de champs : ST = EOM, payload = 0, Ll = 63). 8.6.8.2. Fonctions
de la
CPCS
La CPCS présente les caractéristiques de service suivantes : - le transfert non assuré de trames de données d'utilisateur de longueur quelconque (mais comprise entre 1 et 63 535 octets), - une ou plusieurs connexions CPCS peuvent être établies entre deux entités CPCS homologues, - les connexions CPCS sont établies par le plan de commande ou le plan de gestion, - les CPCS-SDU sont maintenues en séquence sur chaque connexion CPCS.
en-tete
CPI Btag 1 octet 1 octet
•
BASize 2 octets
suffixe
payload
PAD AL Etag
Length
n octets 1 octet 1 octet 0
2 octets
Figure 8.48. Format de la CPCS-PDU
de l'AAL 3/4
La sémantique et le rôle de chacun des champs sont les suivants : - CPI (Common Part Indicator) permet d'interpréter les autres champs du préfixe (header) et du suffixe (trailer) en indiquant, entre autres, les unités utilisées pour BASize et Length ;
ATM (Asynchronous Transfer Mode)
25 1
- Btag (Beginning Tag) permet d'associer le préfixe et le suffixe de la CPCSPDU, le principe étant le suivant : l'émetteur insère la même valeur dans les champs Btag et Etag d'une CPCS-PDU donnée et en change pour chaque nouvelle CPCS-PDU (pour une valeur de MID donnée). Le récepteur vérifie alors la cohérence entre le champ Btag de l'en-tête et le champ Etag de l'en-fin (il ne vérifie pas la séquence de Btag/Etag sur une succession de CPCS-PDU) ; - BASize (Buffer Allocation Size) indique à l'entité homologue réceptrice les besoins en tampons pour recevoir la CPCS-SDU. En mode message, sa valeur correspond à la longueur du payload de la CPCS-PDU, alors qu'en mode continu, sa valeur est supérieure ou égale à la longueur du payload ; - PAD (PADding) est nécessaire pour avoir un payload multiple de 4 octets. Ce champ contient de 0 à 3 octets mis à 0 qui seront ignorés en réception ; - AL (ALignment) est un octet de bourrage mis à 0 afin d'obtenir un suffixe de 4 octets ; - Etag (End Tag) permet l'association du préfixe d'une CPCS-PDU avec son suffixe ; - Length est la longueur du payload de la CPCS-PDU. Les fonctions de la CPCS dépendent du mode de service de son utilisateur (message ou continu) et couvrent : - la préservation des CPCS-SDU au niveau de leur délimitation et de leur transparence (champs Btag/Etag) ; - le contrôle d'erreur : les CPCS-SDU corrompues (Btag/Etag incorrect, longueur reçue ne correspondant pas au champ Length, débordement de tampon, format de CPCS-PDU incorrect, erreurs signalées par la SAR, etc.) sont soit rejetées soit délivrées en option à la SSCS avec l'indication adéquate ; - la communication à l'entité réceptrice des besoins maxima en tampons pour recevoir la CPCS-SDU (champ BASize) ; - l'abandon d'une CPCS-SDU partiellement transmise. 8.6.8.3. Fonctions
de la
SSCS
Les fonctions de la SSCS sont à l'étude. Selon le mode de service et le mode de fonctionnement, elles comporteront vraisemblablement le blocage/déblocage, la segmentation/réassemblage, le contrôle d'erreur, le contrôle de flux et la gestion des connexions AAL 1-vers-N (multicast).
252
Architecture des réseaux haut débit
8.6.9. AAL
5
L'AAL de type 5 traite également les services de données mais en mode non connecté. L'utilisation visée est le transfert de données sur un réseau local ATM ou l'interconnexion de réseaux locaux via un réseau ATM grande distance. 8.6.9.1. Fonctions
de la SAR
La sous-couche SAR est réduite à son expression minimum (découpage en segments de 48 octets). La SAR accepte des SAR-SDU de longueur variable mais multiples de 48 octets et construit des SAR-PDU contenant 48 octets de données de la SAR-SDU (figure 8.49). Il n'y a pas d'en-tête SAR à proprement parler puisque la sous-couche SAR se réduit en fait à un seul bit dans l'en-tête de cellule ATM. en-tête ~de cellule
-
;PTI;
-SAR-PDU
payload
5 octet;
48 octets
F i g u r e 8 . 4 9 . Format de la SAR-PDU de l'AAL 5
La délimitation des trames se fait hors bande, contrairement à la SAR de l'AAL 3/4. En effet, la SAR utilise le paramètre AUU (ATM-layer user to ATM-layer user) des primitives ATM pour indiquer qu'une SAR-PDU contient la fin d'une SAR-SDU et ce faisant, fournit ainsi une indication de fin de SAR-SDU. Le champ PTI (Payload Type Identifier) de l'en-tête de cellule véhiculera de bout en bout la valeur du paramètre AUU. Cette violation volontaire de l'indépendance des couches de protocole permet un gain en performances. De plus, la SAR offre des fonctions de transfert d'information de congestion et de priorité à la perte entre ses couches supérieures et sa couche inférieure, les transferts s'effectuant dans les deux sens. 8.6.9.2. Fonctions
de la
CPCS
La CPCS présente les caractéristiques de service suivantes : - le transfert non assuré de trames de données utilisateur de longueur quelconque (de 1 à 65 535 octets), ainsi que le transfert, pour chaque trame, d'un octet indépendant d'information utilisateur, - la connexion CPCS est établie par le plan de commande ou le plan de gestion, - détection et indication d'erreur (erreur bit, perte/gain de cellule), - intégrité de séquence des CPCS-SDU sur chaque connexion CPCS.
ATM (Asynchronous Transfer Mode)
253
Les champs de la CPCS-PDU (figure 8.50) ont la sémantique et le rôle suivants : - le payload (charge utile) véhicule la CPCS-SDU et représente donc un nombre entier d'octets compris entre 1 et 65 535 ; - PAD (PADding) permet d'aligner la fin du suffixe sur une frontière de 48 octets ; - CPCS-UU véhicule de façon transparente l'octet qui correspond à l'information CPCS User-to-User ; - CPI (Common Indication Part) a pour fonction première d'aligner le suffixe sur 8 octets, d'autres fonctions restant à l'étude ; - Length donne la longueur du payload. - CRC permet de détecter des erreurs sur l'ensemble de la CPCS-PDU (sauf le champ CRC lui-même). en-fin
payload
PAD CPCS-UU CPI n octets 0 < n < 47
1 octet
1 octet
Figure 8.50. Format de la CPCS-PDU
Length 2 octets
CRC 4 octets
de l'AAL 5
Tout comme pour l'AAL 3/4, les fonctions de la CPCS dépendent du mode de service de son utilisateur (message ou continu). Elles couvrent (la liste n'est pas définitive) : - la préservation transparence ;
des C P C S - S D U
au niveau de leur délimitation
et
- la préservation de l'information CPCS User-to-User par le transfert transparent d'un octet d'utilisateur à utilisateur (champ CPCS-UU) ; - la détection et la gestion d'erreurs : les CPCS-SDU corrompues (erreurs détectées par le CRC, incohérence entre le champ Length et la longueur de la trame effectivement reçue, etc.) sont soit rejetées soit délivrées en option à la SSCS avec l'indication appropriée ; - l'abandon d'une CPCS-SDU partiellement transmise (avec un champ Length mis à 0) ; - le bourrage qui est nécessaire dès lors que la SAR n'accepte qu'une longueur multiple de 48 octets pour les SAR-SDU ; - la gestion de l'information de congestion transférée de la SSCS à la SAR et inversement ;
254
Architecture des réseaux haut débit
- la gestion de l'information de priorité à la perte transférée de la SSCS à la SAR et inversement. 8.6.9.3. Fonctions
de la
SSCS
Elles sont à l'étude. Aux fonctions pressenties pour la SSCS pour l'AAL 3/4, il faut ajouter le multiplexage. En effet, avec l'AAL 5, plusieurs connexions AAL peuvent être associées à une même connexion ATM, le multiplexage devant être réalisé au niveau SSCS. 8.6.9.4. Comparaison
AAL 3/4 et AAL 5
Tout comme l'AAL de type 3/4, l'AAL de type 5 traite des données, mais d'une façon qui se veut plus simple et plus efficace que l'AAL 3/4. Elle a été proposée à l'origine par l'industrie informatique (SUN Microsystems, Xerox-Parc) en réaction à la complexité des mécanismes de l'AAL 3/4. L'AAL 5 a été conçue dans un souci de simplicité pour un environnement haut débit, principalement dans le cadre de l'interconnexion de stations de travail. La simplicité de l'AAL 5 est à l'origine de l'intérêt croissant qu'elle suscite et de fait, sa prédominance sur les autres types d'AAL semble s'affirmer de jour en jour. Notons également que l'AAL 5 a été retenue par l'ATM Forum pour le support de la signalisation du B-ISDN (SAAL) et que l'UIT-T en fera probablement autant. Les différences essentielles entre l'AAL 5 et l'AAL 3/4 portent sur le contrôle d'erreur, la délimitation des trames et le multiplexage. L'AAL 5 utilise un CRC de 32 bits au niveau CPCS au lieu d'un CRC-10 au niveau SAR. Le contrôle se fait donc sur la base d'un datagramme au lieu d'une cellule. Il permet non seulement de détecter des erreurs de transmission (rôle du CRC-10 de l'AAL 3/4) mais également les cellules hors séquence (rôle du champ SN de la SAR de l'AAL 3/4) et les concaténations de datagrammes (rôle des champs Btag et Etag de la CPCS de l'AAL 3/4). La délimitation des trames se fait dans la bande avec l'AAL 3/4 : les 48 octets du payload de la cellule se répartissent en 44 octets de données utilisateur et 4 octets d'en-tête SAR dont le champ ST qui indique le début, le milieu ou la fin d'un datagramme. L'AAL 5 fait une délimitation hors bande, à savoir que les 48 octets de payload sont entièrement utilisés pour véhiculer la CPCS-PDU. Il n'y a pas d'en-tête SAR à proprement parler : la délimitation utilise directement un bit de l'en-tête de la cellule ATM. Pour ces deux types d'AAL, plusieurs connexions AAL peuvent être multiplexées sur une même connexion ATM. En AAL 3/4, le multiplexage est réalisé au niveau de la sous-couche SAR. alors qu'en AAL 5, il doit être réalisé par la SSCS.
ATM (Asynchronous Transfer Mode)
8.7. Réseau local
255
ATM
La technologie ATM est susceptible d'être appliquée aux réseaux locaux où elle offrirait une bande passante plus importante et la possibilité d'utiliser les services large bande. Cependant, un réseau local ATM doit interagir avec les réseaux locaux existants (Ethernet, Token Ring, etc.), leurs protocoles et leurs équipements d'interconnexion (ponts, routeurs). Se pose alors le problème de l'interfaçage entre les réseaux locaux classiques et le réseau ATM. Il est possible d'interfacer ATM au niveau de la couche Transport ou de la couche Réseau mais cette approche nécessite de modifier la pile de protocoles dans toutes les stations d'extrémité, c'est pourquoi une interface au niveau MAC est proposée par l'ATM Forum. Les différences entre le service MAC et le service fourni par la couche ATM sont évidentes puisque — rappelons-le — le service MAC fournit : un service sans connexion, un transfert de paquets de taille quelconque et de type best effort c'est-àdire sans souci de retransmission des paquets perdus ou erronés, des transferts point à point, multipoint ou en diffusion, un adressage sur 48 bits, la possibilité d'interconnecter les sous-réseaux de manière transparente par un pont (au niveau MAC). Pour faire converger le service ATM, il s'agit donc d'offrir l'émulation de réseau
local sur un réseau
8.7.1. Emulation
ATM.
de réseau
local
L'émulation de réseau local pose de nombreux problèmes dont certains ne sont pas complètement résolus à ce jour. Pour tous ces problèmes, de nombreuses solutions ont été proposées ; l'objet n'étant pas d'en faire une présentation exhaustive, nous nous contentons de décrire les solutions retenues par l'ATM Forum dans [ATM Forum 95]. La discussion concernant le choix de ces solutions est clairement exposée dans [Truong 95] et [Newman 94]. 'ATM Lan 1
ATM Lan 2
F i g u r e 8 . 5 1 . Segments
ATM Lan 3
virtuels dans un réseau local
émulé
256
Architecture des réseaux haut débit
Avec le service d'émulation de réseau local, les stations sont connectées à un réseau ATM et communiquent entre elles comme si elles étaient connectées à un réseau local traditionnel. Un réseau local émulé fournit à un groupe de stations un service d'interconnexion similaire à un segment Ethernet ou Token Ring ; on parle de "segment virtuel". Plusieurs segments virtuels peuvent être définis sur un même réseau ATM. La segmentation du réseau local d'entreprise s'est depuis longtemps généralisée et reflète la plupart du temps l'organisation de l'entreprise en services, équipes ou projets ; elle permet une plus grande sécurité et une limitation du trafic diffusé. Le réseau local ATM permet une segmentation plus souple car elle n'est que virtuelle, c'est-à-dire qu'elle ne dépend pas de l'attachement physique d'une station à un commutateur. Plus explicitement, des stations d'un même segment virtuel ne sont pas forcément connectées au même commutateur ATM. La figure 8.51 montre un réseau A T M comportant trois commutateurs ATM S I , S2 et S3 et trois segments virtuels appelés respectivement ATM Lan 1, ATM Lan 2 et ATM Lan 3 dont les stations ne sont pas toutes reliées au même commutateur. L'émulation de réseau local consiste principalement à réaliser un service sans connexion sur le service connecté d'ATM, à adapter les trames MAC à la taille de la cellule, à offrir des connexions multipoint et à mettre en correspondance les adresses MAC avec les adresses ATM.
8.7.2. Adaptation
du format
de la
trame
L'adaptation d'une trame MAC de longueur quelconque en une cellule de 53 octets est traitée par la couche AAL. Les deux types d'AAL candidats sont ceux dédiés au transfert de données. L ' A A L 3/4 n'a pas été retenue pour les raisons suivantes : - chaque segment comporte un CRC individuel de 10 bits alors que dans l'AAL 5, le C R C (32 bits) porte sur l'intégralité de la trame et est donc plus performant, - la fonction de multiplexage supportée par le champ MID n'est pas utile dans un contexte de réseau local, - la charge utile est seulement de 44 octets, au lieu de 48 pour l'AAL 5, - le protocole est plus complexe.
8.7.3.
Adressage
L'ATM Forum spécifie deux formats d'adresse ATM, l'un correspond à l'adresse RNIS-BE E. 164 et l'autre a été défini à partir du format de l'adresse réseau OSI (figure 8.52). Cette seconde structure d'adresse comporte un champ initial de 7 octets alloué par les autorités nationales et internationales, suivi par un champ de 4 octets pour le domaine de routage et la zone qui sont choisis par l'organisation. Vient
ATM (Asynchronous Transfer Mode)
257
ensuite le champ Identificateur de Système Extrémité (ESI — End System Identifier) qui fait 6 octets et qui contient l'adresse IEEE 802 MAC. Le champ SEL n'est pas utilisé. AFI DCC/CD DFI octets
1
2
1
AA
RD
Reserved
3
Area 4
2
ESI 6
AFI : Authority and Format Identifier
AA : Administrative Authority
DCC : Data Country Code ICD : International Code Designator
RD : Routing Domain
8.7.4. Service
sans
connexion
et
1
ESI : End System Identifier SEL : Unused
DFI : Domain Specific Part Format Identifier
Figure 8.52. Format d'adresse
SEL
ATM spécifié par l'ATM Forum
diffusion
Une propriété intrinsèque des réseaux locaux classiques est la diffusion qui provient du support physique multipoint. Par voie de conséquence, le service de transfert de données est sans connexion : l'émetteur se contente d'ajouter l'adresse de destination à sa trame qui est diffusée à toutes les stations, chacune d'elles ne conservant que les trames qui lui sont adressées. Cette caractéristique permet une diffusion aisée des trames à toutes les stations au moyen d'une adresse universelle (broadcast) ou à un groupe de stations (multicast) défini par la gestion du réseau. Dans un réseau local, la diffusion étant de toute façon effectuée au niveau physique, c'est au niveau MAC que l'on prend la décision de conserver ou non la trame reçue (selon que la station en est destinataire ou non). Dans un réseau orienté connexion comme ATM, ces deux aspects ne sont pas évidents à traiter. S'il est possible d'assurer un service sans connexion au-dessus d'un service en mode connecté en masquant les phases d'établissement et de libération de connexion à l'utilisateur, il est plus difficile de réaliser la diffusion dans un réseau où elle n'est pas naturelle. Plusieurs solutions ont été envisagées, certaines exploitant les possibilités du VP, d'autres proposant un maillage complet de connexions entre toutes les stations. Elles n'ont pas été retenues du fait que la signalisation qui en découlait ne permettait pas l'utilisation de commutateurs standards. La méthode retenue utilise des serveurs dédiés distincts des commutateurs et greffés au réseau ; on les appelle serveurs sans connexion (connectionless server). Toutes les stations participant au service sans connexion possèdent une connexion avec au moins un serveur tandis que les serveurs sont connectés entre eux. Une station qui veut diffuser une trame la transmet au serveur auquel elle est directement reliée et qui se charge de la diffuser à toutes les stations ; la station n'a pas besoin ainsi d'établir une connexion avec toutes les autres stations. Bien que le serveur puisse devenir le goulet d'étranglement du réseau, cette méthode a été choisie car elle ne nécessitait aucune modification des commutateurs et de leur signalisation.
258
Architecture des réseaux haut débit
8.7.5. Architecture
et configuration
du
réseau
local
émulé
L'architecture d'une station sur le réseau local émulé est présentée en figure 8.53. Une nouvelle couche est insérée entre la pile des couches supérieures (par exemple TCP/IP) et la pile ATM. Cette couche, appelée LAN Emulation Client (LEC), assure la convergence entre le service ATM et le service MAC attendu par les couches supérieures. Elle a également le rôle de gérer la signalisation et notamment l'ouverture de connexions spécifiques au réseau local émulé.
couches supérieures L A N Emulation Client
Signalisation
AAL 5
ATM P H Y
F i g u r e 8.53. Architecture
d'une station du réseau local
émulé
L'approche retenue combine à la fois l'émulation de réseau local et l'utilisation de serveurs dédiés notamment à la fonction de diffusion. Un serveur est un équipement différent du commutateur et dédié au traitement de certaines opérations non réalisées par le commutateur. Les composants du réseau local ATM sont les suivants (figure 8.54) : - chaque station connectée au réseau local ATM contient un LEC LAN Emulation Client dont la fonction principale est de fournir une interface de type MAC aux couches supérieures. Un LEC contient les couches PHY, ATM et AAL 5 chapeautées par une couche d'interface ; - un serveur de diffusion (BUS — Broadcast/Unkown Server) réalise la diffusion de message à tous les LEC ou à un groupe de LEC ; - un serveur d'émulation de LAN (LES — LAN Emulation Server) réalise pour les LEC la correspondance entre adresse MAC et adresse ATM ; - un serveur de configuration (LAN Emulation Configuration Server) (non représenté sur la figure).
ATM (Asynchronous Transfer Mode)
A Control direct VCC
LAN Emulation Server (LES)
/
(S A
l
Control \
rfi'recf
Control distribute LE Client (LEC)
Multicast \send VCC
259
* \
VCC X
site B utilisateur
Direct VCC
\1 / Multicast forward V k /
VCC
VCC
Multicast Send VCC
J
Broadcast/unkown Server (BUS) Figure 8 . 5 4 . Composants
d'un réseau local ATM
Un LEC est identifié par deux adresses : une adresse MAC sur 48 bits et une adresse ATM sur 20 octets. Sur réception d'un message d'une couche supérieure, un LEC essaie d'abord d'envoyer directement le message au LEC destinataire sur une connexion ATM directe et déjà établie ; les LEC directement joignables sont enregistrés dans une table. Si le destinataire ne figure pas dans la table, le LEC envoie une requête de résolution d'adresse au LES qui lui renvoie l'adresse ATM correspondant à l'adresse MAC (ce mécanisme est similaire au mécanisme ARP d'IP). Le LEC établit ensuite une VCC avec le LEC destinataire. Lorsque le message est destiné à plusieurs destinataires (un groupe ou toutes les stations), le LEC source envoie ce message au BUS qui se charge de la diffusion. En réception, le LEC effectue un filtrage des trames reçues ne conservant que celles qui comportent sa propre adresse MAC ou une adresse de groupe auquel il appartient. Le BUS effectue principalement la diffusion et le multicast des trames d'adresses de destination non connues de leurs émetteurs. Il permet d'éviter l'utilisation de connexions multipoint dont chaque station serait la racine ou des délais d'établissement si ces connexions étaient établies dynamiquement. Chaque LEC identifie le BUS par une VCC particulière appelée Multicast Send VCC et établie à l'initialisation. Comme on utilise AAL 5, le message est d'abord réassemblé avant d'être retransmis à tous les LEC sur une Multicast Forward VCC qui est généralement une VCC point à multipoint dont le BUS est la racine. Les Multicast Send VCC sont contrôlées par chaque LEC tandis que le Multicast Forward VCC est contrôlé par le BUS. Le BUS peut aussi se comporter de manière intelligente en ne retransmettant les trames de multicast qu'aux stations appartenant au groupe visé.
260
Architecture des réseaux haut débit
Le LES a pour fonction principale la résolution d'adresse (LE-ARP — LE Address Resolution Protocol) pour un LEC source qui ne connaît pas l'adresse ATM d'un LEC destinataire. Le LES maintient une table des adresses MAC des stations et des adresses ATM correspondantes. Le LEC envoie sa requête de demande d'adresse au LES sur une VCC particulière appelée Control Direct VCC. Le LES envoie sa réponse sur la même VCC. Dans un souci d'efficacité et de simplicité, toutes les requêtes adressées au LES et toutes ses réponses de résolution d'adresse sont diffusées à tous les LEC sur une connexion multipoint dont le LES est la racine et appelée Control
Distribute
VCC.
Le serveur de configuration est chargé de maintenir la configuration du réseau local émulé et de permettre l'initialisation des LEC ainsi que l'ouverture de connexion entre les LEC et leur LES responsable, évitant ainsi de configurer manuellement le réseau. Pour obtenir l'adresse ATM de son LES responsable, le LEC se connecte d'abord au serveur de configuration. Ensuite, il peut établir une Control Direct VCC avec son LES. A l'initialisation, un LEC doit d'abord obtenir l'adresse du serveur de configuration auprès des fonctions de gestion MIB définies dans les spécifications de l'UNI [ATM Forum 94]. Si cette action échoue, le LEC essaie d'établir une connexion avec le serveur de configuration grâce à une adresse ATM bien connue définie par l'ATM Forum. Si cela échoue aussi, le LEC exécute le protocole de configuration avec une valeur de VCI/VPI bien connue. Le but de cette procédure est de détruire toute configuration antérieure des LEC et de fournir autant que possible le service plug-and-play de l'émulation de réseau local. Cependant, il rend plus complexe la signalisation entre les commutateurs (en particulier pour ce qui concerne la gestion des adresses bien connues). Le protocole de configuration de l'ATM Forum définit, en plus de l'adresse du LES, d'autres paramètres comme le type de réseau local et offre ainsi la possibilité, pour un équipementier, d'ajouter des caractéristiques spécifiques. Lorsque le réseau local ATM est segmenté, chaque segment virtuel possède ses propres BUS et LES mais il n'y a toujours qu'un seul serveur de configuration. La définition d'un segment virtuel est faite par les VCC ouvertes entre le LEC et ses BUS et LES ainsi que par la table de correspondance des adresses située dans le LES. La mobilité d'une station d'un réseau local émulé vers un autre consiste donc simplement en changement de connexions et de table.
8.7.6. Format
de la
trame
L'interconnexion entre un réseau local émulé et un réseau local classique est naturellement réalisée par un pont puisque tous deux offrent un service de niveau MAC. Cet aspect n'est pas discuté ici. Pour éviter la modification des équipements d'interconnexion (ponts), deux types d'émulation de service ont été définis, l'un pour Ethernet et l'autre pour Token Ring, et deux formats de trame ont par conséquent été définis (figure 8.55). Les deux octets d'en-tête LE contiennent l'identificateur de LEC
ATM (Asynchronous Transfer Mode)
261
alloué par son LES à l'initialisation du segment virtuel ; permet au LEC de filtrer les trames qui ne lui sont pas destinées. On trouve ensuite un champ spécifique à Token Ring qui contient les octets AC et FC de sa trame MAC (cf. chapitre 4), puis enfin l'adresse MAC sur 6 octets. La charge utile est constituée du reste de la trame MAC. Le champ FCS est inutile sur le réseau local émulé puisque cette trame sera encapsulée dans une PDU de l'AAL 5 qui calcule son propre CRC sur 32 bits. octet
octet
en-tête LE adresse destination MAC
2 2
6
Reste de la trame MAC (hors FCS) (a) Format Ethernet 802.3
(b) Format Token Ring 802.5
Figure 8.55. Format de trames de
8.8. Le contrôle de
en-tête LE octet AC/FC adresse destination MAC Reste de la trame MAC (hors FCS)
données
congestion
Dans un réseau ATM, le débit de transmission impose de revoir les mécanismes habituellement mis en œuvre dans les réseaux conventionnels. Il en est ainsi du contrôle de congestion et des mécanismes qui lui sont associés. Un élément du réseau (commutateur, multiplexeur, brasseur ou lien) est dit "dans un état de congestion" lorsqu'il ne peut plus respecter la qualité de service négociée pour les connexions déjà établies, pas plus qu'il ne peut satisfaire des requêtes de demande de connexion. La congestion est due à l'allocation statistique des ressources et aux fluctuations imprévisibles du trafic. A titre d'exemple, un nœud de commutation est en situation de congestion quand il y a saturation de ses mémoires tampons et donc contention d'accès entre les différents VC pour l'utilisation de cette mémoire.
8.8.1. Les
méthodes
On distingue deux familles de méthodes pour lutter contre la congestion du réseau. Les méthodes préventives ont pour but d'éviter que la congestion n'apparaisse, alors que les méthodes réactives visent à éliminer la congestion une
262
Architecture des réseaux haut débit
fois celle-ci apparue. En général, les méthodes préventives ne suffisent pas à elles seules et il est préférable de les associer à des méthodes réactives. 8.8.1.1. Méthodes
préventives
Les méthodes préventives de contrôle de congestion sont souvent désignées sous le terme de contrôle de flux. Ce dernier n'est possible que lorsque la transmission se fait en mode connecté. Il consiste à allouer des ressources à une connexion puis à veiller au respect de cette allocation. Il intervient donc lors de l'établissement d'une connexion, avec l'allocation de ressources et durant sa phase de transfert de données, avec le contrôle de trafic. Au moment de l'établissement d'une nouvelle connexion, le réseau vérifie qu'il dispose bien des ressources nécessaires à sa prise en charge. Les ressources demandées concernent la bande passante sur les différents liens empruntés par la connexion et éventuellement, les tampons à l'intérieur des commutateurs traversés. Dans un réseau classique à commutation de paquets, l'allocation de ressources est facilitée car le nombre de mémoires nécessaires est un paramètre fixe de l'abonnement de l'usager (il correspond à la taille de la fenêtre d'émission) et le débit est au maximum celui du lien physique. Dans un réseau ATM, le débit d'accès d'une source dépend de l'application (il ne correspond pas au débit de la ligne physique) et peut être quelconque. Le besoin en tampons n'est pas non plus constant. Aussi, l'utilisateur devra-t-il caractériser les paramètres de trafic de la connexion dans un descripteur de trafic afin de prévoir la consommation de ressources de cette connexion. Dans un réseau à commutation de paquets, on utilise généralement pour le contrôle de trafic un mécanisme de fenêtre. L'émetteur envoie un nombre maximum de paquets (correspondant à la taille de la fenêtre) puis attend une autorisation à émettre du réseau. Le retour de l'acquittement survient au plus tôt un temps de propagation plus tard. Dans un réseau ATM, le temps de propagation est très grand devant le temps d'émission d'une cellule. Si la fenêtre est réduite, l'émetteur sera bloqué en attente d'autorisation à émettre la plupart du temps ; si la fenêtre est grande, les ressources réseau qui sont allouées en conséquence seront en nombre important. Par ailleurs, un acquittement porte en général un numéro de séquence ; si la fenêtre est grande, le numéro de séquence occupera une place importante dans l'entête de la cellule, ce qui est incompatible avec sa petite taille. Pour toutes ces raisons, un contrôle de trafic par fenêtre coulissante a été abandonné. 8.8.1.2. Méthodes
réactives
Les méthodes réactives sont des méthodes exceptionnelles à utiliser lorsque la congestion ne paraît pas se résorber d'elle-même. Dans un premier temps, elles forcent une source à diminuer son débit par un signal de feedback. Si cela ne suffit pas, elles peuvent supprimer les cellules des connexions impliquées puis les fermer autoritairement. Dans un réseau ATM. le délai de propagation étant très important
ATM (Asynchronous Transfer Mode)
263
par rapport au temps d'émission, un grand nombre de cellules aura déjà pénétré dans le réseau avant que le signal de congestion n'atteigne la source et par conséquent, de nombreuses cellules seront perdues !
8.8.2. Le contrôle
de congestion
dans
le
RNIS-LB
La recommandation 1.371 spécifie les fonctions de contrôle de trafic et de contrôle de congestion dans le réseau large bande. En effet, distinction est faite entre contrôle de trafic et contrôle de congestion. Le contrôle de trafic tend à éviter la congestion ; on parle aussi de contrôle de flux. Le contrôle de congestion vise à minimiser l'intensité, l'étendue et la durée de la congestion lorsqu'elle est apparue. Les deux objectifs antagonistes du contrôle de congestion sont de garantir à la fois la qualité de transfert pour les connexions déjà établies (aucune congestion) et la bonne utilisation des capacités de transmission. Les propriétés souhaitables pour un mécanisme de contrôle de congestion sont : - la flexibilité : s'adapter à tous les types de qualité de service demandés, - la simplicité : ne pas compliquer les équipements A T M et permettre l'utilisation maximum du réseau, - la robustesse : l'efficacité maximum des ressources en toutes circonstances. Le contrôle de congestion est certainement le problème le plus difficile à résoudre avec la technique ATM [Bae 91] [Hong 91] [Rathgeb 91]. Les difficultés proviennent non seulement de la caractéristique haut débit mais aussi des données multimédias qui seront transportées : elles induisent des trafics aux caractéristiques très différentes en termes de qualité de service et de flux (cf. 8.2.2). Les contrôles de trafic et de congestion sont spécifiés grâce à un ensemble de fonctions génériques qui peuvent être utilisées conjointement afin d'assurer la QoS requise : - la gestion et la réservation des ressources du réseau (NRM — Network Resource Management) pour certaines classes de trafic ; - l'admission d'une nouvelle connexion (CAC — Connection Admission Control) en fonction des besoins de la nouvelle connexion et des ressources disponibles dans le réseau ; - le contrôle de flux avec acquittement (FC — Feedback Control) pour signaler à l'utilisateur l'état des éléments du réseau ; - le contrôle d ' e n t r é e du réseau ( U P C / N P C — Usage P a r a m e t e r Control/Network Parameter Control) pour vérifier que le trafic instantané de l'utilisateur à l'entrée du réseau ne dépasse pas le trafic déclaré lors de l'établissement de la connexion ;
264
Architecture des réseaux haut débit
- le contrôle de priorité (PC — Priority Control) dans un élément du réseau pour favoriser les cellules de haute priorité par rapport à celles de basse priorité. réseau 1
Sb B-TE
Tb B-NT2
réseau 2 NNI
B-NT1
UPC
NPC
-CAC -NRM .
Figure 8.56. Localisation
8.8.3. Gestion
et
réservation
de
-CAC -NRM -PC
u n
des fonctions
y
génériques
ressources
La gestion des ressources du réseau consiste à optimiser l'utilisation des ressources du réseau tout en satisfaisant les requêtes des utilisateurs en termes de débit et de contraintes de QoS. Elle est laissée à la discrétion de l'opérateur. La notion de V P C joue un rôle clé dans cette gestion. Une VPC est une connexion de conduit virtuel d'une capacité donnée qui est préétablie à l'intérieur du réseau. Le multiplexage statistique de sources ayant les mêmes caractéristiques (en termes de débit et de QoS) est plus performant, aussi une VPC peut-elle être dédiée à l'acheminement d'un type de service particulier. L'acceptation d'une connexion virtuelle consiste alors simplement à vérifier qu'il y a encore de la bande passante disponible sur les VPC de ce type de service jusqu'à la destination finale. L'allocation de ressources est donc liée de façon intrinsèque au routage de la connexion virtuelle, les deux étant souvent confondus dans une même fonction. L'établissement de VPC est fait grâce à une étude statistique à long terme des flux circulant sur le réseau.
8.8.4. Admission
d'une
nouvelle
connexion
L'admission d'une nouvelle connexion a lieu chaque fois qu'une requête d'établissement en provenance d'un utilisateur est reçue. A l'établissement, l'utilisateur décrit les paramètres de trafic de sa connexion dans un descripteur de trafic source. Le seul paramètre normalisé pour l'instant est le débit crête qui correspond au débit maximum pendant la période d'activité. Le trafic peut être composé de trafic de basse priorité et de trafic de haute priorité ; dans ce cas, seront spécifiés le débit crête pour le trafic de basse priorité ainsi que le débit crête des trafics agrégés. Les paramètres suivants sont encore à l'étude à l'UIT-T : - le débit moyen qui correspond au débit calculé sur les périodes d'activité et d'inactivité, - la caractéristique du trafic, variable ou constant.
ATM (Asynchronous Transfer Mode)
265
- la durée de la rafale ou durée de la période d'activité, - le type de service (par exemple, visiophone ou vidéo). L'utilisateur définit aussi les contraintes de qualité de service de sa connexion. Lorsque le trafic de la connexion est composé de trafic de deux types, les paramètres de qualité de service sont spécifiés pour chacun d'eux. Le réseau vérifie alors qu'il dispose des ressources nécessaires pour accepter cette connexion sans pour autant altérer la qualité des connexions déjà établies. Après acceptation de la connexion, un contrat de trafic est établi entre l'utilisateur et le réseau au moyen de la signalisation. Ce contrat est défini par : - le descripteur de trafic, - les paramètres de QoS pour cette connexion, - la tolérance de gigue maximum, - le positionnement de l'option "marquage des cellules" liée à la fonction de contrôle d'entrée (cf. 8.7.5.1).
8.8.5. Contrôle 8.8.5.1.
d'entrée
du
trafic
Objectifs
Le contrôle d'entrée du trafic vérifie la conformité du trafic de la connexion avec le contrat passé à l'ouverture. L'objectif de ce contrôle est d'être capable de détecter toute situation illégale de trafic, de pouvoir déterminer si le trafic est conforme, de réagir rapidement à toute violation, d'être transparent au trafic conforme et enfin, d'être simple à implanter. Les performances d'un tel mécanisme (taux de perte de cellules, retard induit, etc.) doivent être incluses dans les performances de bout en bout d'une connexion. Le mécanisme ne peut être parfait ; il peut en fait se tromper de deux manières : - le trafic est conforme et l'utilisateur respecte son contrat mais le mécanisme détecte des cellules en violation : si le taux de perte négocié pour la connexion est de 10' alors ce type d'erreurs d'estimation doit avoir un taux de 10" ; 9
10
- le mécanisme ne détecte pas certaines cellules en violation (à cause du caractère très aléatoire du flux). Ces mécanismes peuvent admettre du trafic en excès dans le réseau si l'option de marquage des cellules a été activée. Le marquage des cellules consiste à admettre du trafic en excès par rapport au débit négocié et à le marquer à la priorité basse dans le réseau. Les cellules détectées comme étant en excès sont marquées au moyen du bit CLP de l'en-tête de la cellule (fonction de violation tagging).
266
Architecture des réseaux haut débit
Ils sont alors associés à une politique de gestion du trafic en excès dans le réseau (fonction de contrôle de priorité). Mais l'inconvénient est double : tout d'abord, le flux de cellules autorisé peut être perturbé par celui des cellules en excès ; ensuite, il faudra prévoir des tampons de grande taille pour limiter les pertes. Le mécanisme d'UPC/NPC (Usage Parameter Control/Network Parameter Control) a pour objectif de contrôler que le trafic offert sur la connexion ATM ne dépasse pas celui défini dans le contrat de trafic. Il réalise les actions suivantes : - passage et espacement (en option) des cellules conformes, - destruction ou marquage (en option) des cellules non conformes. Plusieurs mécanismes se sont trouvés en concurrence pour la réalisation de cette fonction. En fait, aucun d'eux ne sera normalisé, l'UIT-T s'étant contenté de spécifier les fonctions qu'ils doivent assurer. Nous présentons dans la suite les deux mécanismes qui sont les plus souvent cités dans la littérature. Ces mécanismes ont en commun de procéder, en sus du contrôle de conformité, à un lissage (shaping) du trafic afin de le rendre moins sporadique, ce qui facilite le multiplexage statistique dans le réseau. 8.8.5.2. Le mécanisme
du seau percé (Leaky
Bucket)
Le mécanisme du Leaky Bucket a connu un grand succès pour la vérification de conformité de trafic [Bala 90]. Il est illustré en figure 8.57 et fonctionne avec les éléments suivants : - une file d'entrée ou tampon d'entrée dans laquelle les cellules sont stockées avant transmission ; un seuil K lui est associé ;
bac à jetons cellules file d'entrée
/ b a c \ à jetons x y i d e 1/ non
s.
jeton oui.
seau
U Mv jetons verts.
réseau
Mr jetons rouges
taux fixes Figure 8 . 5 7 .
Le
Leaky
Bucket
- un double seau de jetons (verts ou rouges) de taille finie M ; M définit la taille maximale de la rafale (nombre maximum d'arrivées de cellules groupées). Les
ATM (Asynchronous Transfer Mode)
267
jetons verts correspondent au trafic autorisé alors que les jetons rouges correspondent au trafic en excès ; - les jetons sont générés dans le bucket avec un taux constant y qui correspond au débit moyen de la connexion ; - un bac à jetons utilisé par le mécanisme d'espacement des cellules. L'algorithme de traitement de la cellule en tête du tampon d'entrée est le suivant : 1/ attendre que le bac à jetons soit vide 21 y a-t-il un jeton vert ? oui : transmission sur le réseau et stockage du jeton dans le bac à jetons non : nombre de cellules dans le tampon < Kl oui : retour en 21 non : y a-t-il un jeton rouge ? oui : marquage et transmission sur le réseau stockage du jeton dans le bac à jetons non : retour en 2 L'espaceur sert à maintenir un espace entre deux cellules consécutives qui correspond au temps de vidage du bac à jetons. Ce dernier est vidé avec un taux constant P avec P > max (YnYv)- Comme le tampon d'entrée est forcément fini, il peut se produire des pertes de cellules lorsqu'il est plein. Mais ces pertes correspondent le plus souvent à une situation de violation du contrat. Les deux types de jetons ainsi que le seuil K permettent d'envoyer des cellules en excès et d'éviter les pertes de cellules à l'entrée du réseau. Les cellules qui utilisent un jeton rouge sont marquées comme étant en excès avant d'être envoyées sur le réseau ; le bit CLP de leur en-tête est positionné à la valeur de priorité basse. En cas de congestion d'un nœud, ces cellules seront les premières détruites. 8.8.5.3. Le contrôleur-espaceur
du CNET
Le contrôleur-espaceur est soutenu par le CNET (Centre National d'Etudes de Télécommunications) de Lannion [Guillemin 92]. Il est placé en coupure du multiplex ATM. Son rôle est de "lisser les grumeaux", connexion par connexion ; ces grumeaux pouvant être dus à la gigue, ou à un comportement malveillant de l'utilisateur. Il est composé principalement de deux fonctions : - la fonction de contrôle qui alloue à chaque connexion une certaine capacité de stockage ; - la fonction d'espacement des cellules qui arrivent trop rapprochées les unes des autres par rapport à la période d'émission crête négociée.
268
Architecture des réseaux haut débit
Si pour une connexion, les cellules arrivent à un rythme trop élevé incompatible avec le gabarit de gigue et/ou la période d'émission crête, la capacité allouée à la connexion déborde et les cellules en excès sont détruites. La fonction d'espacement est réalisée par un algorithme d'espacement, lequel est intégré dans une puce et partagé par toutes les connexions. L'algorithme du contrôleur-espaceur est donné en figure 8.58. Ses paramètres sont T, la période d'émission crête ou d'espacement et t, le paramètre de gigue. A chaque cellule arrivant à la date t, sont associées deux variables. La première est notée TRT (Theoritical Retransmission Time) et représente l'heure théorique de réémission de la cellule. Si la cellule n'est pas rejetée, elle doit être idéalement réémise à cette heure. La seconde variable est ART (Actual Retransmission Time) qui elle, donne l'heure réelle de réémission. ART correspond à la première heure libre de transmission d'une cellule après TRT. Comme il peut y avoir contention de réémission entre plusieurs connexions pour un TRT donné et comme les cellules sont émises sur un support partagé, ART peut différer de TRT.
à t. arrivée d'une cellule
i
X := TRT + T
X
contrôle du débit crête de la connexion tout en tenant compte de la gigue
oui
non
oui
destruction
K >t + t
X :=t
non
cellule stockée et réémise à la date ART
F i g u r e 8 . 5 8 . Algorithme
espacement statistique entre deux cellules consécutives
du
contrôleur-espaceur
Le fonctionnement de l'algorithme est montré dans le tableau 8.10 avec les hypothèses suivantes : - la première cellule a le numéro 0, - soit TRT , la valeur de TRT juste avant l'arrivée de #n à t , n
n
+
- soit TRT cellule.
n
sa valeur juste après la décision d'acceptation ou de rejet de la
ATM (Asynchronous Transfer Mode)
si T R T
n
>X
+ T - tn
269
cellule n+3
la cellule #n est rejetée le gabarit de gigue et/ou la période d'émission ne sont pas respectés et
+
si T R T n
+ Ttn
<0
TRT=TRT
n #n est ennretard et la cellule
cellule n
elle doit être réémise le plus tôt possible
+
si T R T n + T
tn < 1
TRTn =t
la cellule #n est n acceptée et
cellules n+1 et n+2
stockée en mémoire
+
TRT = TRT +T n
Tableau 8 . 1 0 . Fonctionnement
n
du
contrôleur-espaceur
On voit que le paramètre x est lié à l'amplitude de l'effet d'agglomération. La figure 8 . 5 9 montre le déroulement d'un scénario de contrôle de conformité pour quatre cellules successives notées n, n+\, n+2 et n + 3 .
arrivée suite cellule rlétniite
TRT
suite ART reemission
n
n+1
n+2
F i g u r e 8 . 5 9 . Scénario de conformité
8.8.6. Contrôle
de priorité
et destruction
du
contrôleur-espaceur
sélective
des
cellules
L'une des rares techniques réactives à une situation de congestion consiste à gérer les cellules en fonction de leur niveau de priorité marqué dans le bit CLP de l'en-tête de cellule ; d'autres techniques sont encore à l'étude. Il existe deux manières d'attribuer des priorités aux cellules : - par l'application ; en effet, elle est à même de différencier des données importantes de celles qui le sont moins dans le flux de données qu'elle crée ;
270
Architecture des réseaux haut débit
- par le marquage des cellules jugées en excès par le mécanisme d'UPC/NPC : ces cellules sont marquées à la priorité basse, les cellules conformes ayant la priorité haute. De nombreux mécanismes de gestion de tampon de commutateur ATM ont été proposés ; tous détruisent les cellules de basse priorité et cherchent à respecter les objectifs de QoS spécifiés pour chaque type de flux. Parmi ceux-ci, le mécanisme de Push-out consiste à allouer deux niveaux de priorité spatiale aux cellules [Gravey 91). Lorsque le tampon est plein, les cellules entrantes de basse priorité sont perdues et les cellules entrantes de haute priorité prennent la place des cellules de basse priorité déjà présentes dans le tampon. Un autre mécanisme, celui de Partial Buffer Sharing [Kroner 90] définit un seuil (en nombre de cellules) d'acceptation des cellules de basse priorité : lorsque le seuil est atteint, seules les cellules entrantes de haute priorité sont admises dans le tampon tandis que les cellules entrantes de basse priorité sont perdues. Il est à noter qu'aucun de ces mécanismes n'évite la perte des cellules de haute priorité.
8.8.7. Gestion
rapide
de
ressources
La gestion rapide de ressources permet à l'utilisateur d'envoyer des requêtes au réseau pour augmenter de manière temporaire son débit crête de manière à envoyer une rafale de cellules. Le réseau doit réagir rapidement à ces demandes en un temps de propagation aller et retour au maximum. Cette fonction n'est pas complètement spécifiée. Un tel mécanisme est proposé dans [Boyer 92]. La requête de l'utilisateur sera envoyée dans une cellule de type RM (Resource Management). en-tête ATM VCI = 6 et PTI = 110 pour RM-VPC VCI = x et PTI = 110 pour RM-VCC 5 octets
identificateui de protocole RM 8 bits
champs de fonctions spécifiques 45 octets
réservé 6 bits
CRC 10 bits
Figure 8.60. Format de la cellule RM
Le bit CLP de la cellule RM est toujours positionné à 0. Lorsque la cellule RM se réfère à une VCC, son numéro de VCI est celui de la VCC et son champ PTI est positionné à 110. Lorsqu'elle se réfère à toute la VPC, son champ VCI est égal à 6.
8.8.8. Notification
de
congestion
Le contrôle de congestion de type notification est une technique réactive à une situation de congestion. Elle est désignée sous l'acronyme de EFCI (Explicit Forward Congestion Indication). Son utilisation est optionnelle. Elle est issue du protocole de relais de trames (Frame Relay) (cf. chapitre 9).
ATM (Asynchronous Transfer Mode)
27 1
Lorsqu'un élément de réseau est dans un état de congestion, il peut envoyer une notification explicite de congestion vers la source du flux dans l'en-tête d'une cellule (bit du champ Payload Type). Il faut alors que la source soit capable de diminuer automatiquement son débit d'émission.
272
Architecture des réseaux haut débit
Exercices
Exercice
8.1
Justifiez le fait que la taille de la cellule soit si petite. Exercice
8.2
Quelles sont les caractéristiques d'ATM qui en font une technique indépendante de toute référence temporelle ? Exercice
8.3
Le futur RNIS-LB devra pouvoir interfonctionner avec le RNIS-BE et aussi avec des terminaux d'usager dont une proportion non négligeable reste encore analogique. L'écho engendré par la transformation 2 fils-4 fils qui intervient entre le monde analogique et le monde numérique doit rester dans certaines limites de niveau et de délai. Les impératifs de qualité fixés par l'UIT-T permettent un délai d'écho aller et retour de 20 ms. Or, le temps de mise en cellule (numérisation + remplissage) est de 6 ms. Si l'on considère un temps de propagation de 5 ms pour 1 000 km, quelle est la distance maximum pour ne pas avoir de problème d'écho ? Exercice
8.4
Soit le réseau RNIS-LB ci-dessous, construire pour chaque nœud les tables de routage correspondantes lorsque : 1. les nœuds sont des commutateurs de VP, 2. les nœuds sont des commutateurs de VC.
ATM (Asynchronous Transfer Mode) Exercice
273
8.5
On considère un réseau ATM, composé de 8 nœuds interconnectés de la manière indiquée dans la figure ci-dessous. A, B et C sont des utilisateurs du réseau.
1. Les nœuds 3 et 5 sont des commutateurs de VP, les autres sont des commutateurs de VC. Trois connexions sont ouvertes : A-2-3-5-7-C, A-2-3-1-B et B-1-3-5-7-C. Donnez des tables de translation possibles pour chaque nœud. 2. Sur la machine A, on veut ouvrir une nouvelle connexion vers C. Donnez le chemin et modifiez les tables de routage en conséquence. 3. Est-il possible de connecter un utilisateur au nœud 3 ? Exercice
8.6
On considère un réseau ATM composé de quatre nœuds interconnectés comme indiqué dans la figure ci-dessous. Sur ce réseau sont raccordés quatre utilisateurs A, B. C et D. Les nœuds 1 et 4 sont des commutateurs alors que les nœuds 2 et 3 sont des brasseurs de conduits. Deux communications sont établies entre A et C d'une part et entre B et D, d'autre part.
1. On veut multiplexer les deux communications de A et B sur la même VCC. Décrivez le multiplexage dans les cas suivants : - lorsqu'il est effectué au niveau AAL, - lorsqu'il est effectué au niveau ATM. 2. En fait, A et B possèdent des accès distincts sur le nœud 1, mais les deux VCC sont multiplexées sur le même VP. Donnez un exemple des tables de translation des nœuds 1, 2, 3 et 4. Exercice
8.7
On s'intéresse ici à la détection de pertes et d'insertions de cellules en AAL 1. On rappelle que ce mécanisme utilise la numérotation des cellules en séquence réalisée
274
Architecture des réseaux haut débit
sur 3 bits du champ SN de la SAR-PDU et que ce numéro est protégé contre les erreurs par le champ SNP. A partir des données initiales suivantes : 1 2 | 3 | 4 5 6 7 8 19
1i q i l
12 13 14 15 16 17 18 19 20 ^
1. Dessinez la séquence obtenue en réception (données initiales, transmises, reçues et restituées). On suppose que l'on peut mettre 4 données par cellule. Si la troisième cellule est perdue, que pensez-vous de l'erreur ? Est-elle acceptable ? 2. Donnez une méthode qui permette de contourner ce problème. Dessinez la séquence correspondante. Exercice 8.8 On souhaite envoyer la totalité de l'encyclopédie Universalis (soit 253 millions de caractères). L'application utilise directement les services fournis par l'AAL de type 5. 1. Complétez la figure suivante en précisant bien la convention d'appellation des unités de données pour la couche AAL de type 5. 9
9
T
?
^
9
7
~*
?
?
»
7
^
? ATM-SAP^
•
J -CS
9
|
< <
SAR-*
9
CPCS—»H— sscs-
("AAL-SAP*")
V
T
9
S ? «
J
? ?
H <
ATM (Asynchronous Transfer Mode)
275
On supposera qu'aucune perte ni altération ne se produit, que le mode de service utilisé est le mode message et que la sous-couche SSCS est vide. 2. Combien de cellules faut-il pour ce transfert ? 3. Combien de temps faut-il au minimum avec un accès à 155 Mbit/s ? Exercice
8.9
Comme dans la technique ATM, le réseau DQDB transfère les données utilisateur dans des PDU de 53 octets. Rappelez la structure de cellule utilisée dans ATM et dans DQDB. La compatibilité est-elle assurée pour autant ? Comment l'obtenir ? Exercice
8.10
Un réseau ATM est utilisé pour interconnecter deux réseaux locaux Token Ring (IEEE 802.5) offrant chacun un débit brut de 16 Mbit/s. Sur chaque Token Ring, 6 stations sont connectées qui génèrent le même trafic. La longueur des données d'une trame Token Ring est de 1 ko. 1. Donnez l'architecture de la passerelle Token Ring/ATM. 2. Quelles sont les principales fonctions réalisées par cette passerelle ? 3. Combien de connexions faut-il ouvrir pour interconnecter les deux réseaux ? 4. Quel sera le débit crête demandé dans le descripteur de trafic d'une connexion ? Exercice
8.11
Le réseau ATM a été conçu pour accepter des débits différents, tant au niveau de leurs valeurs que de leur nature (constant/variable). Montrez sur un schéma les conséquences qu'ont sur le flux de cellules générées : - un transfert de voix numérisée MIC, - un transfert de vidéo numérisée MPEG. Exercice
8.12
Pour réaliser le multiplexage de connexions virtuelles sur le réseau ATM, on peut utiliser deux types de multiplexage, déterministe et statistique. Faites un tableau décrivant les avantages et les inconvénients de chacun. Exercice
8.13
Il s'agit de vérifier la conformité d'un flux de cellules arrivant à l'entrée d'un réseau ATM pour une connexion donnée. Le débit crête négocié à l'établissement de
276
Architecture des réseaux haut débit
la connexion est de 10,6 Mbit/s. Le paramètre de gigue T est de 10 us. La cellule 0 a été transmise au temps TRTo = 0. Les cellules 1 à 10 arrivent respectivement aux dates : ti (i=1..10) • 30, 50, 90, 110, 130, 160, 180, 200, 255, 280. Déroulez l'algorithme du contrôleur-espaceur pour déterminer dans le flux entrant, les cellules conformes, les cellules non conformes et dans ce cas, précisez si elles sont soumises à un rejet ou à un retard. Exercice
8.14
Trouvez les conditions sous lesquelles les mécanismes de Push-out Buffer Sharing perdent des cellules de haute priorité. Exercice
et
Partial
8.15
Un crédit maximal est défini de telle façon que l'instant d'envoi du dernier paquet de la fenêtre d'émission corresponde à l'instant de réception de l'acquittement du premier paquet. De cette manière, l'émetteur n'est jamais bloqué en attente d'acquittement. Calculez cette taille maximale de fenêtre pour un réseau ATM avec un débit de 155 Mbit/s dont le délai de traversée sur 500 km serait de 6,66 ms. Quel est le nombre de cellules perdues si l'acquittement est une notification de congestion ? Quelle est la taille de l'espace de numérotation nécessaire à un tel mécanisme ?
Chapitre 9
Interconnexion
9.1.
Introduction
L'interconnexion des réseaux est nécessaire dès que l'on veut accéder à des ressources extérieures au réseau local. Dès lors, on se heurte à l'hétérogénéité des protocoles développés dans des contextes différents et présentant donc des caractéristiques différentes. Le problème de l'interconnexion des réseaux se résume ainsi : comment faire dialoguer deux architectures de réseau différentes, tant au niveau des supports que des protocoles ? L'objectif de ce chapitre est de répondre à cette question en présentant une méthodologie d'interconnexion ainsi qu'un panorama des équipements utilisés et des services proposés. Parmi les équipements, nous décrirons en particulier les ponts et les routeurs. Pour ces derniers, nous introduirons le protocole IP (Internet Protocol). En termes de services, nous présenterons d'une part, SMDS (Switched Multimegabit Data Service), service d'interconnexion de réseaux locaux à travers des réseaux métropolitains ou publics pour le transfert de données à haut débit, et d'autre part, le service de relais de trames, service d'interconnexion de réseaux locaux à travers des réseaux publics, dédié également au transfert de données à haut débit.
278
Architecture des réseaux haut débit
9.2.
Principes
9.2.1. Choix
de
du
l'interconnexion niveau
d'interconnexion
La méthodologie consiste à représenter, selon la structuration en couches du modèle OSI, les architectures des sous-réseaux à interconnecter, à les comparer et à identifier les différences de services, de protocoles ou de paramétrage d'un même protocole (tailles des PDU, tailles de fenêtre, valeurs de temporisateurs, etc.). En partant de la base de chaque architecture, on détermine le niveau à partir duquel les couches supérieures sont identiques. La figure 9.1 présente deux architectures compatibles à partir du niveau (N+l) ; la frontière d'hétérogénéité se trouve alors entre les niveaux (N) et (N+l). L'interconnexion sera réalisée au niveau (N+l), premier niveau commun aux deux architectures. L'architecture générique de l'équipement d'interconnexion, appelé Unité d'Inter-Fonctionnement (UIF) ou plus souvent Inter-Working Unit (IWU), comprend les protocoles des couches 1 à (N) pour chacun des sous-réseaux ainsi que le protocole commun de niveau (N+l).
ensemble homogène
niveau d'interconnexion
(N+l)
(N)
frontière d'hétérogénéité
protocole P2
protocole PI
ensemble hétérogène
Figure 9.1. Frontière
9.2.2. Techniques
d'hétérogénéité
et niveau
d'interconnexion
d'interconnexion
Une fois le niveau d'interconnexion identifié, trois types de techniques d'interconnexion sont possibles [Sunshine 90] : - la conversion de services ou la concaténation de services, - la conversion de protocoles, - l'encapsulation. La conversion de services intervient lorsque les niveaux inférieurs des sousréseaux sont différents mais compatibles (par exemple, deux couches MAC). Elle traduit les primitives de service d'un sous-réseau en primitives utilisables sur l'autre. La concaténation de services est applicable lorsque les protocoles du niveau d'interconnexion sont identiques mais utilisés dans des contextes différents et avec des valeurs de paramètres différentes : c'est donc la technique la plus simple. Elle
Interconnexion
279
fait essentiellement appel à des mécanismes de contrôle de congestion (en cas de débits différents) et de fragmentation (en cas de longueurs de PDU différentes). La conversion de protocoles travaille directement sur les PDU. Elle est par conséquent plus complexe à mettre en œuvre que la conversion de services. En effet, au niveau des coupleurs fournis par les constructeurs, on a plus facilement accès à l'interface de service qu'aux unités de données du protocole. L'encapsulation consiste, en émission, à envelopper chaque unité de données. En réception, l'UIF extrait l'unité de données de son enveloppe. Ces deux actions sont réalisées dans un niveau de protocole supplémentaire dédié à l'interconnexion. L'intérêt de l'encapsulation réside dans sa généralité : elle s'applique à tous les cas de figure [IS 8648]. Son inconvénient réside dans l'introduction d'un niveau de protocole supplémentaire.
9.2.3. Classification
des
équipements
d'interconnexion
La recommandation X.200 définit une terminologie spécifique à chaque équipement d'interconnexion en fonction du niveau de l'interconnexion. Au niveau physique, on parle de répéteur car son rôle se limite à régénérer le signal électrique arrivant d'un support sur un autre support. Au niveau liaison, lorsque les couches MAC sont identiques ou suffisamment semblables avec une même couche LLC, on peut relier des sous-réseaux via un pont (bridge). Le pont permet de pallier les limitations quant aux longueurs maximales spécifiées dans les protocoles (à titre d'exemple, CSMA/CD spécifie une longueur maximale de 2,5 km pour tout chemin de données, répéteurs compris). Contrairement aux répéteurs, le pont isole le trafic de chacun des réseaux en effectuant un "routage" de manière transparente pour la couche liaison de données. Dans le monde OSI, le niveau réseau est le niveau d'interconnexion, puisqu'il est le premier à prendre en compte un schéma d'adressage global. L'UIF est ici appelé routeur. Il peut s'agir d'un équipement spécifique ou d'une station particulière du réseau. Aux niveaux supérieurs, on parle de passerelle de niveau (N). A titre d'exemple, une passerelle d'application peut permettre la communication entre systèmes de messagerie de constructeurs différents.
9.3. Les
répéteurs
Les répéteurs sont le plus souvent utilisés pour étendre la couverture géographique d'un réseau en juxtaposant localement plusieurs segments de câble. Au passage d'un répéteur, le signal provenant d'un segment est amplifié puis retransmis sur le segment suivant. Certains protocoles, tels que CSMA/CD, spécifient explicitement le rôle et les fonctionnalités du répéteur. Le répéteur peut aussi fournir des fonctions de conversion de signaux s'il relie des supports de types différents : dans le cas d'un câble coaxial et d'une fibre optique, le répéteur assure la conversion
280
Architecture des réseaux haut débit
du signal électrique en signal optique et vice-versa. Cet équipement est donc totalement transparent aux protocoles de niveaux supérieurs. Il est élémentaire et ne fournit pas d'isolation entre les différents segments.
9.4. Les
ponts
9.4.1. Qu'est-ce
qu'un
pont ?
Selon la technique utilisée, le pont a accès soit aux primitives et SDU de la sous-couche MAC (conversion de services), soit aux PDU de cette même souscouche (conversion de protocoles). Il réalise principalement des fonctions de mémorisation avant retransmission, de conversion (de primitives ou de formats de PDU) et de routage des PDU de données ; remarquons que cela implique l'existence d'une fonction d'adressage au niveau liaison. Parce qu'elle réalise une fonction de routage, la couche liaison d'un pont n'est pas conforme au modèle de référence OSI. Le pont est connecté à un réseau local via un port d'attachement ; un pont rattaché à trois réseaux locaux possède donc trois ports et trois entités MAC différentes avec trois adresses MAC différentes, une par port (figure 9.2). Chaque entité MAC du pont se comporte conformément à son protocole de référence excepté le fait que toutes les trames sont capturées et transmises vers l'entité de relais du pont même si elles ne sont pas destinées au pont lui-même. Ce type d'UIF a été normalisé par l'IEEE pour l'interconnexion des réseaux utilisant les protocoles IEEE d'accès au support [IEEE 802.ld] [IEEE 802.1g]. Le pont utilise le plus souvent une technique de conversion de services. Selon la complexité de la fonction de routage, trois types de pont sont identifiés : - le pont simple effectue le routage soit par diffusion, soit selon une table de routage statique chargée par l'opérateur lors de l'installation. Dans le premier cas, toute trame reçue sur un port du pont est retransmise sur tous les autres ports de sortie (sauf si elle est destinée à une station du même sous-réseau que la station source) ; - le pont intelligent (ou pont transparent) est capable de construire de par luimême sa table de routage et de la mettre à jour dynamiquement. La construction de la table se fait par apprentissage dynamique des adresses source puis par filtrage des trames selon leur destination ; - le pont à routage contrôlé par l'émetteur est spécifié dans le standard IEEE 802.5 du Token Ring. Le chemin que doit suivre la trame est indiqué de façon explicite dans un champ prévu à cet effet par la station source. Ce chemin est connu de la station source après un apprentissage dynamique. Ce mécanisme n'est donc pas transparent vis-à-vis des stations.
Interconnexion 9.4.2. Apprentissage Un pont fonction de d'une trame sous-réseau
dynamique
des
adresses
de
281
routage
intelligent a la capacité d'acquérir seul les informations nécessaires à sa routage. Il construit sa table de routage en mémorisant l'adresse source reçue associée au port de réception de celle-ci. II dirige les trames sur le approprié après apprentissage.
La figure 9.2 donne l'exemple d'un pont connectant trois réseaux et possédant donc trois ports de sortie : p l , p2 et p3. L'apprentissage des adresses par le pont s'effectue de la manière suivante : - étape 1 : le pont reçoit une PDU issue de la station A sur le port pl (figure 9.2 (a)) ; il la diffuse sur les ports pl et p2 et note que la station d'adresse A se trouve sur le réseau 1 ; - étape 2 : le pont reçoit une PDU issue de la station B sur le port p2 et destinée à A (figure 9.2 (b)) ; le pont sait que la station A est sur le réseau 1 ; la PDU n'est donc transmise que sur pl ; le pont mémorise que la station B se trouve sur le réseau 2 ; - étape 3 : une trame de A à B n'est retransmise que sur p2 (figure 9.2 (c)).
f réseau
( réseau 1
reseau
réseau 3
(a)
réseau 2
réseau 2
réseau 2
(réseau 3
reseau J
(c)
(b) F i g u r e 9 . 2 . Apprentissage
du
pont
Pour conserver une information valide, l'adresse source de chaque trame reçue est comparée avec l'entrée correspondante de la table et éventuellement mise à jour. Pour prévenir la saturation de la table et éliminer des entrées devenues obsolètes (stations inactives, déplacées, etc.), un temporisateur est associé à chaque entrée. Cette approche permet d'ajouter et d'enlever des équipements sur le réseau sans avoir à reconfigurer les ponts qui s'y trouvent.
282
Architecture des réseaux haut débit
Lorsque la topologie des réseaux interconnectés par des ponts est complexe et maillée — un ou plusieurs sous-réseaux connectés à plusieurs ponts — il se peut qu'une station soit accessible par des chemins différents (figure 9.3). L'algorithme d'apprentissage n'est alors plus efficace, en effet des chemins multiples associés aux réseaux locaux à diffusion peuvent entraîner des duplications de trames. L'algorithme de l'arbre couvrant minimal (Spanning Tree) permet d'assurer l'unicité des chemins. L'ensemble des réseaux interconnectés est vu comme un graphe value où chaque sous-réseau joue le rôle d'un nœud et chaque pont est représenté par un arc du graphe ; la fonction de calcul d'un coût minimal permet de définir l'arbre couvrant. Le coût d'un arc représente par exemple le nombre total de ponts sur le chemin entre deux stations quelconques. S'il existe plusieurs chemins entre deux stations, celui de coût minimal est retenu. La défaillance d'un sous-réseau ou d'un pont entraîne un changement de topologie pris en compte par les ponts grâce aux informations qu'ils échangent dans des unités de données particulières, des Bridge-PDU, qui permettent de reconstruire l'arbre.
F i g u r e 9 . 3 . Chemins
9.4.3. Les
ponts
9.4.3.1. Les standards
MAC
multiples
802
IEEE
Au sein du comité 802 de 1TEEE, un groupe de travail s'emploie à spécifier l'interconnexion des réseaux 802 et a établi deux extensions au standard 802.1 : - P 8 0 2 . 1 d / D 9 (1993) spécifie une architecture et un protocole pour l'interconnexion de réseaux locaux IEEE 802 géographiquement proches, par des ponts locaux [IEEE 802. ld] ; - P802.1g (1992) traite des spécificités de l'interconnexion de réseaux locaux IEEE 802 géographiquement éloignés, par des ponts distants et via des technologies autres que celles des réseaux locaux (liaisons spécialisées ou réseaux métropolitains, par exemple) [IEEE 802.1g].
Interconnexion
283
L'ensemble des sous-réseaux interconnectés par des ponts IEEE y est défini comme étant le réseau local étendu (ELAN — Extended Local Area Network). Dans le cas où les deux réseaux sont géographiquement proches, ils peuvent être interconnectés directement par un pont local utilisant la conversion de services. Dans le cas contraire, on peut avoir recours à un pont distant constitué par deux demiponts reliés entre eux par une liaison intermédiaire. La technique alors utilisée est l'encapsulation afin d'assurer la transparence vis-à-vis de la liaison intermédiaire. Les documents spécifient : - le modèle architectural d'un pont, - la situation des fonctionnalités du pont à l'intérieur de la sous-couche MAC, - les principes de fonctionnement du pont afin de fournir et préserver le service MAC et de maintenir la QoS, - le service de chaque sous-couche MAC fourni à l'entité de relais du pont, - le calcul de l'arbre couvrant ainsi que le protocole d'échange de Bridge-PDU entre ponts pour la mise à jour de cet arbre, - les objets gérés et les fonctions de gestion sur ces objets, - les performances requises pour les ponts et des valeurs de qualité de service (QoS — Quality of Service) par défaut. 9.4.3.2. Architecture
de pont
Chaque port reçoit et transmet des trames du et vers le réseau local rattaché en utilisant l'entité MAC associée. Chaque entité MAC manipule les fonctions dépendantes de la méthode d'accès au support (protocole et procédures MAC). Une architecture est spécifiée pour chaque type de pont, local (figure 9.4) et distant. entités He couches entité
supérieures
entité entité
entités de protoco le du pont, de gestion du pont
LLC A
À
T
J
entité de relais M A C
service j?. fonction indépenda ntes MAC r tec inique d'ac ces service de sous-couche interne
T
w
s
de i a ^ i
e
e
service de sous-couche interne
entité M A C
protocole et procédures MAC
protocole et procédures MAC
Figure 9 . 4 . Architecture
c
MAC
entité M A C
réseau local
m
L LL LC C
reseau local de pont
local
y
284
Architecture des réseaux haut débit
Les fonctions dédiées à l'interconnexion sont assurées par l'entité de relais MAC qui coiffe les sous-couches internes M A C spécifiques à chaque sous-réseau. Indépendamment de la méthode d'accès au support, l'entité de relais MAC effectue le relais des trames entre ports, le filtrage de trames et l'apprentissage d'information de filtrage. Elle utilise le service de chaque sous-couche interne fourni par chaque entité MAC correspondant à un port donné. 9.4.3.3. Service
MAC du pont
Le pont offre un service MAC sans connexion avec deux primitives qui sont MA_UNITDATA.request et MA_UNITDATA.indication. Le service MAC offert par un ELAN est similaire à celui d'un réseau local isolé, en conséquence : - un pont n'est pas directement adressé par les stations communicantes (sauf à des fins de gestion), il est transparent vis-à-vis des stations ; - toutes les adresses MAC sont uniques ; - les adresses M A C des stations ne sont pas limitées par la topologie ni par la configuration du réseau étendu. Les deux primitives de service ont pour paramètres : - frame_type : type de trame, une trame pouvant véhiculer des données d'utilisateur ou des informations de contrôle de niveau MAC ; - mac_action : permet à l'entité émettrice, si elle le souhaite, de demander une réponse de son homologue et à ce dernier de lui répondre ; - destination_address, source_address : adresses respectivement du destinataire et de l'émetteur ; - M S D U : données utilisateur ; - user_priority : priorité demandée par l'utilisateur du service, représentée par un entier compris entre 0 et 7 ; - access_priority (seulement dans la primitive de requête) : priorité de la demande de transfert, représentée par un entier compris entre 0 et 7 ; - FCS (Frame Check Sequence) : valeur de la séquence de contrôle d'erreur. Le pont est chargé de mettre en œuvre la conversion de services selon le schéma donné en figure 9.5. station A
pont
MA_UNITDATA. request
M.UNITDATA. indication
station B
M_UNITDATA. request
MA_UNITDATA. indication i
LLC MAC
h
f(4) réseau 1
PHY
réseau 2
Figure 9.5. Enchaînement
de requêtes pour la transmission
stations interconnectées
par un pont
d'une trame entre deux
Interconnexion 2 8 5 9.4.3.4. Fonctionnement
du pont
L'entité de relais MAC réalise les fonctions d'interconnexion du pont (figure 9.6). Elle est modélisée par des processus et des entités : - le processus d'apprentissage "apprend" les adresses source des trames reçues sur chaque port et met à jour la base de données de filtrage en fonction de l'état du port récepteur ; - le processus de relais de trames retransmet les trames reçues sur un autre port en fonction des informations contenues dans la base de données de filtrage et de l'état des ports. La trame est soit retransmise sur un seul port, si l'adresse est connue, soit diffusée sur tous les autres ports du pont dans le cas contraire ; - la base de données de filtrage contient l'information de filtrage (obtenue explicitement par administration, ou automatiquement par le processus d'apprentissage). Elle répond aux requêtes du processus de relais. état ~ \ _ du port J~
relais de trames
_f état ~ \ V du Dort )
base de données de fdtrage réception de trames
transmission de trames . sous-couche interne MAC
sous-couche interne MAC
Figure 9.6. Le relais de
trames
Chaque port fonctionne comme une station terminale en fournissant le service MAC à la couche supérieure. Suivant la topologie du réseau étendu déterminé par l'algorithme de l'arbre couvrant, les ports peuvent être dans les états : blocking, listening,
learning
ou forwarding.
L'état blocking
est consécutif à l'initialisation du
pont ou à une action de gestion ; il ne permet pas d'action. Dans l'état listening, le pont échange des Bridge-PDU et recalcule l'arbre couvrant en coopération avec les autres ponts ; il ne prend en compte et ne retransmet aucune trame utilisateur. Dans l'état learning, le processus d'apprentissage met à jour la base de données de filtrage mais ne relaie toujours pas de trames. Enfin, l'état forwarding permet au port de participer au relais des trames. Pour pouvoir effectivement relayer une trame, les quatre conditions suivantes doivent être impérativement respectées : - le port de réception est dans l'état
forwarding,
- le port sur lequel la trame doit être transmise est dans l'état
forwarding,
- la base de données de filtrage indique que les trames avec cette adresse de destination doivent être transmises sur le port de transmission,
286
Architecture des réseaux haut débit
- la taille maximale de la SDU supportée par le réseau local sur lequel on doit transmettre est respectée. Après réception, une trame peut ne pas être relayée et être détruite dans deux situations : lorsque le système destinataire se trouve sur le même sous-réseau que la source ou sur occurrence d'une condition d'exception (erreur de transmission, trame de contrôle, service de demande de réponse actif, filtrage sélectif, longueur excessive, dépassement du temps de transit dans le pont). En réception, l'entité MAC associée à un port donné examine les trames en provenance du réseau local auquel le port est attaché. Les trames sont soumises au processus d'apprentissage et au processus de relais par l'invocation de la primitive M_UNITDATA.indication, après vérification de l'état des ports impliqués. En émission, l'entité MAC transmet, si l'état du port auquel elle est associée le lui permet, les trames qui lui ont été soumises par l'entité de relais MAC par une primitive M_UNITDATA_request. En ce qui concerne la base de données de filtrage, les informations peuvent provenir de configuration d'administration ou de configuration dynamique. La base peut contenir aussi bien des entrées statiques que dynamiques. Les entrées dynamiques sont créées et mises à jour par le processus d'apprentissage. A chaque opération sur une entrée, on arme un temporisateur associé à l'entrée. Si le temporisateur expire, l'entrée est détruite, car considérée comme inutilisée depuis trop longtemps. Une entrée dynamique comporte les informations {adresse MAC, n° de port, temporisateur}. A contrario, les entrées statiques ne peuvent être ajoutées ou détruites que par l'administration. 9.4.3.5. Préservation
de la QoS
Les ponts locaux et les ponts distants ne doivent pas dégrader de façon excessive la qualité de service de chaque sous-réseau local. Les ponts distants utilisant des liens intermédiaires plus lents que les sous-réseaux (sauf dans le cas de réseaux fédérateurs à haut débit), ils entraînent généralement une dégradation de service plus importante que celle causée par un pont local. Dans tous les cas, un pont ne peut violer les invariants du service MAC et doit respecter le séquencement des trames.
9.5. Les routeurs et l'interconnexion de niveau réseau 9.5.1.
Introduction
L'interconnexion devient plus complexe lorsqu'elle intervient entre des sousréseaux très différents comme, par exemple, entre un réseau local et un réseau grande distance. Dans un réseau grande distance, la fonction d'adressage n'est assurée qu'au niveau réseau. Le routeur sera alors chargé de la translation d'adresses, de la translation de formats des paquets et du routage entre les réseaux. Ce paragraphe présente dans un premier temps les différentes caractéristiques des routeurs, en se
Interconnexion
287
restreignant aux dispositifs supportant un seul protocole (c'est-à-dire reliant deux réseaux utilisant le même protocole de haut niveau) et ensuite le protocole Internet et son fonctionnement.
9.5.2. Qu'est-ce
qu'un
routeur
?
Dans la mesure où ils opèrent au niveau de la couche réseau, les routeurs possèdent un logiciel plus élaboré que celui des ponts. Ils peuvent tirer profit des chemins multiples dans les réseaux complexes. Le routeur est soit un équipement dédié, soit une station particulière ; il est connecté à plusieurs réseaux aux schémas d'adressage éventuellement différents. Par conséquent, il possédera autant d'adresses différentes que de réseaux auxquels il est connecté, chaque adresse correspondant à un port différent. Utilisant un système d'adressage hiérarchique qui distingue les adresses système des adresses réseau, les routeurs autorisent une séparation logique de sous-réseaux au sein d'un réseau. Ces derniers constituent des domaines pouvant être administrés indépendamment et de manière distribuée. Les routeurs n'imposent pas de contraintes de topologie et peuvent, par conséquent, fournir des contrôles de flux sophistiqués en partageant la charge à travers le réseau. D'un autre côté, ils constituent des dispositifs actifs et les stations leur adressent explicitement les paquets à router. Il est à noter que dans le monde Internet le terme de passerelle est souvent préféré à celui de routeur.
9.5.3. Fonctionnement
d'un
routeur
Les routeurs impliquent l'existence de tables de routage. Celles-ci sont utilisées pour identifier les autres réseaux, les chemins vers ces derniers ainsi que l'efficacité de ces chemins. Un routeur n'emploie pas ces tables pour déterminer explicitement l'adresse des stations sur les autres réseaux, comme le font les ponts. Au contraire, il compte sur les autres routeurs pour accomplir cette tâche. Alors qu'un pont ne fait que transmettre ou abandonner une trame selon sa table de filtrage, un routeur sélectionne le meilleur chemin pour chaque paquet. Un routeur ne reçoit que les paquets que lui adresse une station ou un autre routeur. En fonction de l'adresse du réseau de destination et des informations contenues dans sa table, le routeur détermine le prochain sous-réseau sur lequel il doit retransmettre le paquet. Le processus de routage complet repose sur ce principe de sauts de routeur en routeur. Cette procédure sélective de transmission des paquets explique que les chemins redondants puissent exister dans une topologie utilisant des routeurs. Les décisions de routage reposent le plus souvent sur un algorithme qui détermine le nombre de sauts entre les réseaux, assurant que les paquets parcourent le
288
Architecture des réseaux haut débit
chemin le plus court possible. Le gestionnaire du réseau peut influer sur cette décision en modifiant le nombre de sauts associés à un chemin, ce qui donne la préférence à un chemin plutôt qu'à un autre.
9.5.4. Routeurs
statiques
et routeurs
dynamiques
Les routeurs statiques ont besoin de l'intervention du gestionnaire du réseau pour mettre à jour les tables de routage lorsqu'une modification a lieu ou lorsqu'un lien tombe en panne. Ce type de routage, s'il autorise une mainmise complète du gestionnaire sur le réseau, n'est pas envisageable dans le cas d'un réseau dont la topologie est susceptible de subir des changements imprévisibles. Les routeurs dynamiques utilisent des protocoles de routage spécifiques qui régissent les échanges d'informations de routage à travers le réseau.
9.5.5. Le
protocole
Internet
Le protocole Internet (IP — Internet Protocol) [RFC 791] a été spécifié par le DoD (Department of Defense, USA) pour interconnecter ses nombreux réseaux (cf. chapitre 1). Le service est sans connexion et le protocole permet le transfert de datagrammes. Chaque datagramme est traité comme une entité indépendante des autres datagrammes. IP réalise deux fonctions de base, l'adressage (d'hôtes) et la fragmentation. Il est souvent couplé avec un protocole de transport très fiable, TCP (Transmission Control Protocol) [RFC 793]. On parle souvent de TCP/IP ; ce couple de protocoles est très répandu car il a été intégré dans le noyau d'UNIX à partir de la version Berkeley 4.2. 9.5.5.1. L'adressage
Internet
Un nom désigne ce que l'on cherche ; une adresse indique sa localisation ; une route indique comment y parvenir. Le protocole Internet traite des adresses : c'est aux protocoles de niveaux supérieurs de mettre en correspondance des noms avec des adresses, c'est à IP de mettre en correspondance des adresses IP avec des adresses de sous-réseaux (ce que l'on a appelé adresses physiques) et c'est le rôle du niveau inférieur que de mettre en correspondance les adresses de sous-réseaux avec des routes. Les adresses Internet sont des adresses hiérarchiques codées sur 32 bits et composées de deux champs,
et . Le champ adresse un réseau particulier : c'est une référence unique du réseau de par le monde, attribuée par un organisme central. Le champ désigne un hôte particulier ou une connexion particulière sur le réseau considéré. Un hôte relié à deux réseaux possédera donc deux adresses Internet, une par connexion réseau. L'adressage Internet supporte trois classes d'adressage individuel, désignées par A, B et C, qui permettent de couvrir aussi bien les réseaux locaux à quelques postes que
Interconnexion
289
les réseaux grande distance avec des milliers de postes raccordés. La classe D supporte l'adressage multipoint. La figure 9.7 donne le format de l'adresse pour chacune de ces classes. La notation habituelle d'une adresse Internet est le codage décimal pour chacun des quatre octets la constituant (par exemple, 128.10.2.30 est une adresse de réseau de classe B). Oj
classe A
adresse locale
réseau
classe B
31
8
0
adresse locale
réseau
10 ;
adresse loc.
réseau
110
classe C
31
16
0
24
0
classe D
adresse de multi-destination
1110
Figure 9.7. Classes 9.5.5.2. Encapsulations
31
d'adressage
Internet
successives
Le principe utilisé pour l'interconnexion dans Internet réside dans l'encapsulation successive des PDU de chaque niveau, rendant de ce fait chaque sous-réseau indépendant de l'autre. hôte B
hôte A TCP
IP
IP
protocole d'accès 1
protocole protocole d'accès 1 d'accès 2
réseau 2
réseau
rèsrao
en-tête
en-tête
en-tête
réseau '*
\ IP protocole d'accès 2 réseau 2
t
(b) Architecture d'interconnexion
(a) Exemple d'interconnexion
réseau 1
TCP
passerelle R
encapsulation par TCP (émetteur)
TCP
u o n n e e s
en-tête jp
en-tête TCP
, données
en-tête
en-tête
IP
TCP
en-tete
en-tete
"
s
o n n e e s
IP
TCP
"
;n-tete IP
en-tete T C P
, données
encapsulation par IP (émetteur) encapsulation par le protocole d'accès du réseau 1 (émetteur) désencapsulation par le protocole d'accès du réseau 1 routage par IP vers le réseau 2 (passerelle) encapsulation par le protocole d'accès du réseau 2 (passerelle)
(c) Encapsulations successives Figure 9.8. Encapsulations
successives
IP
290 Architecture des réseaux haut débit La figure 9.8 présente les encapsulations successives correspondant à l'interconnexion d'un réseau 1 et d'un réseau 2, en supposant que le protocole utilisé pour le transport de bout en bout est TCP. L'émetteur se trouve sur le réseau 1, le destinataire sur le réseau 2. Le message TCP est soumis à IP qui lui ajoute son propre en-tête avec les adresses Internet de l'hôte source et de l'hôte destinataire. Le datagramme IP est remis ensuite à la couche de niveau inférieur avec l'adresse physique de la passerelle sur le réseau 1. Le niveau inférieur l'encapsule à son tour dans un en-tête spécifique au protocole d'accès utilisé par le réseau 1 et qui comporte l'adresse physique de la passerelle sur le réseau 1. A son arrivée dans la passerelle, le paquet est débarrassé de son en-tête de réseau 1. IP effectue alors le routage de ce paquet vers le réseau 2, puis le remet au protocole d'accès du réseau 2 qui lui ajoute son en-tête spécifique avec l'adresse physique de l'hôte destinataire sur le réseau 2 et qui le transfère sur le réseau 2. L'exemple précédent supposait que le datagramme avait une longueur telle qu'il pouvait être retransmis sans découpage sur le réseau 2. Ce n'est pas toujours le cas et une passerelle peut être amenée à réaliser une fragmentation d'un datagramme. La fragmentation est nécessaire lorsque le datagramme reçu a une longueur supérieure à la longueur maximum tolérée par le réseau sur lequel il doit être retransmis. Le datagramme est alors découpé en plusieurs fragments de longueur compatible avec le maximum autorisé. 9.5.5.3. Routage
Internet
Le routage Internet se fait saut par saut à partir de l'adresse de l'hôte destinataire. L'entité IP locale examine donc cette adresse et détermine si le routage est direct — le préfixe de l'adresse destinataire est le même que le sien — ou s'il est indirect — le préfixe est différent. Dans le cas d'un routage indirect, l'entité locale IP choisit le routeur le mieux adapté pour atteindre la destination finale et envoie le paquet IP à ce dernier en l'encapsulant au passage dans une PDU du protocole d'accès du réseau sous-jacent. A la réception du paquet, l'entité IP de la passerelle détermine s'il s'agit d'un routage direct ou indirect, et dans ce dernier cas, vers quelle passerelle router le paquet. Elle remet alors au réseau de sortie correspondant le datagramme à transférer vers la nouvelle passerelle. Ce processus se répète jusqu'à ce que le datagramme ait atteint sa destination finale. Pour simplifier le routage dans Internet, il a été défini une hiérarchie de sousréseaux qualifiés d'autonomes. Un réseau autonome correspond souvent à un pays particulier, les politiques de télécommunication étant différentes d'un pays à l'autre. L'échange d'information de routage dans un réseau autonome se fait par le protocole IGP [RFC 1371]. Dans chaque sous-réseau, une passerelle est reliée à une ou plusieurs passerelles d'autres sous-réseaux, formant ainsi le réseau central. Le protocole EGP [RFC 904] permet l'échange d'informations entre les réseaux autonomes et le réseau central.
Interconnexion 9.5.5.4. La datagramme
291
IP
Le protocole IP ne définit qu'un seul type de PDU appelé datagramme IP dont la figure 9.9 donne la structure. Les différents champs sont :
Vers.
IHL
Total Length
ToS
Fragment Offset
Flags
Identification Time To Live
31
16
8
0
Header Checksum
Protocol
Source Address Destination Address Options Padding Data
Figure 9 . 9 . Format du datagramme
IP
- les quatre bits du champ Version donnent l'identification de la version IP utilisée. La version en cours est la version 4. Ce numéro autorise la coexistence de différentes versions et permet aux entités IP de décoder et d'interpréter les champs suivants du datagramme traité ; - IHL (Internet Header length) donne la longueur de l'en-tête du datagramme, exprimée en mots de 32 bits. La valeur minimale est de 5 mots, la valeur maximale de 15, ce qui limite la longueur du champ d'options à 40 octets ; - le champ ToS (Type of Service) fournit une indication des paramètres abstraits de la qualité de service souhaitée. Ce champ est utilisé par les passerelles pour sélectionner les paramètres de transmission réels d'un sous-réseau donné, le prochain sous-réseau ou la prochaine passerelle à emprunter. Les 8 bits du champ sont répartis en trois bits P pour la priorité, un bit D pour le délai, un bit T pour le débit, un bit R pour la fiabilité et deux bits réservés mis à 0. Les trois bits de priorité permettent de définir huit niveaux de priorité d'acheminement d'un datagramme (la valeur 000 correspondant à la priorité la plus basse). Pour les bits D, T et R, seuls deux niveaux sont possibles, normal (valeur 0) ou élevé (valeur 1). Le type de service est important puisqu'il permet de définir plusieurs niveaux de services en fonction du type d'information transportée et de différencier les informations de contrôle des données. En particulier, il peut constituer un support pour des algorithmes de contrôle de flux dans des protocoles de couches supérieures dont les informations de contrôle peuvent être transmises indépendamment des restrictions de flux imposées. Il faut remarquer que ce champ n'est significatif que dans la mesure
292 Architecture des réseaux haut débit où les unités d'interconnexion utilisées dans la traversée du réseau l'interprètent et le respectent, ce qui n'est pas toujours le cas ; - le champ Total Length indique la longueur totale du datagramme, exprimée en octets, en-tête et données inclus. En cas de fragmentation, ce champ contient la longueur du fragment courant. La taille d'un datagramme n'est en théorie limitée que par les 16 bits servant à la coder. Néanmoins, les machines ont des contraintes généralement beaucoup plus sévères. Ainsi, et par convention, tout module IP doit pouvoir traiter des datagrammes de 576 octets (64 pour l'en-tête et 512 pour les données). Au-delà, un module émetteur doit s'assurer au préalable que son homologue récepteur est capable de gérer des longueurs supérieures ; - le champ Identification de 16 bits permet (en association avec les champs d'adresses et de protocole) d'identifier le datagramme initial lors de son envoi. Le principal usage de ce champ est donc de permettre à une entité réceptrice de reconnaître les différents fragments issus d'un même datagramme initial et devant donc faire l'objet d'un réassemblage ; - le champ Flags intervient au niveau de la fragmentation du datagramme. Sur les 3 bits le composant, seuls deux sont utilisés, le troisième étant réservé et mis à 0. Le drapeau DF (Don't Fragment) permet, lorsqu'il est positionné à 1, d'interdire la fragmentation sur le datagramme traité (si le datagramme porte un DF égal à 1 et qu'il ne peut être délivré à sa destination sans être fragmenté, il est détruit). Le drapeau MF (More Fragment) mis à 0 indique que le datagramme courant est le dernier (ou le seul s'il n'y a pas eu fragmentation) d'une liste de fragments ; mis à 1, il signale que d'autres fragments issus d'un même datagramme suivent ; - Fragment Offset, codé sur 13 bits, indique la position relative (en unité de 8 octets) des données contenues dans ce datagramme par rapport au début des données du datagramme initialement émis. Seuls un datagramme complet et un premier fragment de datagramme peuvent avoir ce champ à 0 ; - le champ Time To Live permet d'éviter à un paquet de circuler trop longtemps ou de boucler dans le réseau et d'introduire des dysfonctionnements au niveau TCP. La valeur de la durée de vie est comprise entre 0 et 255. Elle est initialisée à 255 par l'émetteur du datagramme, puis décrémentée d'une unité à chaque traversée de passerelle. Tout intermédiaire ou destinataire qui détecte le passage de ce champ à la valeur 0 est supposé détruire le datagramme et renvoyer un message ICMP de notification à l'émetteur. En cours de réassemblage, une machine réceptrice est censée décrémenter ce champ toutes les secondes environ pour les datagrammes composant le datagramme initial, tant que tous les fragments ne sont pas tous arrivés. En ce sens, ce champ peut également être considéré comme un temporisateur de réassemblage ; - le champ Protocol identifie le protocole de niveau supérieur, utilisé pour le champ de données du datagramme. A titre d'exemples, la valeur 00000001 identifie ICMP. 00010001 UDP, 00000110 TCP, 00001000 EGP, 00001001 IGP ;
Interconnexion
293
- le champ Header Checksum véhicule une séquence de contrôle de 16 bits, calculée uniquement sur l'en-tête du datagramme et permettant de vérifier que l'information utilisée pour traiter le datagramme a été transmise de façon correcte. En cas d'erreur, le datagramme est détruit par l'entité l'ayant détectée. La protection des données, si nécessaire, est laissée à la charge du protocole de transport ; - le champ Source Address - le champ Destination
transporte l'adresse Internet de la source ;
Address
transporte l'adresse Internet du destinataire ;
- le champ Options, de longueur variable (comprise entre 0 et 20 octets), sert à des fonctions de contrôle nécessaires ou utiles dans certaines situations. Ces services optionnels comptent entre autres l'estampillage (enregistrement de l'heure de chaque passage de passerelle), l'enregistrement de route (enregistrement de l'adresse de chaque passerelle traversée), le routage par la source, la sécurité (en permettant aux hôtes d'indiquer des restrictions liées à la sécurité) ; - le champ de bourrage, Padding, une frontière de 32 bits. 9.5.5.5. Service
permet d'aligner l'en-tête de datagramme sur
Internet
Pour demander le transfert des données dans un datagramme, deux primitives de service sont offertes à l'utilisateur : SEND et DELIVER. Elles correspondent à la requête de transfert de données (primitive SEND) et à l'indication de réception de données (primitive DELIVER). En émission, les paramètres de la primitive permettent l'initialisation des champs du datagramme IP. Le tableau 9.1 donne la liste des paramètres utilisés. SEND
DELIVER
adresse source
X
X
adresse destinatation
X
X
protocole de niveau supérieur
X
X
indicateurs de QoS (pour chacun, niveau normal ou élevé)
X
X
identificateur de l'unité de données
X
indicateur de fragmentation (autorisé ou non)
X
durée de vie du datagramme
X
longueur des données
X
X
données optionnelles (liste d'adresses de passerelles pour un routage par la source, par exemple)
X
X
données
X
X
paramètres
Tableau 9 . 1 . Paramètres
des primitives
SEND et DEL/VER
294
Architecture des réseaux haut débit
9.5.5.6. IPng et
IPv6
Les concepteurs de TCP/IP étaient loin, au début des années 80, de se douter de l'explosion à laquelle est confronté aujourd'hui le réseau Internet mondial. Des estimations de 1987 prévoyaient le besoin d'adresser 100 000 réseaux dans un futur assez vague. Il apparaît que ce seuil sera atteint dès 1996. D'autres estimations, cette fois réalisées en 1994, projettent quelques millions de réseaux interconnectés dans un futur pas trop lointain. Cette expansion constitue un véritable problème. En effet, l'espace d'adressage offert par l'actuelle version d'IP devient complètement saturé. Même si les 32 bits d'adresse permettent — en théorie — d'adresser 4 billions de machines sur plus de 16 millions de réseaux, l'efficacité de la procédure d'attribution d'adresses est telle qu'on est loin (très loin) de pouvoir approcher ces valeurs. La granularité des adresses — répartition des adresses en trois classes, A, B et C — n'arrange rien. De fait, la classe B est devenue, dès mars 1994, une ressource extrêmement critique. D'autres facteurs contribuent également au besoin pressant d'évolution d'IP. Ils sont pour la plupart liés à l'émergence de nouvelles applications. Citons les applications multimédias, pour lesquelles les contraintes de délais bornés imposent l'utilisation de mécanismes de gestion de qualité de service, ou encore les applications sensibles qui exigent la mise en œuvre de mécanismes d'authentification et de cryptage. Face à cela, l'IETF (Internet Engineering Task Force) a mis en place, dès 1991, des groupes de travail. Chercheurs, universitaires, constructeurs, équipementiers, développeurs, fournisseurs venus de tous les horizons ont uni leurs efforts dans le but de produire IPng, IP — The Next Generation. On peut aisément imaginer qu'un consensus fut long à obtenir et que le choix d'un protocole parmi tous ceux proposés ne fut pas chose aisée. Le lecteur intéressé pourra se référer au [RFC 1752] pour une description des besoins exprimés pour IPng et des principales propositions. Finalement, le protocole SIPP (Simple Internet Protocol Plus) [RFC 1710] a été retenu comme base à la future version d'IP. Pour la distinguer de la version courante (IPv4), la nouvelle version s'appellera IPv6 (le numéro de version 5 ayant été attribué entre-temps au protocole ST). IPv6 constitue une évolution d'IPv4. En tant que tel, il reprend bon nombre des caractéristiques qui ont fait le succès de son prédécesseur : opération en mode non connecté, fragmentation des datagrammes, possibilité de routage par la source, etc. Ses principales caractéristiques résident dans : - des fonctionnalités d'adressage et de routage accrues : la taille des adresses est quadruplée ; passant de 32 à 128 bits, elle permet bien évidemment d'adresser un nombre beaucoup plus important de machines, mais aussi de permettre davantage de niveaux dans la hiérarchie d'adressage et une auto-configuration des adresses plus simple ; - un nouveau format d'en-tête de paquet : la structure du datagramme a été entièrement modifiée, ce afin d'une part, de réduire le coût de traitement minimum des paquets et. d'autre part, de limiter le surdébit associé à l'en-tête ; certains champs ont ainsi été soit abandonnés, soit rendus optionnels ;
Interconnexion
295
- une souplesse dans l'ajout de fonctionnalités : contrairement à IPv4 qui repose sur un en-tête à format fixe, où tous les champs, excepté les options, sont codés sur un nombre fixe d'octets, IPv6 utilise un ensemble d'en-têtes optionnels. Les options, de longueur quelconque, sont ainsi placées dans des en-têtes séparés qui prennent place entre l'en-tête d'IPvô et l'en-tête de protocole de niveau supérieur (TCP, par exemple). Cette organisation particulière permettra aux routeurs traversés de ne traiter que les en-têtes indispensables et donc d'améliorer les performances ; - la possibilité d'identification de flots de données : il sera possible d'attribuer une étiquette aux paquets appartenant à des flots de trafic pour lesquels l'émetteur souhaite un traitement spécial ; ceci sera particulièrement utile aux applications à contraintes de qualité de service ; - des fonctionnalités d'authentification et de protection des données tout au long de leur acheminement. La spécification détaillée du protocole IPv6, dans son état actuel, est donnée dans [Deering 95].
9.6. S M D S (Switched 9.6.1.
Multimegabit
Data
Service)
Définition
Le service SMDS [Bellcore 92] est un service de transport de données pour environnement d'interconnexion de réseaux locaux via un ou plusieurs réseaux fédérateurs (réseaux métropolitains, RNIS-LB dans un proche avenir). SMDS est issu du laboratoire américain Bellcore. Ce protocole haut débit fonctionne en mode non connecté et effectue la commutation de paquets d'un sous-réseau à l'autre. SMDS est indépendant de la technologie sous-jacente mais est dans un premier temps supporté par des réseaux de type DQDB, puis sera supporté par le RNIS-LB. L'appellation retenue en Europe par l'ETSI est CBDS (Connectionless Broadband Data Services). Dans l'hexagone, France Télécom utilise d'ores et déjà CBDS pour son offre Transrel/ATM disponible depuis la fin 1994 pour l'interconnexion à hauts débits (64 kbit/s, 2, 4, 10, 16, 25 et bientôt 34 Mbit/s) de réseaux locaux. Nous nous intéressons dans ce paragraphe au modèle défini pour SMDS/CBDS puis à ses fonctionnalités.
9.6.2. Le
modèle
d'interconnexion
Les spécifications de SMDS définissent une nouvelle terminologie : - les CPE (Customer Premises Equipment) représentent les réseaux locaux d'usagers interconnectés aux réseaux de transport d'information ;
296 Architecture des réseaux haut débit - les LEC (Local Exchange Carrier) représentent les réseaux de transport d'information (i.e. les réseaux fédérateurs) ; - les IC (Inter-exchange Carrier) sont des réseaux intermédiaires, en général grande distance, utilisés pour interconnecter des LEC lointains. Aucun CPE n'y est connecté directement ; - les ICI (Inter-exchange Carrier Interface) sont les interfaces mises en place soit entre deux LEC, soit entre un LEC et un IC ; - les SNI (Subscriber Network Interface) permettent de relier un CPE à un LEC. La figure 9.10 décrit l'interconnexion de deux CPE (deux réseaux locaux Ethernet et Token Ring dans l'exemple) à travers deux LEC (deux réseaux métropolitains DQDB) et un IC (un réseau RNIS-LB). Nous détaillons à présent les composants que nous venons d'introduire. 9.6.2.1. Le modèle
LEC
Les nœuds d'un réseau LEC sont appelés SS (Switching Systems). En fait, un LEC peut être constitué d'un ou plusieurs nœuds. Dans ce dernier cas, la topologie est maillée, ce qui permet des chemins multiples entre deux SS donnés. L'interface entre deux SS est appelée ISSI (Inter-Switching System Interface) (figure 9.10). Le service SMDS est assuré par les SS et grâce au protocole de dialogue entre SS, le protocole ISSIP (Inter-Switching System Interface Protocol).
CP1 CPE - Customer Premises Equipment IC - Inter-exchange Carrier ICI - Inter-exchange Carrier Interface ISSI - Inter Switching System Interface IWU - Inter-Working Unit (UIF - Unité d'InterFonctionnement) LEC - Local Exchange Carrier SNI - Subscriber Network Interface SS - SMDS Switching System
Figure 9.10. Le modèle
LEC
Interconnexion
9.6.2.2. Le modèle
297
SS
Les Switching Systems réalisent la commutation de paquets à haut débit. Un SS est modélise comme étant un nœud du réseau LEC mais physiquement, il correspond à un réseau métropolitain dont un ou plusieurs nœuds supportent SMDS. De ce fait, un Switching System peut être centralisé — un seul nœud supportant SMDS — ou réparti — plusieurs nœuds supportant SMDS. Dans ce dernier cas, chaque entité du SS est appelée SS-NE (Switching System-Network Element). Chaque SS pouvant gérer jusqu'à trois types d'interfaces différents (SNI, ISSI, ICI) en fonction du type d'équipement connecté, un SS-NE (ou SS centralisé) possède une architecture logique modulaire où chaque module est dédié à la gestion d'une interface particulière (figure 9.11) :
CPE, CPE
SS-NE-
ressources communes
ressources communes
)
\ PIM
PIM SNIM I
p
{ CPE
SNIM
;NIM
SS—, ISSIMj
-SS-NE-
ICIM I IC
aaim |
ss— F i g u r e 9 . 1 1 . Le modèle
Switching
System
- le module SNIM (Subscriber-Network Interface Module) gère l'interface SNI et supporte le protocole SIP (SMDS Interface Protocol) afin d'assurer les services de transport de données offerts au réseau client ; - le module ICIM (Inter-exchange Carrier Interface Module) gère l'interface ICI et offre les fonctionnalités de SMDS pour transférer des données avec le protocole ICIP (Inter-exchange Carrier Interface Protocol) au-dessus d'un réseau grande distance ; - le module ISSIM (Inter-Switching System Interface Module) gère l'interface ISSI et assure le dialogue entre nœuds grâce au protocole ISSIP (Inter-Switching System Interface Protocol). Il existe autant de modules ISSIM que de nœuds connectés au nœud considéré. Par ailleurs, dans un SS distribué, des modules nommés PIM (Proprietary IntraSS Interface Module) supportent le protocole de transfert de données interne au SS (c'est-à-dire entre les différents SS-NE). Ce protocole est propre au support choisi pour implanter le SS distribué.
298
Architecture des réseaux haut débit
Enfin, un SS-NE ou un SS centralisé contient des ressources partagées par les différents modules. Il s'agit par exemple des fonctions d'échange d'informations entre les différents modules, fonctions qui dépendent de la technologie utilisée.
9.6.3. Fonctionnalités
de
SMDS
Les fonctionnalités de SMDS sont définies sous forme de fonctions génériques à savoir le transport de données, le routage des paquets, le contrôle de congestion, le partage de charge ainsi qu'un ensemble d'activités permettant la gestion de réseaux. Chacune de ces fonctionnalités est présentée dans la suite. 9.6.3.1. Les utilisateurs
du service
SMDS
Les utilisateurs du service fourni par le protocole SMDS sont des groupes de fonctions utilisant les services des protocoles SIP, ISSIP et ICIP. Ces fonctions supportent le transport des paquets de données et de gestion entre une SNI et un LEC, entre un IC et un LEC ou entre deux LEC. De plus, ces fonctions assurent l'adressage de groupe ainsi que la gestion et les opérations internes à un SS (tests de boucles, tests de routage et administration des notifications). 9.6.3.2. Le transport
de
données
Le transport de données est la fonction essentielle de SMDS. Il peut être de deux types : entre deux nœuds d'un même SS, il dépend de la technologie utilisée et n'est pas défini dans SMDS ; par contre, pour transférer des données entre deux SS, l'interface commune ISSI supporte le protocole ISSIP défini selon une architecture à trois niveaux (figure 9.12). utilisateurs du service SMDS
ISSIP niveau 3 interface indéDendante de la technologie
làMP niveau 2 ISSIP niveau 1 F i g u r e 9 . 1 2 . Architecture
9.6.3.3. Le
T F P F an?
DS3
A
ATM SONET
du protocole
|
ISSIP
routage
Chaque système SS n'étant pas connecté directement à tous les autres, un paquet doit avancer par sauts successifs avant d'atteindre sa destination. Il faut donc connaître le chemin que doit emprunter chaque donnée pour arriver à destination avec un délai minimum. Cela constitue le rôle d'un protocole de routage qui est appelé
Interconnexion
299
RMP (Routing Management Protocol). RMP permet à chaque SS de connaître la topologie complète du réseau afin qu'il puisse facilement déterminer le chemin le plus court vers n'importe quel autre SS ou réseau externe. Dans le même ordre d'idée, chaque changement dans la topologie est facilement pris en compte par les SS et les nouveaux chemins sont rapidement calculés. Ce protocole réduit également le déséquencement des données car le même chemin est utilisé pour les paquets qui ont les mêmes adresses de source et de destination. Enfin, les SS peuvent diffuser les paquets adressés à un groupe grâce à l'algorithme de l'arbre couvrant. Cet algorithme donne les plus courts chemins pour effectuer cette diffusion à partir du nœud concerné et tient compte des modifications éventuellement apportées à la topologie du réseau. 9.6.3.4. Le contrôle
de
congestion
SMDS est destiné à être utilisé sur des réseaux métropolitains comportant un très grand nombre de SS. Ainsi, lorsque l'on observe un phénomène de congestion, il est nécessaire de l'isoler et de le contrôler au plus vite afin de ne pas étendre le problème aux nœuds voisins. La spécification de SMDS définit un mécanisme de contrôle de congestion distribué pour répondre à ces impératifs. Le but est de résoudre la congestion d'un nœud à partir des autres SS du réseau en mettant au point un mécanisme de contrôle réactif. A noter également que l'on peut chercher à éviter la congestion grâce à un contrôle préventif mis en œuvre par un algorithme de partage de charge. Chaque SS doit détecter s'il est dans un état de saturation en comparant ses paramètres d'utilisation avec des valeurs seuils. Lorsqu'un seuil est franchi, il envoie une notification de son état aux autres SS. Le même message de notification est ensuite envoyé périodiquement jusqu'à ce qu'il y ait un changement du niveau de congestion. Lorsque le SS congestionné constate qu'il est repassé en-dessous du seuil, il le notifie aux autres SS qui arrêtent leurs procédures correspondantes. Lorsqu'un SS reçoit l'un de ces messages de notification, il l'interprète afin de savoir quel nœud est congestionné et à quel niveau, il arme un temporisateur, puis il effectue des actions afin d'essayer d'enrayer le phénomène. Ces actions consistent à supprimer certains des paquets qui doivent passer par le nœud congestionné. Si le temporisateur armé lors de la réception du message de notification expire avant que le SS n'ait reçu un nouveau message de notification en provenance du même nœud, il stoppe ses procédures de rejet. Par ailleurs, les plate-formes d'administration peuvent aussi réagir lorsqu'elles détectent une congestion ; elles peuvent par exemple envoyer de leur propre chef des notifications aux SS afin qu'ils activent les procédures de rejet ou de re-routage. 9.6.3.5. Le partage
de
charge
Etant donné la possibilité d'avoir plusieurs liens à travers les interfaces ISSI entre deux SS, SMDS définit un algorithme de partage de charge qui détermine pour un paquet donné quel chemin il doit choisir.
300
Architecture des réseaux haut débit
9.6.3.6. La
gestion
U s'agit de l'ensemble des activités d'un LEC portant sur la gestion du réseau. Cela comprend les fonctions et outils offerts par les plate-formes d'administration, les fonctions des différents éléments de réseau et les fonctions qui permettent de faciliter les communications à travers les interfaces entre plate-formes, entre éléments de réseau ou encore entre plate-forme et élément de réseau.
9.6.4. Le
protocole
ISS1P
L'architecture du protocole ISSIP comprend trois niveaux de fonctionnalités (figure 9.12). 9.6.4.1. Niveau
3 du protocole
ISSIP
Ce niveau offre les services au protocole d'utilisation. Il est composé de trois protocoles : - le protocole L3-DTP (Level 3 Data Transport Protocol) assure l'avancement, le relais et la réception des paquets ainsi que le support de l'adressage de groupe. Il encapsule les paquets reçus avec un en-tête de 40 octets afin de former une L3DTPDU ; - le protocole ISSI-RMP (Inter-Switching System Interface-Routing Management Protocol) tient à jour dans chaque SS la topologie du réseau et calcule les plus courts chemins entre le SS considéré et les autres SS ; - le protocole CMP (Congestion Management Protocol) supporte les procédures de génération, de distribution et de réception des messages ECN (Explicit Congestion Notification) de notification de congestion. Ceux-ci sont utilisés par le L3-DTP pour déterminer si un paquet doit être rejeté suite à une congestion. Il est important de noter que le niveau 3 ne dépend pas du support utilisé. Cela est possible grâce à l'interface mise en place avec le niveau 2 qui est indépendante de la technologie du réseau. 9.6.4.2. Niveau
2 du protocole
ISSIP
Ce niveau est dépendant de la technologie employée dans le réseau fédérateur. Il permet le transport de L3-DTPDU de taille variable et assure des fonctions de détection d'erreurs de transmission, de segmentation et de réassemblage. Le protocole associé à ce niveau est organisé en trois blocs de fonctions auxquels sont associées trois unités de protocoles (PDU) différentes : le bloc des fonctions de convergence construit des CVG-PDU, le bloc des fonctions de segmentation et réassemblage construit des SAR-PDU et enfin, le bloc des fonctions des cellules génère des cellules.
Interconnexion
301
Le déploiement de SMDS est prévu sur des réseaux de type DQDB (IEEE 802.6) ou de type ATM. De toute évidence, la technologie employée dans le réseau conditionne celle choisie pour le niveau 2 de SMDS. 9.6.4.3. Niveau
1 du protocole
ISSIP
Le niveau 1 réalise le transfert physique des données ; il dépend lui aussi du support choisi. Deux spécifications ont été définies. La première repose sur le protocole DS3 et est utilisée lorsque le niveau 2 est conforme au standard IEEE 802.6 (DQDB). La seconde repose sur le standard SONET STS-3C ; elle est mise en place lorsque le niveau 2 utilise ATM.
9.7. Le relais de trames 9.7.1.
Généralités
Le relais de trames (Frame Relay) [ANSI 90] est considéré comme la solution intermédiaire à la demande de hauts débits. En effet, les réseaux X.25 existants ne sont capables que d'offrir des débits de l'ordre du kbit/s et ne peuvent satisfaire les contraintes de délai requises par les nouvelles applications qui émergent. D'autre part, les liaisons spécialisées, bien qu'offrant des débits de l'ordre du Mbit/s, ne sont pas suffisamment flexibles en termes d'offre de débits et se révèlent coûteuses. Si le réseau ATM est la solution à long terme, le relais de trames constitue une solution à court et moyen termes. Le relais de trames consiste en un système de commutation de paquets "dépouillé" dont le débit peut actuellement atteindre 2 Mbit/s ; des débits supérieurs seront prochainement proposés. Le contrôle d'erreur et le contrôle de flux sont reportés au niveau des équipements d'extrémité. Les nœuds intermédiaires n'assurant plus qu'une fonction de relais de trames, leur temps de traversée est cinq à dix fois plus court que celui d'un commutateur X.25. Les données sont transmises à l'aide d'un noyau de base utilisant une enveloppe de trame HDLC, avec détection mais sans signalisation ni correction d'erreur. Différentes sessions peuvent être ouvertes simultanément grâce à l'utilisation de numéros de voies logiques. Le relais de trames permet également la concentration de flux synchrones X.25 ou asynchrones X.28. La voix, compressée dynamiquement jusqu'à 8 kbit/s, est proposée par certains constructeurs mais n'est pas encore normalisée au sein de l'UIT-T.
9.7.2. La trame
Frame
Relay
La trame a le même format (figure 9.13) que celui défini dans le protocole de liaison de données HDLC (High-level Data Link Control) [IS 3309]. Une trame est considérée comme valide lorsqu'elle est délimitée par les drapeaux "01111110" et qu'elle comporte au moins cinq octets, hors drapeaux, soit au moins un octet
302
Architecture des réseaux haut débit
d'information. La longueur d'une trame est variable et au maximum de 2 048 octets. La transparence au drapeau est faite par insertion d'un zéro après toute série de cinq " 1 " consécutifs. 0
1 1 1
1
1
DLCI (MSB) DLCI (LSB)
1
0
C/R EA
FE BE C/R EA CN CN
user data FCS (MSB) FCS(LSB) 0
1 1 1
1
1
1
0
F i g u r e 9 . 1 3 . Format de la trame Frame
Relay
Les différents champs de la trame ont la signification suivante : - DLCI (Data Link Connection Identifier) permet d'identifier la trame ou le circuit virtuel. Le codage est réalisé sur 10 bits, donnant 1 024 valeurs possibles, dont certaines sont réservées ; - le bit C/R (Command/Response) n'est pas utilisé par le protocole ; il est simplement transféré entre les utilisateurs du service de relais de trames et leur permet de distinguer une trame de commande d'une trame de réponse ; - les bits EA (Extended Address) servent à délimiter le champ d'adresse (EA = 0 dans le deuxième octet et EA = 1 dans le troisième) ; une valeur à 0 indique que l'octet suivant fait partie du DLCI, une valeur à 1 indique que l'octet courant est le dernier du DLCI ; - le bit BECN (Backward Explicit Congestion Notification) est positionné à 1 par le réseau pour indiquer à l'émetteur que les trames qu'il pourrait émettre vont traverser un réseau encombré ; - le bit FECN (Forward Explicit Congestion Notification) est mis à 1 par le réseau pour indiquer au récepteur que les trames qu'il reçoit ont traversé un réseau encombré ; - le bit DE (Discard Eligibility) est mis à 1 pour indiquer qu'en cas de congestion cette trame peut être rejetée ; - le champ User Data correspond au champ d'information transmis ; il n'est pas interprété par le protocole de relais de trames (excepté le CV dédié au LMI (Local Management Interface)) ; - le champ FCS (Frame Check Sequence) contient sur deux octets la séquence de contrôle d'erreur calculée sur tous les bits de la trame, hormis les drapeaux et le FCS.
Interconnexion
9.7.3. Principe
de l'adressage
Relais
de
303
trames
Le DLCI identifie localement la connexion bidirectionnelle entre l'équipement client et le commutateur de relais de trames : chaque DLCI n ' a qu'une signification "locale", c'est-à-dire significative uniquement entre deux nœuds. Un même numéro de DLCI peut donc être utilisé plusieurs fois dans un même réseau, pourvu qu'il ne s'agisse pas de communications avec des nœuds communs. La figure 9.14 montre l'exemple de l'interconnexion de quatre sites reliés par un réseau de relais de trames. Les numéros indiqués sont ceux des DLCI utilisés. Le site A utilise le DLCI 27 pour communiquer avec le site B, alors que le site B utilise le DLCI 99 pour communiquer avec le site A. Lorsque A est prêt à émettre une trame à destination de B, l'installation terminale de l'utilisateur positionne le DLCI à 27 dans la trame qu'elle émet vers le réseau. Ce dernier reconnaît cette valeur et achemine donc la trame vers le site B. A son arrivée, la valeur de DLCI est translatée en 99 afin d'indiquer la provenance de la trame. Le DLCI 27 peut être réutilisé entre les sites C et D. site B utilisateur
site A utilisateur
réseau Frame Relay
site C utilisateur
site D utilisateur
F i g u r e 9 . 1 4 . Utilisation
9.7.4. Etablissement
d'une
des
DLCI
connexion
Lorsque l'application A émet une requête d'établissement de connexion, la requête, après avoir traversé les couches présentation et session, arrive à la couche transport qui transmet la demande d'appel sur le canal D, canal de signalisation du RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite), via le protocole de signalisation Q.931 (figure 9.15). Sur ce canal D, le protocole LAP-D réalise au niveau liaison les fonctions de commutation, de multiplexage, de contrôle d'erreur et de contrôle de flux. Le message de signalisation est acheminé à travers le réseau et sert à déterminer le circuit virtuel ainsi que les paramètres d'appel qui seront utilisés durant le transfert de données. Une fois la connexion établie, les données sont transférées à travers le réseau, de l'application A à l'application B, en se servant du DLCI dans l'en-tête et en routant
304
Architecture des réseaux haut débit
les informations à chaque nœud selon le chemin déterminé lors de la phase d'établissement de la communication. Le protocole V . 1 2 0 est une variante du protocole LAP-D qui a pour objectif initial de permettre l'utilisation du canal B du RNIS-BE par des terminaux non-RNIS. Le grand avantage du relais de trames est de pouvoir optimiser les traitements de chaque trame dans les nœuds, accélérant ainsi les transferts d'information. équipement terminal B
équipement terminal A
application A
application A
presentation
presentation
commutateur RNIS
session
session transport |
transport réjeau
reseau liaison
RNIS réseau de signalisation
réseau
liaison LAPïD
L|P-D
V 120
physique
physique
physique transfert de données établissement de connexion
commutateur ae relais de trames
Figure 9.15. Connexion
V.120 relais de trames
relais de trames
relais de tramts
réseau
Frame
Relay
Interconnexion 305
Exercices Exercice 9.1 Comparez l'algorithme Spanning
Tree et l'algorithme Source
Routing.
Exercice 9.2 On considère les réseaux suivants : Ethernet, Token Bus, Token Ring, FDDI et DQDB. 1. Comparez leurs caractéristiques en termes de topologie, de débit, de temps d'accès, de longueurs de trame minimale et maximale et de gestion de priorités. 2. Comparez leurs formats de trame. 3. Déterminez les opérations effectuées par un pont interconnectant deux quelconques de ces réseaux. 4. En considérant chaque couple possible de réseaux, indiquez les opérations spécifiques que doit réaliser le pont. Exercice
9.3
On interconnecte un réseau Token Ring et un réseau Ethernet. 1. Donnez l'architecture dans le cas d'une interconnexion au niveau MAC et dans le cas d'une interconnexion au niveau réseau. 2. Indiquez pour chacun des éléments ci-dessous les traitements éventuels dans le cas d'un pont et dans le cas d'un routeur : a. Longueur de PDU b. Fragmentation et réassemblage d'une PDU c. Temps de réassemblage d'une PDU d. Durée de vie d'une PDU e. Priorité d'une PDU f. Nombre de paquets déséquencés g. Nombre de paquets dupliqués h. Vérification du champ de contrôle de la PDU i. Adresse destination de la PDU j . Adresse source de la PDU Exercice 9.4 Un utilisateur du service de réseau situé sur la machine A souhaite envoyer à un utilisateur du service de réseau situé sur la machine B un volume de données représentant 2 800 octets. Représentez sur un schéma l'enchaînement complet de toutes les primitives de service MAC et LLC utilisées et les échanges de PDU
306
Architecture des réseaux haut débit
nécessaires à l'envoi de ces 2 800 octets. On considérera un en-tête IP de 22 octets, des adresses MAC de 2 octets et que la couche LLC opère en mode connecté.
couches sup.
couches sup.
IP
IP
nnnf
LLC2
interface du pont
LLC2
CSMA/CD
fSMA/CD
Token Rine
Token Ring
physique 1
physique 1
physique 2
physique 2
support physique
support physique
Exercice
9.5
Un réseau métropolitain DQDB à 155 Mbit/s (IEEE 802.6) est utilisé comme réseau fédérateur pour interconnecter deux réseaux locaux utilisant comme méthode d'accès le protocole Token Ring spécifié dans le standard IEEE 802.5 et offrant chacun un débit brut de 4 Mbit/s. Sur chaque Token Ring, 6 stations sont connectées qui génèrent le même trafic. La longueur des données d'une trame Token Ring est de 1 koctet.
générateur de trames
I Token Ring passerelle
1.
Token Ring
DQDB
!
passerelle
Donnez l'architecture de l'interconnexion Token Ring/DQDB.
2. Dans quel type de slots la passerelle doit-elle transmettre les trames Token Ring sur le réseau DQDB ? 3. Quelles sont les principales fonctions réalisées par cet équipement d'interconnexion ? 4. L ' U I F dispose de 4 ko de tampons en tout. Quels problèmes risque-t-il de se produire '? Comment y remédier '?
Interconnexion
Exercice
307
9.6
1. Rappelez la structure de la table de filtrage d'un pont et en quoi consistent les opérations de filtrage et de mise à jour. 2. On souhaite distribuer la fonction de filtrage afin de paralléliser les traitements réalisés par le pont. Pour ce faire, une table de filtrage est utilisée par port du pont. Comment le filtrage opère-t-il ? Quelle structure de table peut-on utiliser ? Exercice
9.7
Comparez les critères de QoS fournis par les ponts et les routeurs en considérant : le temps de transit, la taille de l'information, le taux de pertes, le taux d'erreurs, la durée de vie de l'information, les priorités, la sécurité et la réaction après mise hors service d'une route. Exercice
9.8
On souhaite interconnecter un réseau DQDB avec un réseau large bande utilisant la technique ATM. 1. Sur le réseau DQDB, trois modes sont possibles : isochrone, asynchrone sans connexion, asynchrone avec connexion. Sur le réseau large bande, le mode ATM utilise un mode orienté connexion. Quel est à votre avis le mode DQDB qui conviendrait le mieux pour interconnecter un utilisateur du réseau large bande et un utilisateur du réseau DQDB ? 2.
Sur le réseau large bande, quel type d'AAL serait le mieux adapté ?
3. Pour minimiser les temps de traitements induits par les protocoles, l'interconnexion doit être réalisée au niveau le plus bas. Discutez des problèmes posés par l'interconnexion au niveau s/of/cellule dans chaque sens de transmission, tels que l'adressage, la compatibilité des couches d'adaptation des deux réseaux ainsi que les similitudes et les différences de formats entre les diverses PDU. 4. Définissez une architecture pour leur interconnexion, ainsi que les fonctionnalités à remplir. Exercice
9.9
On souhaite surveiller le comportement du protocole IP. Quelles sont les sondes logicielles nécessaires pour connaître l'état du protocole IP ?
Corrigés
Chapitre 1 Réponse -
1.1
Proposer un modèle général d'architecture de réseau, régler les problèmes de l'interconnexion de systèmes hétérogènes, préciser les concepts et la terminologie du domaine de la téléinformatique, etc (cf. 1.4.).
Réponse
1.2
Les TPDU sont les unités de données du protocole de transport (niveau 4). Les paquets ou NPDU sont les unités de données du protocole de réseau (niveau 3). La couche réseau étant immédiatement inférieure à la couche transport, ce sont les paquets qui encapsulent les TPDU. TPDU
transport reseau
NPCI
NSDU NPDU
Réponse
1.3
Quel que soit le type de paquet considéré (acquittement, appel, libération, données, etc.), il sera encapsulé dans une trame de données. Cela fait référence à l'un des concepts essentiels du modèle OSI : toute (N)PDU envoyée par une entité (N) à
3 1 0 Architecture des réseaux haut débit une entité homologue est soumise au niveau inférieur, ( N - l ) , sous la forme d'une (N-l)SDU (en l'absence de concaténation) qui sera transférée de manière
transparente
par l'entité ( N - l ) sous-jacente lors de la phase de transfert de données au niveau (N-l). Réponse
1.4 mode non connecté mode connecté - possibilité de diffusion - garantie de la présence d e - efficacité en cas de petits l'interlocuteur transferts isolés dans le temps - qualité du temps de réponse en phase de transfert - négociation possible de QoS et d'options lors de l'établissement - fiabilisation possible du transfert de données (contrôle d'erreur, contrôle de flux)
Avantages
- minimisation du volume d'information de contrôle du protocole pendant la phase de transfert Inconvénients
Réponse
- présence obligatoire de l'interlocuteur - mise en œuvre de procédures lourdes pour l'établissement et la libération (à un degré moindre) de connexion - immobilisation de ressources de communication pendant toute la durée de la connexion - communications point à multipoint mal supportées - manque d'efficacité pour de petits transferts isolés dans le temps
- pas d e fiabilité (pertes, erreurs, duplications, déséquencements possibles) - surdébit important (notamment, toute unité de données doit véhiculer l'information d'adressage) - pas de négociation possible
1.5
Couche (N) en mode connecte' et couche
(N-l) en mode non connecte'
Les (N-1 )SDU sont transférées de façon totalement indépendante entre elles et sans aucune garantie de fiabilité. En conséquence, les (N)PDU qu'elles représentent peuvent être altérées, perdues, dupliquées ou déséquencées. Si la couche (N) doit rendre un service fiable, elle devra réaliser elle-même tous les contrôles qui s'imposent (contrôle de flux, contrôle d'erreur — numérotation des (N)PDU, acquittement des (N)PDU, calcul de séquences de contrôle, temporisations, retransmission, etc.) avec la complexité protocolaire qui en découle.
Corrigés 3 1 1 Couche (N) en mode non connecté et couche (N-l) en mode connecté L'envoi d'une (N)PDU nécessite l'existence préalable d'une connexion ( N - l ) . Faut-il alors ouvrir une connexion (N-l), envoyer la (N)PDU et fermer la connexion (N-l) ? Ou faut-il garder la connexion (N-l) ouverte pour d'autres (N)PDUs qui seraient susceptibles d'être ultérieurement émises ? La première solution peut engendrer, en cas de trafic important, un grand nombre d'établissements et de libérations de connexion, avec tous les inconvénients qui y sont liés (délais, coûts). La seconde peut, en cas de faible trafic, immobiliser des ressources de communication (au moins en termes de mémoire) de manière inutile. Une troisième solution consiste à associer à chaque connexion (N-l) ouverte un temporisateur, réarmé à chaque trace d'activité et dont l'arrivée à échéance provoque la fermeture de la connexion. Réponse
1.6
Un mécanisme de contrôle d'erreur est nécessaire dès lors que la couche considérée se doit de rendre un service fiable et que le service qu'elle utilise ne l'est pas forcément. Les couches concernées sont donc les couches liaison de données et transport. Au niveau liaison, il s'agit principalement de reprendre les erreurs de transmission sur une ligne reliant deux équipements donnés. Au niveau transport, il s'agit de reprendre toutes les erreurs, signalées ou non, qui n'ont pas été récupérées par les niveaux inférieurs (erreurs de transmission résiduelles, pertes et déséquencements d'unités de données, etc.) et cela de bout en bout. En théorie, le seul cas de redondance possible est celui où les deux systèmes d'extrémité sont directement reliés par une seule liaison. Réponse
1.7
1. On définit le service en premier. A partir des spécifications du service (par exemple, transfert fiable en mode connecté), on peut déduire les fonctions de la couche (par exemple, contrôle d'erreur), puis les mécanismes (éléments de protocole) qui réalisent ces fonctions (par exemple, numérotation des PDU, PDU d'acquittement, temporisation avant retransmission, etc.). Les règles auxquelles se soumettent ces mécanismes — règles de codage, de structuration et d'échange (par exemple, champ de numérotation codé sur n bits, envoi d'une PDU d'acquittement pour toute PDU de données reçue correctement, etc.) — constituent un protocole. 2. Oui, puisqu'il y a différentes manières possibles de rendre le même service. 3. Oui, à condition de l'avoir prévu dans la structure des PDU qu'il utilise. Tout protocole opérant en mode connecté utilise généralement des PDU pour l'établissement de connexion, des PDU pour la phase de transfert de données et des PDU pour la libération de connexion. Pour que le protocole puisse rendre un service en mode non connecté, une solution possible est de prévoir dans la PDU d'établissement de connexion un champ d'information et un champ indiquant le type de service utilisé (connecté ou non).
3 1 2 Architecture des réseaux haut débit
Réponse
1.8
1. Côté utilisateur appelant (A) interface 6/5
interface 5/4
interface 4/3
S.CONNECT. request
T.CONNECT. request
N_CONNECT request
interface 3/2 ^
L CONNECT. request
-
L CONNECT. confirmation
•
L DATA request N CONNECT. confirmation
L DATA indication
^
N DATA
LDATA
T CONNECT. confirmation
N DATA. indication
request L DATA, indication
T DATA request
N DATA request
T_DATA. indication
N_DATA indication
request
S^CONNECT. confirmation
^ ^
—
>
-
•
L DATA request
-
L^DATA indication
-
2. Côté utilisateur appelé (B) interface 2/3
interface 3/4
interface 4/5
interface 5/6
L.CONNECT. indication L CONNECT. TVsnnrtSf:
—
*-
—
•
L DATA, indication
N CONNECT, indication
L DATA, request
N CONNECT, response
L_DÀTÀ. indication
N DATA, indication
L DATA, request
N DATA. request
L DATA, indication
N DATA. indication
T DATA, indication
" — ^
SJTONNECT. indication
L DATA, request
N DATA. request
TJ3ATA: request
•
S.CONNECT. response
T CONNECT, indication —
T CONNECT response
"
Corrigés
313
Chapitre 2 Réponse topologie étoile
bus
2.1 avantages - conflits d'accès réglés par le central - diffusion - technologie simple et éprouvée - liens point à point adaptés à la fibre optique et simples à maintenir - diffusion - retrait implicite des informations - connexions des stations par des prises - facile à installer - diffusion - pas de taille limite au réseau - liens point à point adaptés à la fibre optique et simples à maintenir
anneau
Réponse accès AMRT
inconvénients - fiabilité du central - limitation du nombre de stations par la puissance du central
- risque de collisions - taille d'un segment limitée à cause de l'atténuation - lien multipoint non adapté à la fibre optique et complexe à maintenir - risque de collisions - retrait des informations - coupure de l'anneau - répéteur complexe et coûteux - gestion des pannes - décalage d'horloge d'un lien en amont à celui en aval
2.2 avantages - simple et efficace si le nombre de stations est fixe - accès équitable - accès régulier - mécanisme de priorités facilement réalisable (en allouant plusieurs tranches à une station prioritaire, par exemple)
inconvénients - efficacité discutable (si une station n'a rien à émettre durant sa tranche de temps, celle-ci reste inutilisée) - synchronisation nécessaire des stations (chaque cycle est démarré par une station primaire qui émet un petit message de synchronisation) - fiabilité de cette station primaire - tout ajout/retrait de station entraîne une modification des cycles
3 1 4 Architecture des réseaux haut débit
accès AMRF
polling
jeton sur anneau
jeton sur bus
aléatoire
avantages idem AMRT sauf : - synchronisation non nécessaire
- flexibilité au niveau du contrôle (une station peut envoyer plusieurs messages avant de rendre la parole) - mécanisme de priorités facilement réalisable (en interrogeant plus fréquemment les stations prioritaires, par exemple) - simplicité des stations secondaires et coût en proportion - pas de contention d'accès - permet de gérer des acquittements - délai d'accès borné - mécanisme de priorités possible - une station peut émettre plusieurs messages avant de rendre le jeton
- retrait implicite des informations - utilise le câblage simple du bus - accès équitable - accès déterministe - mécanisme de priorités possible - simplicité - très bonnes performances sous faible charge
inconvénients idem AMRT sauf : - le découpage en sous-bandes introduit, pour des raisons techniques, des inter-bandes, d'où un gaspillage de la bande passante - chaque station pour recevoir a besoin d'autant de démodulateurs qu'il y a de sous-bandes - fiabilité de la station primaire - complexité du primaire - dans le cas d'une étoile, efficacité réduite du fait que les messages sont propagés deux fois, de la source au primaire, puis du primaire au destinataire - temps d'accès importants lorsque toutes les stations sont actives
- station de contrôle indispensable - complexité et surcoût associés au traitement et à la surveillance du jeton - temporisateur pour éviter qu'une station ne monopolise le jeton - retrait des informations - tout ajout/retrait de station nécessite une modification de la séquence logique des stations - complexité de la gestion de l'anneau virtuel - collisions - très mauvaises performances sous forte charge - accès non équitable - temps d'accès non borné - nécessite la mise en place d'une reprise après contention - pas de priorités possibles
Corrigés
Réponse
315
2.3
Il s agit principalement des paramètres suivants : -
nombre de stations sur l'anneau, vitesse de propagation, longueur de l'anneau et distances inter-stations, temps de gestion du jeton dans les stations, temps de traitement en émission, temps de traitement en réception, temps de latence des stations, longueur du jeton, longueur des trames, débit de l'anneau, etc.
Réponse
2.4
1. Il n'y a pas de structuration en trames donc il n'y a pas lieu de calculer T et T. Le temps Tp n'est comptabilisé qu'une seule fois. e
Du = 63,999 kbit/s 2. T = temps émission de la trame et de son acquittement + 2 * temps de propagation
T , = temps de transfert total du fichier = nombre de trames d'information envoyées * T w
Dy = débit utile = nombre de bits utiles transférés pendant T
Nous donnons ci-après quelques courbes pour le réseau sur bus qui montrent l'évolution du débit utile et du temps total de transfert d'une trame en fonction soit de la distance soit de la taille de la trame.
Architecture des réseaux haut débit
DU : débit utile (kbit/s)
316
C = 5 Mbit/s
d : distance (km) du temps de transfert
T pour une capacité
du réseau de 5
T : temps total de transfert d'une trame (ms)
Courbe
Mbit/s
C = 50 Mbit/s
d : distance (km) Courbes
du temps de transfert T pour les valeurs de du réseau de 1, 5, 10 et 50 Mbit/s
capacité
DU : débit utile (kbit/s)
Corrigés
d : distance (km) du réseau de 5
DU : débit utile (kbit/s)
Courbe du débit utile DJJ pour une capacité
d : distance (km) Courbes
du débit utile Dy pour les valeurs de du réseau de 1, 5, 10 et 50
Mbit/s
capacité
Mbit/s
317
Architecture des réseaux haut débit
DU : débit utile (kbit/s)
318
L : longeur de la trame en bits Courbes
du débit utile Dy en fonction
pour les valeurs
de capacité
de la longueur
de la
du réseau de 1, 5, 10 et 50
trame Mbit/s
319
DU : débit utile (kbit/s)
Corrigés
L : nombre de bits dans la trame Courbes
du temps de transfert
d'une
trame Ten fonction
de la trame pour les valeurs de capacité
de la
du réseau de I, 5, et 10
longueur Mbit/s
3. L'acquittement se fait par positionnement au vol par le récepteur de bits sur la trame : la trame est donc considérée comme acquittée lorsqu'elle retourne à l'émetteur. Le temps de propagation est pris égal à celui d'un tour de l'anneau. T = temps émission de la trame + temps de propagation + N * \ temps bit Le temps total et le débit utile se calculent de la même manière qu'en 2 .
320
Architecture des réseaux haut débit
Chapitre 3 Réponse
3.1
C S M A / C D spécifie que la station doit être à l'écoute pendant sa propre transmission. Une station doit donc transmettre au moins pendant toute la fenêtre de collision. Si ti est le temps de transmission d'une trame de longueur L et T la fenêtre de collision, on doit avoir :
6
A.N. : T = 50.10" s et L = 500 bits comme la longueur de la trame doit être un nombre entier d'octets, on arrondit L à 512 bits (64 octets), soit un slot-time de 51,2.10" s, ce qui correspond aux paramètres d'un Ethernet classique. 6
Réponse
3.2
Soit : - D la distance maximale entre deux stations, - V la vitesse de propagation sur le support ( V = 100 000 km/s), - 7 1 a fenêtre de collision. On a : Sachant que la longueur minimale d'une trame est de 512 bits, la fenêtre de collision T est de 512 temps-bit. Le débit étant de 100 Mbit/s : 1 temps-bit = 10" s et T = 5,12 us. 8
D'où Sur le chemin de données entre 2 stations, il y a 2 segments et un hub, la longueur maximale d'un segment est donc de 125 m. La spécification la limite à seulement 100 m à cause de l'atténuation du signal. Réponse
3.3
1. Le chronogramme est : 0
î
2
3
4
5
6
7
8
9
10
il
12 13
14 15
A A A A A A X B B B B B B X
X
16
17 18 19 20 21 22 23 24 25
26 27 28
D D D D D D C C C C C C
à t = 5 : B,C et D écoutent à t = 6 : B, C et D émettent et entrent en collision pendant un slot maxbackoff = 2, l'algorithme fait attendre 0 slot pour B, 1 slot pour C etD à t = 7 : B émet à t = 8 : B et D écoutent
Corrigés
321
à t = 13 : C et D émettent et entrent en collision maxbackoff = 4, l'algorithme fait attendre 1 slot à C et D à t = 15 : C et D émettent et entrent en collision maxbackoff = 8, l'algorithme fait attendre 1 slot à D et 4 slots à D à t = 17 : D émet à t = 17 : C écoute à t = 23 : C émet essais
tirage
attempts
maxbackofl
delay
B
1
1/4
1
2
0
C
1
1/2
1
2
1
D
1
3/4
1
2
1
C
2
1/4
2
4
1
D
2
1/4
2
4
1
C
3
1/2
3
8
4
3
1/8
3
8
1
stations
D
2. Le taux d'utilisation du canal est de 24/29 soit de 82 %. Réponse
3.4
1. A n'a subi qu'une collision donc M
A
= 0 ou 1
B a subi 2 collisions successives donc A/g = 0 , 1 , 2 ou 3 Soit p la probabilité d'une nouvelle collision : p = Proba [ M p=\/2.
A
= 0] . Proba [A/g = 0] + Proba [ M
A
= 1 ] . Proba [A/g = 1 ]
1/4 + 1/2 . 1/4 = 1/4 = 0,25
2. Le nombre de collisions subies par la station permet de déterminer la taille de l'intervalle de tirage. Le temps moyen d'attente avant retransmission pour un essai donné est égal au milieu de l'intervalle de tirage. Le temps moyen cumulé pour n tentatives est donc la somme de chaque temps moyen pour n variant de 1 à 16. Soit T la durée du slot-time. - la station n'a pas subi de collision : DQ = 0 - la station a subi n collisions au total, 0 < n < 10, avant de réussir sa transmission : - délai d'attente nul avant la première transmission - l
r e
collision : M = 0 ou 1 ; D , = (0+1 )/2 * T
e
- 2 collision : M = 0, 1 , 2 ou 3 ; D
2
= (0+l+2+3)/4 * T = 3/2 * T
- nième collision et nième retransmission (qui réussit) :
322
Architecture des réseaux haut débit
- l a station a subi n collisions au total, 10 < n < 15, avant de réussir sa transmission : - pour les 10 premières collisions, on a attendu e
I0
D
/0
e
- 1 I collision : on attend ( 2 - 1 ) 7 7 2 avant la 1 1 retransmission - idem pour n = 12, 13, 14 et 15 - donc :
Réponse
3.5
Soit T le temps de propagation : T = 100 / 100 000 s = 1 ms p
p
Soit T la durée du slot-time
: T = 2 T = 2 ms p
Soit L la longueur minimale de trame et D le débit du support (D = 100 Mbit/s) : on a l'équation LID = 2 T . D'où : L = 200 Mbit p
Les différentes valeurs des paramètres montrent bien qu'Ethernet n'est pas adapté pour ces distances : - le temps de propagation est très important, augmentant ainsi les risques de collision entre deux stations éloignées ; - le slot-time est très long comparativement au temps d'émission d'une trame de longueur moyenne, la détection des collisions est donc tardive ; - la longueur minimale d'une trame est de 200 Mbit, ce qui est énorme ; lorsque la trame n'est pas pleine, il faut la compléter avec des octets de bourrage ; une trame longue a plus de risques de subir des erreurs de transmission ; - le slot-time est l'unité de temps du protocole et sert pour la reprise après collision, le temps de reprise serait donc très long. En conclusion, le protocole ne serait pas performant du point de vue de la détection des collisions et de leur reprise et par conséquent, le canal serait mal utilisé. Réponse
3.6
Il est possible de transférer des images numérisées fixes sur Ethernet. Il est possible de transférer des images animées sur le réseau Ethernet si elles sont codées grâce à MPEG 1 ou MPEG2 (Moving Picture Expert Group) (débits de 1,5 et 5 Mbit/s). Par contre, l'affichage en temps réel ne pourra se faire que dans la mesure où l'on mémorise une grande quantité de données en réception pour masquer les méfaits de F indéterminisme et de l'asynchronisme de CSMA/CD.
*
Corrigés
323
Chapitre 4 Réponse
4.1
1. Le chronogramme est le suivant : 0 J
1
2
3
4
5
6
Bl Bl B I B I J
J
7 J
8
9
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
Dl D D Dl J Al Al A l A t J B2 B2 B2 B2 J CI CI CI CI J
J
29 30 31 32 33 34 J
C2 C2 C2 C2
J
= 0 : la station D relâche le jeton et B veut transmettre 2 trames = 2 : la station B se saisit du jeton et transmet sa première trame B l = 4 : la station A veut transmettre une trame = 6 : la station B relâche le jeton = 8 : la station D veut transmettre une trame et se saisit du jeton, elle transmet sa trame D1 : à t = 12 la station D relâche le jeton à t = 13 : la station A prend le jeton et transmet sa trame A1 à t = 17 : la station A relâche le jeton à t = 18 : la station B se saisit du jeton et transmet sa deuxième trame B2 à t = 22 : la station B relâche le jeton à t = 23 : la station C veut transmettre deux trames et se saisit du jeton, elle transmet sa première trame C1 : la station C relâche le jeton 27 àt= : la station C se saisit à nouveau du jeton et transmet sa deuxième à t = 31 trame C2
à à à à à
t t t t t
2. Le temps mis pour l'exécution du scénario est de 35 ms. 3. Le temps d'accès moyen au support est calculé grâce au tableau récapitulatif des temps d'accès : date envoi effectif
trame
date requête d'envoi de trame
Bl
0
2
2
B2
0
18
18
Al
4
13
9
Dl
8
8
0
Cl
23
23
0
C2
23
31
8
temps d'accès
Le temps d'accès moyen est égal à la somme des temps d'accès que divise le nombre de trames du scénario, soit 37/6 = 6,33 ms.
324
Architecture des réseaux haut débit
Réponse
4.2
1. Le début du diagramme des temps est le suivant : liaison A-B
liaison B-C
liaison C-D
liaison D-A
à t = 0 : la station A transmet sa trame A l avec (P = l, R = 1) à t = 1 : la station B réserve une nouvelle priorité (R = 2) et sauvegarde l'ancienne (sg = 1) à t = 2 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde l'ancienne (se = 2) à t = 3 : la station D a reçu la trame A1 à t = 4 : A retransmet un jeton de priorités (P = 3, R = 3) à t = 5 : la station B ne peut se saisir du jeton, pg < P à à à à
t t t t
= = = =
6 : la station C prend le jeton et transmet sa trame Cl avec (P = 3, R = 2) 7 : la station D a reçu la trame Cl 10 : la station C retransmet le jeton avec (P = 2, R = 2) 12 : la station A ne peut se saisir du jeton, p
à t = 13 : la station B prend le jeton et émet une trame avec (P = 2, R = 1) à t = 14 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde l'ancienne (sc= 1) à t = 15 : la station D a reçu la trame Bl à t = 17 : la station B retransmet le jeton avec (P = 3, R = 3) à t = 18 : la station C prend le jeton et transmet sa trame C2 avec (P = 3, R = 1) à t = 19 : la station D a reçu la trame C2 à t = 21 :1a station B réserve une nouvelle priorité (R = 2) et sauvegarde l'ancienne (sg = 1) à t = 22 : la station C retransmet le jeton avec (P = 2, R = 2) à t = 24 : la station A ne peut se saisir du jeton, p
à t = 25 : la station B prend le jeton et transmet sa trame B2 avec (P = 2, R = 1)
Corrigés
325
à t = 26 : la station C réserve une nouvelle priorité (R = 3) et sauvegarde 1" ancienne (sc= 1) à t = 27 : la station D a reçu la trame B2 etc. On constate que la station A ne peut accéder au jeton car les stations B et C augmentent la priorité sitôt que l'autre l'a restituée. L'ordre de réception des trames par D est donc : A l , C l , B l , C2, B2, C3, B3, A2, A3. 2. La durée totale associée au scénario se décompose ainsi : -
date de fin de transmission de B2 = 29 jeton de B à C et transmission de C3 = 1 + 4 = 5 jeton de C à B et transmission de B3 = 3 + 4 = 7 jeton de B à A et transmission de A2 = 3 + 4 = 7 jeton de A à A et transmission de A3 = 4 + 4 = 8
On obtient donc 56 ms. Réponse
4.3
En fonctionnement normal, l'accès pour Token Bus se fait de façon déterministe. Sous forte charge, il sera toujours possible d'émettre de manière certaine le trafic prioritaire. Néanmoins, les trafics moins prioritaires connaîtront un temps d'attente plus long. Les performances en cas de faible charge sont moins bonnes que celles de CSMA/CD. En effet, une station active doit attendre l'arrivée du jeton pour pouvoir utiliser le canal. Donc, même s'il n'y a qu'une station active, celle-ci doit attendre que les autres stations lui passent le jeton, le délai minimal d'accès est donc non nul pour Token Bus, contrairement au protocole CSMA/CD. Ce délai n'est pas négligeable ; il dépend de la taille du réseau, car sa valeur moyenne correspond au temps de passage du jeton parmi la moitié des stations connectées. Plus le réseau est étendu, plus ce délai est grand. De plus, comme le jeton est adressé sous la forme d'une trame, le temps de passage du jeton entre deux stations voisines est non négligeable. Ses avantages par rapport à CSMA/CD résident d'une part, dans son bon comportement à charge élevée et d'autre part, dans son caractère temps-réel (délai d'accès borné) d'autre part.
326
Architecture des réseaux haut débit
Réponse
4.4
1. L'anneau logique est représenté sur le schéma suivant : station 2 PS = 7 NS = 5
station 5 PS = 2 NS = 6
station 7 PS = 6 NS = 2
station 6 PS = 5 NS = 7 y
station 4 PS = ... NS = ... —: 7
2. Il faut remarquer qu'entre deux transmissions de trame il y a une transmission du jeton qui dure un slot-time pour passer le jeton du détenteur à son successeur. Le diagramme est le suivant :
J signifie transmission du jeton 7-2 signifie de la station 7 à la station 2 T5 signifie transmission d'une trame de données par la station 5 3. La station 4 pourra entrer sur l'anneau lorsque la station 2 lancera une procédure de réveil car l'adresse 4 est comprise entre les adresses 2 et 5. Réponse
4.5
Lorsque le jeton arrive, le reliquat est de 504 us, ce qui signifie que le jeton est revenu au bout de 1,496 ms et que les reliquats de TTRT4, TTRT2 et TTRTO sont respectivement de 304, 104 et 0 us. On ne peut donc pas envoyer de données de niveau 0 car TTRTO a déjà expiré. 7
L'envoi des 50 octets de niveau 6 prend un temps égal à T6 = 50.8.10" = 40 |is (un temps-bit = 10" ). L'envoi des 20 octets de niveau 4 prendra T4 = 20.8.10" = 16 (as. Il sera donc possible d'envoyer des données de niveau 2 pendant le temps T2 = TTRT2 - T6 - T4, soit T2 = 104 - 40 -16 = 48 us. Pendant ce temps 72, il est possible d'envoyer 480 bits de niveau 2, soit 60 octets. 7
7
Corrigés
Réponse
327
4.6
La procédure d'initialisation de l'anneau est activée dans les quatre stations, chacune d'elles essayant de s'attribuer le jeton. A l'issue de cette procédure, l'anneau logique ne comporte qu'une seule station, celle qui a gagné le jeton. Les trois autres stations s'insèrent dans l'anneau au fur et à mesure du déroulement de la procédure de réveil et d'ajout de stations. Chaque station candidate envoie une trame Claim Token, dont le champ d'information a une longueur multiple du slot-time. Le multiple est 0, 2, 4 ou 6, en fonction d'une paire de bits de l'adresse de la station : d'abord, les deux bits de poids fort, puis les deux bits suivants, etc. -
00 01 10 11
: la : la : la : la
longueur longueur longueur longueur
du du du du
champ champ champ champ
est est est est
de de de de
0 2 4 6
slot-time slots-time slots-time slots-time
Si une station candidate détecte une transmission pendant les slots-time où elle attend, elle se retire de la compétition. Si une station candidate n'entend rien sur le bus et qu'elle a utilisé toutes les paires de bits de son adresse, elle en déduit qu'elle est la station initialisatrice et elle crée un jeton. Il s'agit ici de la station 9 (station de plus grande adresse). C'est elle donc qui va lancer la procédure de réveil. Elle envoie une trame solicit_successor, à laquelle répondent les stations 4, 2 et 1 par une trame set_successor pendant le premier slot-time. La station 9 entame alors la procédure d'arbitrage par l'envoi d'une trame resolve contention. L'arbitrage est fait sur la base des paires de bits de l'adresse des stations en compétition. C'est la station 4 qui sera insérée dans l'anneau. Quand la station 4 lancera la procédure de réveil, elle fera entrer la station 2. Quand la station 2 lancera la procédure de réveil, elle fera entrer la station 1. L'ordre est donc 9, 4, 2, puis 1.
328
Architecture des réseaux haut débit
Chapitre 5 Réponse
5.1
critère
FDDI
Token Ring (4 et 16 Mbit/s)
débit
100 Mbit/s
4 et 16 Mbit/s
codage du
4B/5B NRZI
Manchester différentiel
4 470
4 470 (4 Mbit/s), 18 000 (16)
format de trame
SD, FC, DA, SA, INFO, FCS, ED, FS
SD, AC, FC, DA, SA, INFO, FCS, ED, FS
niveaux de priorités
synchrone et 8 niveaux de priorités pour le trafic asynchrone d'une même station
8 niveaux de priorités entre stations
relâche du jeton
après transmission de la ou des trames
après réception de la trame transmise (4 Mbit/s) / après la transmission (16)
signal taille max. de trame
topologie
double anneau
simple anneau
distance max.
2 km
300 m
couverture max.
200 km
quelques km
Réponse
5.2
Ces indicateurs, situés en fin de trame (champ Frame Status), précisent l'état de la trame : erreur détectée (E), adresse reconnue (A), trame recopiée (C). D'autres indicateurs peuvent être implémentés de manière optionnelle. Les trois indicateurs sont initialises avec le symbole Reset. La première station qui détecte une erreur rendant la trame invalide (erreur dans le FCS, champ de contrôle FC invalide, longueur de trame invalide) positionne l'indicateur E de la trame correspondante à Set et avertit la couche MAC. Une fois que l'indicateur E a été positionné, les autres stations le transmettent tel quel et n'avertissent pas la couche MAC. A est positionné par une station qui reconnaît l'adresse destination de la trame comme étant la sienne. Les autres stations transmettent A tel qu'elles l'ont reçu. C est positionné par une station qui reconnaît l'adresse destination de la trame comme étant sa propre adresse et qui la copie de ce fait dans son tampon de réception. Les autres stations transmettent C tel qu'elles l'ont reçu. Ces indicateurs ont un double rôle : - ils fournissent à la couche LLC de la station émettrice un compte rendu sur la façon dont se sont déroulées la transmission et la réception de la trame. Cependant, la signification de cet accusé de réception doit être modulée. Tout d'abord, une erreur peut survenir lors du transfert de la trame de la couche MAC à la couche LLC au
Corrigés
329
niveau de la station réceptrice. On n'est donc pas assuré que l'information contenue dans la trame a été effectivement reçue par les couches hautes du destinataire, même si les indicateurs A et C ont été positionnés. Ensuite, si l'adresse destination est une adresse de groupe, le positionnement des indicateurs A et C indique seulement que l'une des stations de ce groupe a reçu et copié la trame ; - ils permettent de détecter et de localiser des erreurs. Si une station de l'anneau reconnaît l'adresse destination d'une trame comme étant son adresse et que A a déjà été positionné (sans qu'il s'agisse d'une adresse de groupe), c'est qu'il y a un problème de duplication d'adresse. De même, si une trame arrive avec A positionné sans que C le soit, c'est qu'il y a un engorgement du tampon de réception de la station destinataire. Réponse
5.3
Le codage Manchester impose une transition du signal pour chaque bit transmis, ce qui implique l'utilisation d'une horloge à 200 MHz pour transmettre à un débit de 100 Mbit/s. Le codage 4B/5B n'assure qu'une transition du signal par symbole de 5 bits ; une horloge à 125 MHz (100 * 5/4) suffit alors pour assurer un débit de 100 Mbit/s. Ce codage est donc plus efficace. Réponse
5.4
(1)... = TRT (2)... = 0 (3)... = 0 (4)... = LATE_CT + 1 (5)... = TTRT Réponse
5.5
Les types d'erreurs pouvant entraîner la duplication du jeton sont : - erreur sur une trame due à un bruit sur le support qui crée un nouveau jeton (probabilité très faible) ; - une adresse identique pour deux stations distinctes ; ces dernières peuvent gagner le droit d'émettre un jeton (à la suite d'un Claim). Ce type de situation — duplication d'adresse — est détecté et résolu par SMT ; - génération d'un nouveau jeton par un MAC en dysfonctionnement.
330
Architecture des réseaux haut débit
R é p o n s e 5.6 Considérons l'exemple suivant : soit un réseau FDDI avec 10 stations actives et un TTRT fixé à 1 ms. Si le jeton revient au bout de 700 us, THT est réinitialisé avec l ms. Si une station utilise effectivement 300 |is pour émettre des données asynchrones et 50 u.s pour émettre des données synchrones, TRT marque 650 us lorsque le jeton est relâché. Si toutes les stations font de même, le temps total de rotation du jeton peut alors atteindre 2 * TTRT. Dans ce cas, on ne pourra plus émettre de données synchrones avant un certain nombre de rotations du jeton. La classe de service synchrone offre donc un service à temps d'accès borné par 2 * TTRT, mais pas un service isochrone, caractérisé par des accès à des intervalles de temps réguliers. R é p o n s e 5.7 2
1. Le débit brut étant de 100 Mbit/s, un temps-bit est de 10" ms. Soit T le temps de transmission des données synchrones et TRTj le temps de transmission des données asynchrones de priorité i ; on a : sxnc
THT = 50 us = T - TRT
s y n c
+ TRT
4
+ TRT2 + TRT
0
= 0
0
- par connexion synchrone : une trame de 53 octets (25 de données et 28 de surdébit)
- trafic asynchrone de priorité 4 : une trame de 41 octets (13 + 28)
- trafic asynchrone de priorité 2 : TRT
2
= THT - T
s y n c
- TRT4 - TRT
0
= 4,32 us
2. TRTj = 4,32 us correspond au temps de transmission d'une trame de 432 bits (54 octets), soit 26 octets de données envoyés à chaque passage du jeton. 3. 26 octets sont envoyés toutes les TRT ms. Il faut donc pour transférer l'image de 1 Mo :
4. 40 stations (puisque TRT = N * THT, où /V est le nombre de stations actives).
Corrigés 331
Réponse
5.8
Soit : - 8j A
l'instant auquel la station A reçoit le jeton la première fois,
- 9 J l'instant auquel la station A reçoit le jeton la deuxième fois, A
- 9 j l'instant auquel la station B reçoit le jeton la première fois, B
- 9 ,2 l'instant auquel la station B reçoit le jeton la deuxième fois, B
- tj
le temps de transmission d'une trame par A la première fois,
- tj
le temps de transmission d'une trame par A la deuxième fois,
A
A
- t / le temps de transmission d'une trame par B la première fois, B
- tg 2 le temps de transmission d'une trame par B la deuxième fois. On a : OBJ
= 0 ,i+t
6B,2
= 6A,2 +
A
+ t
A J
p
t .2 + p l
A
Il faut montrer que si d
AJ
- 0
AJ
< TTRT+
THT, alors 0 ,2 - % / ^ B
TTRT*
THT On considère deux cas : Cas 1 : TTRT < 6
A t 2
- dj A
< TTRT+
THT
Le jeton est en retard ; aussi, en l'absence de trafic synchrone à émettre, la station A n'a pas le droit de transmettre et forcément t = 0. Par conséquent : A%2
d
&B.2 - ÛB.l = A.2 - OA.1 +
Or, 0 j
-0 ,i<
A
Cas 2 : 0
A
A t 2
TTRT+
THT et t
AJ
+
t
l
p' P
=
d
G
AJ " A,1 " '/t,/
> 0. Donc : 0
Bt2
~ @B,l
— 7Tflr+ 77/r
- 0 , / < 777? r A
Le jeton est en avance ; la station A est autorisée à transmettre de l'information asynchrone jusqu'à ce que le temporisateur THT expire (TTRT atteint). En conséquence : (OA.2
l
+ A,2) - (OAJ -
&B.2 -0 J< B
TTRT+
THT
Une station reçoit donc le jeton à l'heure si la durée entre deux passages du jeton est inférieure à TTRT+ THT. Nous avons montré que si une station reçoit le jeton à l'heure, alors la station suivante sur l'anneau le reçoit également à l'heure.
3 3 2
A r c h i t e c t u r e d e s r é s e a u x h a u t d é b i t
Réponse 5 . 9 TTRT est le temps de rotation du jeton. Chaque nœud engendre un délai d et doit retransmettre le jeton. Soit Tj „ le temps de transmission du jeton et A/ le nombre de stations. Le temps utile est : TTRT - N * (d + Tj ) - t . L'efficacité E s'écrit alors : eM
eton
p
A.N. : E = 92,6 %
Réponse 5 . 1 0 1. Pour garantir ce temps de cycle et qu'un niveau plus prioritaire dispose de davantage de bande passante qu'un niveau moins prioritaire, il faut que : TTRT
> TTRT
2
> TTRTj
>
TTRT
4
2. On suppose que les trames de données sont épuisées avant le temps de possession du jeton. Algorithme date d'arrivée du jeton
T
R
T!
date de remise du jeton I
.SA lonnées i niveau données de niveau 3
I temps d'émission des I trames de niveau /
données de niveau 4
T H T -
On aurait également pu supposer que les données de niveau 2 épuisait le THT. Algorithme
2 date d'arrivé du j e t o n
late de remise données f d e niveau ]
T R T
du jeton I
T T R T 2 T T R T 3 T T R T 4 temps d'émission des trames de niveau i
On constate que. si un niveau épuise son TTRTj, pourra pas transmettre.
alors le niveau inférieur ne
Corrigés
333
3. On remarque tout d'abord que l'algorithme 2 traite plutôt du partage de la bande passante que de priorités. Dans l'algorithme 1, on connaît toujours le temps alloué aux données de priorité 1 — il est constant —, alors que dans l'algorithme 2, il est fonction des requêtes en provenance du niveau LLC. Pour les deUk algorithmes, la somme des temps alloués aux données de priorité 1 est inférieure à TTRT mais : dans l'algorithme 2. on n'est pas sûr de pouvoir transmettre des données de priorité plus faible, alors que pour l'algorithme 1, on peut dimensionner SA afin qu'il reste toujours de la bande passante. Les deux algorithmes sont équivalents à deux conditions : - SA = TTRT - TTRT = TTRT2 = TTRT
3
=
TTRT
4
334
Architecture des réseaux haut débit
Chapitre 6 Réponse
6.1
1. Nous avons pris les hypothèses suivantes : - une station ne peut pas faire de requête dans le même temps qu'elle émet ; le slot sur B est déjà passé. - la station commence par incrémenter son compteur avant de le décrémenter. Remarquez qu'une station en amont fait toujours sa requête avant celle qui la suit !
temps
bus A bus B émission requêtes
0
X
I
X
2
A RQ
B CD
RQ
D CD
RQ
CD
RQ
CD 0
commentaires
0
0
0
0
D
1
1
1
0
0
requête de D
X
C
2
2
0
1
0
0
requête de C
3
X
B
3
0
2
0
1
0
0
4
Dl
—
2
0
1
0
0
0
5
X
E
3
1
1
1
0
1
6
Cl
D
3
2
0
2
0
0
7
Bl
C
3
3
0
2
0
1
req (C), slot (B)
8
El
B
3
0
3
0
1
0
0
req (B), slot (E)
9
D2
E
3
1
2
1
0
1
0
req (E), slot (D)
10
X
A
0
3
1
1
1
0
1
0
requête de A
0
2
0
0
req (D). slot (C)
requête de B slot vide pour D requête de E
1
req (D), slot (C)
11
C2
D
1
2
2
12
B2
—
1
1
2
2
0
slot vide pour B
13
E2
—
1
0
1
1 2
0
slot vide pour E
1
req (E), slot (A)
14
Al
E
2
15
X
A
0
2
2 2
16
D3
—
0
1
2
slot vide pour D
0
2 2
slot vide pour A
17
E3
—
0
18
A2
—
0
19
—
A
0
0
20
A3
0
0
2
requête de A slot vide pour E requête de A slot vide pour A
2. Le débit utile d'une station est défini comme étant le nombre de bits utiles transmis par seconde, c'est-à-dire le rapport du nombre de slots transmis sur le délai total subi par la station. Il est fonction de D, le débit nominal du réseau.
Corrigés
station
temps total
nombre de slots
335
débit utile
A
20 - 9 = 11
3
3/11 =0,3 D
B
1 3 - 2 = 11
2
2/11 =0,18
C
1 2 - 2 = 10
2
2/10 = 0,2 D
D
1 7 - 1 = 16
3
3/16 = 0,18 D
E
1 8 - 5 = 13
3
3/13 = 0,23 D
D
Le débit de A n'est pas très représentatif. E obtient le meilleur débit car il s'agit de la station la plus en amont sur le bus B et donc la plus favorisée pour l'utilisation des bits de requête. Les autres stations obtiennent des débits comparables. Réponse
6.2
Dans le cas de DQDB, la longueur du réseau n'influe pas sur le débit maximum. Pour FDDI, avec une longueur de trame donnée, le débit maximum décroît en fonction de la distance. Réponse
6.3
Le délai d'accès des stations à DQDB dépend de leur position sur le bus. En revanche, ce délai est indépendant de la distance.
336
Architecture des réseaux haut débit
Chapitre 7 Réponse
7.1
application transactionnelle
LLC1
l'utilisation du service est contrôlée par l'application et un échange de type question/réponse ne nécessite pas l'ouverture d'une connexion
messagerie X.400
LLC1
l'utilisation du service est contrôlée par l'application
télécopie
LLC1
la reprise sur erreur n'est pas primordiale
transfert de fichiers
LLC2
c'est un échange de longue durée : le mode connecté assure la transmission des trames en séquence et sans perte
contrôle de processus
LLC3
c'est l'application cible de LLC3 : fiabilité et temps réel
Réponse
7.2
type LLC
diffusion d'une trame
avantages
inconvénients
LLC1
- une seule trame est émise avec comme destination une adresse de diffusion - toutes les stations qui reçoivent cette trame la copient
simple, facile à mettre en œuvre
- aucune garantie sur la réception effective par tous les destinataires - reprise sur erreur impossible (aucun retour d'information de contrôle)
LLC2
- il faut ouvrir une connexion point à point avec chacun des n destinataires
fiable
- gestion simultanée de n connexions - mauvaise utilisation de la bande passante (les mêmes données sont dupliquées n fois) - reprise sur erreur connexion par connexion
relativement simple, fiable
- mauvaise utilisation de la bande passante (duplication de la trame)
- sur chaque connexion, l'émetteur envoie une trame de même contenu et attend l'acquittement
LLC3
- une trame de même contenu est envoyée à chacun des n destinataires - chaque destinataire reçoit une trame qui lui est adressée individuellement
- reprise sur erreur faite destinataire par destinataire
Corrigés Réponse
337
7.3
La couche réseau utilise une primitive de requête L_CONNECTION_ FLOWCONTROL pour indiquer à la couche LLC la quantité de données qu'elle est prête à recevoir. De même, la sous-couche LLC utilisera l'indication pour signifier à la couche réseau combien de données elle peut accepter sans risque d'en perdre. Si le paramètre valeur est nul, le flot de données associé à la connexion est suspendu. C'est un contrôle de flux local, à l'interface réseau/LLC, qui porte sur l'interaction entre l'utilisateur de LLC et l'entité LLC. C'est la raison pour laquelle il ne donne pas lieu à un transfert de PDU avec l'entité distante. Il est à distinguer du contrôle de flux du protocole qui s'exerce entre les deux entités LLC homologues au moyen des PDU de supervision RNR et RR. Réponse
7.4
Lorsqu'un utilisateur de LLC3 demande un transfert de données avec remise garantie (via la primitive DL_DATA_ACK.request), l'entité LLC3 sous-jacente envoie une trame AC (ACO par exemple) encapsulant ces données à son homologue, arme un temporisateur de retransmission et attend un acquittement (AC1). Si une erreur de transmission vient altérer la trame MAC encapsulant la trame ACO ou la trame AC1, son contenu n'est pas délivré et la reprise se fera par retransmission de la trame ACO par l'entité LLC3 source et ce, jusqu'à réception correcte de la trame A C 1 . L ' e n t i t é L L C 3 s o u r c e p o u r r a a l o r s g é n é r e r une p r i m i t i v e DL_DATA_ACK_STATUS.indication avec un paramètre status indiquant le succès de l'opération à son utilisateur. On voit ainsi que l'entité LLC3 source peut se passer de la primitive MA_DATA.confirmation. Cependant, on peut noter qu'en cas d'erreur (bit E positionné au vol dans la trame MAC), la notification de l'erreur par la primitive M A _ D A T A . confirmation (paramètre état_de^transmission mis à la valeur FR_WITH_ERROR) peut permettre d'anticiper la reprise sur erreur en provoquant la retransmission de la trame ACO par l'entité LLC3 dès réception de la primitive, au lieu d'attendre l'échéance du temporisateur, ceci relevant d'un choix d'implantation. Remarquons enfin qu'on aurait eu la même chose avec LLC2 puisqu'il met également en œuvre son propre contrôle d'erreur.
338
Architecture des réseaux haut débit
Réponse
7.5
inte rface LLC UA
inte rface MAC:
inter face LLC (B)
inte rface MA 0(B)
entité LLC (A)
UB
entité LLC (B)
entités MAC
DL_REPLY_UPDA TE.req (..., données) données prêtes
DL_REPLY_UPD/ kTE.ind
—
DL_ REPLY.req ... requ est_wîth_response )
^construction
ACO
M A _ D / TA.req (. ., request_\ ith response)
—fc-
transmission
MAC-PDU
MA D. VTA.ind
(. ., r e q u e s M /iuVresponse)
réception
ACO DLJRE 'LY.ind encapsulation des données M A _ D A 1 A.req (.. , données, esponse)
MA_DAT A.conf transmission
MAC-PDU MA_DA" TA.conf MA_DA TA.ind . . . . données ,response)
réception
AC1 DL_R EPLY _STATUS ., données response, ...)
acquittement
ACO
•
— •
AC1
Corrigés 3 3 9
Réponse
7.6
On suppose que les trames d'information sont acquittées collectivement par une seule et même trame d'acquittement. interface LLC (A) UA
interface MAC (A)
interface MAC (B) entités MAC
entité LLC (A)
entité LLC (B)
interface LLC (B) UB
DL_C( )N.req envoi
SABME MA_D/ TA.req — •
MAC-PDU
MA_DÀTA.ind réception
SABME DL_CQN.ind DL_C(DN.resp envoi
UA MA_DATA.req réception
MA DÀTA.ind
MAC-PDU
UA DL CCDN.conf
DL_D/ ^TA.req envoi
DL_D;
req »-
100 . M A_D/ TA.req envoi
MAC-PDU
110
MA DATA.ind reception
M A_D/ TAreq
100
MAC-PDU MA_D4TA.ind
DL_DA|TA.ind réception
no envoi RR2 MA_DÀTA.req MA_DATA.ind reception RR2
MAC-PDU
DL DAfTA.ind
340
Architecture des réseaux haut débit
Chapitre 8 Réponse
8.1
La petite taille permet : - une réduction du temps de constitution des paquets, - une réduction du délai de transmission (meilleur recouvrement et accentué par des débits élevés), - une réduction des pertes (suite à des dépassements de files d'attente), - une réduction de la taille des tampons des noeuds de commutation, - un meilleur entrelacement des messages puisque les grands flux de données sont découpés en petites cellules ; le trafic isochrone (par exemple, la voix en bande fixe) peut s'intercaler sans subir de retard significatif, - une gigue faible, - mais également une mauvaise efficacité de transmission (surdébit) qui demande donc des débits plus importants et des traitements plus fréquents pour l'en-tête. Réponse
8.2
- anisochronisme à l'accès : aucune relation de temps entre le terminal et le réseau, - anisochronisme à la commutation : la commutation ATM fonctionne sans aucune référence temporelle, - anisochronisme à la transmission : aucune relation temporelle entre le flux du système de transmission et le flux ATM. Réponse
8.3 = 1 600 km
20 - 12 = 8 ms soit D
max
Pour de nombreuses liaisons européennes, il va falloir ajouter des suppresseurs d'écho. Les Européens ont initialement exprimé une préférence pour une cellule de 32 octets : cela limitait le temps de mise en cellule à 3 ms environ et de ce fait laissait plus de temps pour le transport et permettait des distances plus grandes (20 6 = 14 ms pour faire le parcours, soit D = 2 800 km) et l'utilisation de moins de suppresseurs d'écho. Les Américains (vaste pays), quant à eux, sont déjà équipés de suppresseurs d'écho et préféraient une taille de cellule de 64 octets (soit 6 ms pour la mise en cellule). max
Réponse
8.4
1. Les nœuds sont des commutateurs de VP (brasseurs) : nœud 2
nœud 1 V P I J n VPI_out 7
5
9
7
nreud 3
VPUn
VPI_out
5
7
V P I J n VPI_out 7
3
Corrigés
341
2. Les nœuds sont des commutateurs de VC : nœud 1 VCI_in VCI_out 7-1 5-1 7-2 5-2 7-3 5-3 9-3 7-3 9-4 7-4 Réponse
nœud 2 VCI_in VCLout 5-1 7-1 5-2 7-2 5-3 7-3
nœud 3 VCI_in VCLout 7-3 3-3 7-4 3-4
8.5
1. Les commutateurs de VC translatent les valeurs de VCI et de VPI et les commutateurs de VP ne translatent que les valeurs de VPI. nœud 2 in out 1,2 1,3 2, 1 2 , 2 nœud 1 m out 3 , 2 3, 1 4, 1 4 , 2
syntaxe : i , j = VPI, VCI
nœud 3 in out 1 6 2 5 4 3
nœud 5 in out 6 7 5
s
nœud 7 in out 7, 1 7 , 2 8,2 8,3
2. La même chose qu'en 1 avec une connexion de plus. 3. Il n'est pas possible de connecter directement un utilisateur à un commutateur de VP car un utilisateur ouvre des VCC et non pas des VPC. Réponse
8.6
1. Pour multiplexer deux communications venant d'utilisateurs différents au niveau AAL, les deux utilisateurs doivent être situés sur la même machine ou le même réseau local ; ils accèdent au réseau à travers la même interface UNI. Ce multiplexage est possible dans l'AAL 3/4 dans la sous-couche SAR grâce au champ MID (Multiplexing IDentifier) : toutes les SAR-PDU d'une même SAR-SDU ont le même MID. Le MID étant spécifique à une CPCS-PDU, l'entité AAL réceptrice peut procéder au réassemblage de la CPCS-PDU. Ce même champ MID permet également le maintien en séquence des SAR-SDU à l'intérieur d'une connexion CPCS. Avec l'AAL 5, plusieurs connexions AAL peuvent être associées à une même connexion ATM, le multiplexage devant être réalisé au niveau SSCS qui n'est pas encore défini. Dans les deux cas, les deux connexions AAL utilisent la même connexion ATM dans le réseau et doivent être destinée à la même adresse ATM. Le multiplexage au niveau ATM est fait automatiquement puisqu'il y a multiplexage de connexions ATM sur le support physique, chaque connexion ATM
342
Architecture des réseaux haut débit
étant reconnue par un identificateur VCI/VPI différent. Dans ce cas, les utilisateurs A et B peuvent ne pas être situés sur la même machine. 2. Un exemple possible de tables de translation est : nœud 2 in out 4 3
nœud 3 in [ out J 4 5
nœud 4 in out 5,3 6,1 5,1 7,2
nœud 1 in out 1,2 3,3 2,1 3,1
syntaxe : i, j = VPI. VCI
Réponse
8.7
1. Données initiales : 1
2
3
4
5
6
7 8
9
10 11 12 13 14 15 16 17 18 19 20
9
loj 11 12
13 14 15 16
17 18 19 20
9
10 11 12
13 14 15 16
17 18 19 20
13 14 15 16
17 18 19 20
Données transmises : 1
2
3
4
5
6
7
8
5
6
7
8
Données reçues : [
T
2
3
4
cellule perdue
Données restituées 12
3
4
5
6
7 8
Suivant le type de flux et sa qualité de service associée (contraintes applicatives), la perte de cellules peut ou ne peut pas être acceptable. 2. Un mécanisme possible est l'entrelacement des données. Données initiales : 1
2
3
4
5
6
7 8
9
10 11 12 13 14 15 16 17 18 19 20
Données entrelacées dans 5 cellules et ensuite transmises : 1
6
11 16
2
7 12|17
2
7 12 17
3
8 13 18 [4_ 9 14 19
5 10 15 20
3
8 13 18
5 10 15 20
Données reçues : 1
6
11 16
cellule perdue
4 | 9 |l4[l9
Corrigés
343
Données restituées : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17|l8 19 20
L'erreur engendrée par la perte d'une cellule est dispersée dans le flux de données. Les erreurs sont alors tolérables mais cela ne convient pas pour autant à tous les types d'application. Pour la correction, il est possible, au niveau du récepteur, d'insérer des cellules factices en lieu et place des cellules erronées/manquantes. Une alternative consiste, pour les applications exigentes en termes d'erreurs, à associer au mécanisme d'entrelacement un mécanisme d'autocorrection qui, ne se contentant pas de détecter d'éventuelles erreurs, peut également les corriger (mais attention au surdébit engendré !) Réponse
8.8
1. Le schéma complété est le suivant : AAL-SDU AAL-SAP
capacité utile
sscs
n
n
AAL-IDU suffixe
es
-SSCS-PDU-
suffixe
CPCS
capacité utile
AAL
CPCS-SDU
capacité utile ^AR-PDU*
SAR
- CPCS-PDU -
-ÇXTM-SAT>
en-tête
information
-ATM-
ATM-SDU
ATM-PDU (cellule)
2. Une CPCS-PDU peut transporter jusqu'à 65 535 octets de capacité utile. Il faut pour un fichier de 253.10 octets : 6
344
Architecture des réseaux haut débit
- 3 860 CPCS-PDU avec chacune 65 535 octets de données, 8 octets de suffixe et 25 octets de bourrage, soit une longueur de 65 568 octets. Chacune d'elle donne lieu à 1 366 cellules ; - 1 CPCS-PDU avec 34 900 octets de données, 8 octets de suffixe et 36 octets de bourrage, soit une longueur de 34 944 octets. Cette CPCS-PDU donne 728 cellules. On obtient donc un nombre total de 3 860 * 1 366 + 728 = 5 273 488 cellules. 3. Le débit disponible est de 149,760 Mbit/s. Le temps d'émission d'une cellule est de : 53 * 8 / 149 760 000 = 2,83 ^ s . Le temps d'émission du fichier est donc au minimum égal à : 6
5 273 488 * 2,83.10" = 14,92 s. Réponse
8.9
Les formats des cellules ATM et DQDB définissent tous deux un en-tête de 5 octets et une zone de données de 48 octets, il est donc possible de translater directement la zone de données. Cependant les deux en-têtes de cellules diffèrent : la cellule DQDB utilise un VCI de 20 bits pour l'identification de VCI, alors que la cellule ATM utilise, quant à elle, un VPI de 8 bits et un VCI de 12 bits (à l'interface UNI). Pour rendre les deux en-têtes compatibles, il faut allouer les VCI dans DQDB avec les deux mêmes champs que dans ATM. Réponse
8.10
1. Il est possible de considérer ATM comme un niveau MAC et AAL comme une couche 2/3. On peut alors proposer deux architectures d'interconnexion : un pont ou un routeur. Le routeur est cependant préférable du fait de sa généralité. Au vu des fonctions de la couche AAL (segmentation), on pourrait envisager une interconnexion à ce niveau ; cependant, elle n'est pas adaptée pour dialoguer avec une couche inférieure autre qu'ATM.
1
couches sup.
interconnexion de niveau MAC
1
, couches p s u
LLC
^
physique '
'
1
i
réseau Token Ring
A
L
physique '
LLC
H*
AAL ATM
LLC Token
^
S
physique i
^r-i
\ relaisde/ A M T o k entité e^' <* nng ATM
Token nng
1
routeur 1
pont
'
interconnexion de niveau réseau
. „ couches sup.
1
ring
physique 1
1
1
réseau ATM
physique 1
i
couches sup. IP
IP
LLC Token ring
AAL
AAL
ATM
ATM
physique
physique
physique
i
i
réseau Token Ring
réseau ATM
Corrigés
345
2. La passerelle doit assurer : - dans les deux sens : - la reconnaissance d'adresses et le filtrage, - éventuellement, une transformation au niveau du sens d'émission des bits (inversé sur Token Ring), - dans le sens ATM - Token Ring : - la génération, en même temps que le changement de format, d'une pseudopriorité significative ou non (Priority Bits), - le réassemblage des cellules dans une trame, - la mémorisation des trames en attendant le jeton, - la prévention de congestion (un réseau rapide à 100 Mbit/s vers un réseau lent à 16 Mbit/s), - dans - le - la - la passerelle.
le sens Token Ring - ATM : positionnement des bits A et C, destruction de la priorité, segmentation des trames Token Ring en cellules au niveau AAL de la
3. Etant donné les débits des réseaux Token Ring, une seule connexion ATM suffit à les relier de manière transparente. A noter qu'une telle connexion doit être bidirectionnelle. Si le niveau LLC fonctionne en mode connecté, on peut également ouvrir une connexion ATM par connexion LLC. 4. Le débit crête demandé sera 16 Mbit/s qui est le débit physique sur le Token Ring. Réponse
8.11
La voix MIC constitue un trafic à débit constant avec 1 octet toutes les 125 us ; plusieurs octets de voix numérisée sont mis dans une même cellule avant sa transmission.
Hux de cellules engendre
Le codage MPEG est un codage différentiel : la vidéo est codée par un écran complet suivi d'écrans codés par rapport à celui-ci ; le débit est donc variable.
346
Architecture des réseaux haut débit
flux de cellules
cellules vides
engendré
(bourrage)
Réponse 8.12 multiplexage déterministe allocation du débit maximum déclaré par une source
multiplexage statistique pour un grand nombre de sources variables, la somme des débits à l'instant t est inférieure à la somme des débits maximaux ; on peut donc allouer un débit inférieur au débit maximum
très simple à mettre en œuvre
meilleure utilisation des ressources
gaspillage de ressources et bourrage avec des cellules vides
risques d'engorgement si plusieurs sources émettent à leur débit maximum en même temps
Réponse 8.13 # cellule
ti
TRT i
décision
0 1 2 3 4 5 6 7 8 9 10
0 30 50 90 110 130 160 180 200 255 280
0 40 80 90 130 130 170 210 210 255 295
conforme stockée rejetée émise de suite rejetée émise de suite stockée détruite stockée émise de suite rejetée
Réponse 8.14 Le mécanisme de Push-out perd des cellules de haute priorité lorsque le tampon est plein et qu'il n'y a pas du tout de cellules de basse priorité. Le mécanisme de Partial le tampon est plein.
Buffer Sharing
perd des cellules de haute priorité lorsque
Corrigés Réponse
347
8.15 6
Soit T le temps d'émission d'une cellule : T = (53 * 8) / 155.10 = 2,74 (is e
e
Soit K la taille de la fenêtre et T le temps de propagation (aller simple). En appliquant la relation K . T = 2 . T , on obtient K = (6,66 * 2)1 0,00274 = 4 862 cellules. p
e
p
S'il y avait eu une notification de congestion de la part du réseau, 4 862 cellules seraient perdues et éventuellement à retransmettre. L'espace de numérotation serait modulo 4 096 (en limitant la taille de la fenêtre à 4 095) ou 8 192. soit un numéro de séquence codé sur 12 ou 13 bits qui augmenterait d'autant le surdébit de la cellule.
348
Architecture des réseaux haut débit
Chapitre 9 Réponse
9.1
Avec la technique de routage par la source (Source Routing), la station source spécifie le chemin que doit emprunter la trame en incluant dans le datagramme la liste de passerelles à traverser. Le routage n'est donc pas transparent aux stations mais les routeurs sont plus simples, n'ayant pas de décision à prendre. Au contraire, avec l'algorithme du Spanning Tree, le routage est effectué par le pont ou le routeur et ce, sans que la station ait à connaître la configuration des sous-réseaux. Cela suppose un apprentissage de la localisation des stations grâce aux adresses source des trames ou paquets reçus. Réponse
9.2
1. Caractéristiques caractéristiques topologie temps d'accès longueur max. (octets) longueur min. (octets) priorités débit (Mbit/s)
borné -
FDDI deux anneaux borné 4470
DQDB deux bus unidirect. borné 9236
-
-
-
-
oui 10
oui 4/16
oui 100
oui 155
CSMA/CD un bus bidirect. non borné 1518
Token Bus un bus bidirect.. borné 8191
Token Ring un anneau
64 non 10
2. Formats de trame champs PA SD AC priority P token T monitor reservation R
HI Reserved Betag Basize
CSMA/CD 7 octets (suite de 10) 1 octet (10101011)
Token Bus > 1 octet
Token Ring -
1 octet (NNONN00)
1 octet (JK0JK000) 1 octet 3 bits 1 bit 1 bit 3 bits
FDDI 16 symboles (Idle) 2 symboles (JK)
DQDB 1 octet -
4 octets 1 octet 1 octet 2 octets
Corrigés
FC type de trame bits de ctrl.
-
1 octet 2 bits 6 bits
DA, SA type padding I/G U/L ringN° station @ H2 Proto. Ident. PAD length QoS delay loss CIB HEL bridging header extens. length information PAD FCS
2 ou 6 octets 2 ou 6 octets
ED
-
FS @ reconnue trame copiée réservé erreur detect.
-
1 bit 0, 1 15, 46
1 bit 0, 1 15, 46
1 octet 2 bits 6 bits
2 ou 6 octets 1 bit 0, 1 0, 7, 14 8,15,32,46
-
2 < si 4
8 bits 1 : trame (a)sync. 1 : lg. @ 2 : type de trame 4 : contrôle MAC 2 ou 6 octets 1 bit 0, 1 7, 14 8, 32 -
octets 1500 besoin octets
< 8191
< 5000 4 octets
< 4500 4 octets
1 octet
1 octet (JK1JK1IE)
-
1 octet 1 bit * 2 1 bit * 2 2 bits * 2
1 ou 2 symb. (T ou TT) 3 symboles 1 1
4 octets
349
8 octets 4 bits 60 - N bits 1 bit 0, 1 15, 46, 60 4..24 octets 6 bits 2 bits 8 bits 3 bits 1 bit 1 bit 3 bits 2 octets 0..20 oct. < 9188 0..3 octets 0 ou 4 octets idem Hl
1
I
3. Dans les deux sens : - reconnaissance d'adresses et filtrage, - adaptation du format des trames, - calcul du FCS, - inversion du sens d'émission des bits (particularité du Token Ring). Dans le sens CSMA/CD-Token Ring : - génération de pseudo-priorités (utilisateur et accès), significatives ou non, - mémorisation des trames lors de l'attente du jeton, - problème de congestion si le Token Ring est à 4 Mbit/s.
350
Architecture des réseaux haut débit
Dans le sens - destruction - affectation - destruction
Token Ring-CSMA/CD : des trames trop longues, des bits A et C, de la priorité utilisateur.
4. Opérations spécifiques source \ dest. CSMA/CD Token Bus Token Ring FDDI DODR (1) (2) (3) (4) (5) (6) (7)
CSMA/CD -
Token Bus 2, 4, 5
1, 2, 3 1, 2, 3 1, 2, 3 1. 2. 3
1, 2, 6, 7 2, 7 1. 2. 1
Token Ring FDDI 2, 4, 5 2, 4, 5 1, 2, 6, 7 1, 2, 6, 7 2, 6, 7 1, 2, 7 1. 2. 7 1. 2. 6
DQDB 2, 4, 5 2, 6 , 7 2, 6, 7 2, 6 _
détruire les trames trop longues calculer le FCS annuler la priorité utilisateur positionner le champ priorité utilisateur à une valeur par défaut utiliser une priorité d'accès par défaut utiliser la priorité utilisateur de la trame entrante utiliser la priorité utilisateur ou une priorité d'accès par défaut pour l'accès
Il faut également noter : - le problème du jeton de transfert lorsque le réseau source est un Token Bus, - le problème des bits A et C lorsque le réseau source est un Token Ring, - le problème de congestion lorsque le réseau source est plus rapide que le réseau destinataire, - l'inversion du sens d'émission des bits lofsque l'un des réseaux est un Token Ring. Réponse
9.3
1. Architectures d'interconnexion
couches sup.
couches sup. pont LLC1 MAC
^^^transfert^.^ MACT^l " MAC
physique
physique physique
couches sup.
routeur
couches sup.
IP
IP
IP
LLC1
LLC1
LLC1
LLC1
LLC1
MAC
MAC
MAC
MAC
MAC
physique
réseau 1 réseau 2 au niveau MAC
physique
physique physique
réseau 1
physique
reseau 2
au niveau reseau
Corrigés
351
2. a. Le protocole IP pouvant se charger de la fragmentation et du réassemblage, la longueur des paquets émis à la source n'est pas limitée en théorie (sauf s'il y a un champ de longueur codé) avec une interconnexion par routeurs. Par contre, le pont ne peut faire transiter une trame de longueur supérieure au maximum autorisé par le réseau destinataire ; des destructions de trame sont donc possibles dans le sens Token Ring-CSMA/CD. b. Il peut y avoir fragmentation et réassemblage des paquets dans un routeur, mais pas des trames dans un pont. c. Le temps de réassemblage d'une PDU ne concerne que le routeur. d. Le routeur doit surveiller la durée de vie des paquets qu'il fait transiter et détruire ceux dont la durée de vie est dépassée. Le pont doit, de son côté, surveiller le temps passé par une trame dans une file d'émission et détruire cette dernière si le délai subi dépasse un certain seuil. e. Le pont et le routeur gèrent la priorité des trames et paquets qu'ils ont à traiter. Il s'agit donc pour eux de prendre en compte la priorité d'une PDU entrante et de retransmettre la PDU en fonction de cette priorité. f. Ni le pont ni le routeur ne tiennent compte des PDU déséquencées. g. Ni le pont ni le routeur ne tiennent compte des PDU dupliquées. h. Le pont et le routeur recalculent la séquence de contrôle de chaque PDU qu'ils font transiter. i. L'adresse destination est nécessaire dans les deux cas puisqu'elle permet, pour le routeur, de déterminer le prochain nœud par lequel le paquet doit transiter et, pour le pont, de déterminer si la trame est à retransmettre ou non. j . La connaissance de l'adresse source n'est pas nécessaire au fonctionnement du routeur. Néanmoins, le routeur peut en avoir besoin dans des conditions d'exception, telles que la congestion, pour demander à un émetteur de réduire son débit d'émission. Dans le cas du pont, l'adresse source est traitée pour permettre la mise à jour éventuelle de la table de filtrage. Réponse
9.4
La couche liaison fonctionnant en mode connecté, il faut commencer par établir une liaison avant de pouvoir transférer des données. En considérant qu'il y a 2 800 octets de données de l'utilisateur du service de réseau à transférer, que les entêtes IP, LLC2 et MAC CSMA/CD sont respectivement de 22, 4 et 18 octets et que la trame CSMA/CD a une longueur maximale de 1 518 octets, il y a fragmentation par IP, avec deux datagrammes à envoyer. Pour simplifier le schéma, on supposera que les deux trames I ne donnent lieu qu'à une seule trame RR. La phase de libération de la liaison est similaire à la phase d'établissement, en remplaçant les primitives DL-CONNECT par les primitives DL-DISCONNECT et la trame SABME par une trame DISC.
1 110
f
100 j MA-UD.req UD
ité
MA
S
I
Iri
(
>
1
DL-CON.resp
^ f jôn DliDATA.ind
UA |
* 1 MAC-PDUl MÀjJD.ind * 1 I I P | PL -DATA.ind MA-Up.recji RR2 | ' MA^UD.incIMAC-PDU]^-
MA-tJDTeq
"
LLC(B)
| j SABME| DLjCON.ind MA-Ub.recl
s
~^[MAC-PDU| Nd-UD.ind MA£D.ind
_
J MA-UD.ind MA-UD.ind MAC-PDUl ^
PDU
- 1
MAC
| 1
1 M^^req
MA
MA-UDindj MAC-PPU) ^— UA |
DL-DAJA ™ ~*1 MAC-PDUj M^UD.ind
DL-CON.con^
1
ent
lïffe interface interface interface LLG(A) enute MAC(A . , MAC(P) MAOP) MAC(B) I JPMÂ, , i entité entité l LLC(A) MAC (A) relais S MAC(B) LLC(B) DL-C(|Nreq f SABME| MA-UD.req | j * | MAC-PDÛI MA-UD.ind . I —• MA-1 JD.req j **j MAC-PDÙ] MAJuDind
ÏT£A?
352 Architecture des réseaux haut débit
Réponse 9.5
1. On choisit une architecture d'interconnexion par pont au niveau MAC, les sous-réseaux ayant chacun une fonction d'adressage à ce niveau.
Corrigés
machine A
machine B
couches sup.
couches sup.
relais
relais
LLC
IP
poni
ponl
IP
LLC
\
MAC
MAC
MAC
physique )hysiqu
pnysiqi
hysiqi
MAC
MAC physiqi
Token Ring A
DQDB
353
MAC physique
Token Ring B
2. Tout dépend du type de trafic sur le Token Ring ; à défaut de le savoir, on utilise des slots arbitrés QA. 3. La segmentation et le réassemblage car les slots QA ne comportent que 48 octets de données. 4. Le principal risque réside dans la saturation des tampons de la passerelle dans le sens DQDB vers Token Ring. Pour y remédier : - l'UIF possède la priorité la plus élevée sur l'anneau ; - le contrôle de flux est assuré avec le protocole LLC2 entre les deux anneaux. Réponse
9.6
1. Le pont possède une seule table de filtrage pour l'ensemble des ports (version proposée par le standard 802.1D). La table comporte trois champs : - un champ adresse source correspondant à l'adresse source véhiculée par chaque trame, - un champ numéro de port correspondant au port par lequel une trame doit transiter pour atteindre l'adresse source associée, - un champ temporisateur initialise à une valeur T fixée par l'administrateur. adresse source
port de sortie
temporisateur
Lorsqu'une trame est reçue sur un port, le pont vérifie si l'adresse source contenue dans la trame existe déjà dans sa table de filtrage. Si tel est le cas, il met à jour le port de sortie de l'enregistrement correspondant — si le port courant est différent du port de réception de la trame — et il réinitialise la valeur du temporisateur à T. Si ce n'est pas le cas, une nouvelle entrée est créée avec le triplet (adresse_source Jrame\ port_réceptionjrame, T). En procédant ainsi, le pont saura que toute trame adressée à adresse_source jrame devra être retransmise sur le port portjréception
Jrame.
Une fois ce traitement sur l'adresse source de la trame effectué, le pont vérifie si l'adresse destination de la trame figure dans sa table. Si tel est le cas, il vérifie si le
354
Architecture des réseaux haut débit
port de sortie correspondant coïncide avec le port de réception de la trame, auquel cas la trame est rejetée — car appartenant à un trafic local ; si les ports sont différents, la trame est retransmise sur le port de sortie indiqué après conversion. Dans le cas où l'adresse destination de la trame ne se trouve pas dans la table, le pont retransmet la trame sur l'ensemble de ses ports — sauf le port de réception — après la conversion nécessaire pour chaque port. Une scrutation périodique de la table permet de mettre à jour la valeur des temporisateurs et de supprimer tous les enregistrements pour lequel le temporisateur a expiré. 2. Dans le cadre d'une table de filtrage par port, aucune information de routage n'est nécessaire : soit la trame est rejetée par le port sur lequel elle est arrivée, soit elle est diffusée sur l'ensemble des autres ports du pont. Chaque port gère sa propre table, cette dernière comportant deux champs : - un champ adresse
- un champ
source,
temporisateur. adresse source
temporisateur
Lorsqu'une trame est reçue sur un port, celui-ci vérifie si l'adresse source est contenue dans sa table. Dans le cas positif, le port réarme le temporisateur associé et sinon un nouvelle entrée est créée dans la table avec (adresse_sourceJrame, T). Une fois ce traitement sur l'adresse source de la trame effectué, le port vérifie si l'adresse destination appartient à sa table. Si tel est le cas, la trame est rejetée, sinon, elle est diffusée à tous les autres ports après conversions. De même que précédemment, les temporisateurs sont périodiquement mis à jour et ceux ayant expiré voient leur entrée détruite. Réponse
9.7
Temps de
transit
Pont et routeur traitent l'information reçue d'un premier réseau et la réémettent sur un autre réseau après traitement. Le temps de transit dépend donc principalement des traitements qui sont effectués au niveau de l'information reçue par l'élément d'interconnexion : - pont : le délai de transit d'une trame correspond au temps de filtrage augmenté du temps de conversion ; - routeur : les opérations sont plus nombreuses et plus complexes car correspondant à des protocoles de niveau supérieur. Le délai de transit d'un routeur est donc généralement supérieur à celui d'un pont.
Corrigés
Taille de
355
l'information
- pont : lorsque les réseaux interconnectés sont de types différents, un pont peut être amené à détruire des trames si leur longueur excède le maximum autorisé par le réseau de sortie - routeur : la plupart des protocoles de niveau réseau intègrent un mécanisme de fragmentation et de réassemblage des paquets en fonction des contraintes de la couche liaison. Cela évite d'avoir à négocier la taille maximum des paquets et à supprimer un grand nombre de paquets. On peut également noter que, ce faisant, la couche réseau simplifie la mise en œuvre des protocoles des niveaux supérieurs et que certaines applications fonctionnent plus efficacement avec des paquets de grande taille. Taux de
pertes
- pont : le niveau MAC ne permet pas de garantir la remise des trames à destination. Même dans le cas du Token Ring avec les bits A et C, l'acquittement d'une trame étant produit par le pont, l'émetteur ne sera jamais assuré que sa trame a bien été reçue par son destinataire. - routeur : le niveau réseau permet de détecter les paquets dupliqués ou perdus. Dans tous les cas, une retransmission s'impose (par exemple, au niveau transport). Taux d'erreurs
- pont : le FCS de chaque trame reçue est vérifié. Les trames dont le FCS est incorrect sont rejetées. Si le réseau destination n'est pas du même type que celui du réseau émetteur, la trame est traitée et le FCS recalculé. - routeur : deux contrôles d'erreur sont réalisés, l'un au niveau liaison (s'il fonctionne en mode connecté) et l'autre au niveau réseau. Le taux d'erreurs résiduelles est donc généralement plus faible avec un routeur. Durée de vie de
l'information
- pont : la destruction des trames dont le temps de transit serait trop long n'est pas prévue sauf si le pont introduit une temporisation au niveau de ses files d'attente. - routeur : la durée de vie est indiquée dans chaque paquet et mise à jour dans chaque nœud traversé. Les paquets dont la durée de vie a expiré sont détruits. Priorités
- pont : certains protocoles MAC utilisent des priorités. - routeur : la distribution urgente est fournie par certains protocoles de niveau réseau. Les informations de contrôle de routage sont un exemple de trafic à haute priorité. Sécurité
- pont : étant transparent aux protocoles de niveau 3 OSI, il transfère informations d'un réseau sur l'autre. On peut toutefois effectuer certaines de filtrage en fonction des types de protocoles ou isoler certaines stations. - routeur : au niveau 3 OSI, on peut gérer les accès des stations aux domaines d'adresses. Les capacités de filtrage d'un routeur peuvent
toutes les fonctions différents être très
356
Architecture des réseaux haut débit
sophistiquées, ce qui permet d'obtenir un degré de sécurité plus satisfaisant qu'avec les ponts. Réaction
après mise hors service d'une
route
Lorsqu'une route n'est plus en service, le routage de l'information doit être modifié en conséquence aussi rapidement que possible. - pont : des Bridge-PDU sont échangées de façon régulière entre les ponts. Si la topologie est complexe et le nombre de ponts important, il peut s'écouler un temps suffisamment long, entre la détection du problème et la réception d'information par tous les ponts, pour que des trames soient perdues. - routeur : la gestion des perturbations est plus efficace grâce au routage dynamique. Les routes de remplacement sont trouvées naturellement par l'algorithme de routage (sauf s'il est par nature statique). Cependant, comme un routeur diffuse des messages d'information en cas de changement de configuration, la mise à jour des tables de routage peut provoquer momentanément des augmentations de trafic importantes. Réponse
9.8
On rappelle que l'élément d'interconnexion doit répondre à plusieurs critères : - les fonctions de l'élément doivent être transparentes aux stations des réseaux interconnectés ; - le délai passé dans l'élément d'interconnexion doit être le plus court possible ; - les réseaux doivent être interconnectés au niveau le plus bas possible pour minimiser les temps de traitements induits par les protocoles. 1. Il n'est pas nécessaire ni raisonnable d'avoir des connexions isochrones permanentes entre l'élément d'interconnexion et l'ensemble des stations DQDB, puisque dans ce cas, le débit alloué à une connexion isochrone est réservé en permanence et serait mal utilisé. De même, le mode asynchrone connecté ne convient pas. En effet, il demande à l'unité d'interconnexion d'avoir la connaissance des adresses des stations destinataires, l'obligeant ainsi à traiter des informations de niveau supérieur (IM, Initial MAC), ce qui va à rencontre du troisième critère cité plus haut. On retient donc le mode asynchrone non connecté avec l'utilisation des slots QA. Cela se traduit, sur le réseau DQDB, par une diffusion de l'information à l'ensemble des stations du réseau ; seules les stations concernées par le message (reconnaissance à l'aide du champ MID) recopieront l'information à l'intention des couches supérieures. 2. Pour dialoguer avec le mode asynchrone non connecté de DQDB, on retiendra soit l'AAL 3/4, soit l'AAL 5 (transfert en mode non connecté).
Corrigés
357
3. Pour réaliser une interconnexion au niveau s/of/cellule entre les réseaux DQDB et ATM, plusieurs problèmes sont à résoudre : L'adressage : l'acheminement au sein du réseau large bande repose sur le schéma d'adressage E.164 avec des adresses de 60 bits (15 digits représentés sur 4 bits chacun). Ce type d'adresse peut parfaitement être transporté dans une IM-PDU DQDB dans l'en-tête MCP à condition que les champs d'adresse soient préfixés par " 1100". Dans ce cas, l'adresse de destination utilisée par DQDB doit faire directement référence à la station d'extrémité destinataire. Les similitudes
entre format
de slot et format
de cellule
: la principale réside
dans leur longueur commune de 53 octets, dont 5 octets d'en-tête (champ AC et entête de segment) et 48 octets pour la charge utile du segment. La compatibilité' des couches d'adaptation : la figure ci-dessous montre le découpage en couches pour chaque réseau : - pour DQDB, DM (Derived MAC) et IM (Initial MAC), - pour le réseau large bande, AAL (composée de SAR et CS) et C L C P (Connectionless Convergence Protocol).
Initial MAC
CS Convergence Sublayer
DM Derived MAC
SAR Segmentation And Reassembly
SM SegMent Layer
ATM
STL SloT Layer physical DQDB
AAL-
-MAC-
IM
CLCP ConnectionLess Convergence Protocol
Physical ATM
La couche CLCP assurant la compatibilité avec le standard IEEE 802.6 pour le mode sans connexion, les formats des différentes PDU sont compatibles. Ainsi, un segment côté DQDB (DM-PDU) devient la charge utile d'une cellule côté ATM (SAR-PDU) et vice-versa sans modification aucune. Cet échange présente un autre avantage ; aucune action de segmentation/réassemblage des messages n'est à pourvoir dans le protocole. L'adaptation des en-têtes de PDU : malgré cette compatibilité apparente, des différences apparaissent au niveau des en-têtes des différentes PDU. Toutes les informations primordiales contenues dans les en-têtes des cellules/s/ofs ainsi que dans les champs suivants sont transmises dans la première cellule/premier slot.
35 8 Architecture des réseaux haut débit
Cette première cellule/.v/o/ est de type BOM (Begining Of Message), les suivantes de type C O M (Continuation Of Message) et la dernière de type EOM (End Of Message). Ainsi, à la réception d'une cellule/s/of de type BOM, toutes les actions permettant de réaliser l'interconnexion selon les souhaits de l'utilisateur pourront être accomplies une fois pour toutes. - En-tête ATM versus champ AC et en-tête de segment QA de DQDB : - le GFC (Generic Flow Control) d'ATM et le champ AC (Access Control) de DQDB diffèrent par leur taille et leur utilisation : le GFC ne fait que 4 bits et son objectif n'est pas encore complètement déterminé. Le champ AC de 8 bits supporte le mécanisme d'accès à une ressource partagée entre plusieurs terminaux (bits BB et RQ) et supporte également trois niveaux de priorité pour le trafic asynchrone ; - la génération et la vérification des codes correcteurs d'erreur de l'en-tête : le HEC (Header Error Control) d'ATM est calculé au niveau physique car il couvre tout l'en-tête de la cellule ; le champ AC de DQDB n'est pas protégé par le HCS (Header Check Sequence) qui est calculé au niveau SM (SegMent layer) ; - le champ VPI (Virtual Path Identifier) n'apparaît pas dans l'en-tête du segment DQDB. - En-têtes des PDU de niveaux supérieurs pour le trafic évoluant d'ATM vers DQDB : - aux cellules ATM d'une connexion donnée est associée une valeur de MID (Message IDentifier). Bien que cette valeur soit unique sur cette connexion, rien ne garantit son unicité au niveau du réseau DQDB. La passerelle doit donc tenir à jour une liste des valeurs de MID disponibles sur le réseau. Elle effectue ainsi une modification des valeurs de MID des cellules ATM en une valeur de MID DQDB. Cette modification est réalisée à la réception de la première cellule ATM (BOM) et enregistrée dans une table d'échange ; - la qualité de service inhérente au délai de transit du message est aussi examinée ; en effet, il est nécessaire de choisir un niveau de priorité d'accès au réseau DQDB. Ce niveau sera ensuite assigné à toutes les cellules du même message ; - les CRC10 de la DM-PDU et de la SAR-PDU n'étant pas les mêmes, un nouveau calcul est nécessaire ; - étant donné qu'il n'y a pas examen de l'information d'adressage, la passerelle doit diffuser l'information sur les deux bus, modifiant en cela la valeur du VCI (Virtual Channel Identifier) qui devient la valeur par défaut associée aux slots QA en mode asynchrone non connecté. - En-têtes des PDU de niveaux supérieurs pour le trafic évoluant de DQDB vers ATM : - le champ VCI du segment DQDB est modifié de façon à obtenir l'en-tête ATM adéquat ;
Corrigés
359
- le CRC 10 est également recalculé ; - il n'est pas nécessaire de recalculer le MID. En effet, son unicité est garantie par le mécanisme d'allocation du MID sur DQDB. 4. La figure suivante montre l'architecture de la passerelle ATM/DQDB. interface STM STL
ATM
physique
physique
bus A
bus B
ATM
Elle est composée des couches SM, STL et physique pour le réseau DQDB et des couches ATM et physique pour le réseau ATM. L'interface réalise la conversion de protocole indispensable à la transformation des cellules en slots et vice-versa. Les fonctions que doit remplir la passerelle pour permettre l'interconnexion ATM/DQDB sont les suivantes : - conversions de protocole (CRC, qualité de service, etc.) présentées précédemment à réaliser au niveau de l'interface ; - actions dépendant du type des données (BOM, COM, EOM) : gestion du temps de vie des PDU, insertion d'une nouvelle correspondance MID/VCI dans la table d'échange (unité de données de type BOM), recherche d'une correspondance dans la table (unité de données de type COM) ou encore effacement d'une entrée dans la table (unité de données de type EOM). Grâce à la similitude des champs des cellules ATM et des slots DQDB, les fonctions de la passerelle sont simplifiées, notamment, cette dernière n'a pas à effectuer de segmentation ou de réassemblage des données. L'ajout d'un serveur sans connexion (CLS - ConnectionLess Server) du côté ATM permet de lui déléguer une partie des tâches de la passerelle et plus particulièrement celles concernant l'adressage des données. La passerelle ne connaissant pas les adresses des stations destinataires, elle dirige tout son trafic provenant du réseau DQDB vers le CLS. Une connexion permanente ou semipermanente est établie entre la passerelle et le CLS (cf. figure ci-dessous). Le CLS permet ainsi d'offrir un service sans connexion dans un réseau qui fonctionne par essence en mode connecté. passerelle CLS
DQDB iceud
PHY
ATM
PHY
AAL AT
commutateur /
ATM\^
M
3 6 0 Architecture des réseaux haut débit
Le CLS fonctionne dans les deux sens de l'interconnexion : un trafic issu d'ATM en direction de DQDB est d'abord dirigé vers le CLS (chaque station dispose de la correspondance adresse MAC de destination/VPI). Le trafic issu de DQDB vers ATM est d'abord envoyé à la passerelle (les stations DQDB spécifient une valeur particulière de VCI) qui le dirige à son tour vers le CLS. Le CLS reconstitue et traite les informations d'adressage qui, pour chaque SDU (Service Data Unit), déterminent l'acheminement à adopter. La passerelle, dans le sens DQDB vers ATM, conserve la valeur de MID du réseau DQDB. Puisque ce numéro est unique sur le réseau DQDB, il l'est également sur la connexion qui relie la passerelle au CLS. Néanmoins, il n'est pas garanti que toutes les stations sur le réseau ATM utilisent des valeurs de MID distinctes. Le CLS effectue donc une modification des valeurs de MID ; la nouvelle valeur attribuée dépend de l'ancienne et du couple VCI/VPI. Une table d'échange est, là aussi, utilisée. Réponse
9.9
Ces informations figurent dans la MIB II spécifié dans le RFC 1213. Il s'agit de compteurs à valeur entière : - ipInReceives : nombre total de paquets ou fragments reçus depuis les interfaces, incluant ceux en erreur ; - ipInHdrErrors : nombre de paquets ou fragments rejetés car leur en-tête est erroné (mauvaise séquence de contrôle, numéro de version incorrect, autres erreurs de format, durée de vie dépassée, erreurs rencontrées lors de l'exécution des options) ; - ipInAddrErrors : nombre de paquets ou fragments rejetés car l'adresse destination IP spécifiée au niveau de leur en-tête est erronée ; - ipForwDatagrams : nombre de paquets ou fragments reçus et routés ; - iplnUnknownProtos : nombre de paquets reçus et détruits suite à une nonidentification du protocole de niveau supérieur ; - ipInDiscards : nombre de paquets reçus et détruits par manque de mémoire ; - ipInDelivers : nombre de paquets reçus et délivrés aux protocoles utilisant IP (y compris ICMP) ; - ipOuiRequests : nombre de paquets envoyés par les protocoles utilisant IP pour être transmis (y compris ICMP) ; - ipOutdiscards : nombre de paquets en émission, détruits faute de mémoire ; - ipOutNoRoutes : nombre de paquets ou fragments rejetés car aucune route n'a été trouvée pour les transmettre vers leur destination. Cela inclut le nombre de paquets ou fragments qu'un hôte n'a pu router car tous les routeurs auxquels il est directement connecté sont hors service ; - ipReasmReqds : nombre de fragments reçus et nécessitant un réassemblage ; - ipReasmOKs : nombre de paquets réassemblés avec succès ; - ipReasmFails : nombre d'anomalies détectées au niveau de l'algorithme de réassemblage (expirations du temporisateur de réassemblage, erreurs, etc.) ; - ipFragOKs : nombre de paquets fragmentés avec succès ;
Corrigés
361
- ipFragFails : nombre de paquets rejetés car nécessitant une fragmentation pour être retransmis alors que le drapeau DF est positionné ; - ipFragCreates
: nombre de fragments générés par fragmentation au niveau de
cette interface. UDP
TCP tcpOutMsgs
interface TCP/IP jcmpInMsgs
egpInMsgs
ICMP
EGP
icmpOutMsgs
! '.
udpOutDatagrams
tcpInMsg
k
udpInDatagrams
j
interface l'DP/lP iplnDelivers
ipFragOKs
I
egpQutMsgs ipFragFails
ipOutDiscards,
ipReasmOKs ipReasmFails
ii
ipReas n R e q d s
IF
ipInUnknownProtos ipOutNoRoutes i p F o r w Datagrams ipInAddrErrors inlnHdrErTors ipInDiscards
interface IP/sous-réseau
pOutRequests
plnReceives
Bibliographie
Chapitre 1 [Cerf 83] V.G. Cerf, E.A. Cain, "The DOD Internet architecture model". Networks and ISDN Systems. 7(10), pp. 307-318, octobre 1983.
Computer
[DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 1980. [IS 7498-1] ISO IS 7498-1, Basic Reference Model, 1993. [IS 7498-2] ISO IS 7498-2, Security Architecture,
1989.
[IS 7498-3] ISO IS 7498-3. Naming and Addressing, [IS 7498-4] ISO IS 7498-4, Management
Framework,
[IS 8509] ISO TR 8509, 0 5 / Service Conventions, [IS 8824] ISO IS 8824, Specification
1989.
of Abstract
[IS 9595] ISO IS 9595, Common Management
1989.
1987. Syntax Notation
Information
One (ASN.l),
Service
1987.
(CMIS)
Definition,
Protocol
(CMIP)
1991. [IS 9596] ISO IS 9596, Common Specification,
Management
1991.
[IS 10040] ISO IS 10040. Systems Management [IS 10164-1] ISO IS 10164-1, Systems Function.
Overview.
Management.
I : Object
Management
Management,
Part
2:
State
Management
1993.
[IS 10164-3] ISO IS 10164-3, Systems Management, Relationships,
Part 3 : Attributes for
Representing
1993.
[IS 10164-4] ISO IS 10164-4, Systems Management, 1992.
1992. Part
1993.
[IS 10164-2] ISO IS 10164-2, Systems Function,
Information
Part 4 : Alarm Reporting
Function,
364
Architecture des réseaux haut débit
[IS 10164-5] ISO IS 10164-5. Systems Management, Function. 1993. [IS 10164-6] ISO IS 10164-6, Systems 1994.
Part 5 : Event Report
Management.
[IS 10164-7] ISO IS 10164-7, Systems Management Function, 1992. [IS 10165-1] ISO IS 10165-1, Structure Management Information Model, 93.
Management
Part 6 : Log Control
Management,
Part
of Management
Function.
I : Security Information,
Alarm Part
I :
[IS 10165-2] ISO IS 10165-2. Structure of Management of Management Information, 1994.
Information,
Part 2 : Definition
[IS 10165-4] ISO IS 10165-4, Structure of Management for the Definition of Managed Objects, 1994.
Information,
Part 4 :
[Klessig 86] R. Klessig, "Overview of Metropolitan Communications Magazine, 24( 1), janvier 1986.
Guidelines
Area Networks",
[Lepage 89] F. Lepage, F. Afila, P. Antoine, E. Bajic. J. Brun, T. Divoux, Les locaux industriels, Hermès, 1989. [M.3010] UIT-T M.3010, Principes pour un Réseau de Gestion des 1993.
IEEE réseaux
Télécommunications,
[M.3100] UIT-T M.3010, Modèle Générique d'Information de Réseau, 1993. [Nussbaumer 87] H. Nussbaumer. Téléinformatique, Romandes, 1987.
Tome 1, Presses Polytechniques
[RFC 768] J. Postel. "User Datagram Protocol", RFC 768, août 1980. [RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981. [RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981. |RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981. [RFC 821] J. Postel, "Simple Mail Transfer Protocol", RFC 821, août 1982. [RFC 826] D. Plummer, "Ethernet Address Resolution Protocol", RFC 826, novembre 1982. [RFC 854] J. Postel, "Telnet Protocol Specification", RFC 854, mai 1983. [RFC 903] R. Finlayson, T. Mann, J. Mogul, M. Theimer, "A Reverse Address Resolution Protocol", RFC 903, juin 1984. [RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification". RFC 904, avril 1984. (RFC 959] J. Postel, "File Transfer Protocol", RFC 959, octobre 1985. [RFC 1028] J. Davin, J. Case, M. Fedor. M. Schoffstall, "Simple Gateway Monitoring Protocol", RFC 1028, novembre 1987. [RFC 1157] J. Case, M. Fedor, M. Schoffstall, J. Davin, "A Simple Network Management Protocol". RFC 1157, mai 1990. [RFC 1158] M. Rose, "Management Information Base for Network Management of TCP/IP-based internets" RFC 1 158. mai 1990. [RFC 1213] K. McCloghrie, M. Rose. "Management Information Base for Network Management of TCP/IP-based internets : MIB-II". RFC 1213. mars 1991.
Bibliographie
365
[RFC 1271] S. Waldbusser. "Remote Network MONitoring Management Information Base", RFC 1271, novembre 1991. [RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992. [RFC 1441] J. Case, K. Mc Cloghrie, M.Rose, S.Waldbusser. "Introduction to Version 2 of the Internet-Standard Network Management Framework", RFC 1441, avril 1993. [Schatt 87] S. Schatt, Understanding 1987.
Local Area Networks,
Sams Understanding Series,
Ouvrages de synthèse S. Feit, TCP/IP : Architecture,
Protocols
and Implementation.
Mac Graw Hill, 1993.
C. Lecerf, D. Chomel, Les normes de gestion à l'ISO, Collection Technique et Scientifique des Télécommunications, Masson, 1993. H. Nussbaumer, Téléinformatique,
Tomes I, 2, 3 et 4. Presses Polytechniques Romandes.
G. Pujolle, Les réseaux. Eyrolles, 1995. M. Rose, Gestion des réseaux ouverts — SNMPv2. InterEditions, 1995. W. Stallings, Local and Metropolitan
Area Networks,
e
Mac Millan, 4 édition, 1990.
W. Stallings, SNMP, SNMPv2, and CMIP : the Practical Standards.
Guide to
Network-Management
Addison-Wesley, 1993
A. Tanenbaum, Réseaux : architectures, J. Walrand, Communications
Networks
protocoles,
applications.
InterEditions, 1995.
: a first course, Aksen Editors, 1993.
Chapitre 2 [Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer Communications", Fall Joint Computer Conference,
1970.
[Bux 81a] W. Bux et al., "A Reliable Token-Ring System for Local Area Communication", National Telecommunications Conference, New Orleans, 1981. [Bux 81b] W. Bux, "Local Area Subnetworks : A Performance Comparison", Transactions on Communications, 29(10). octobre 1981. [IEEE 802.IB] Institute of Electrical and Electronics Engineers, L A N / M A N service and protocol,
IEEE
management,
IEEE/ANSI Std 802.IB, 1995.
[IEEE 802.ID] Institute of Electrical and Electronics Engineers, Media Access (MAC) bridges, IEEE/ANSI Std 802.ID, 1993. [IEEE 802.IE] Institute of Electrical and Electronics Engineers, System load IEEE/ANSI Std 802.1E, 1994.
Control protocols,
[IEEE 802.IF] Institute of Electrical and Electronics Engineers, Common Definitions and Procedures for IEEE 802 Management Information, IEEE/ANSI Std 802. IF, 1993. [IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical (LLC), ANSI/IEEE Std 802.2. 1994.
Link
Control
[IEEE 802.3] Institute of Electrical and Electronics Engineers, Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993.
366
Architecture des réseaux haut débit
[IEEE 802.4] Institute of Electrical and Electronics Engineers, Token-passing method and physical layer specifications, ANSI/IEEE Std 802.4, 1990.
bus
access
[IEEE 802.5] Institute of Electrical and Electronics Engineers, Token Ring access and physical layer specifications, ANSI/IEEE Std 802.5, 1992.
method
[IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus {DQDB) access method and physical layer specifications, ANSI/IEEE Std 802.6, 1994. [IEEE 802.7] Institute of Electrical and Electronics Engineers, IEEE Practices for Broadband Local Area Networks, IEEE Std 802.7, 1989.
Recommanded
[IEEE 802.9] Institute of Electrical and Electronics Engineers, Integrated Services {IS) LAN Interface at the Medium Access Control {MAC) and Physical {PHY) Layers. IEEE Std 802.9. décembre 1994. [IEEE 802.10] Institute of Electrical and Electronics Engineers, Interoperable Security (SILS), ANSI/IEEE Std 802.10, 1992. [IS 8802-1] ISO IS 8802-1, Local Area Networks, Networks, non publié. [IS 8802-2] ISO IS 8802-2, Local Area Networks, [IS 8802-3] ISO IS 8802-3, Local Area Networks, and Physical Layer Specifications, 1993.
Part I : Overview
LAN/MAN
of Local
Part 2 : Logical Link Control, Part 3 : CSMA/CD — Access
[IS 8802-4] ISO IS 8802-4, Local Area Networks. Part 4 : Token passing Method and Physical Layer Specification, 1990.
Bus
Area
1990. Method Access
[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification. 1994. [IS 8802-6] ISO IS 8802-6, Local Area Networks, Part 6 : Distributed (DQDB) Access Method and Physical Layer Specification, 1993.
Queue Dual Bus
[IS 8802-7] ISO IS 8802-1. Local Area Netn'orks, and Physical Layer Specification. 1993.
Part 7 : Slotted Ring Access
[IS 10039] ISO IS 10039, MAC Service Definition,
1991.
Method
[Lam 75] S.S. Lam and L. Kleinrock, "Packet Switching in a Multi-access Broadcast Channel : Dynamic Control Procedures", IEEE Transactions on Communications, COM-23(9). pp. 891-904, septembre 1975. [Lam 80] S.S. Lam, "A Carrier Sense Multiple Access Protocol for Local Networks", Computer Networks, 4, pp. 21-32, avril 1980. [MAN 93] Networks on the Metropolitan Area, Numéro spécial IEEE Journal on Selected Areas in Communications, 11(8). octobre 1993. [Metcalfe 76] R.M. Metcalfe. DR. Boggs. "Ethernet: Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976. [Rubin 90] I. Rubin. J. Baker. "Media Access Control for High-Speed Local Area and Metropolitan Area Communication Networks", Proceedings of the IEEE, 78(1), Janvier 1990.
Bibliographie Ouvrages
de
367
synthèse
G. Pujolle et M. Schwartz, Réseaux locaux informatiques, P. Rolin, Réseaux locaux : normes et protocoles, P. Rolin, Réseaux haut débit, Hermès, 1995. M. Schwartz, Telecommunication Networks Addison Wesley Publishing, 1987.
Eyrolles, 1994.
Hermès, 1993.
— Protocoles,
Modeling
and
Analysis,
Chapitre 3 [Abramson 70] N. Abramson, "The ALOHA System — Another Alternative for Computer Communications", Fall Joint Computer Conference, 1970. [DEC 80] DEC, Intel, Xerox, The Ethernet — A Local Area Network ; Data Link Layer and Physical Layer Specifications — Version 1.0, septembre 80. [IEEE 802.3] Institute of Electrical and Electronics Engineers. Carrier Sense Multiple Access (CSMA/CD) and Physical Layer Specification, ANSI/IEEE Std 802.3, 1993. [IEEE 802.3a] Institute of Electrical and Electronics Engineers, Medium Attachment and Baseband Medium Specifications, Type 10BASE2, Std 802.3a, 1988.
Unit
[IEEE 802.3b] Institute of Electrical and Electronics Engineers, Broadband Medium Attachment Unit and Broadband Medium Specifications, Type 10BROAD36, ANSI/IEEE Std 802.3b, 1985. [IEEE 802.3c] Institute of Electrical and Electronics Engineers, Repeater Unit for 10 Mb/s Baseband Networks, ANSI/IEEE Std 802.3c, 1985. [IEEE 802.3d] Institute of Electrical and Electronics Engineers, Medium Attachment and Baseband Medium Specification for a Vendor Independent Fiber Optic Repeater Link. ANSI/IEEE Std 802.3d, 1987.
Unit Inter
[IEEE 802.3e] Institute of Electrical and Electronics Engineers, Physical Signaling, Medium Attachment, and Baseband Medium Specifications, Type IBASE5, ANSI/IEEE Std 802.3e, 1987. [IS 8802-3] ISO IS 8802-3, Local Area Networks, and Physical Layer Specifications, 1993.
Part 3 : CSMA/CD — Access
Method
[IS 8802-3-14] ISO IS 8802-3-Amendment 14, Fiber Optics Media I0BASEF, 1993. [Metcalfe 76] R.M. Metcalfe, D.R. Boggs, "Ethernet : Distributed Packet Switching for Local Computer Networks", Communications of the ACM, 19(7), juillet 1976. [Watson 95] G. Watson et al., "The Demand Priority Access Method", IEEE Networks, 9(1), Janvier 1995. Ouvrages
de
synthèse
A. Ferrero, Ethernet et ses évolutions, G. Held, Ethernet Networks,
Addison-Wesley, 1995.
Wiley. 1994.
N. Turin, L'univers des réseaux Ethernet : concepts, produits, 1993.
mise en pratique.
Masson,
368
Architecture des réseaux haut débit
Chapitre 4 [Bux 83] W. Bux. F. Closs. H. Kummerle. H. Mueller. "Architecture and Design of a Reliable Token-Ring Network". IEEE Journal on Selected Areas in Communications, novembre 1983. [IS 8802-4] ISO IS 8802-4, Local Area Networks, Part 4 : Token passing Method and Physical Layer Specification, 1990.
Bus
Access
[IS 8802-5] ISO IS 8802-5, Local Area Networks, Part 5 : Token Ring Access Method and Physical Layer Specification, 1 9 9 4 . [IS 10039] ISO IS 10039, MAC Service Definition,
1991.
[Minet 89] P. Minet, P. Rolin, S. Sédillot, Le réseau MAP, Hermès, 1989. Ouvrages
de
synthèse
David Bird. Token Ring Network Design : a Guide. Addison-Wesley. 1994. J. Nilausen. Token Ring Networks,
Prentice-Hall. 1992.
G.C. Sackett. IBM's Token Ring Networking
Handbook,
Mac Graw Hill. 1993.
Chapitre 5 [ANSI 1841 ANSI X3.184-199x, Fiber Distributed Data Interface Single-Mode Fiber PMD (SMF-PMD), décembre 1992.
(FDDI) — Part 4 :
[ANSI T l - 1 0 5 ] ANSI Tl-105-1991, "Digital Hierarchy — Optical Interface Rates and Formats Specifications (SONET) (FDDI and STS path signal level)". Supplement to ANSI T l - 1 0 5 , 1991. [ANSI 237] ANSI X3.237-199x. Fiber Distributed Data Interface Low-cost Fiber Medium Dependent (LCF-PMD), septembre 1992.
Physical
[ANSI 201] ANSI X3.201-1992, Fiber Distributed Medium Dependent (TP-PMD), février 1993.
Physical
Data Interface Twisted Pair
[Fink 92] R. Fink, F. Ross. "FFOL and its relationship to the MAN/WAN environment". Computer Communications. 15(9). novembre 1992. [Hamstra 92] J. Hamstra, R. Fink, "FFOL transmission services — Issues for a PHY physical layer protocol", Computer
Communications.
15(5), juin 1992.
[IS 9314-1] ISO IS 9314-1, Fiber Distributed Layer Protocol (PHY), 1989.
Data Interface (FDDI) — Part I : Physical
[IS 9314-2] ISO IS 9314-2, Fiber Distributed Access Control (MAC), 1989.
Data Interface (FDDI) — Part 2 : Medium
[IS 9314-31 ISO IS 9314-3, Fiber Distributed Data Interface (FDDI) — Part 3 : Physical Laver Medium Dependent Protocol (PMD), 1990. [IS 9314-5] ISO IS 9314-5. Fiber Distributed Ring Control (FDDI II), 1995.
Data Interface (FDDI) — Part 5 : Hybrid-
[IS 10608-14] ISO ISP 10608-14. Fiber Distributed Station Management, 1995.
Data Interface
(FDDI) — Part 6 :
Bibliographie
369
[Jain 90] R. Jain, "Performance and Analysis of the FDDI Token Ring Protocol Networks : Effects of Parameters and Guidelines for setting TTRT". Proceedings ACM SIGCOMM, 1990. [Ross 89] F. Ross, "Overview of FDDI : the Fiber Distributed Data Interface", Journal on Selected Areas in Communications, 7(7), juillet 1989.
IEEE
[Ross 90] F. Ross, J. Hamstra, R. Fink, "FDDI - A LAN Among MANs", Communication Review, 20(3), juillet 1990.
Computer
[Ross 92] F. Ross, R. Fink, "Overview of FFOL — FDDI Follow-On LAN". Communications, 15( 1 ), janvier 1992.
Computer
[Stallings 93] W. Stallings, Local and Metropolitan Macmillan Publishing Company. 1993.
Area
Networks,
[Tolmie 92] D. Tolmie, "Gigabit Networking", IEEE Lighwave Systems, 3(2), mai 1992. [Walrand 93] J. Walrand, Communications 1993. Ouvrages
de
Networks
: a first
4
e
édition.
Telecommunication
course,
Aksen Editors,
synthèse
B. Albert, A.P. Jayasumana, FDDI and FDDI II : Architecture, Artech House, 1994. R. Jain. FDDI Handbook : High-Speed Addison-Wesley, 1993.
Networking
Protocols and
Using Fiber
Performance,
and Other
Media,
A. Shah, G. Ramakrishnan, FDDI - Réseau haut débit, Masson, 1995.
Chapitre 6 [Ahmad 92] R. Ahmad, F. Halshall. "A Comparison of DQDB and FDDI for the interconnection of LANs", Proceedings EFOC/LAN'92, pp .43-47, 1992. [Hahne 90] E. Hahne, A. Choudhury, N. Maxemchuck, "Improving the fairness of Distributed-Queue-Dual-Bus Networks", Proceedings IEEE INFOCOM'90, juin 1990. [IEEE 802.6] Institute of Electrical and Electronics Engineers, Distributed Queue Dual Bus (DQDB) access method and physical layer specifications, ANSI/IEEE Standard 802.6, 1994. [Newman 88] R. Newman, Z. Budrikis, J. Hullett. "The QPSX Communications Magazine, pp. 20-28, 26(4), avril 1988.
MAN",
IEEE
[Sadiku 94] M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, Janvier 1994. [Sumita 92] M. Sumita, P.-C. Fetterolf. "Effect of Bandwidth Balancing Mechanism on fairness and performance of DQDB MANs". Proceedings IEEE INFOCOM'92, mai 1992.
370
Architecture des réseaux haut débit
Ouvrages
de
synthèse
D. Spohn, Data Network Graw Hill, 1993.
Design : Packet
Switching,
Frame Relay, 802.6/DQDB,
Mac
M. Sadiku, A. Arvind, "Annotated Bibliography on Distributed Queue Dual Bus (DQDB)", Computer Communications Review, 24 (1), ACM, janvier 1994.
Chapitre 7 [IEEE 802.2] Institute of Electrical and Electronics Engineers, Logical
link
control,
ANSI/IEEE Standard 802.2, 1994. [IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991. [IS 8802-2] ISO IS 8802-2, Local Area Networks,
Part 2 : Logical Link Control,
1990.
Chapitre 8 [ATM Forum 94] ATM Forum, ATM User-Network 3.1. juillet 1994.
Interface (UNI) Specification
Version
[ATM Forum 95] ATM Forum. LAN Emulation SWG Drafting Group, LAN Emulation over ATM Specification
- Version 1.0, janvier 1995.
[Bae 91] J. Bae, T. Suda, "Survey of traffic control schemes and protocols in ATM networks", Proceedings
of the IEEE, 79 (2), février 1991.
[Bala 90] K. Bala, I. Cidon, K. Sohraby, "Congestion control for high speed packet switched networks", Proceedings IEEE INFOCOM'90, 1990. [Boyer 92] P. Boyer, D. Tranchier. "A reservation principle with applications to the ATM traffic control". Computer Networks and ISDN Systems, 24, 1992. [Doll 72] D.R. Doll, "Multiplexing and concentration", Proceedings pp. 1313-1321. novembre 1972. [G.707] UIT-T G.707. Synchronous Digital Hierarchy [G.708] UIT-T G.708, Network novembre 1993.
[G.731] UIT-T G.731, Primary
bit rates, août 1993.
node interface for the Synchronous
[G.709] UIT-T G.709, Synchronous multiplexing PCM
structure,
multiplex
of the IEEE, vol. 60,
Digital
Hierarchy,
décembre 1993.
équipement
for
voice
frequencies,
Bluebook III.4, juin 1990. [G.732] UIT-T G.732, Characteristics of primary PCM multiplex équipement operating 2048 kbit/s. Bluebook III.4. juin 1990.
at
[G.733] UIT-T G.733, Characteristics of primary PCM multiplex équipement operating 1544 kbit/s, Bluebook III.4, juin 1990.
at
[Guillemin 92] F. Guillemin. Contrôle de congestion dans les réseaux asynchrones. Thèse de doctorat de l'université de Rennes I, juillet 1992.
temporels
[Gravey 91] A. Gravey, G. Hébuterne. "Mixing time and loss priorities in a single server queue". Proceedings Workshop on ATM. 13th International Teletraffic Congress, 1991.
Bibliographie
371
[Hong 91] D. Hong, T. Suda. "On congestion control and prevention in an ATM network", IEEE Network Magazine, juillet 1991. [1.1 13] UIT-T 1.113, Vocabulary 1994.
of Terms for Broadband
Aspects
of ISDN, novembre
[1.121] UIT-T 1.121, Broadband aspects of ISDN, juillet 1991. [1.150] UIT-T 1.150, B-ISDN Asynchronous novembre 1993.
Transfer Mode Functional
Characteristics,
[1.211] UIT-T 1.211, B-ISDN Service Aspects, novembre 1993. [1.311] UIT-T 1.311, B-ISDN General Network Aspects, novembre 1993. [1.320] UIT-T 1.320, ISDN Protocol Reference Model, novembre 1994. [1.321] UIT-T 1.321, B-ISDN Protocol
Reference Model and its Application,
[1.327] UIT-T 1.327, B-ISDN Functional Architecture,
[1.356] UIT-T 1.356, B-ISDN ATM Layer Cell Transfer Performance, [1.361] UIT-T 1.361, B-ISDN ATM Layer Specification, [1.362] UIT-T 1.362, B-ISDN ATM Adaptation octobre 1993.
février 1995.
novembre 1993.
Layer
(AAL) Functional
[1.363] UIT-T 1.363, B-ISDN ATM Adaptation
Layer (AAL) Specification,
[1.364] UIT-T 1.361, Support octobre 1993.
Connectionless
of Broadband
[1.365] UIT-T 1.365.1, Frame Relaying SSCS), novembre 1994.
Service
Specific
[1.371] UIT-T 1.371, Traffic Control and Congestion [1.413] UIT-T 1.413, B-ISDN User-Network [1.432] UIT 1.432, B-ISDN Janvier 1994.
février 1994.
Convergence
on
B-ISDN,
Sublayer
(FR-
Control in B-ISDN, novembre 1993.
Interface, décembre 1993.
User-Network
Operation
Description,
Data Service
Interface
— Physical
[1.555] UIT-T 1.555, Frame Relaying Bearer Service Interworking, [1.610] UIT-T 1.610. B-ISDN Janvier 1994.
juillet 1991.
novembre 1993.
And Maintenance
Layer
Specification,
novembre 1994.
Principles
and
Functions,
[IS 11172] ISO DIS 11172, Coding of Moving Pictures and Associated Audio (MPEG), novembre 1992. [Kroner 90] H. Kroner, "Comparative performance study of space priority mechanisms for ATM networks", Proceedings IEEE INFOCOM90, juin 1990. [Newman 94] P. Newman, "ATM Local Area Networks", IEEE Communications 32(3), mars 1994. [Q.2010] UIT-T Q.2010, Broadband integrated services signalling capabilities set I, release I, juillet 1995. [Q.2100] UIT-T Q.2100, B-ISDN signalling description, février 1995.
digital
ATM adaptation
[Q.2110] UIT-T Q.2110, B-ISDN ATM adaptation oriented protocol (SSCOP), avril 1995.
networks
layer (SAAL)
layer - Service
specific
Magazine, overview overviewconnection
372
Architecture des réseaux haut débit
[Q.2130] UIT-T Q.2130, B-ISDN signalling ATM adaptation layer - Service specific coordination function for support of signalling at the user-network interface (SSCF at UNI), avril 1995. [Q.2140] UIT-T Q.2140. B-ISDN signalling ATM adaptation layer - Service specific coordination function for support of signalling at the network node interface (SSCF at NNI), juillet 1995. [Q.2931] UIT-T Q.2931, Broadband integrated services digital networks - Digital subscriber signalling system N° 2 (SS 2) UNI layer 3 specification for basic call/connection
control,
à paraître fin 1995.
[Rathgeb 91] E. Rathgeb, "Modeling and performance comparison of policing mechanisms for ATM networks", IEEE Journal on Selected Areas in Communications, 9 (3), avril 1991. [X.200] UIT-T X.200, Open novembre 1994.
Systems
Interconnection
[Szuprowicz 95] B.O. Szuprowicz. Multimedia
— Basic
Networking,
Reference
Model.
Mac Graw Hill, 1995.
[Truong 95] H.L.T. Truong, W.W. Ellington, J.Y. Le Boudec, A. Meier. J.W. Pace, "LAN Emulation on an ATM Network", IEEE Communications Magazine, 33 (5), mai 1995. Ouvrages
de
synthèse e
L'Echo des Recherches,
Numéro spécial sur ATM (I), 144, 2 trimestre 1991.
L'Echo des Recherches,
Numéro spécial sur ATM (II), 145, 3 trimestre 1991.
e
M. Boisseau, M.Démange, J.-M.Munier, Réseaux ATM, Eyrolles, 1992. M. DePrycker. Asynchronous
e
Transfer Mode, 2 édition, Ellis Horwood Ltd, 1994.
R. Hândel, M. Huber, S. Schroder, ATM Networks
: concepts,
protocols,
applications,
e
2 édition, Addison-Wesley, 1994. D.E. McDysan, D.L. Spohn, ATM: Theory and Applications, D. Minoli. Broadband
Mac Graw Hill, 1994.
Network Analysis and Design, Artech House, 1993.
R.O. Onvural. Asynchronous
Transfer Mode Networks,
M.J. Sexton, A.B.D. Reid, Transmission House, 1992. W. Stallings. ISDN and Broadband Millan, 1995.
Artech House, 1994.
and the Synchronous
Digital
Hierarchy,
Artech
e
ISDN with Frame Relay and ATM, 3 édition, Mac
Chapitre 9 [ANSI 90] ANSI T1.606, Frame Relaying Bearer Senice Service
Description.
— Architecture
Framework
and
1990.
[Bellcore 92] Bellcore, Generic Requirements for SMDS Networking.
Bellcore Technical
Reference, Issue 2, TA-TSV-001059. août 1992. [Deering 95] S. Deering, R. Hinden. "Internet Protocol, Version 6 (IPv6) Specification", draft-ietf-ipngwg-ipv6-spec02, 19 juin 1995.
Bibliographie
373
[IEEE 802.Id] Institute of Electrical and Electronics Engineers, Local MAC Contribution P802.1d/D9, 1989.
Bridging,
[IEEE 802.Ig] Institute of Electrical and Electronics Engineers, Remote MAC Contribution P802.1g, novembre 90.
Bridging,
[IS 3309] ISO IS 3309, High-level Data Link Control (HDLC), juin 1991. [IS 8648] ISO IS 8648. Interconnexion couche réseau, septembre 1990.
des systèmes ouverts - Organisation
interne de la
[Q.931] ITU-T Q.931, Rev-1, Digital subscriber Signalling System No.l (DSS I) — ISDN user-network interface layer 3 specification for basic call control, octobre 1994. [RFC 768] J. Postel, "User Datagram Protocol", RFC 768, août 1980. [RFC 791] J. Postel, "Internet Protocol", RFC 791, septembre 1981. [RFC 792] J. Postel, "Internet Control Message Protocol", RFC 792, septembre 1981. [RFC 793] J. Postel, "Transmission Control Protocol", RFC 793, septembre 1981. [RFC 904] D. Mills, "Exterior Gateway Protocol Formal Specification", RFC 904, avril 1984. [RFC 1371] P. Gross, "Choosing a "Common IGP" for the IP Internet", RFC 1371, octobre 1992. [RFC 1710] R. Hinden, "Simple Internet Protocol Plus White Paper", RFC 1710, octobre 1994. [RFC 1752] S. Bradner, A. Mankin, "The Recommendation for the IP Next Generation Protocol", RFC 1752, janvier 1995. [Sunshine 90] C. Sunshine, "Network interconnection and gateways", IEEE Journal Selected Areas in Communications, 8 (1), janvier 1990. [X.200] UIT-T X.200. Information Technology - Open Systems Interconnection Reference Model : the basic model, novembre 1994. Ouvrages
de
on
- Basic
synthèse
U. Black, Frame Relay Networks 1994. D. Comer, Internetworking
: Specifications
and Implementations,
Mac Graw Hill,
with TCP/IP, Prentice Hall, 1988.
R.P. Davidson, N.J. Muller, Internetworking R. Klessig, SMDS -Wide-Area Data Service, Prentice-Hall, 1994.
LANs, Artech House, 1992.
Networking
with Switched
Multimegabit
Radia Perlman, Interconnexions, ponts et routeurs, Addison-Wesley, 1995. D. Spohn, Data Network Design : Packet Switching, Frame Relay, 802.6/DQDB, Graw Hill, 1993.
Data
Mac
Liste des acronymes
AAL ABM ADM AFNOR AMP AMRF AMRT ANSI ARP ASN.l ATM AUI BECN BOM B-ISDN B-NT B-TA B-TE BUS CAC CBDS CBR CCE CCITT CD
ATM Adaptation Layer Asynchronous Balanced Mode Add and Drop Multiplexor Association Française de Normalisation Active Monitor Present Accès Multiple à Répartition en Fréquence Accès Multiple à Répartition dans le Temps American National Standards Institute Address Resolution Protocol Abstract Syntax Notation 1 Asynchronous Transfer Mode Attachment Unit Interface Backward Explicit Congestion Notification Beginning Of Message Broadband-Integrated Service Digital Network Broadband-Network Termination Broadband-Terminal Adaptor Broadband-Terminal Equipment Broadcast/Unknown server Connection Admission Control Connectionless Broadband Data Services Constant Bit Rate Configuration Control Element Comité Consultatif International Télégraphique et Téléphonique Committee Draft
376
Architecture des réseaux haut débit
CDD1 CDV CEI CEM CEN CENELE( CEP CEPT CF CLCP CLP CLS CMIP CMIS CMP CMT CNET COCF COM COS CPCS CPE CRC CS CSMA CSMA/C. CSMA/C1 CV DAC DAS DE DIS DoD DPAM DPG DQDB ECM ECMA EFCI EFS EGP
Copper Distributed Data Interface Cell Delay Variation Comité Electrotechnique International Configuration Element Management Comité Européen de Normalisation Comité Européen de Normalisation Electrotechnique Connection End Point Conférence Européenne des Postes et des Télécommunications Common Functions ConnectionLess Convergence Protocol Cell Loss Priority ConnectionLess Server Common Management Information Protocol Common Management Information Service Congestion Management Protocol Connection ManagemenT Centre National d'Etudes de Télécommunications Connection Oriented Convergence Function Continuation Of Message Corporation for Open Systems Common Part Convergence Sublayer Customer Premises Equipment Cyclic Redundancy Control (Check) Convergence Sublayer Carrier Sense Multiple Access Carrier Sense Multiple Access with Collision Avoidance Carrier Sense Multiple Access with Collision Detection Circuit Virtuel Dual Attachment Concentrator Dual Attachment Station Discard Eligibility Draft International Standard Department of Defense Demand Priority Access Method Dedicated Packet Group Distributed Queue Dual Bus Entity Coordination Management European Computer Manufacturer Association Explicit Forward Congestion Indication End of Frame Sequence Exterior Gateway Protocol
Liste des acronymes
EIA ELAN EOM ETSI FC FCS FDDI FDMA FECN FFOL FOIRL FOMAU FTP GFC HDLC HEC HIPPI HMUX IC ICF ICI ICIM ICIP ICMP IDU IEEE IETF IGP IMAC IP IS ISDN ISO ISSI ISSIM ISSIP IVD
rwu JTC LAN LCF-PMD
Electronic Industries Association Extended Local Area Network End Of Message European Telecommunications Standard Institute Feedback Control Frame Control (Check) Sequence Fiber Distributed Data Interface Frequency Division Multiple Access Forward Explicit Congestion Notification FDDI Follow-On LAN Fiber Optic Inter Repeater Link Fiber Optic Medium Access Unit File Transfer Protocol Generic Flow Control High-level Data Link Control Header Error Control High Performance Parallel Interface Hybrid Multiplexer Inter-exchange Carrier Isochronous Convergence Function Inter-exchange Carrier Interface Inter-exchange Carrier Interface Module Inter-exchange Carrier Interface Protocol Internet Control Message Protocol Interface Data Unit Institute of Electrical and Electronic Engineers Internet Engineering Task Force Interior Gateway Protocol Isochronous MAC Internet Protocol International Standard Integrated Service Digital Network International Standardization Organization Inter-Switching System Interface Inter-Switching System Interface Module Inter-Switching System Interface Protocol Integrated Voice/Data Inter-Working Unit Joint Technical Committee Local Area Network Low Cost Fiber-Physical Medium Dependent
377
378
Architecture des réseaux haut débit
LEC LEC LES LLC LME LMI L3-DTP MAC MAN MAP MAU MCF MCP MDI MIJ3
MIC MIC MID MID MLT-3 MMF MMF-PMD MO MPEG MUX I/E NAC NIF NMS NNI NRM NRZI OAM OC OSI PABX PA PAF PC PCI PCM PDH
Local Exchange Carrier LAN Emulation client LAN Emulation Serveur Logical Link Control Layer Management Entity Local Management Interface Level 3 Data Transport Protocol Medium Access Control Metropolitan Area Network Manufacturing Automation Protocol Medium Attachment Unit MAC Convergence Function MAC Convergence Protocol Medium Dependent Interface Management Information Base Medium Interface Connector Modulation par Impulsions et Codagf Message IDentifier Multiplexing IDentifier MultiLevel Transmission 3 Multi-Mode Fiber Multi-Mode Fiber PMD Managed Object Moving Picture Expert Group Multiplexeur d'Insertion/Extraction Null Attachment Concentrator Neighbor Information Frame Network Management System Network-Node Interface Network Resource Management Non Return to Zero Inverted Operation And Maintenance Optical Carrier Open Systems Interconnection Private Auto-Branch eXchange Pre-Arbitrated Pre-Arbitrated Functions Priority Control Protocol Control Information Physical Connection Management Plesiochronous Digital Hierarchy
Liste des a c r o n y m e s
PDU PHY PIM PLCF PL-OAM PLS PM PMA PMD PMF POH PT PTI QA QAF QoS QPSX RARP RGT RM RMON-MIB RMP RMT RNIS RNIS-BE RNIS-LB SAAL SAC SAS SAP SAR SC SDH SDU SEAL SG SGMP SIP SMAE SMAP SMDS
Protocol Data Unit Physical Proprietary Intra-SS Interface Module Physical Layer Convergence Function Physical Layer-Operation And Maintenance Physical Layer Signalling Physical Medium Physical Medium Access Physical Medium Dependent Parameter Management Frame Path OverHead Payload Type Payload Type Identifier Queued Arbitrated Queued Arbitrated Functions Quality of Service Queue Packet and Synchronous Switch Reverse Address Resolution Protocol Réseau de Gestion des Télécommunications Resource Management Remote Monitoring-MIB Routing Management Protocol Ring ManagemenT Réseau Numérique à Intégration de Services RNIS-Bande Etroite RNIS-Large Bande Signalling AAL Single Attachment Concentrator Single Attachment Station Service Access Point Segmentation And Reassembly Sub Committee Synchronous Digital Hierarchy Service Data Unit Simple and Efficient Adaptation Layer Study Group Simple Gateway Monitoring Protocol SMDS Interface Protocol System Management Application Entity System Management Application Process Switched Multimegabit Data Service
379
380
Architecture des réseaux haut débit
S MF A S MF-PMD SMI SMP SMT SMTP SNI SNIM SNMP SOH SONET S PAG SPM SRF SS SS-NE SSCS SSM ST STM STM STS STP TAG TAM TBR TBT TC TC TCP TCU TDMA TER THT TIA TLO TMN TNT TPDU TP-DDI TP-PMD
Specific Management Functional Area Single Mode Fiber - PMD Structure of Managed Information Standby Monitor Present Station ManagemenT Simple Mail Transfer Message Subscriber-Network Interface Subscriber-Network Interface Module Simple Network Management Protocol Section OverHead Synchronous Optical NETwork Standards Promotion and Application Group SONET Physical-layer Mapping Status Report Frame Switching System Switching System-Network Element Service Specific Convergence Sublayer Single Segment Message Segment Type Synchronous Transfer Mode Synchronous Transport Module Synchronous Transport Signal Shielded Twisted Pair Technical Advisory Group Timer Active Monitor Timer Beacon Receive Timer Beacon Transmit Technical Committee Transmission Convergence Transmission Control Protocol Trunk Cable Unit Time Division Multiple Access Timer Error Report Timer Holding Token Telephony Industries Association Terminal de Ligne Optique Telecommunications Management Network Timer No Token Transport Protocol Data Unit Twisted Pair-Distributed Data Interface Twisted Pair-Physical Medium Dependent
Liste des acronymes
TOP TQP TRO TRR TRT TSM TTL TTRT TVX UD UDP UIF un urr-T UNI UPC/NPC UTP VBR VCC VCI VCL VPC VPI VPL WAN WBC WD WG
Technical and Office Protocol Timer Queue PDU Terminaison de Réseau Optique Timer Return to Repeat Token Rotation Timer Timer Standby Monitor Time To Live Target Token Rotation Time Timer Valid Transmission User Data User Datagram Protocol Unité d'Inter-Fonctionnement Union Internationale des Télécommunications U1T - secteur Télécommunications User-Network Interface User Parameter Control/Network Parameter Control Unshielded Twisted Pair Variable Bit Rate Virtual Channel Connection Virtual Channel Identifier Virtual Channel Link Virtual Path Connection Virtual Path Identifier Virtual Path Link Wide Area Network Wide Band Channel Working Document Working Group
381
Index
AAL 240, 254 CS 242 mécanismes 242 SAR 242 type 254, 1 246, 2 247, 5 252 type 3/4 248, 254 types de protocole 245 accès 51 -59 aléatoire 56-59 centralisé 53, 84 contrôle d'accès 51 déterministe 53, 106 jeton 53, 89-116, 127-130 polling 53 statique 51 adaptateur 40 administration 26-34 définition 26 normes 27 SNMP 32 système de gestion 32 adressage 169 adresse MAC 280 Aloha 56, 57, 63 amplificateurs 42 AMRF 52 AMRT 51 anneau 54, 89, 124 doublé 50, 124
logique 89, 106 virtuel 55, 106 ANSI 124, 146 arbre couvrant 282, 299 architecture 15 couches 16, 22 DoD 24 mode connecté 18 mode non connecté 19 OSI 15-24 services 21 ARP 25 ATM 203-270, 301 adresse 256 cellule 236 cellules OAM 227 commutation 236 fonctions 236 Forum, 14, 211 marquage des cellules 265 priorités 238 réseau local émulé 256 service 239, 240 AUI 65, 74-75 Bande passante 4 1 , 46, 209 Binary Exponential Backoff 68 by-pass 90 Câble coaxial 44, 48, 77, 279
384
Architecture des réseaux haut débit
câble coaxial « bande de base » 45 câble épais 45, 77 câble fin 45, 78 CATV 44, 78 CBDS 295 CDDI 147 cellule ATM 210 DQDB 161 OAM 227 codage 4B/5B 145 5B/6B 84 8B/6T 83 bande de base 41 biphase 41 Manchester 4 1 , 75, 103 MLT-3 148 modulation 41 collision 48, 56, 59, 63, 66 commutateur 220 Ethernet 85 commutation 213 aiguille 207 asynchrone 209 congestion 299 contrat de trafic 265 contrôle d'entrée 265 contrôle de priorité 269 fonctions génériques 263 gestion des ressources 264 gestion rapide des ressources 270 lissage 266 méthodes préventives 262 méthodes réactives 262 notification 270 connecteur 103 prise en T 45 prise vampire 45 RJ-45 44 connectionless server 257 contrôle de flux 236 contrôleur-espaceur 267 couche application 24 physique 22 présentation 24
réseau 23 session 23 transport 23 CSMA58 CSMA/CA 59 CSMA/CD 39, 58, 83, 279 « hub » 79 architecture 64 collision 76 couche physique 74 détection des collisions 66 écoute 65 fenêtre de collision 67 format de la trame 70 modèle fonctionnel de la couche MAC 69 paramètres 72 période de vulnérabilité 67 reprise après collision 68 service MAC 72 slot-time 67 supports 77
Datagramme 19, 25, 184, 288, 290 débit 41 crête 264 DP AM. 84 DQDB 39, 49. 157-179, 295, 301 adresses 169 architecture 159 Bandwidth Balancing 167 cellule 161. 172 compteurs 165 couche DQDB 159 couche physique 159, 178 file distribuée 163, 166 isochrone 160 mode asynchrone avec connexion 163 mode asynchrone sans connexion 162 mode isochrone 162 protocole 172 segment 172 services 176 unités de données 167 VCI 162-163, 172. 175
Index
E G P 25, 290 Ethernet 40, 44. 57. 63-83 100 Mbit/s 82 100BASET 83 lOOVGAnyLan 82, 83 10BASET 79 Full Duplex 85 isochrone 86 Fast Ethernet 82 FDDI 124-152 architecture 125 classes de transmission 128 concentrateur 126 couche MAC 125 couche physique 125, 145 FDDI II 149 FFOL 151 gestion 126, 138 initialisation 134 jeton 133 jeton temporisé 129 nœud 126-127 paire torsadée 148 panne 135 priorités 129 protocole 127 services 136 support 146 temporisateurs 129 trame 131 fibre optique 45-46, 48, 79, 81, 84, 124, 147, 222, 229, 279 monomode 147 multimode 146 FOMAU 79 FTP 26 Gigue 104, 205, 240, 243 HDLC 196, 301 hub 79-83 ICMP 25 IEEE 14, 280 802.1 39 802.12 39, 83 802.14 39, 83
385
802.2 39, 183 802.3 39, 58, 64 802.4 39, 90, 110, 192 802.5 39, 89, 123 802.6 39, 157 802.7 39 802.8 39 802.9 39 architecture 38 comité 802 38, 39 couche physique 38 liaison 39 LLC 39 MAC 38, 39 normes 40 standard 38-40 TAG 39 IGP 25, 290 interconnexion 277-303 adressage Internet 288 adressage relais de trames 303 apprentissage 285 architecture 283 conversion de protocoles 278, 280 conversion de services 278, 280, 283 datagramme IP 291 encapsulation 278, 283, 289 filtrage 285 Internet 288, 293 IWU 278 méthodologie 278 pont 280-286 pont intelligent 280 ponts MAC 282 relais de trames 301 répéteurs 279 routage 281, 287 routage Internet 290 routeur 286-288 SMDS 295-301 terminologie 279 Internet 25, 288, 293 IP 25 ISO 12,38, 124 isochrone 162 Jeton 53-55, 127
386
Architecture des réseaux haut débit adressé 106
jeton temporisé 113, 129 Largeur de bande 41 Leaky Bucket 266 liaison 280 LLC 183-198, 279 protocoles 196-199 service LLC 1 184 service LLC2 185, 190 service LLC3 191 services 184 trames 196 lobe 104 MAC 279 MAU 48, 65. 74-75, 79 mode connecté 185 mode de transfert 207 asynchrone 209 ATM 208 circuit 208 paquet 208 synchrone 208 modèle OSI 15 multimédia 203 multiplex 208 multiplexage 207. 223 asynchrone 209 statistique 209 synchrone 208, 221 temporel 208 multiplexeur 151, 224 Nœud 47 normalisation 11 AFNOR 12 ANSI 12 autres organismes 14 ECMA 12 ISO 12 M A P 14 modèle OSI 15 organismes européens 13 T O P 14 UIT-T 13 notification 299
Organismes de normalisation 10 OSI 24, 38, 225, 278, 280 PABX 47 paires torsadées 42-43, 80, 83, 104 S T P 4 3 , 80, 84, 105, 148 UTP 43, 44, 80, 148 PDH 220, 232 plésiochrone 220 polling 53, 84, 191, 193 pont 280-286 port 280, 285 Qualité de service 205, 248, 263, 286, 291 Rafale 265 RARP 25 relais de trames 285, 301 répéteur 42, 4 8 , 4 9 , 78, 103 FOIRL81 répéteurs 279 réseau fédérateur 124, 151, 157 réseau grande distance 38 réseau large bande 204, 207 réseau large bande AAL 240-254 architecture 215 ATM 210 brasseur 219 cellule 210 commutation 213, 219 conduit virtuel 212 connexion ATM 211 connexion virtuelle 212 contrôle de congestion 261, 263270 couche physique 229 délimitation de cellules 233 flux de maintenance 227 interface 215 modèle de référence 225 OAM 227 points de référence 215 recommandations 207 services 204, 241 système de transmission 220, 231 trafics 206
Index
translation des valeurs de VCI 212 VCI 211,237 réseau local ATM 255 réseau local étendu 283 réseaux grande distance 6 réseaux locaux 6, 8 réseaux métropolitains 6, 157 RNIS 9,40, 169, 221,225 RNIS-BE (Réseau Numérique à Intégration de Services-Bande Etroite) 303 RNIS-LB 207, 295 routage 287, 298 routeur 286-288 SDH 220, 224, 231 service MAC 258 services large bande 203, 241 Shannon 41 slot 160 slot-time 67 SMDS 295-301 SMTP 26 SNMP 26, 32 SONET 147,220-224, 301 SONET/SDH 178 support 40-46 Tampons 209 taux d'erreurs 37 TCP 26, 288, 290 TCP/IP 288 technique de transmission 41 Telnet 26 Token Bus 39, 56, 106, 192 anneau virtuel 106 arbitrage réparti 109 architecture 110 fenêtre de réponse 108 gestion 114 Initialisation 110 Principe 106
priorité 113 procédure de réveil 107 réception 110 services MAC 115 slot-time 108, 115 supports 118 temporisateur 106 trame 111 Token Ring 39, 44, 89-105, 123 architecture 92 automate 96 câblage 104 couche physique 103 gestion 99 moniteur actif 100, 104 moniteurs en veille 100 principe 90 priorité 97, 100 réception 97 services MAC 100 tampon de latence 104 TCU 103 temporisateur 95, 96, 98 trame 92 transmission 95 topologie 47-50 anneau 49, 89 arbre 48 boucle 49 bus 48, 90, 158 étoile 47, 81, 86, 104 trafic isochrone 205 trafic sporadique 206 transport ISO 26 UDP 26 UIT 13 unité d'inter-fonctionnement 278 VPC 264 X.21 25 X.25 25, 301
387
CET O U V R A G E A ÉTÉ COMPOSÉ PAR LES ÉDITIONS HERMÈS REPRODUIT ET ACHEVÉ D'IMPRIMER PAR L'IMPRIMERIE FLOCH À MAYENNE EN OCTOBRE 1 9 9 5 .
DÉPÔT LÉGAL : OCTOBRE 1 9 9 5 . N° D'IMPRIMEUR : 3 8 3 0 1 .
Conçu avec un grand souci de clarté, Architecture des réseaux haut débit constitue un outil pédagogique de premier ordre. La partie « cours » traite des techniques de base utilisées dans les réseaux locaux et dans les réseaux haut débit : supports, raccordement, topologie du réseau et protocole d'accès au support. Après un rappel des protocoles IEEE, CSMA/CD, Token Ring et Token Bus sont présentés en détail, jusque dans leur évolution vers les 100 Mbit. Ces protocoles introduisent aux réseaux haut débit FDDI et DQDB, ainsi qu au futur réseau large bande. Pour ce dernier, sont expliquées en détail : la technique ATM, la topologie du réseau B-ISDN et la nouvelle architecture en couches s'y rapportant. Enfin, la problématique de l'interconnexion de tous ces réseaux est étudiée. La partie « exercices et corrigés » s'adresse aux enseignants et étudiants en informatique de 2 et 3 cycles qui y trouveront une illustration de chaque problème abordé par des exercices corrigés, une progression maîtrisée de la technicité au fur et à mesure des chapitres, une bibliographie richement documentée et une liste complète des acronymes et abréviations si souvent rencontrés dans ce domaine. e
e