Page principale - S'identifier - Contact

Téléchargez gratuitement mon livre

"le guide de l'animateur, une heure par semaine pour animer une grande communauté".
Dites moi simplement à quelle adresse je peux vous l'envoyer :

Le guide est également disponible en librairie (FYP éditions 2016 - 20 €)

Les nouveaux usages de l'Internet ambiant

Version imprimable

L'internet sans fil : moins on le voit, plus il est partout !
Quelques notes sur le congrès DNAC 2002 (3-4 décembre 2002)

Jean-Michel Cornu
merci à Guy Pujolle pour sa relecture attentive

Table des matières  Introduction
Les standards IEEE pour les réseaux sans fil La sécurité des réseaux sans fil
La Qualité de Service
Exemples de déploiement de Wi-Fi

UMTS et/ou Wi-Fi ?
Les réseaux Ad-Hoc

L'intelligence ambiante

     

Introduction

    Le 16ème congrès " De Nouvelles Architectures pour les Communications " organisé par Guy Pujolle a été l'occasion de faire le point sur les réseaux sans fil en particulier Wi-Fi et Wi-Fi5, les réseaux ad-hoc et l'internet ambiant : http://www.dnac.org/

    Ce compte rendu ne détaille pas toutes les présentations qui ont été faites mais présente plutôt une synthèse sur quelques uns des sujets importants qui ont été abordés.

       

Les standards IEEE pour les réseaux sans fil

Les réseaux locaux sans fil IEEE 802.11

Une particularité du standard IEEE 802.11 est d'avoir une couche MAC (Medium Access Control) unifiée au dessus de plusieurs niveaux physiques :

  • 802.11b : 11 Mbit/s en 2,4 Ghz en technologie CCK (nom commercial : Wi-Fi)
  • 802.11a : 54 Mbit/s en 5,5 Ghz en technologie OFDM (nom commercial : Wi-Fi 5) aujourd'hui pour des cellules de 10 à 15m.
  • 802.11g : 54 Mbit/s en 2,4 Ghz (la taille des cellules sera plus grande)
  • mais également des réseaux de 1 à 2 Mbit/s en technologies FHSS ou DSSS en 2,4 Ghz ou en infrarouge.

La bande des 2,4 Ghz est harmonisée au niveau international. Une première partie de la bande commence à être libérée en France (dans 38 départements actuellement). Sur la deuxième partie, entre 2,45 Ghz et 2,5 Ghz, se trouvent encore des radars de l'armée. Leur durée de vie est de 15 ans. Cette partie de la bande ne devrait être libérée qu'en 2010.

Pour Wi-Fi5 la bande de fréquence des 5 Ghz n'est pas encore harmonisée au niveau international. Aux USA la FCC a prévu 12 canaux alors qu'en Europe 19 canaux sont prévus. La partie entre 5,15 et 5,25 Ghz a été réservée au départ pour Hiperlan 1. Elle a ensuite été étendue pour Wi-Fi5.

Les circuits intégrés de demain seront multi-mode pour permettre l'utilisation des divers standards et normes sans fil : IEEE 802a, b, g et GPRS.

Des évolutions futures pourraient inclure la sélection automatique de fréquence et le contrôle de puissance (par exemple en reprenant ce qui existe dans le standard européen Hiperlan II).

Le protocole utilisé par la couche MAC est un CSMA amélioré par rapport au protocole Ethernet filaire (IEEE 802.3) qui travaille par détection de collision : le CSMA CA du protocole 802.11écoute le canal après la fin de la porteuse et utilise un accusé de réception. 

Les réseaux personnels sans fil IEEE 802.15

Il y a également plusieurs travaux de standardisation de réseaux personnels (Personal Area Network PAN) :

  • IEEE 802.15.1 (normalisation de Bluetooth), portée de l'ordre de 10m avec un débit théorique de l'ordre de 1 Mbit/s et un débit réel plutôt aux alentours de 150 Kbit/s mais avec une faible consommation électrique (projet lancé par Ericsson en 1994)
  • 802.15.3 High rate Wireless PAN qui sera standardisé fin 2002
  • et le IEEE 802.15.3a pour l'Ultra Wide Band. Il y a un lobbying en particulier en Europe pour contraindre cette technologie qui normalement envoie de faible puissance dans toutes les fréquences (limite basse à Ghz pour ne pas émettre sur les fréquences du GSM ou limités pour éviter que la multiplication de réseaux UWB ne dépasse alors le niveau de bruit dans les fréquences utilisées).

En France et en Espagne le nombre de canaux dans la bande des 2,4 Ghz est limité à 22 au lieu des 79 habituels.

       

Et après le Wi-Fi 5 ?

Il existe une demande pour de plus hauts débits que Wi-Fi 5 (par exemple : les réseaux d'entreprise filaires sont à 100 Mbit/s ou même pour des dorsales à 1 Gbit/s)

Un nouveau " study group " de l'IEEE 802.11 s'est monté : le HTSG (Hight Throughput Study Group) pour imaginer le futur de 802.11 (On sait déjà que la bande restera sur les 5GHz) 

La sécurité des réseaux sans fil

La sécurité a été assez négligée dans le standard IEEE 802.11 et le cryptage WEP n'est pas très robuste. Le nouveau standard 802.11i comporte plusieurs aspects qui permettent une véritable stratégie de sécurité :

  • Authentification et distribution des clés conforme au standard 802.1x déjà utilisé dans l'Ethernet filaire
  • Création de clé dynamique
  • chiffrement TKIP qui est amélioré par rapport au cryptage WEP
  • Introduction d'AES (système à clé symétrique pour le cryptage fort)

En fait on se retrouve avec 3 générations de sécurité en Wi-Fi :

  1. Aujourd'hui le WEP : l'authentification est ouverte (par le SSID) et donc revient à ne pas avoir d'authentification, le filtrage des adresses MAC est peu sûr et le cryptage par clés RC4 fixes (64 ou 128 bits) ne comporte pas de signature et ne garantie l'intégrité des données (il suffit d'observer un million de trames pour casser une clé WEP, même de 128 bits)
  2. Dès le début 2003, le WEP peut être remplacé par TKIP qui a le gros avantage d'être compatible avec le matériel actuel tout en permettant un chiffrement amélioré (une clé maître permet de créer une clé transitoire qui crée une clé RC4 différente pour chaque trame. De plus chaque trame est signée)
  3. Ensuite pourrait arriver le chiffrement AES mais qui risque d'avoir moins de succès car il n'est plus compatible et nécessite un changement du matériel mis en place.

Pour faciliter l'authentification, un nouveau concept émerge avec la carte Wi-Fi : une carte à puce permet d'authentifier l'utilisateur comme avec les téléphones mobiles GSM. Ces cartes utilisent le protocole EAP qui permet différents scénarios d'authentification (carte SIM, Kerberos, basé sur SSL...). Il existe plusieurs approches (EAP-SIM poussé par les opérateurs télécom, LEAP proposé par CISCO pour le monde Windows ou EAP-TLS pour les architectures PKI). 

La Qualité de Service

Il peut y avoir des besoins différents :

  • Pour les données (Web, FTP...) : il n'y a pas besoin de temps réel, le flux peut être élastique mais les données sont intolérantes aux erreurs.
  • Pour la voix et la vidéo au contraire, les flux doivent être rigides (délai constant) mais le système est plus tolérant aux erreurs. Pour la téléphonie ou la visiophonie, le délai est important (typiquement entre 10 et 150 ms) alors que pour le streaming audio-vidéo le délai n'est plus critique.

La qualité de service comporte plusieurs aspects :

  • Efficacité : limiter les pertes dans la couche MAC
  • Souplesse : pour s'adapter aux variations du réseau physique
  • Garantie : des délais ou du débit

La prise en compte de tous les aspects de la qualité de service nécessite la séparation des flux (par exemple, voix et données) et du scheduling (répartition du temps disponible).

Le standard 802.11e comporte différents types d’algorithmes pour obtenir de la Qualité de Service :

  • EDCF permet une certaine séparation des flux mais ne comporte pas de scheduling
  • HCF permet à la fois la séparation des flux et le scheduling

Hiperlan II le pendant européen de IEEE 802.11a utilise une interface équivalente mais une couche MAC différente (division temporelle : TDMA TDD au lieu du CSMA). Il intègre la séparation des flux et le scheduling. Hiperlan II est un standard mieux conçu que 802.11 mais il reste cher et tarde à arriver. 

Exemples de déploiement de Wi-Fi

Université de Strasbourg

Choix de IEEE 802.11b et IPv6 (cellules de 40-50m). Les problèmes rencontrés sont par exemple les bornes qui sont actuellement en IPv4 et il a donc fallu développer de l’IPv4 dans le réseau IPv6 uniquement pour la gestion des bornes. Le système est prévu pour gérer la mobilité (mobile IPv6) et a servi à tester la diffusion en streaming, etc.

Aujourd'hui : mail web... et demain : messagerie instantanée et visiophonie (plus complexe en situation de mobilité mais plus simple en situation de nomadisme - ordinateur fixe déplacé à un autre point fixe). Mobile IPv6 (avec trois niveaux de handover) n'est pas fait pour les déplacements rapides et il est nécessaire de développer d'autres outils : (par exemple le fast handover pour le handover de niveau 2 défini à l'IETF...)

802.11a n'est pas concurrent mais complémentaire si on dispose de cartes bi-bandes (les cellules ne font que 11 à 15 m ce qui ne permet pas de couvrir tout le campus). 

Silicomp

Silicomp est un équipementier qui est une fédération de nombreuses PME qui travaillent sur le vêtement intelligent (avec France Telecom) ou sur le e-trash (!), pour mieux gérer les camions de bennes à ordure.

D'autres usages sont exploités comme les échanges en atelier ou dans les services d'urgence des hôpitaux.

Outre le Wi-Fi, le GSM/GPRS, laser (2km) et micro onde (20km), Silicomp travaille également sur Tetra, une technologie de téléphonie professionnelle proche du GPRS mais qui permet de faire de la diffusion 1 vers n. Par exemple, une des plus grosses sociétés de bus de Singapour a équipé sa flotte de récepteurs GPS et de systèmes Tetra.

Paris sans fil

Le réseau se construit de proche en proche (www.paris-sansfil.net/ ) avec des volontaires avec :

  • Des liens fixes Wi-Fi ou Wi-Fi5 (Abx vers Abx) Pour rester dans la puissance spire autorisée (100mW en France) les antennes d'émission sont réduites mais les antennes de réception sont plus fortement dimensionnées.
  • Hot spots locaux (Cx) en Wi-Fi

Utilisation de l' un mini PC sous Linux qui fournit des services NAT, DHCP, HTTP, SSH, Firewall, serveur d'imprimante... avec de nombreux connecteurs USB, Ethernet , série, parallèle, compact flash (300€) http://www.openbrick.org/  

UMTS et/ou Wi-Fi ?

En téléphonie 3G UMTS : Il existe deux systèmes incompatibles

  • UMTS version 99 (en fait du GSM avec un réseau cœur ATM) : par exemple le système déployé à Monaco
  • UMTS version 5 et 6 (du full IP) la version 6 n'est prévue que pour 2003 au plus tôt et la disponibilité des produits ne viendra qu'en 2005-2006

Les opérateurs se posent la question du choix à faire :

  • déployer de l'UMTS version 99 dès maintenant mais le déploiement de la version 5 ou 6 nécessitera un changement de tous les équipements et le choix de l'interface radio (actuellement WCDMA FDD en Europe. Cela pourrait encore changer HSDPA 16QAM, TD/CDMA TDD, LCR TDD d'origine chinoise ou encore l'utilisation de la technologie OFDM comme alternative au CDMA). Dans ce cas l'opérateur n'a pas intérêt à déployer des solutions Wi-Fi qui risquent de concurrencer les solutions UMTS
  • Attendre la disponibilité de l'UMTS version 6 (vers 2005-2006) et en attendant déployer des solutions Wi-Fi/GPRS qui sont disponibles.
  • Abandonner l'UMTS et ne se focaliser que sur les solutions Wi-Fi+GPRS

La difficulté pour les opérateurs avec Wi-Fi consiste à ajouter une problématique d'opérateur sur un réseau qui n'a pas été prévu pour (authentification, tarification...)

       

Les réseaux Ad-Hoc

Les réseaux sans fil actuels nécessitent des bornes fixes (configuration infrastructure) ou restent cantonnés à un petit groupe de machines dans un espace restreint (configuration ad-hoc).

Lorsque un réseau doit être déployé dans un environnement difficile ou lorsqu'il s'agit d'un réseau temporaire, il peut être intéressant que les données se propagent de mobile à mobile sans nécessiter de point d'accès fixes. On parle alors de réseau ad-hoc, de packet radio, de multi-hops ou de mesh networks. Ce type de réseau fait l'objet de travaux de standardisation au sein de l'IETF par le groupe MANET (Mobile Ad-hoc NETworks). De tels réseaux sont naturellement autoconfigurables (voir http://www.fing.org/index.php?num=1915,4#4 ).

L'idée de réseau ad-hoc est ancienne (dix ans) mais ne s'est pas développée autant que prévu à cause d'un certain nombre de difficultés plus grandes que prévues initialement. Par exemple, les mobiles qui routent les données sont limités en puissance et en mémoire et leurs batteries sont limitées en puissance.

Lorsque l'on met des protocoles de type TCP sur des protocoles de routage ad-hoc on obtient des performances très faibles à cause des déconnexions répétées dues aux erreurs de routage. Les délais lors de la première définition d'une nouvelle route peuvent prendre du temps car il faut, par exemple, inonder le réseau avec une requête de routes.

Des protocoles émergeants utilisent des informations supplémentaires pour optimiser le routage (par exemple par l'utilisation du GPS).

Deux types de routages ad-hoc :

  • Pro actifs (DSDV ou OLSR)
  • Réactifs (DSR ou AODV)

Et la qualité de service dans les réseau Ad-Hoc ?

Si la Qualité de Service fournit un ensemble de services aux applications pendant que les données sont routées à travers le réseau (par exemple, un délai garanti de bout en bout), cela n'est pas suffisant pour les réseaux ad-hoc. Dans ce cas il n'y a plus d'antenne fixe et le réseau se reconfigure pour établir une route de proche en proche à travers les mobiles présents.

Dans ce cas, la qualité de service nécessaire pour certaines applications est fortement dépendante de la qualité du réseau (y a-t-il des mobiles dans un environnement suffisamment proche pour permettre une communication de bonne qualité). Il faut donc une autre approche de la qualité de service. Une nouvelle définition plus adaptée aux réseaux Manet serait : Un ensemble de paramètres pour adapter l'application à la qualité du réseau pendant que les données sont routées à travers le réseau (par exemple des applications adaptables aux débits disponibles sur le réseau). 

L'intelligence ambiante

L'intelligence ambiante consiste à intégrer du traitement, de la communication et des moyens d'interaction avec l'environnement. Pas forcément dans des objets technologiques (comme des robots) mais surtout dans des objets de tous les jours (par exemple la bouilloire comme pour le i-pot).

L'intelligence ambiante remet l'utilisateur au centre (voir le séminaire sur la nouvelle interaction homme environnement http://www.fing.org/index.php?num=2769,4 ). Elle nécessite une approche par les usages. Voir par exemple les divers ensembles de scénarios :

L'intelligence ambiante est à l'intersection des quatre domaines de l'informatique : réseau, informatique personnelle, l'informatique embarquée et l'interface homme machine. Il y a aussi le " pro-active computing " qui anticipe les besoins et demandes de l'utilisateur.

On peut considérer plusieurs sphères de l'environnement : individuelle, proximité, organisation et globale. 

Le modèle LPC (Layered Pervasive Computing)

Modèle en couche de l'informatique ambiant qui a servi pour le développement d'EXiST une plate-forme d'évaluation et de simulation des technologies de l'informatique ambiante (comme cela a été testé dans une salle de conférence avec un vidéo-projecteur.)

     

    Utilisateur

    Appareils et Services :

    Intentionnelle

    Buts

    Objectifs/fonctions

    Abstraite

    Modèles mentaux

    Application

    Ressource

    Capacités

    Mémoire, stockage, Exécution, IU, réseau

    Physiques

    Physiologie

    Appareil physique

    Environnement

       

Le projet AMBIENCE

20 partenaires sur 7 pays européens du 1er juillet 2000 jusqu'au 31 octobre 2003 pour " assister les utilisateurs par une intelligence ambiante apportée par un environnement numérique "

L'intelligence ambiante peut être définie comme un système numérique sensible au contexte (CAS Context Aware System ". C'est à dire un système qui :

  • connaît la présence et le contexte des utilisateurs
  • est sensible, adaptatif et qui répond aux caractéristiques (besoins, habitudes, gestes et émotions)

Le projet AMBIENCE permet l'accès à des services multimédias partout et toujours (ou plutôt " où je veux et quand je veux ".) L'objectif est de développer des systèmes utilisables dans des musées, des salles de conférence... (avec gestion des communications de groupe par réseau Ad-Hoc).

Le problème de la qualité de service pour les flux multimédias (il faut suivre par exemple la règle des 8 secondes qui est la limite de ce que les utilisateurs acceptent ou la règle des 4 secondes dont on parle maintenant) et la minimisation de la consommation des batteries ont été plus particulièrement étudiés.