Les traits dominants de l'évolution scientifique et technique du secteur des télécommunications

Office parlementaire d'évaluation des choix scient
Extrait du chapitre I du rapport suivant de l'Office parlementaire des choix scientifiques et technologiques (France): Les conséquences de l'évolution scientifique et technique dans le secteur des télécommunications. Rapporteurs: Pierre Laffitte et René Trégouet, sénateurs (19 décembre 2001)

Sur un arrière-fond de mondialisation de l'économie - dont on ne peut naturellement pas méconnaître les effets en termes de marché, et compte tenu de l'évolution qu'a représentée le développement d'Internet depuis près de quinze ans, l'évolution scientifique et technologique du secteur est principalement commandée par trois faits incontournables: la constance des progrès de l'informatique, l'apparition après 1995 de la fibre optique à haut débit, le développement explosif de l'usage des mobiles et donc de l'utilisation des fréquences hertziennes numériques, satellitaires ou terrestres.

Depuis un quart de siècle, l'évolution de l'informatique professionnelle et personnelle a été un facteur incontesté de développement mais également de reconfiguration économique

Ses premières mises en relation avec les télécommunications ont abouti à la mise en oeuvre du réseau Internet (1) et du courrier électronique.

Mais, depuis l'apparition de la fibre optique à haute capacité, le développement de la mobilité et l'augmentation de la puissance de traitement des composants informatiques, les perspectives qu'offraient ces premières mises en relation ont été démultipliées.

Ces confluences sont le support technologique indispensable à la mise en place de la nouvelle économie.

A. L'ACCÉLÉRATION DES PROGRÈS DE L'INFORMATIQUE

1. Les composants et les langages

Formulée à la fin des années soixante par un des dirigeants d'une des principales firmes du secteur, la loi de Moore constatait que la puissance des composants électroniques doublait tous les 18 mois-24 mois à coûts constants et postulait la poursuite de cette évolution.

Cette prédiction s'est à peu près réalisée
.

Le nombre de transistors est passé de 2.300 au cm² en 1970, à 1 million en 1992, à 14 millions en 2001 au cm2, avec un objectif annoncé de 24 millions en 2003.

Ce dernier chiffre correspond à des transistors de 0,1u de côté.

En-deçà, on côtoie ce que les spécialistes du secteur appellent «le mur de briques», c'est-à-dire le constat de l'impossibilité technologique actuelle de progresser pour des raisons diverses (nombre d'atomes insuffisant pour assurer la conductivité, problème de résistance à la chaleur parallèlement à la montée en puissance de traitement, difficultés croissantes d'interconnexion des transistors, etc.).

Ceci ne signifie pas que la course à la miniaturisation ne se poursuivra pas au-delà de 2005, mais, qu'à un horizon de 10 à 15 ans, et à une taille comprise entre 0,5 u et 0,01 u, il sera probablement nécessaire de changer totalement de technologie de conception et de fabrication.

S'agissant des langages et logiciels informatiques, une floraison d'opérateurs industriels, parmi lesquels le plus connu, MICROSOFT, mais aussi la plupart des industriels informatiques, IBM, APPLE, SUN et plus récemment ORACLE, et les milieux scientifique et universitaire ont créé et développé presque ex nihilo une «industrie informatique et une industrie de services» considérables. Ceci a été un facteur indispensable au succès de l'informatique dans les 20 dernières années.

2. Les conséquences

Les conséquences de cette accélération des progrès de l'informatique sont assez connues pour qu'on ne les détaille pas, mais suffisamment importantes du fait de leurs effets sur le secteur des télécommunications pour qu'on les mentionne.

a) L'augmentation de la puissance de traitement des ordinateurs et des serveurs informatiques

Elle a permis d'asseoir une offre d'équipements et de services informatiques, régulièrement renouvelée. Elle a diversifié les usages des terminaux informatiques, industriels ou domestiques, et permis de traiter du texte, du son et des images - ces dernières dans des conditions qui deviennent proches de la télévision numérique. C'est la convergence en marche.

b) La baisse des coûts

La baisse des coûts s'apprécie surtout en valeur relative, au regard de l'augmentation des services offerts à prix constants - ou en faible diminution. Elle a eu pour résultat de consolider constamment la contrepartie de demande à l'offre qui s'enrichissait et se diversifiait de façon continue.

c) L'accroissement de l'ergonomie et la convivialité homme-machine

L'accroissement de l'ergonomie des applications informatiques a également eu pour effet de développer et de diversifier la demande. Sur ce point, chacun peut se rappeler la complexité des opérations de la mise en oeuvre d'un système d'exploitation d'ordinateur personnel au début des années quatre-vingt et la comparer aux facilités d'accès actuelles.

L'approfondissement de cette convivialité d'utilisation sera de plus en plus essentielle.

d) La miniaturisation

La miniaturisation, qui est un sous-produit des progrès des capacités de traitement des composants, a encore enrichi l'offre qu'il s'agisse des téléphones portables (2) ou des pilotes palmaires et équipements périphériques de toute nature. Elle aura, à terme, des effets décisifs dans le secteur encore inexploré des microtélécommunications qui sera une des zones les plus actives de l'offre dans les dix prochaines années.

Au terme de cette analyse, volontairement brève parce qu'amplement décrite par ailleurs, un fait doit être souligné car il est de première importance pour les relations entre l'informatique et les télécommunications et pour l'avenir économique de ces deux secteurs :

- dans un premier temps, la perspective s'est inversée. D'un système où les réseaux de télécommunications étaient puissants par rapport à la masse d'information qu'ils étaient appelés à transporter et où la capacité des terminaux à traiter cette information (3) était faible, on est passé à une situation inverse.

- le maintien de ce déséquilibre aurait probablement menacé à terme le développement du marché de l'informatique, l'apparition depuis 1994-1995 de la fibre optique à grande capacité et les progrès massifs de la mobilité, donc de l'usage des fréquences hertziennes, modifiant profondément cette inéquation pessimiste.


B. LE DÉVELOPPEMENT DES FIBRES OPTIQUES À HAUTE CAPACITÉ

1. L'augmentation des débits

Grâce au développement des lasers, la fibre optique est de plus en plus utilisée depuis une vingtaine d'années.

Dans sa version d'origine, il s'agit d'une fibre unimodale destinée à assurer la transmission d'émissions de télévision en multipliant le nombre de canaux disponibles.

Cette technique est plus coûteuse que le câblage en cuivre qui assurait à peu près les mêmes fonctions. Elle ne permet pas la réémission d'un signal par l'utilisateur (nécessaire à l'utilisation d'Internet et du courrier électronique). Sa capacité est aujourd'hui insuffisante au regard des perspectives offertes par le développement de l'Internet à haut débit.

L'innovation technique majeure des cinq dernières années
(le tournant se situe vers 1994-1995) a consisté, grâce au multiplexage optique, à multiplier par un facteur qui dépasse déjà 100 le débit utile de ces fibres optiques (on évoque une capacité théorique de transport de 200 Tbits/s(4) par fibre).

Cette multiplication correspond à l'augmentation de la quantité d'information transportée sur chaque longueur d'onde, et à l'utilisation d'un nombre toujours croissant de longueurs d'onde différentes sur une même fibre.

L'arrivée à maturité de cette nouvelle technique de multiplexage, reposant sur une démultiplication des longueurs d'ondes utilisées (WDM ou Wavelength Division Multiplexing) accroît considérablement les capacités du support optique puisqu'elle démultiplie une seule fibre en multiples canaux virtuels. Cette technique dite du WDM s'est améliorée (DWDM ou Dense WDM) et permet de mettre en oeuvre 160 canaux virtuels. Le progrès n'est pas terminé.

Cette percée technologique comporte plusieurs avantages :

- elle autorise les transports d'informations de hauts débits;

- le rapport de capacité entre une fibre optique à 100 longueurs d'onde et un câble de cuivre est d'1 à 10.000 ;

- elle est neutre au regard des protocoles situés en amont et en aval de la transmission (ATM (5), IP);

- elle offre au réseau une très grande flexibilité de gestion car elle possède une faculté de reconfiguration rapide permettant de faire face à une demande accrue et inopinée d'utilisation de la bande passante (c'est-à-dire de l'utilisation du réseau entre deux points);

- elle permet un déploiement échelonné car chaque opérateur, au fur et à mesure de la croissance de ses besoins, peut installer des longueurs d'onde supplémentaires sans changer les équipements de base;

- enfin, elle est plus sûre car plus difficile à pirater.

Dans ces conditions, on comprend que s'installent rapidement des coeurs de réseaux de télécommunications en fibre optique qui se substituent aux réseaux traditionnels de transmission ou les dédoublent.

2. L'augmentation des capacités optiques de traitement

S'il est acquis que la fibre optique est le moyen le plus adapté à la transmission à haut débit, les terminaux auxquels ces transmissions sont destinées sont électroniques.

D'où la nécessité de convertisseurs, assurant, à un moment ou à un autre, la rupture de charge entre la lumière et l'électricité.

Actuellement, ces convertisseurs sont électroniques et installés relativement en amont du système puisqu'ils en assurent également la commutation, c'est-à-dire le routage et la maintenance des demandes de changements qui interviennent à tout moment sur le réseau - assurant en quelque sorte le rôle des bretelles des noeuds autoroutiers.

Mais le rapport de puissance qui s'est établi entre les débits optiques et les débits électriques est un frein au développement de la transmission optique à haut débit, les commutateurs électroniques n'ayant ni la capacité de traitement ni la souplesse d'utilisation nécessaires à la mise en oeuvre massive de ces techniques.

C'est pourquoi, la plupart des équipementiers développent des recherches dans le domaine de la commutation optique.

Ces recherches qui sont un des domaines les plus dynamiques du secteur débouchent sur des commutateurs optiques autorisant le traitement de 40 Gbits/s par longueur d'onde, soit une puissance totale de traitement de l'ordre d'1 Tbit/s par commutateur (pour 16 longueurs d'onde et 16 fibres).

On aboutit ainsi à la mise en place de routeurs ou de commutateurs optoélectroniques à grand débit, la partie optique assurant, dans les noeuds du réseau, le trafic de transit et la partie électronique prenant en charge les demandes d'extraction et de réinsertion en provenance des réseaux locaux.


C. L'EXPLOSION DE LA MOBILITÉ ET L'APPEL À L'USAGE DES FRÉQUENCES HERTZIENNES

1. Le développement accéléré de la téléphonie mobile

a) Le GSM

Dans le monde, le nombre d'abonnés à un réseau de téléphonie mobile a progressé de façon spectaculaire depuis trois ans, passant de 205 millions, fin 1997, à 725 millions, fin 2000 (...)

(L)es données (...) d'un rapport récent de l'IDATE (6) appellent plusieurs observations :

- si, en Europe, la téléphonie mobile a continué à progresser en 2000 - et a encore progressé en 2001, les taux de pénétration, qui s'y situent entre 50 et 70 % de la population totale, conduisent à estimer que son avance y sera dorénavant plus lente,

- le taux relativement faible de pénétration aux États-Unis est imputable à l'absence de standardisation,

- il existe un marché potentiel immense dans la zone Asie-Pacifique, et notamment en Chine où le taux de pénétration de la téléphonie mobile n'était que de 7 % à la fin 2000,

- enfin, le retard de la France dans ce domaine doit être, comme le note le dernier rapport de l'Autorité de régulation des télécommunications (ART), tempéré dans la mesure où une révision des méthodes de comptabilisation des cartes prépayées pourrait aboutir à le relativiser.

Un autre phénomène mérite d'être mis en évidence : l'apparition d'un trafic de messagerie, les SMS (en 2000, selon le rapport précité de l'ART, plus de deux milliards de messages ont été échangés depuis et à destination de réseaux mobiles).

b) Les extensions de la téléphonie mobile à l'Internet

L'extension des usages du mobile est essentielle pour le bouclage de la chaîne télécommunications-informatique de demain. On imaginerait mal, en effet, que les efforts actuellement entrepris pour assurer un lien entre la fibre à haut débit et les terminaux se limitent aux communications fixes, dans un monde où les usagers pratiquent de plus en plus le nomadisme professionnel ou personnel.

Car, si le haut débit dans un contexte d'utilisation totalement mobile reste à ce jour délicat, l'objectif de la mobilité consiste surtout aujourd'hui à rendre les services offerts neutres vis-à-vis du contexte fixe ou nomade.

Sur ce point, la réalisation de la mobilité de l'accès à l'Internet à haut débit est la clef de voûte du système.

Mais si cette nécessité s'inscrit en perspective, les conditions de sa réalisation ne sont pas acquises.

Ce, pour toute une série de motifs (...) dont le principal est qu'il serait dangereux d'inférer de la translation rapide en mobilité de l'usage de la téléphonie fixe, acquis depuis longtemps, la même translation sur un usage qui ne l'est pas encore.

L'utilisation de l'Internet à bas débit n'est pas généralisée et celle de l'Internet à haut débit entre à peine dans les moeurs.

Une transition est donc nécessaire entre la téléphonie mobile de deuxième génération (GSM) et la téléphonie de troisième génération (UMTS) ou même de quatrième génération.

(... M)entionn(ons), parce qu'il est exemplaire, l'échec du WAP (Wireless application protocol, permettant de transmettre des pages Internet sous une forme allégée à des téléphones portables) imputable à la fois à la lenteur de son fonctionnement et à un modèle de facturation au temps qui aboutissait à facturer à l'usager les imperfections du système.

Les opérateurs développent actuellement deux systèmes de téléphonie marquant une amélioration vis-à-vis du GSM : le GPRS (Global Packet Radio System), et l'i-mode japonais.

le GPRS

Cette technologie intermédiaire entre la deuxième et la troisième génération de téléphonie mobile permet, en utilisant les fréquences et les réseaux - rééquipés - du GSM, de proposer des débits de l'ordre de 30 à 40 kbs (7) (9 kbs pour le GSM) qui autorisent une transmission plus rapide du texte. Ses caractéristiques techniques (transmission par paquets) permettent, en outre, une facturation au débit.

Son déploiement, freiné par des problèmes de compatibilité entre les terminaux de différents équipementiers, commence à s'effectuer en Europe en ce dernier trimestre 2001.

L'intérêt de ce système, c'est qu'il constituera un laboratoire pour les usages de la mobilité, s'agissant aussi bien de la transmission de textes que de l'offre de services de télécommunication.

l'i-mode

Lancé en février 1999 par l'opérateur japonais Docomo, l'i-mode, qui a attiré plus de 20 millions d'abonnés au Japon, offre un accès à plus de 30.000 sites Internet.

Mais, ce succès doit être mesuré aussi exactement que possible.

Les performances technologiques du système demeurent modestes -lenteur relative du réseau, prédominance des textes disponibles sur l'image. Par ailleurs, le chiffre d'affaires généré par le trafic de voix reste prédominant, de l'ordre de 90 %.

Mais, à l'opposé, ce système constitue un modèle exemplaire en matière commerciale, dans la mesure où Docomo a réussi à maîtriser l'ensemble de la chaîne d'équipement de service, du terminal à la facturation.

Et, dans ce cadre, il faut - sous réserve des spécificités culturelles japonaises - insister sur les enseignements de cette expérience, qui nous montre que les services de télécommunication mobile ne doivent pas se limiter à la transmission de données Internet.

c) Les générations ultérieures de téléphonie mobile

La dynamique de croissance des réseaux de deuxième génération a conduit les régulateurs internationaux des fréquences à resserrer un espace de fréquences à la troisième génération de téléphonie mobile.

Les bandes de fréquences pour ces systèmes ont été identifiées lors de la conférence mondiale des radiocommunications de 2000 (autour de 2 MHz, avec des extensions autour de 2,5 MHz) et l'UIT (Union internationale des télécommunications) travaille à la normalisation technique dans le but d'obtenir le maximum de compatibilité entre les nombreuses propositions concurrentes (dont l'UMTS, qui est l'appellation européenne), à défaut d'arriver à les fusionner en une norme unique.

Les caractéristiques générales des systèmes UMTS ou IMT-2000 renvoient d'une part à l'objectif d'itinérance au niveau mondial, particularité des réseaux de troisième génération, et d'autre part à la fourniture d'un service de mobilité complète ouvert au public, dépassant les limitations dues à la multiplicité des systèmes et des réseaux actuels et permettant de satisfaire de nouveaux besoins à la fois auprès du grand public (services à la valeur ajoutée à l'instar des services du Minitel ou de l'Internet), des professionnels et des entreprises (extension des solutions intranet/extranet au personnel nomade des entreprises).

Dans une première phase, l'UMTS utilisera les réseaux de transport de deuxième génération avec une interface radio de troisième génération (UTRA) et permettra d'offrir en mobilité l'accès à des débits de 384 kbits/s. De plus, le décalage dans les travaux de normalisation sur les deux composantes de l'UTRA conduira à déployer ultérieurement le mode W-CDMA FDD qui est plus adapté aux communications asymétriques (comme le transfert de données) et qui devrait atteindre 2 Mbits/s.

Les besoins à couvrir à ce niveau de débit sont pour partie identifiés: accès aux services et contenus de l'Internet actuel (images fixes et fichiers) pour le marché grand public et solutions intranet/extranet pour le marché des entreprises. Toutefois, ces besoins pourront également être en partie couverts par les opérateurs de deuxième génération, étant précisé que la montée en puissance actuelle de la téléphonie mobile aboutit à des effets de saturation d'un réseau que les opérateurs ne souhaitent pas nécessairement moderniser sur une base technique qui sera dépassée d'ici quelques années.

Encore est-il nécessaire de souligner que les techniques de troisième génération ont fait l'objet d'effets d'annonces optimistes quant à leur maturité technologique.

Il y a encore six mois, un terminal UMTS avait la taille d'un petit réfrigérateur.

Et si un équipementier vient de livrer à ses clients les premiers terminaux UMTS, c'est uniquement pour procéder à des tests.

Les réseaux n'étant, par ailleurs, pas encore déployés, il est plus que probable que l'horizon de mise en oeuvre de services de téléphonie mobile de troisième génération est glissant : plutôt qu'une mise en place en 2002-2003, comme l'avait primitivement envisagé l'Union européenne, il semblerait plus raisonnable d'escompter un déploiement sur 2003-2005 avec des effets de marché significatifs à partir de 2006.

d) Les techniques de navigation et de positionnement (8) 

Les technologies de navigation et de positionnement sont utilisées depuis plus de vingt ans. A côté du GPS américain, les pays européens s'efforcent de mettre en oeuvre leur propre architecture dans le projet Galileo, dont les phases successives sont prévues comme suit (9):

- phases de développement et validation - y compris la validation orbitale du système - : de 2001 à 2005, l'Union européenne ayant accepté de financer cette phase à proportion de 50 %;

- phases de déploiement : de 2006 à 2007, comprenant le lancement des satellites et la mise en place du segment sol;

- phase d'exploitation: dès 2008.

Il n'est pas utile d'insister sur les enjeux stratégiques et économiques du programme, dont le marché de services est évalué à 22 milliards d'euros en 2015.

Mais dans le cadre de cette étude, il revient surtout à vos rapporteurs d'insister sur un point.

À côté de ses usages civils classiques (prévention des risques naturels, géodésie, agriculture de précision, cartographie, météorologie, etc.), la navigation par satellites développe des liens croissants avec les systèmes de télécommunications (par exemple dans le domaine, si important aujourd'hui, de la logistique à flux tendus).

C'est une manifestation supplémentaire de l'intégration progressive de l'ensemble des techniques de communication, en particulier en situation de mobilité.

e) le problème des fréquences 

Dès aujourd'hui, les usagers de la téléphonie mobile sont périodiquement confrontés à des problèmes de saturation de fréquences.

Ceci met en évidence un problème qui deviendra crucial dans les années à venir si l'on n'y prend garde: la raréfaction des fréquences disponibles.

Même si, à l'échelon européen, des bandes de fréquences larges ont été réservées à la téléphonie mobile de troisième génération, certains de nos interlocuteurs se sont interrogés sur le point de savoir si ces attributions de fréquences seront suffisantes pour satisfaire à un usage généralisé de la mobilité pour l'accès à l'Internet à haut débit.

Et ce qui est vrai des fréquences hertziennes l'est également des fréquences satellitaires, notamment pour les constellations en orbite basse qui peuvent être, à l'avenir, un des supports de la mobilité, même si les échecs financiers de certaines de ces constellations tendent à reporter ces perspectives. (...)

* * *


L'ensemble de ces progrès technologiques - qui, rappelons-le, sont supportés par des avancées importantes en sciences fondamentales - se traduit déjà, et se traduira de façon croissante, par une augmentation des débits d'information véhiculés et des contraintes liées à leur diversité d'adressage

Le constater, c'est poser le problème de l'architecture des réseaux dans lesquels circulera cette information.


La vision d'avenir qui suppose qu'à terme tout usager pourra recevoir et transmettre «toute information à tout moment, en tout lieu et sur tout support» suppose que tous les réseaux soient totalement interopérables.

Dans un contexte d'augmentation des capacités et de la demande de transmission, ces réseaux devront ainsi assurer l'unification :

- de l'intervention de multiples opérateurs, nouveaux et anciens, y compris des opérateurs virtuels louant mais ne possédant pas de réseaux propres,

- de l'offre démultipliée de services informatiques, services de télécommunications, services multimédia interactifs (voix, données, images).

Ceci, dans une configuration où au sein même du réseau de chaque opérateur, coexistent plusieurs technologies comme le protocole ATM qui permet d'offrir des services de transport de voix et de données et l'actuel protocole Internet qui, actuellement, est très majoritairement dédié au transport de données.

Les fonctions des réseaux devront évoluer en conséquence. Elles incluront notamment la montée permanente des débits à l'accès et dans les réseaux «coeur» , l'adaptation des techniques de routage, de gestion du trafic pour de très grands réseaux supportant de nombreux types de services de transport, aux exigences différentes, ce qui suppose: 

- la «virtualisation»  du réseau en sous-réseaux « étanches » en matière de routage, de qualité de services ;

- l'apparition de fonctions de diffusion, d'hébergement ; les fonctions de sécurité de plus en plus fortes et diversifiées;

- le passage progressif au standard Ipv6 qui débloquera définitivement des contraintes d'adressage et simplifiera les autres évolutions fonctionnelles;

- et enfin l'apparition d'une couche de commande de ressources au-dessus de la couche de transport IP, offrant des interfaces propres au développement rapide d'une multiplicité d'offres de services très divers.

En fonction de ces contraintes d'interopérabilité et de traitement des activités, les réseaux du futur seront séparés en :

- une couche de base - ou réseau premier - où l'optique jouera un rôle dominant, chargée du transfert, du transport et du transcodage entre les bas-réseaux,

- et une couche dite intelligente chargée de l'acheminement final, de la facturation, de l'ensemble des interfaces avec les services informatiques, de télécommunications et audiovisuels.


Notes
(1) Qui comportait en mai 2001, 3.800 millions de pages et 850 millions d'images et qui s'accroît, par 24 heures, de 5,6 millions de pages et de 1,2 million d'images.
(2) Rappelons qu'un téléphone portable, qui pèse moins de 100 g aujourd'hui, aurait pesé, en 1960, à capacité égale, près de 3.500 tonnes et aurait eu la taille de l'Arc de Triomphe.
(3) Historiquement, la mise en oeuvre du Minitel a reflété assez exactement cette configuration.
(4) 1 Tbit/s = 1015 bits/s : cette capacité correspondant au débit de 15 millions de conversations téléphoniques. Pour mémoire, le trafic téléphonique français en heure de pointe est de l'ordre de 0,7 Tbit/s.
(5) ATM supporte le réseau téléphonique et IP les applications Internet.
(6) DigiWorld 2000.
(7) Sur la base d'un débit théorique maximum de 144 kbs.
(8) Pour plus de précisions on renverra à l'excellent rapport du Président Henri Revol sur «La politique spatiale française: bilan et perspectives» (Sénat n° 347 (2000-2001).
(9) À la condition que les réticences émises très récemment quant à la poursuite du projet par plusieurs pays européens soient levées.

Autres articles associés à ce dossier

À lire également du même auteur

La contamination par le mercure: l'exemple de Minamata
Passage tiré de: Office parlementaire d'évaluation des choix scientifiques et technologiques, Effe




Articles récents