Au fond, à quoi servirait d’avoir des vecteurs optiques de transport de l’information et des capacités de traitement de cette information surpuissants s’il n’y avait aucun lien entre les deux ? Et si ce lien existait, son utilité économique et son pouvoir d’attraction sociale seraient amoindris si on pouvait le mettre en ?uvre sur certaines zones et pas sur d’autres, en usage professionnel mais pas en usage personnel, en situation sédentaire et pas en situation de mobilité, avec dans certains cas une grande sûreté d’utilisation et, dans d’autres, avec des interrogations sur sa fiabilité ou des suspicions quant à sa sécurisation.
Et à cet égard, l’achèvement de la mutation technologique du secteur reste pendant à la résolution de trois types de problèmes : l’élimination des goulots d’étranglement, la sécurisation des réseaux et la planification de l’espace hertzien.
{{I. L’élimination des goulots d’étranglement}}
Entre les réseaux de fibre optique à haut débit qui se mettent progressivement en place et les terminaux des usagers aux capacités de traitement de plus en plus élevées, il y a, la plupart du temps, solution de continuité.
En effet, contrairement au réseau téléphonique traditionnel qui a disposé de presque un siècle pour s’implanter, le déploiement des réseaux de fibre optique est soumis à une discipline de retour sur investissement beaucoup plus sévère.
Cette contrainte financière, récemment amplifiée par la crise, exclut -dans beaucoup de cas- que les fibres atteignent l’utilisateur final. En effet, l’un des paradoxes de l’évolution actuelle des télécommunications est que l’essor du secteur est freiné par le coût et les délais d’une technique beaucoup plus ancienne, le génie civil en milieu urbain.
Ceci, même s’il est de plus en plus envisagé de moduler le rapprochement entre le terminal optique et l’usager. En fonction des coûts de génie civil et des perspectives de marché, suivant les cas, on évoque ainsi la fibre jusqu’au coin de la rue (fiber-to-the-curb), jusqu’au pied de l’immeuble (fiber-to-the-building) ou même -beaucoup plus rarement- jusqu’à l’usager (fiber-to-the-home).
Mais en général, ce déploiement rapproché ou très rapproché n’est envisageable dans l’immédiat que dans des conditions économiques précises. C’est pourquoi prévaut la mise en ?uvre de technologies moins coûteuses et surtout permettant d’établir aussi rapidement que possible un lien entre les réseaux de fibres à haute capacité et l’usager.
Ces techniques sont multiples car, en raison de la variété des configurations, il n’y a pas de solution universelle de raccordement mais des solutions pertinentes en fonction des situations locales. Elles reposent soit sur l’utilisation des réseaux fixes, soit sur l’emploi des fréquences hertziennes.
{{
a. Les techniques dites xDSL}}
Les technologies xDSL, comme toutes les technologies de modems traditionnelles, utilisent des techniques de modulation transformant un signal numérique en signal analogique pouvant être transporté sur un support analogique, en l’occurrence la ligne téléphonique en cuivre.
Ceci en prenant en compte l’asymétrie des besoins puisque, en matière de trafic Internet, le débit descendant est généralement plus élevé que le débit montant. Parmi les paramètres différenciant les technologies xDSL, le principal consiste en la nature de la modulation retenue pour coder le signal.
Cette technologie -dont les coûts d’infrastructures sont relativement faibles- est utilisée par les opérateurs historiques qui cherchent à rentabiliser leurs réseaux, car elles présentent plusieurs types d’avantages : elle se greffe sur le câblage existant, ce qui minimise les besoins en génie civil ; limite les inconvénients des liaisons Internet bas débit qui n’offrent pas de convergence de service de téléphonie et d’informatique, présente une offre de services au travers d’une interface unique qui permet au client de faire face à l’ensemble de ses besoins en télécommunication, son déploiement peut être progressif et ses coûts fixes sont faibles, notamment pour les opérateurs historiques qui ne payent pas les frais d’hébergement des équipements de connexion (ce qui n’est pas, par exemple, le cas du câble qui requiert une mise à jour de l’ensemble des réseaux pour offrir de nouveaux services),
facilite l’ouverture de lignes nouvelles qui deviennent une action logicielle et non matérielle (suite à un clic sur le Web, le client peut avoir instantanément une nouvelle ligne téléphonique), soulage les commutations téléphoniques des connexions à Internet,
et ne fait l’objet d’aucune diffusion, ce qui diminue les problèmes de sécurité.
Par ailleurs, elle facilite, sur un strict plan technique, l’ouverture à la concurrence
et un fournisseur de services Internet peut enrichir facilement son portefeuille d’offres.
Mais elle comporte certains inconvénients : dans l’immédiat,
la qualité du cuivre et l’environnement électromagnétique peuvent engendrer quelques problèmes de déploiement, de plus, elle a une portée relativement faible, surtout lorsque le besoin de débit augmente (la portée, par exemple, n’est plus que de 300 m pour le VHDSL -à très haute capacité de transmission).
Suite de la page 11
A terme, les perspectives de développement de la technologie sont faibles (à part la mise au point du système développant plusieurs boucles de paires de cuivre);
comme le montre la rapidité de sa montée en puissance aux Etats-Unis- du fait de la faiblesse de ses coûts, de sa vitesse de mise en ?uvre et de sa compatibilité avec les techniques récentes de gestion des moyens débits, le xDSL est le système dominant pour lever, à court terme, les restrictions d’accès au réseau.
{{B. Le câble audiovisuel}}
A l’origine, ces réseaux -optiques pour les plus modernes d’entre eux- étaient destinés à la diffusion audiovisuelle et ne sont donc pas adaptés aux services Internet et de courrier électronique qui impliquent des facultés de retour d’informations.
C’est pourquoi ces réseaux s’orientent actuellement vers un système mixte (Hybrid Fiber Coaxial) où la partie optique assure le transport et la partie cuivre du réseau la distribution, pour assurer des communications bidirectionnelles.
Si ces réseaux hybrides -qui ne sont pas développés partout- constituent en principe une bonne solution de convergence multimédias (téléphonie, Internet, audiovisuel), leur déploiement se heurte à deux types de difficultés pour fournir l’accès large bande à tous leurs abonnés : n’ayant pas été conçus à l’origine pour cet usage, leur mise en ?uvre est coûteuse car ils nécessitent l’implantation de noeuds de desserte assez nombreux (un noeud pour 1 000 usagers), il est nécessaire d’assurer l’amplification du système de télévision tous les six cents mètres à partir du noeud de desserte, ce qui dégrade les performances du modem câble et réduit la portée de la distribution à 5 kilomètres -distance proche de la portée utile de la plupart des systèmes xDSL. Compte tenu de ces coûts, et de la relative faiblesse du câblage en Algérie par rapport à d’autres pays développés, il ne semble pas que les offres câbles puissent prendre le pas sur les techniques xDLS, ce que confirment les rythmes de déploiement respectifs de ces techniques.
{{C. Les lignes électriques}}
L’utilisation des lignes électriques pour ouvrir un accès Internet pose divers problèmes. Elle repose sur l’installation chez les abonnés d’un modem de cryptage qui transforme les données Internet sous forme d’une onde haute fréquence qui est ensuite superposée au courant normal puis transformée en signal numérique et acheminée au transformateur électrique où un serveur le relie au réseau par un câble classique.
Cette technique dont on conçoit l’avantage qu’elle présenterait en termes de distribution est actuellement porteuse de trop d’interrogations sur sa fiabilité pour pouvoir être considérée comme assurée d’un développement.
Elle peut toutefois présenter un intérêt, en externe, dans la perspective du développement de la climatique.
{{
D. La boucle locale radio (BLR)}}
Les opérateurs qui n’ont pas à leur disposition de bande locale filaire utilisent l’accès sans fil à haut débit pour éviter des déploiements filaires coûteux ou des frais excessifs dans le contenu de cette bande filaire.
Les systèmes BLR sont en général employés pour desservir une clientèle professionnelle (petite entreprise en milieu urbain ou PME), comme le fait Siemens en Algérie avec plusieurs sociétés.
Il peut s’agir soit d’une liaison point à point, chaque antenne du réseau ne desservant qu’un utilisateur (avec des débits pouvant atteindre 100 Mbits/s et une portée de 2 ou 3 kilomètres) en raison de la sensibilité du système aux phénomènes météorologiques ; soit d’une liaison point à multipoint, chaque antenne du réseau desservant plusieurs utilisateurs qui doivent alors partager la bande passante. Ce système repose, en fonction des astreintes de déploiement, sur deux types de technologies : le MMDS (Multipoint Multichannel Distribution Service), qui émet sur des fréquences inférieures à 3 GHZ et fournit pour une portée de 60 kilomètres un débit descendant de 10 Mbits/s et remontant de 128 Kbits/s ;
et le LMDS (Local Multipoint Distribution Service) qui offre des débits de 150 Mbits/s mais avec une portée réduite puisqu’il fonctionne sur une fréquence de fonctionnement très élevée (28 GHZ).
Par exemple, en France, la BLR a fait deux temps, l’objet d’une attribution de fréquences par l’ART portant sur : 2 bandes nationales sur l’ensemble du territoire métropolitain dans les bandes 3,5 GHZ et 26 GHZ, 22 licences locales dans la bande 26 GHZ et 2 licences pour chacun des départements d’outre-mer de la bande 3,5 GHZ.
La BLR vise principalement le marché des entreprises. Mais l’un des obstacles à son déploiement réside dans le coût de l’équipement client, de l’ordre de 30 000 DA, ce qui suppose de s’adresser, le plus souvent, à des entreprises de plus de 10 salariés, qui ne représentent que 7 % des entreprises françaises, parallèlement l’Algérie se développe de plus en plus dans le domaine.
Néanmoins, la BLR peut être intéressante pour des villes moyennes dans lesquelles il n’est pas rentable de déployer des boucles métropolitaines optiques. Dans les bandes de fréquence attribuées pour la BLR, on dispose aujourd’hui de liens point à point radio de 155 Mbit/s à un prix abordable. Le coût des points hauts est donc partagé entre l’accès des clients et l’interconnexion des stations de base. Cela représente un avantage par rapport aux opérateurs qui profitent du dégroupage pour déployer des architectures xDSL.
{{E. Les satellites}}
On doit tout d’abord rappeler que si les satellites sont en concurrence avec d’autres supports pour l’accès à l’Internet à haut débit en milieu urbain, ils sont irremplaçables pour couvrir les zones peu ou pas desservies par les réseaux. De surcroît, ces derniers dont on donnera des détails dans un prochain numéro constituent des réseaux de télécommunications indispensables pour toute une partie des activités de télécommunications : le positionnement et la navigation.
Ce secteur, qui a actuellement de très nombreuses applications de services civils et militaires, est l’un des domaines d’avenir des télécommunications. En effet, il sera un des supports privilégiés des réseaux «ad hoc», c’est-à-dire des réseaux se gérant en circuits fermés, indépendamment des réseaux principaux.
S’agissant de l’accès à Internet haut débit, le satellite ne peut actuellement concurrencer, dans les zones urbaines de forte densité d’activités, ni la fibre optique, pour des questions de capacité, ni les bandes locales filaires ou radio, pour des raisons de coût.
Son rôle technique n’en est pas pour autant négligeable : régions géographiques d’ensemble non desservies, desserte des derniers kilomètres non raccordés dans certains cas, desserte à destination de groupes linguistiques, ethniques ou culturels que le réseau Internet n’arrive pas à unifier,
déploiement à haut débit pour des grandes entreprises à implantation mondiale. Deux groupes de solutions sont mises en ?uvre : les orbites basses ou moyennes et les satellites géostationnaires.
Les constellations de satellites en orbite basse ou moyenne présentent l’avantage d’une puissance accrue mais leur déploiement, surtout en orbite basse, se heurte à des contraintes d’optimisation financière très sévères.
Ces satellites sont chers à lancer (car il s’agit de constellations), la constellation est longue à mettre en ?uvre et sa durée de vie est relativement faible.
Ils exigent donc une immobilisation financière très lourde qui ne peut pas être rentabilisée avant la mise en place de l’ensemble de la constellation alors même qu’elle implique un retour d’investissement rapide.
Les échecs d’Iridium et d’Orbcom ont conduit à s’interroger sur Globalstar (bien que cette constellation prévoie de collaborer avec les opérateurs locaux) et sur les projets Teledesic et Skybridge spécialisés dans la diffusion Internet et les réseaux de visioconférence mondiale. Il est évident que la montée en puissance des besoins de l’aménagement du territoire, de l’appui à la mondialisation, de l’intérêt pour la paix mondiale d’éviter la fracture numérique, sont des facteurs d’ordre politique qui conduisent à estimer qu’en dépit de leurs difficultés actuelles, les constellations à basse altitude auront un avenir. Il n’est d’ailleurs pas exclu qu’elles puissent avoir dans plusieurs années un rôle décisif pour la mobilité s’il y a saturation des fréquences.
De plus, les réseaux en orbite moyenne, en particulier celui de GPS et celui du projet Galileo, fonctionnent ou fonctionneront de façon satisfaisante.
Les satellites géostationnaires semblent mieux adaptés à la demande, notamment à celle qui exige un arrosage assez large des zones géographiques non desservies.
Dans les cinq prochaines années, on estime que le marché correspondra à 150 unités, étant précisé que les technologies correspondantes connaissent également une évolution rapide (accroissement de la charge utile, développement de l’efficacité des antennes et de la puissance des transpondeurs).
{{II. Le renforcement de la solidité des systèmes}}
A l’heure actuelle, les performances de la chaîne télécommunications-informatique ne sont pas suffisantes. Par exemple, chaque utilisateur de l’Internet, même s’il est plus que raisonnablement équipé, enregistre invariablement des délais de consultation ou est victime d’interruptions de trafic contraires à un usage normal d’un outil qui devrait être caractérisé par l’instantanéité de sa mise à disposition.
C’est l’une des raisons pour lesquelles se sont installés, notamment aux Etats-Unis, de nouveaux types d’opérateurs spécialisés dans les «salles blanches», où des serveurs surpuissants visent à garantir à leurs clients (fournisseurs de services Internet ou de télécommunications) des débits à haute capacité avec une régularité totale.
A terme, ce type de difficultés de fonctionnement ne sera plus toléré par les usagers. Aussi peut-on raisonnablement estimer qu’avec la généralisation du déploiement des moyens et des hauts débits, les performances générales du système s’amélioreront progressivement.
Mais plusieurs points d’interrogation demeurent sur sa fiabilité générale, portant sur ses possibilités de saturation à terme, sur sa sécurisation et sur l’état de sa normalisation.
{{Les interrogations liées à la sécurisation des réseaux}}
Les réseaux informatiques et de télécommunications sont appelés à être des supports essentiels de la vie économique et des relais quotidiens de la vie personnelle de leurs usagers.
Mais ils ne le deviendront que si leur sécurité est assurée au même titre que celle de la correspondance postale, des échanges bancaires ou des conversations téléphoniques.
Or, la sécurisation complète de ces réseaux devient de plus en plus difficile.
En effet, leur raison d’être est d’être ouverts et entièrement interopérables, ce qui rend inopérants les modes traditionnels de sécurisation par cloisonnement, et moins efficaces les Etats qui étaient traditionnellement chargés de réguler cette sécurisation.
De plus, la sécurisation doit s’effectuer dans un contexte un peu particulier, où tout le monde peut se connecter et où toutes les informations doivent se propager et où -dans le même temps- il existe des positions dominantes (Intel, Cisco, Microsoft) qui interfèrent sur toute la chaîne, et qui ne sont pas toujours ni transparentes ni homogènes. De telle sorte qu’il est extrêmement difficile de leur appliquer des mesures de sécurisation généralisées.
Il faut enfin considérer que cette sécurisation doit s’appliquer à l’ensemble de la chaîne télécommunications-informatique : des univers de la domotique -où personne ne souhaiterait des intrusions alors même que ces réseaux domestiques sont reliés à Internet, au très haut débit qui intéresse, par exemple, les calculs distribués qui sont ventilés par les physiciens des hautes énergies dans les laboratoires du monde entier.
Et à ce contexte général, pas toujours favorable, s’ajoutent deux contraintes.
D’une part, l’architecture des réseaux reposera, de plus en plus, sur le développement d’opérateurs virtuels et sur des chaînes d’opérations de sous-traitance qui sont naturellement moins identifiables que les opérateurs historiques.
D’autre part, si chacun réclame une sécurisation poussée des réseaux, les conditions de tarification n’en sont pas assurées. En d’autres termes, chacun veut plus de sécurité mais personne ne veut en assumer les frais.
Parallèlement aux développements, l’université algérienne investit un montant non négligeable afin de limiter les problèmes afférents à la mutation technologique, mais probablement encore insuffisantes d’autant plus contrairement aux Etats-Unis où existe un organisme unique, ce qui ouvre plusieurs aspects de l’ensemble des questions de sécurité.
{{III. La gestion, à terme, des fréquences}}
Les fréquences sont un bien rare. Elles sont utilisées par le secteur des télécommunications en concurrence avec d’autres besoins : défense nationale, police, navigation aérienne, secteur audiovisuel, radios, etc.
Leur gestion est assurée à un double niveau : national, en Algérie, sous l’Autorité de régulation des postes et des télécommunications, et mondial, au sein de l’Union internationale des télécommunications (UIT).
Il n’est pas inutile de souligner qu’il existe une constante de temps de l’ordre de 10 ans entre l’affectation à un nouvel usage de fréquences et sa validation. Par exemple, les discussions sur les fréquences de téléphonie mobile de troisième génération ont commencé en 1992 pour aboutir, en principe, à une libération fin 2002. De même, pour la télévision numérique terrestre (TNT) en France, a-t-on commencé à étudier le problème en 1994 pour une mise en ?uvre à partir de 2005, qui est prévu dans notre pays à la fin 2006.
Compte tenu de cette constante de temps, les besoins à terme sont planifiés.
Ainsi, la conférence d’Istanbul, tenue en 2000, a défini une extension des bandes de fréquence attribuées à la téléphonie mobile de troisième génération.
Déjà fonctionnelle en France et couvrant plus de 37% de la population, la TNT va normalement débuter ses premiers pas en Algérie au début de l’année 2007, espérant que cela aura les mêmes effets qu’en France. C’est pourquoi une réunion aura lieu certainement au sein de l’ARPT comme celle qui avait eu lieu en France afin de planifier le spectre de la future télévision numérique destinée, à terme, à se substituer au spectre analogique actuel.
Pourquoi, dès lors, s’inquiéter des problèmes posés par la gestion de ces fréquences qui semble planifiée dans de bonnes conditions ?
Principalement pour deux raisons : en premier lieu, parce que cette planification est encore trop dépendante des situations acquises et d’une évaluation trop linéaire des besoins à terme.
La télévision numérique terrestre (TNT) va accroître d’un facteur 5 ou 6 les canaux à la disposition des chaînes audiovisuelles, canaux qui sont mis à disposition gratuitement s’agissant du service public et pour un coût relativement faible pour les autres chaînes.
Or, en raison de la latence de libération évoquée ci-dessus, il est peu prudent d’affecter un bien aussi rare que ces nouvelles fréquences sans réelles contreparties financières et sans interrogation de fond sur les besoins à venir, ceci uniquement parce que les chaînes étaient attributrices des fréquences analogiques correspondantes et que l’on n’imagine pas que certains besoins puissent faire l’objet d’une croissance exponentielle.
La prudence dans ce domaine commanderait donc de réserver certains des canaux libérés par le numérique hertzien audiovisuel à des usages dont on ne peut encore mesurer l’importance alors que, dans le même temps, on sait très bien que la migration de l’analogique audiovisuel au numérique audiovisuel sera très longue. Cela d’autant plus que ces fréquences permettent d’obtenir des couvertures du territoire à moindre coût, ce qui faciliterait la mise en ?uvre d’applications de service public comme le téléenseignement ou la télésanté.