You have reached the cached page for http://www.co-ment.net/text/2584/
Below is a snapshot of the Web page as it appeared on 2/25/2011. This is the version of the page that was used for ranking your search results. The page may have changed since it was last cached. To see what might have changed (without the highlights), go to the current page.
Yahoo! is not responsible for the content of this page.
co-ment - Vers un réseau bien tempéré




Loading...

powered by co-ment®
 
CO-MENT.NET IS BEING PHASED OUT!
The service will be closed the 1st of march 2011.
Head over to www.co-ment.com for the new version of the service.

Vers un réseau bien tempéré

Auteur : Michel Riguidel, Professeur émérite à Télécom ParisTech (michel.riguidel AT telecom-paristech.fr)

CECI EST LA VERSION LONGUE ORIGINALE D'UN ARTICLE PARU DANS LA RECHERCHE EN DECEMBRE 2010
REPRODUITE ICI PAR OLIVIER AUBER A DES FINS D'ANNOTATION  AVEC L'AUTORISATION DE L'AUTEUR


1 - L’utopie de la neutralité : les verrous scientifiques et technologiques

Le pragmatisme musical de Jean Sébastien Ruisseau (Bach en allemand…)

En 1722, Jean Sébastien Bach publiait ses 24 Préludes et Fugues du Clavier bien tempéré (il publiera 24 autres Préludes et Fugues en 1742). Il voulait prouver, lui qui modulait beaucoup à l’intérieur d’un morceau de musique, qu’il était possible de jouer sur un même instrument, sans le réaccorder, des pièces dans les douze tonalités, tant en do majeur que dans une tonalité éloignée comme en fa dièse majeur. En effet, sur un clavier, il est impossible d’obtenir des octaves, des tierces, des quintes pures dans chacune des tonalités et le demi-ton dièse et bémol ne produit qu’un son unique, contrairement aux instruments comme le violon où il est possible de diviser un ton en 9 commas et de distinguer un sol dièse d’un la bémol. Bach obtînt la liberté de la modulation dans les douze tonalités par l’égalisation des demi-tons de l’échelle chromatique, le compromis du tempérament entre les lois de l’acoustique et les règles de la musique.

La question de la diversité sur une infrastructure agnostique

En 2010, on n’a pas encore résolu le problème difficile de réaliser sur une même infrastructure, un réseau bien tempéré, aboutissement qui surmonterait, par une dialectique informatique d’une nouvelle gamme de modèles de communication, les imperfections du réseau téléphonique à circuit réservé, synchrone, sécurisé, mais onéreux d’une part, et des systèmes autonomes du réseau Internet, à paquets, asynchrone, simple, économique mais vulnérable d’autre part. On a seulement résolu depuis 1999 par le protocole MPLS , grâce à des tunnels point-à-point créés par un taguage du format des paquets IP , l’acheminement des flux avec une qualité de service (en temps de transfert, en taux de perte de paquets, en débit) différenciée et calibrée. Le routage de flux différenciés est largement exploité chez les opérateurs et dans certaines grandes entreprises, ce qui a beaucoup diminué l’importance d’IP dans l’Internet et transformé cet écosystème en un réseau à deux vitesses. Néanmoins, l’abstraction de l’acheminement, à qualité de service définie avec des propriétés élargies (en sûreté de fonctionnement, en sécurité, en flux tendus, etc.), de l’information par des routages dits sémantiques de flux éphémères et régionaux [1] commence à poindre à l’horizon de la recherche avancée. Cette rupture dans les modèles de communication permettrait de configurer et faire cohabiter, sur un même réseau physique, des communications plurielles, équitables et efficaces, de s’affranchir ainsi de l’utopie actuelle de la neutralité homogène du réseau, et d’atteindre une gouvernance enrichie et transparente, gage de la liberté réelle des utilisateurs.

Le débat restreint sur la neutralité

En France, le débat (Colloque du 13 avril 2010 organisé par l'ARCEP sur la neutralité des réseaux. (www.arcep.fr). - www.gouvernement.fr/gouvernement/nathalie-kosciusko-morizet-installe-un-groupe-d-experts-sur-la-neutralite-du-net) récent sur la neutralité des réseaux s’est focalisé plutôt sur l’aspect économique et a débordé sur le volet idéologique de la consommation numérique. La discussion a ainsi délaissé l’aspect géostratégique des infrastructures numériques à consolider dans notre pays et a occulté le volet scientifique et technologique de l’évolution de l’écosystème numérique, si indispensable pour inspirer la vision d’une politique numérique industrielle et créer un véritable tissu de PME innovantes et pérennes. On a confondu le transport des données et la livraison des contenus. On a amalgamé certains autres sujets connexes : la question de la résorption de la fracture numérique, la volonté politique de la préservation des revenus de l’oligopole des télécoms, etc.

La confusion des définitions de la neutralité


Tout d’abord, notons qu’il existe plusieurs définitions de la neutralité des réseaux.

a.  La neutralité du réseau, pour un opérateur de télécoms, est l’absence de discrimination du transport des données, à l’égard de la source et de la destination. L’opérateur doit garantir la qualité des flux de transmission réclamée par les applications : la neutralité du réseau ne signifie pas une qualité de service identique pour tous les flux, mais une qualité de service adéquate pour chaque type de flux, auprès de l’ensemble des abonnés du réseau . Il existe d’autres formulation de cette définition : « la fourniture d'un service de réseau est dite techniquement neutre lorsque tous les systèmes participant au processus de bout en bout peuvent être remplacés au hasard par leurs équivalents techniques de tout autre opérateur sans qu'elle ne soit améliorée. »

b. La définition (Voir par exemple :  www.laquadrature.net/fr#brief_net_neutrality), plus en vogue chez les internautes, de la neutralité des réseaux exclut toute discrimination à l’égard de la source, de la destination, du protocole et du contenu de l’information transmise. Elle banalise la circulation intègre sur le réseau de toute l’information en bits indifférenciés. Cette seconde définition était satisfaisante lorsqu’on pouvait considérer que la « boîte noire » de la communication était quasi parfaite, indépendamment de ses entrées et de ses sorties, avec ses deux composants, le téléphone fixe pour la voix humaine et l’internet pour l’échange asynchrone de fichiers et l’affichage de messages. Les deux composants avaient chacun un support de communication idéal et une nature de communication en harmonie avec son architecture et ses protocoles. C’était le règne de l’ancienne logique coûteuse : un service = un réseau = une infrastructure, ce qui est encore le cas avec la télévision comme la TNT .

2 - L’écart croissant entre l’utopie et la réalité des réseaux

La situation critique des gestionnaires de réseau

Mais cette dernière définition n’est plus en accord avec la réalité des communications depuis de nombreuses années, particulièrement avec l’émergence de la mobilité et du haut débit, la généralisation des réseaux sans fils et l’irruption des contenus multimédia sur les réseaux.
Cette définition ne prend pas en compte le verrou technologique de la mobilité des émetteurs et des récepteurs, le goulot d’étranglement (avec un débit limité au mieux à 18 Mb/s, en moyenne à 2,5 Mb/s) architectural situé à la terminaison des réseaux fixes sur la ligne de l’abonné, la pénurie (en fait, le coût de l’investissement pour le renforcement de cette ressource) de fréquences pour les téléphones mobiles, la charge du transport massif de la vidéo en général, et l’utilisation intensive du réseau par les applications réparties.
En régime permanent, le transport n’est pas un réel goulot d’étranglement (globalement, le réseau est peu encombré en France : moins de 5 Tb/s de débit pour l’ensemble des abonnés français) puisque le nombre de Tb/s que peut transporter une fibre décuple tous les 4 ans. Mais le trafic sur les smart phones risque d’exploser à tout moment avec le déploiement des applications mobiles (ces applications proviennent des fournisseurs de contenus : Apple, Google/Android et Nokia/Ovi). Le filtrage des applications, au cas par cas (ces applications ne se distinguent pas sur les ports de TCP), risque de se généraliser afin d’ajuster le débit des contenus à la taille des tuyaux des opérateurs, à la périphérie des réseaux.

La stratégie du surdimensionnement : un accommodement dépassé


Dans un contexte de forte croissance des usages, les opérateurs de télécoms ont surmonté ces obstacles techniques par le surdimensionnement des réseaux, en anticipant notamment la demande en bande passante. Pour les opérateurs de télécoms, le coût d’installation (l’investissement) du réseau est très cher ; ensuite que le réseau soit utilisé ou non, le prix de revient de l’exploitation est le même à 10 % près. Cette adaptation (une évolution technique majeure a eu lieu au début des années 2000 avec la migration de SDH à MPLS/lambda) incessante, de plus en plus difficile à tenir par les opérateurs, requiert en fait une rupture technologique dans l’architecture des réseaux plutôt que des ajustements de circonstance. Elle réclame aussi une renégociation à l’échelle internationale des structures de coûts des accords d’appairage (de peering) entre systèmes autonomes, car les Fournisseurs de Service Internet de 1er niveau (France Télécom a le monopole de la collecte avec ces Fournisseurs internationaux bien qu’il ne soit pas strictement un opérateur de niveau 1) pratiquent une politique commerciale imprudente. Cette difficulté a été dévoilée au grand public par les pratiques non transparentes de certains opérateurs de télécoms, des pratiques commerciales douteuses ou des décisions arbitraires vis-à-vis des applications. Ce sont par exemple la limitation de l’accès aux services distribués (en particulier le ralentissement des protocoles pair-à-pair à certaines heures), des interventions (en particulier, l’insertion de publicité dans les flux HTTP, l’interdiction d’utiliser Skype pour la Voix sur IP, ou l’autorisation des seules cartes Google) excessives des gestionnaires de réseau favorisant leurs propres contenus multimédias.
Le gestionnaire des tuyaux prenait donc parti sur l’acheminement des contenus en établissant ses propres priorités, sans avertir les fournisseurs de services et les usagers : le débat sur la neutralité était lancé.

La réduction ou l’extension du domaine de la neutralité

Tout le monde s’accorde naturellement sur la neutralité de gestion, afin de combattre les dérives commerciales, les gestions suspectes des opérateurs et défendre l’exigence déontologique d’une transparence et d’une neutralité sans faille des opérateurs de télécoms. On est moins nombreux hélas à réclamer la même exigence pour les opérateurs de fermes de serveurs du Cloud Computing, de portails d’application propriétaire de réseaux sociaux, ou d’algorithmes de moteurs de recherche. La véritable neutralité informatique est encore un sujet tabou.

3 - La neutralité du réseau n’est pas neutre


La neutralité selon l’angle de vue économique


Tim Wu, professeur à l’Université de Columbia a diffusé le concept de neutralité des réseaux dans un article [2] en 2003. La neutralité du réseau, telle qu’elle est classiquement définie, n’est pas neutre. Elle distingue le réseau et les applications informatiques (le calcul, le traitement et le stockage de l’information) et exige que les flux ne soient pas dégradés par les opérateurs de télécommunications, permettant ainsi aux utilisateurs et aux fournisseurs de services et de contenus d’user librement des capacités des infrastructures de communication.
Mais pour ne pas dégrader chaque flux, il faut respecter les exigences de la technologie des applications. C’est le métier, ancien déjà, de l’ingénierie de trafic des réseaux. En conséquence, il faut pouvoir transporter l’information avec des qualités de services appropriées distinctes. La question de la neutralité des réseaux se pose donc bien uniquement vis-à-vis de l’équité du traitement des couples source-destination. Il est clair que le traitement des qualités différentes implique des coûts différents, qui sont, d’une façon ou d’une autre, payés par l’abonné de manière explicite ou dissimulée, dans un modèle commercial à imaginer (Deutsche Telekom essaie par exemple de facturer Google/YouTube. Aux États-Unis, Google et Verizon sont en négociation depuis quelques mois).

L’inadéquation d’une neutralité étendue au réseau

La définition étendue de la neutralité du réseau isole et appauvrit le concept même de communication : elle émet l’hypothèse que la boîte noire de l’espace-temps de la communication est un Éther infini, instantané, transparent et gratuit.
Cette définition élude l’évolution de l’écosystème numérique vers plus de sobriété : il faudra pourtant économiser l’énergie informatique, envisager une informatique verte, et concevoir des infrastructures numériques écologiques, c'est-à-dire développer des concepts de communication, de stockage et de calcul dans la finitude (Les 60 glorieuses de l’informatique s’achèveront bientôt avec la fin de la loi de Moore. Il faudra désormais vivre avec des ordinateurs plus stables, et raisonner dans un village numérique borné, avec des modèles économes, comme on le fait dans une vision écologique dans la lutte contre le réchauffement de la planète et contre la pollution) d’un monde numérique contraint, et même élargir l’informatique actuelle en passant à un monde quantique .
La définition de la neutralité occulte la richesse des propriétés des différentes applications : l'intégrité des communications, le taux d'erreurs aux diverses granularités (le comportement des réseaux est différent à l’échelle de la nanoseconde, de la microseconde, de la seconde) temporelles, le débit (filaire et sans fil), la performance, la sûreté de fonctionnement, la sécurité, la latence des échanges, la gigue des flux.

4 - La situation actuelle n’est pas neutre

Les lois de la physique de la communication


Pour la couche physique de transmission, les lois de la physique ne sont pas neutres. Les lois de Maxwell ne sont pas utilisées de manière optimale pour la gestion du spectre électromagnétique. Ce n’est qu’avec la future 3G (LTE ) que l’on va atteindre quasiment la limite. Les lois de l’optique, avec leur coût élevé, vont accroître la fracture numérique géographique, dans le prochain déploiement inégal entre les villes et les campagnes.
Claude Shannon [3, 4] avait déjà montré en 1948 les limites de la communication, en formulant (la formule de Shannon D = W * log2 (1+ S/B) établit le débit maximal possible en fonction de la bande passante et le rapport signal/bruit, c'est-à-dire la qualité du support) la taille des tuyaux et le rapport signal/bruit du canal en fonction du débit d’information. Les progrès de la fibre optique laissent encore de la marge au cœur du réseau dans les années à venir, mais la bande passante est toujours réduite à la périphérie. Dans l’atmosphère, la technologie des antennes, obéissant aux équations de l’électromagnétisme de Maxwell, n’améliore la performance de la radio que d’un facteur 2 environ tous les 10 ans. La montée continuelle du bruit dans le spectre réduit le débit des canaux aux fréquences les plus basses (inférieure à 10 GHz), et l’espace de croissance se situe davantage dans la montée en fréquence des transmissions (40 ou 60 GHz voire 1 THz).

La technologie spatiale des infrastructures : fibre optique et radio

Les infrastructures numériques ne sont pas gratuites. Le coût de la fibre optique en France serait de 70 milliards d’Euros pour couvrir les besoins de 80 % de la population. L’infrastructure radio serait également onéreuse car il faudrait quadriller la France avec des antennes, en tenant compte des questions de santé (la susceptibilité électromagnétique) et des particularités radio des sites (la forêt, les montagnes ne sont pas des paysages favorables, car les feuilles des arbres absorbent l’énergie des ondes électromagnétiques, les zones urbaines sont spécifiques car les ondes se réfléchissent sur les bâtiments, créant de nombreux multi-trajets). Si on veut augmenter le débit d’information transmise par la radio, il faut augmenter la fréquence des ondes, mais, à coût énergétique égal, on réduit de ce fait leur portée, et il faut donc augmenter la directivité de la radio et multiplier les dispositifs. L’infrastructure de la radio n’est pas neutre, elle est complémentaire de la couverture optique, laquelle est limitée aux zones géographiques les plus denses.
La fragmentation du spectre électromagnétique en plages de fréquences allouées (aux militaires, aux civils, aux diffuseurs de télévision, aux opérateurs de télécoms) n’est pas neutre non plus. L’allocation actuelle ne correspond plus aux usages et le découpage en tranches de fréquence n’est pas optimal du tout, d’où les recherches pour partager la ressource radio sur une même bande de fréquence. Le problème n’existe plus quand on monte en fréquence : la directivité des signaux empêche l’auto-brouillage, si bien que tous les usages peuvent coexister sur une même fréquence, mais la couverture de l’espace n’est alors pas évidente car il faut beaucoup plus d’antennes sectorielles et d’émetteurs-récepteurs.

La technologie temporelle des infrastructures : les protocoles

Quant aux couches de communications, les protocoles ne sont pas neutres non plus. IP privilégie les échanges asynchrones (comme le transfert de fichiers) par rapport à tous les autres échanges exigeants en qualité de transmission (la télémédecine, la haute sécurité, etc.). Dans la pratique, on sait transporter, pour un client, des signaux quasi synchrones sur IP : il faut alors définir le niveau de synchronisme souhaité, le délai de transmission acceptable et l'on sait en déduire la dimension du réseau support nécessaire pour atteindre les performances recherchées. Mais le client n’est pas seul sur le réseau. TCP  a été conçu pour les flux élastiques des réseaux filaires et n’est pas adapté aux réseaux sans fil, bien que TCP soit utilisé sur tous les réseaux Wi-Fi  et WiMAX  et que le protocole d’accès au médium ait été conçu avec TCP à l’esprit. La commutation de paquets n’est pas neutre : elle privilégie la sûreté de réception plutôt que la spontanéité du temps réel. Des protocoles se sont greffés, au fil du temps, pour corriger les faiblesses des protocoles fondateurs. Le protocole MPLS tague le format des paquets IP, crée des tunnels qui court-circuitent le protocole IP, viole le routage IP et sélectionne ainsi des trajets à meilleure qualité de service.
Les réseaux sont de plus en plus enchevêtrés par de nombreux routeurs qui finissent par ralentir les communications. Les routeurs sont des ordinateurs qui obéissent à la loi de Moore (Gordon Moore en 1965 a proposé cette loi qui est en fait une feuille de route technologique. Cette tendance a été suivie par l’industrie informatique de 1965 à 2008. Il semble qu’elle commence à être abandonnée). La puissance des processeurs qui double tous les 18 mois est maintenant un frein, d’autant plus que cette loi est en train de s’estomper puisqu’on prolonge artificiellement sa durée de vie par des architectures multiprocesseurs. On construit des routeurs à des débits de plusieurs Tb/s (leur temps de traversée est de quelques µs). Les « vieux » routeurs sont repoussés progressivement à la périphérie du réseau, là où les débits sont moins importants.

Le plan du réseau en jachère depuis 30 ans

Le plan du réseau, avec l’architecture de routeurs et les suites des protocoles TCP/IP et BGP , a été délaissé par les chercheurs pendant 30 ans pour conserver sa simplicité. Le mécanisme des paquets consiste à déchiqueter à l’envoi les messages en petits paquets de longueur variable, autonomes dans leur mouvement pour circuler à travers les multiples routes, et finalement se recomposer à la réception. Le réseau « fera de son mieux » : c’est le best effort qui optimise l’utilisation des tuyaux mais dégrade les applications synchrones quand certaines artères sont saturées. Les chercheurs traditionalistes, adeptes d’une neutralité systématisée jusqu’au sacré (dans les couches basses jusqu’à la couche transport), voudraient maintenir la pensée unique de TCP/IP et UDP/IP pendant de nombreuses années encore . Ces chercheurs n’oublient pas que l’Internet ne fonctionne sans saturation que grâce à TCP qui rejette le trafic excédentaire à l’extérieur du réseau. Pourtant, l’Internet actuel n’obéit plus à sa philosophie initiale, la sûreté de fonctionnement par une architecture en un graphe de nœuds d’aiguillage et de liens, et par un protocole qui assure la robustesse de l’acheminement plutôt que sa vitesse d’exécution. Le réseau est ainsi une friche, une sorte d’électroencéphalogramme plat, de circulation de bits indifférenciés, sans signification, l’intelligence informatique étant reportée à la périphérie du réseau, dans les applications sur les ordinateurs des usagers. Cette conception ne tient évidemment plus quand une partie de l’intelligence est prise en charge par le réseau, comme c’est le cas pour les applications fortement distribuées. D’ailleurs, certains fournisseurs de services et de contenus sont obligés de construire leur propre architecture au-dessus du réseau, en recouvrement : c’est le cas des accélérateurs de Web, des diffuseurs de vidéos, des CDN , etc., comme Akamaï, leader du marché sur ces questions. Ces architectures ne sont pas neutres : les milliers de serveurs ne sont pas répartis équitablement, mais placés là où les fournisseurs peuvent facturer.

La gouvernance de l’écosystème


Dans les couches applicatives, les protocoles ne sont pas neutres, les lieux des sources et destinations, non plus, la géographie des câbles sous-marins est édifiante à cet égard.
Par ailleurs, la gouvernance de l’ensemble est loin d’être neutre (comme les organismes ICANN  ou IETF  pour l’Internet), pour ne pas dire hégémonique. L’Internet, agrégats de systèmes autonomes, régis bilatéralement par des contrats fragiles et inéquitables (de peering et de transit) n’est pas neutre. Ce patchwork de contrats bilatéraux favorise certaines communications selon la source, la destination et le type de communication : mieux vaut faire du MPLS de transaction financière entre Boston et Los Angeles que de faire de la Voix sur IP entre Paris et Dakar ! Le club très fermé de la dizaine d’opérateurs de niveau 1 n’agit pas de façon neutre.

Les scansions des usages : l’anti-Internet


L’évolution des usages a en outre transformé le maillage des réseaux de l’Internet en un anti-Internet : les internautes se connectent directement à des moteurs  de recherche pour collecter les URL , ou bien à des portails  et le squelette des réseaux de télécommunication se consolide à présent en larges dorsales. On retrouve l’informatique d’autrefois, avec ces fermes de serveurs devenus de véritables Guantanamo numériques, où les données personnelles des internautes et des entreprises sont (mal)traitées pour extraire des profilages, au mépris du respect de la vie privée des communautés virtuelles, prises au piège dans ces immenses nasses de calculs obscurs. Les « réseaux sociaux » de l’Internet n’utilisent plus le réseau physique et logique, mais une grappe d’ordinateurs, avec des applications non interopérables, dans une gestion opaque. Les moteurs de recherche sont devenus d’authentiques machines de renseignement : les internautes, par leurs mots-clés, synthétisent leurs préoccupations, révèlent leur subconscient, ce qui peut être salutaire pour la lutte contre la pédopornographie, mais alarmant pour la contribution à l’espionnage industriel ou pour la préservation des libertés dans nos pays soucieux de démocratie. Par exemple, Google a anticipé l’évolution de la pandémie de grippe A/H1N1 en France en comptabilisant, de Juillet à Décembre 2009, l’évolution des statistiques des requêtes des Français inquiets sur cette grippe, lesquelles prévisions coïncidaient, à l’avance, avec les malades dénombrés sur le Réseau Sentinelles France. Ce qui est calculé pour la grippe peut être réalisé à des fins de renseignements bien plus sensibles, sur des États ou sur des grandes entreprises. D’une manière générale, la mode actuelle du Cloud Computing, destiné aux entreprises et peu visible du grand public, brouille les ressources informatiques à l’utilisateur, fait fi de la neutralité et ignore la séparation du réseau et du reste des fonctions informatiques. Les success stories (comme Skype) récentes sont souvent des applications qui utilisent une liaison étroite entre l’application et le réseau, avec des protocoles (STUN : RFC 3489 de l'IETF avec la participation de Cisco et Microsoft, Simple Traversal of UDP through NATs, c'est-à-dire traversée simple de UDP à travers les NATs, est un protocole client-serveur permettant à un client UDP situé derrière un routeur NAT ou de multiples NAT de découvrir son adresse IP publique ainsi que le type de routeur NAT derrière lequel il est), ouverts mais agressifs dans le but de transpercer les architectures sécurisées.

La confusion maintient un modèle caduc

En conclusion, les discussions sur la neutralité des réseaux demeurent dans un flou technique. On ne sait jamais de quelle définition l’on parle, celle des télécoms, celle des économistes et juristes d’outre-Atlantique, ou celle des internautes qui remonte jusqu’aux applications. Nos représentants politiques qui ont ordinairement une vision sublimée du numérique, adhèrent à cette neutralité en entretenant l’imprécision, cultivée par les bien pensants du politiquement correct. Le débat sur la neutralité esquive donc en général dans un déni de réalité technique, les caractéristiques physiques et technologiques des réseaux actuels : cette occultation n’est pas neutre. Elle tient, en France, à préserver les revenus des opérateurs sur le modèle périmé d’un abonnement à une technologie figée pour un prix unique quelle que soit la performance du service rendu (l’ADSL est vendu au tarif de 30€ par mois quel que soit le débit qui varie de 128 kb/s à 18,5 Mb/s selon l’endroit où l’on se situe) et quelle que soit l’utilisation. Avec le forfait unique, les ruraux et les utilisateurs occasionnels paient pour les citadins et les internautes assidus. Elle tient à préserver une vieille conception des réseaux comme un transport de bits indifférenciés, alors qu’il serait préférable de les différencier en termes de protocoles et de coût du transport.

Le conservatisme qui brise l’innovation

Internet a été inventé par quelques fondateurs, et rien n’a réellement changé techniquement depuis 1973. Les informaticiens des applications s’en sont emparés, croyant que les communications étaient une question technologique résolue. Cette stagnation technique nous a conduit vers un monde où règne la loi de la jungle des applications sur des portails mondialisés, où la valeur des services et des contenus est tirée vers le bas et où la variété des modèles équitables et efficaces de communication n’existe pas. L’éviction du débat scientifique a pour effet de conserver le best effort et de récupérer une privacy des données personnelles à l’anglo-saxonne, alors que l’expression française d’intimité numérique apporte des acceptions enrichies. La France avait stoppé les propres développements internet (Cyclades) en démontant le superbe effort de Louis Pouzin (Louis Pouzin est l'inventeur du datagramme et le concepteur du premier réseau à commutation de paquets, dans le projet Cyclades. Ses travaux ont été utilisés par Vinton Cerf pour la mise au point de Internet et du protocole TCP/IP) dans les années 70. Les faux débats de 2010 risquent de conduire à l’abandon des efforts pour restaurer une souveraineté numérique (la maîtrise du patrimoine numérique) et une dignité numérique (le refus des agressions publicitaires dans les algorithmes ou sur les écrans) du citoyen, si décisives pour notre liberté dans le monde informatique de nos jours.

Cette incompréhension risque de décréter un couvre-feu intellectuel, étouffant la recherche d’avant-garde sur les réseaux, et de transformer la France en un protectorat sans champion industriel du numérique. Il n’existe déjà plus en France, hélas, d’industries autour des réseaux Internet.

5 - La modernité : l’écosystème numérique du XXIe siècle


La perspective technologique : une virtualisation spatiotemporelle de l’écosystème de communication


Vers une virtualisation des couches basses du réseau
Le monde numérique va évoluer  grâce à des modèles d’abstraction de plus en plus élevée, lesquels vont admettre une plus grande richesse et une plus grande puissance. L’Internet restera collé au niveau strict du réseau, de plus en plus souple et rapide. Le paradigme de virtualisation  de toutes les ressources va se caractériser par une complexification et une flexibilité plus grande des moyens de communication, de calcul et de stockage. L’informatique va réinvestir le monde réel des humains, va s’auto-organiser, ce qui ne va pas se faire sans un minimum d’apprentissage (algorithmes d’apprentissage), un minimum d’intelligence (observer, découvrir, analyser, détecter, décider, agir, mesurer, vérifier et corriger) et un minimum de gouvernance (définition d’une politique, gestion, mesure de la qualité, négociation, correction).

Vers des communications équitables et efficaces


Il semble plus juste d’énoncer des principes de communication équitable et efficace pour réconcilier les communications synchrones comme la voix et la visiophonie (privilégiées par l’infrastructure du téléphone et la technologie du circuit, négligées par Internet) et les communications asynchrones (privilégiées par Internet, mal traitées par le téléphone fixe) et étendre le catalogue des modèles de communications. Les principes technologiques permettant de restaurer ce dualisme (et non l’équité) sur IP existent, encore faudrait-il l’étendre à l’accès, à la transmission, au transport et aux sessions, mais il manque la volonté politique d’affronter les opérateurs de télécoms. Si l'on veut radicalement améliorer les fonctions du réseau, la technologie ne suffit pas, il faut enrichir les modèles de communication, en mêlant et mariant architecture et protocole, c’est-à-dire en abolissant cette césure entre la gestion de l'espace et la gestion du temps qui est préjudiciable (et non neutre) à la performance des applications. On peut concevoir, dans une dialectique d’abstraction, par une virtualisation spatiotemporelle des architectures et des protocoles, un réseau universel où la base commune est l’accès. Autour de la trame Ethernet, on peut réconcilier les architectures du téléphone et de l’internet d’une part, et les réseaux filaires avec les réseaux sans fil d’autre part, et l’on peut faire cohabiter équitablement et efficacement toute une palette d’applications, inédites sur nos réseaux actuels : la TV haute définition, les services collectifs, les services citoyens d’urgence, la télémédecine, les services bancaires hautement sécurisés. Ces services pourraient coexister avec le best effort pour le transport traditionnel de fichiers. La machine de communication analyserait, non pas le contenu des fichiers des utilisateurs, contraire à toute éthique démocratique, mais examinerait un langage à balises sur les en-têtes des trames Ethernet, pour le routage régional.

Un langage de balises géographiques et temporelles

Pour injecter de la sémantique dans les « tuyaux » et sur les flux d’information des réseaux filaires (IP, MPLS) et des réseaux sans fil de diverses technologies (environnement radio 3G, Wi-Fi, WiMAX), on exhibe le volet cognitif par une infrastructure de phares et de balises. On colle un système d’étiquettes sur les appareils de communication (point d’accès Wi-Fi, antennes WiMAX, boîtier ADSL , routeurs IP) et sur les trames Ethernet des flux d’information. Ces étiquettes constituent, par combinaison de symboles, un langage. Les routeurs en périphérie des réseaux deviennent des machines à traiter ces tags afin d’augmenter la qualité et d’enrichir la transmission des différentes applications.
Grâce à ces en-têtes intelligents et dynamiques, on réconcilie ainsi la famille des réseaux et des contenus par ce langage abstrait qui assure la virtualisation spatiotemporelle de l’espace de coordonnées de la communication. Ce langage offre en outre des outils d’interprétation à l'opérateur de télécoms et à l'utilisateur, ouvrant ainsi les modèles de communication vers plus de transparence.

La perspective de nouveaux usages : enrichir la palette des applications


Si l’on veut que les réseaux s’immiscent plus dans la réalité physique, voire dans les êtres vivants, il faut améliorer la sécurité et la sûreté de fonctionnement des systèmes complexes . Si l’on veut enrichir les applications et les services, il faut que les réseaux, les modèles de communication, en général, se diversifient. La pluralité est le fondement de l’avant-garde informatique. On ne peut plus résoudre les verrous de l’informatique par un protocole providentiel ou par une architecture miraculeuse. L’informatique n’est pas fractale, elle ne présente pas les mêmes contraintes à toutes les échelles de temps, d’espace et à toutes les granularités de composants. Il est donc important de concevoir d’abord, à chaque échelle des styles architecturaux, qui expriment au mieux les contraintes spatiotemporelles des composants des réseaux, des machines de calcul, et de stockage.

La perspective scientifique : l’informatique en creux d’un milieu poreux
Si l’on veut progresser dans la mise à disposition pour le XXIe siècle d’un écosystème numérique adapté aux applications à venir, il faut opérer un saut conceptuel à partir d’une page blanche. Il semble plus rentable d’examiner l’informatique en creux, c’est-à-dire ne pas saisir les objets communicants mais plutôt leurs relations. Il paraît plus efficace de traiter non pas les paquets ou les circuits mais les flux au niveau du réseau et des routeurs. La loi  de Darcy [5] décrit l’écoulement des milieux poreux [6] en définissant une porosité et une perméabilité comme une variable géométrique avec une tortuosité, une texture. La loi de Darcy [grad p = (µ/k)u + g ]exprime le gradient de pression aux extrémités du système en fonction de la viscosité µ, la perméabilité k, la vitesse d’écoulement u, la masse volumique et l’accélération de la pesanteur g. Au lieu de la traditionnelle toile maillée, les réseaux ressembleront à un milieu poreux où les lois de la perméabilité remplaceront les lois des files d'attente. L’écoulement multiphasique des textes, des sons, des vidéos sera mesuré avec des instruments piézométriques pour dimensionner les réseaux de façon dynamique.

La perspective éthique : la sémantique dans la communication

Évoquant la communication numérique avec en arrière-plan les théories de Claude Shannon, Jacques Lacan [7] déplorait déjà en 1955 : « il s’agit de savoir quelles sont les conditions les plus économiques qui permettent de transmettre des mots que les gens reconnaissent. Le sens, personne ne s’en occupe ». Roland Barthes [8], relisant les présocratiques, avait présenté en 1960, la communication en introduisant un émetteur avec une éthique (muni d’un ethos, ἔθος), qui transmettait un message signifiant (le message a un sens, le logos, le ό), à un récepteur qui le recevait avec émotion (récepteur sensible, doté d’un pathos, πάθος). On peut s’inspirer des réflexions de R. Barthes pour proposer de nouveaux modèles de communication, plus conformes pour qualifier les communications actuelles. Un émetteur doté d’une éthique (pas de contenus sordides ni de calculs illicites, pas d’agressivité avec de la publicité tapageuse) envoie un message, qui a une signification, avec une priorité, une utilité et une fonction économique, à un récepteur qui le reçoit avec une réaction, un pathos (pas d’intrusion dans la vie privée avec des profilages), que le sujet soit un individu ou une machine. Une nouvelle rhétorique (ῥητορικός, pour la synthèse de l’architecture topologique et du protocole) est à concevoir prenant en compte le sens et l’utilité dans les modèles économiques. C’est cette « épaisseur des signes » de la boîte grise de la communication qui permettrait d’éclairer une nouvelle perspective de la neutralité informatique, en accord avec la science, la technologie et l’économie. Ces nouveaux modèles ne viendront pas remplacer complètement le modèle de Shannon qui régnera toujours dans les couches de transmission, mais pourraient trouver leur intérêt dans la couche de communication quand les bits et les octets ne sont plus suffisants pour prendre des décisions, et qu'il faut injecter de la sémantique dans les tuyaux. La sémantique proviendra de l’environnement radio (radio cognitive, réseau cognitif), de la perméabilité du milieu poreux du réseau ou des balises des flux qui transitent (flux bancaires très protégés dont on pilotera les itinéraires, télécommandes chirurgicales hautement sûres sensibles aux délais et à la gigue dont on limitera le nombre de sauts, flux de contenus vidéos en temps réel).

La perspective géostratégique : la balkanisation du ciel numérique

Le prochain bouleversement dans le monde numérique sera la prise en compte de la mobilité des individus et des objets physiques (comme un téléphone 4G, une voiture, un stimulateur cardiaque) et des objets intangibles (l’existence d’un contenu, la circulation et le guidage des bits d’informations par la géographie), sachant que la plus grande partie du réseau restera fixe.
Le village planétaire se restructure d’ailleurs subrepticement autour des systèmes de géo-référencement et l’on assiste à une balkanisation du ciel numérique. Toutes les puissances continentales ont décidé de se lancer dans la mise en œuvre de systèmes de géo-navigation : les États-Unis possèdent le GPS, l’Europe tarde à mettre en service Galileo, la Russie, la Chine et l’Inde lancent leurs propres systèmes. Cette acquisition est géostratégique pour la suprématie d’un pays ou d’un continent.
Le Glonass russe a déjà 21 satellites opérationnels sur les 24 de la constellation.
Les applications numériques du futur prendront racine sur plusieurs infrastructures. Elles saisiront l’heure et la position des objets sur les systèmes de géo-navigation, les données personnelles sur les téléphones ou assistants personnels 4G, et récolteront les logiciels dans les nuages du Web. L’urbanisation numérique se complète avec des horloges pour mettre les pendules des ordinateurs à l’heure, et des sextants et des boussoles pour se repérer et naviguer dans ce nouvel océan.

La perspective écologique : une infrastructure agnostique et cognitive
Pour éviter que l’atmosphère ne devienne un chaudron électromagnétique, il est indispensable de reconsidérer les réseaux radios autour d’une infrastructure intelligente qui maille le pays avec une distribution d’antennes efficaces en énergie, compatible avec les aspects de santé des êtres vivants, en général. Afin de produire moins de CO2, la radio logicielle et les réseaux cognitifs permettront la découverte des différents réseaux radios, lutteront contre les interférences inter et intra-système. Le credo (néanmoins, l’horizon s’éclaircit avec le LTE, Long Term Evolution, le futur UMTS) du passé « 1 service = 1 infrastructure » est caduc.

6 - Un élan vers une politique industrielle numérique volontariste


De l’audace en recherche

La recherche est influencée, à cause de son financement, par les innovations à court terme. Il en résulte de petites avancées, une volonté de ne pas transgresser les orientations de l’industrie vers un Internet++. Penser l’après-IP (IPv4 ou IPv6) est considéré comme hérétique. Il faudra pourtant redessiner l'architecture des communications en général, de façon plus radicale que ne le laissent entrevoir les projets actuels, chercher d’autres représentations et références et trouver des passerelles entre ces divers modèles. De l’audace sera nécessaire pour ne pas balkaniser les communications mais au contraire les faire coexister dans un immense agrégat de systèmes autonomes virtuels partageant des modèles contradictoires, sur des ressources elles-mêmes virtualisées (trames, paquets, canaux, routes, sessions).

Un réseau polymorphe, sobre et bien tempéré

L’avenir n’est pas déterminé. Au-delà d’une vision figée par le dogme des réfractaires au changement, et d’une vision idyllique des réseaux de demain, pré-écrite par le marketing, comptons sur nos propres forces intellectuelles pour inverser cette tendance et inventer, dans une vision multipolaire, un réseau polymorphe [9], sobre, bien tempéré . Dans cet écosystème, cohabiteront des entités nées de modèles en continuité du passé, des entités issues de contre-modèles venus d’autres continents, mais aussi nos entités informatiques propres, originaires d’alter-modèles conceptuels, compatibles avec nos valeurs démocratiques, fruits de notre culture mathématique, exhortant par-dessus tout la liberté authentique et vérifiable des utilisateurs de réseau.

-------------------------

Références


[1] M. Riguidel : Une épistémologie des modèles informatiques de l’espace ambiant, Revue du Génie Logiciel, 2009.
[2] T. Wu : Network Neutrality, Broadband Discrimination, 2003.
[3] C. E. Shannon : A mathematical theory of communication. Bell System Journal, Journal, Vol. 27 pp. 379-423 (Part I) and pp. 623-656 (Part II), 1948.
[4] C. E. Shannon: Communication Theory of Secrecy Systems. Bell System Journal, Vol. 28, Nr.4, pp. 656-715, (1949).
[5] H. Darcy : Les fontaines publiques de la ville de Dijon. (1856).
[6] G. Matheron : Éléments pour une théorie des milieux poreux, Masson. (1967).
[7] J. Lacan : Le Séminaire, Livre II, p 105. (19 Janvier 1955).
[8] R. Barthes : L'Ancienne rhétorique - aide-mémoire, dans Recherches rhétoriques, Communications, n°16, Seuil, pp. 172-229. (1970).
[9] M. Riguidel : An epistemology of information technology models for pervasive computing, Internet of Things 2010 Conference, Tokyo. (2010)

Projets européens FP6 et FP7

 Beyond the horizon: cordis.europa.eu/ist/fet/strategy.htm (technology roadmaps) (2005-2006)
 Seinit: www.isoc.org/seinit/portal/ (virtualisation of security functions) (2004-2006)
 Secoqc: www.secoqc.net/ (quantum cryptography) (2004-2008)
 ThinkTrust: www.think-trust.eu/ (security think tank) (2008-2010)
 SecurIST: www.ist-securist.org/ (security roadmap) (2006-2008)
 FIRE: cordis.europa.eu/fp7/ict/fire/ (future Internet)
 Inco-Trust: www.inco-trust.eu/ (International Cooperation in Security Research) (2008-2010)

Notes


MPLS : MultiProtocol Label Switching (RFC 3031 à l’IETF) a été inventé par Cisco en taguant les paquets IP et en opérant une commutation d’étiquettes.
IP : Internet Protocol (RFC 791) a été inventé par Vinton Cerf. C’est le protocole de routage des paquets.
TNT : la Télévision Numérique Terrestre utilise la norme DVB-T.
TCP : Transmission Control Protocol (RFC 793), protocole de transport fiable des données. Ce protocole devra être abandonné tôt ou tard, si on veut rentrer dans une ère informatique verte, car ce protocole simple est trop gourmand en énergie.
Wi-Fi est une technologie de réseau local sans fil.
WiMAX est une technologie de réseau métropolitain sans fil.
BGP: Border Gateway Protocol (RFC 1771), protocole de transport entre systèmes autonomes.
TCP et UDP sont les deux protocoles de transport, l’un fiable mais consommateur d’énergie et conçu pour les réseaux filaires, l’autre non fiable, très simple, et adapté aux flux multimédia (on peut perdre des paquets en cours de route).
LTE : Long Term Evolution, génération suivante de l’UMTS.
ADSL : Asymmetric Digital Subscriber Line, liaison numérique à débit asymétrique (plus faible dans le sens montant que dans le sens descendant) sur ligne d'abonné, qui permet d'utiliser une ligne téléphonique pour transmettre et recevoir des données numériques de manière indépendante du service téléphonique.
CDN : Content Delivery Network.
ICANN : Internet Corporation for Assigned Names and Numbers.
IETF : Internet Engineering Task Force
URL : Universal Resource Locator