Je suis Charlie

Autres trucs

Accueil

Seulement les RFC

Seulement les fiches de lecture

Ève

Débats sur les mesures de la qualité d'accès à l'Internet

Première rédaction de cet article le 24 juin 2012


Comme le savent les lecteurs les plus fidéles, je participe à un groupe de travail de l'ARCEP qui a pour activité la définition de mesures de la qualité d'accès à l'Internet. Sur quelle base dire que le FAI X est meilleur que Y ? En mesurant, bien sûr, mais en mesurant quoi ?

Le problème est plus difficile qu'il ne semble au premier abord (d'autant plus que tous les participants ne sont pas forcément de bonne foi). Les débats au sein du comité technique (qui formulera des avis, pour la décision finale, qui sera prise bien plus haut) sont donc animés. Je ne vais pas tout trahir, juste donner une idée aux lecteurs curieux des débats et des problèmes posés. Rappelez-vous qu'il s'agit de débats en cours, et que le résultat final sera peut-être différent.

Alors, premier exemple. Un des indicateurs prévus est la rapidité de récupération d'une page Web. On prend la page en HTTP puis tous les objets qu'elle contient (codes JavaScript, feuilles de style CSS, images, etc). Ces objets peuvent inclure des choses qui ne sont pas gérées directement par le webmestre (publicités, notamment) et qui, pire, peuvent varier en taille selon le demandeur (publicités ciblées). Alors, faut-il exclure les pubs ? Le problème est de définir un algorithme précis que pourrait suivre le programme de mesure. Tout ce qui est hébergé sous un autre nom de domaine ? Mais il est très fréquent qu'un webmestre récupère les contenus de www.example.com depuis un CDN, qui utilisera un autre nom de domaine. Tout serait plus simple si les publicités étaient marquées clairement (<pub href="http://www.invasionpublicitaire.example/bannerjpeg"/> ?) mais ce n'est pas le cas.

Ce problème est un parfait exemple de la difficulté à mesurer la QoE. Beaucoup de gens affirment qu'il ne faut pas utiliser des mesures de bas niveau (comme la latence ou le taux de pertes) car « elles n'intéressent pas Mme Michu ». Selon eux, il faudrait au contraire mesurer des choses qui sont plus représentatives de l'activité de la dite Mamie du Cantal, genre le Web ou la vidéo. Mais ces mesures de haut niveau sont infiniment plus complexes, notamment parce qu'elles dépendent de millions de facteurs différents. Il est donc très tentant de les bricoler (en retirant les pubs, par exemple). Au final, elles sont d'une scientificité à peu près nulle (ou, comme disent les candidats à une élection, « les chiffres, on leur fait dire ce qu'on veut »).

Autre exemple d'un débat difficile, la télévision. La plupart des FAI imposent une offre « triple play » incluant la télévision (même si on ne la regarde jamais). Elle est typiquement envoyée sur un canal différent de l'accès Internet, pour pouvoir lui garantir le débit souhaité. La télévision peut donc sérieusement perturber l'activité Internet classique. Dans ces conditions, ne faudrait-il pas faire les mesures avec la télé allumée ? Autrement, un FAI qui ne fournirait qu'une capacité réseau tout juste suffisante pour la télé pourrait se vanter de bons chiffres immérités. Et cela serait plus réaliste (Mme Michu fait du SSH pendant que ses enfants regardent Dora.)

Mais on retombe alors dans les débats classiques des mesures « QoE ». Dès qu'on commence à bricoler tel ou tel facteur, le problème explose dans tous les sens. Faut-il tester tous les FAI avec la même qualité d'images (certains offrent basse et haute définition) ? Faut-il un facteur correcteur pour tenir compte de leurs codecs différents ? Si demain certains utilisent des codecs adaptatifs, faisant varier la qualité de l'image en réponse à la congestion, comment intégrer cela ? Bref, ces mesures trop compliquées sont très difficiles à définir rigoureusement.

Il n'y a pas que les mesures de haut niveau qui sont difficiles à définir. Pour les mesures de bas niveau (latence, perte de paquets et capacité), faut-il mesurer IPv6 ou pas ? Certains estiment qu'il est peu utilisé par Mme Michu et ne doit donc pas être mesuré. D'autres pensent que c'est une mesure techniquement pertinente (un certain nombre de réseaux offrent de moins bonnes caractéristiques en v6 qu'en v4). Mais, alors, ne risque-t-on pas de stigmatiser les FAI qui ont eu le courage de faire du v6 ?

Autre discussion sur les métriques de bas niveau, les mesures en aller-simple ou en aller-retour. Faut-il mesurer la latence sur un aller simple ou bien avec le retour, comme le fait ping ? En fait, les deux sont utiles (le RFC 7679 définit la première et le RFC 2681 la seconde). Mais on se heurte ici à de vulgaires problèmes économiques. Mesurer une latence en aller-simple ne peut pas se faire depuis un PC normal, il faut des machines spécialisées, avec stricte synchronisation d'horloges. Or, tout le monde est d'accord sur l'importance de faire ces mesures de qualité d'accès mais personne ne veut payer.

Version PDF de cette page (mais vous pouvez aussi imprimer depuis votre navigateur, il y a une feuille de style prévue pour cela)

Source XML de cette page (cette page est distribuée sous les termes de la licence GFDL)