(Source : http ://optiinfo.files.wordpress.com/2012/11/quality-web-traffic2.png)

C’est le principe du “End-to-End” dans lequel l’information transite du serveur jusqu’au terminal de l’usager sans interférence. Pour Bill D.Herman (http ://law.indiana.edu/fclj/pubs/v59/no1/10-HermanFINAL.pdf), le réseau est “stupide” puisqu’il ne filtre pas ce qui passe dans les conduites. Cette stupidité du réseau a pourtant permis une très grande créativité puisqu’il y avait la possibilité de créer des applications sans être limité par des contraintes imposées. Par exemple, tous les développements de mise en réseau ont été développés sur la base que le Net est neutre.

Cependant, on observe la gestion discriminatoire de certains flux d’information par les organisations commerciales concurrentes, tels les fournisseurs d'accès Internet (FAI), afin de défendre leurs intérêts politiques et économiques en dépit de l’intérêt des usagers. L’inspection approfondie des paquets (IAP) est une méthode de tri employée par les FAI sur le contenu des données avant de décider comment les livrer. Par exemple, en 2007, Comcast, l’un des plus grands FAI des États-Unis, avait bloqué les applications Peer-to-Peer (P2P) sous prétexte de la gestion de la bande-passante car leurs utilisations ralentissaient l’ensemble du réseau (http ://www.nbcnews.com/id/21376597/).

La neutralité d’Internet n’est pas une question uniquement technique, car elle implique des acteurs économiques et politiques (FAI, fournisseurs de contenus et de services, gouvernements) qui jouent fortement pour défendre leurs intérêts. Le principe d’équité du traitement des données implique l’architecture de l’Internet, mais aussi des enjeux de pouvoir économique et politique touchant les droits d’accès aux contenus et l’innovation dans un marché concurrentiel.

Débat sur la régulation : certains à faveur... d’autres contre...

Le vif débat à savoir si les gouvernements doivent imposer une politique de communication sur Internet attire des opposants et des défenseurs. Tim Wu (http ://www.jthtl.org/content/articles/V3I1/JTHTLv3i1_Wu.PDF) critique autant les acteurs à faveur de la régulation («Openists») que les opposants («Deregulationists»). Les «Deregulationists» défendent la propriété privée sur le Web comme moyen d’atteindre son meilleur usage en argumentant que le plus grand facteur de succès de l'Internet jusqu’à maintenant était le fait que les gouvernements étaient restés à l’écart. Les «Openists», quant à eux, défendent l’infrastructure publique ouverte de l’Internet, car ils la considèrent comme différente des autres réseaux de communication telles la téléphonie et la télévision. Mais une question subsiste : devons-nous donner le contrôle au gouvernement ou à l'industrie ? Quelles seraient les véritables conséquences économiques de réglementer ou non la neutralité de l’Internet ?

Le risque sur le potentiel d’innovation de l’internet est aussi l’un des points souvent soulevés dans le débat. Comme le souligne Wu (http ://campus.murraystate.edu/faculty/mark.wattier/Wu2003.pdf), certaines applications se retrouvent défavorisées par la structure actuelle du Net. Par exemple, les applications récentes sont souvent beaucoup plus sensibles aux fluctuations de la bande-passante. Il s’agit d’applications comme les VoIP (Voice over the Internet Protocol), telles que Skype, ou de visionnement (Netflix et Youtube). Ainsi, il existe une justification à gérer la bande-passante de la part des FAI. Cependant, si on peut discriminer certains flux d’informations pour de bonnes raisons (contenus présentant des dangers pour la sécurité publique, contenus immoraux ou illégaux), la méthode demeure suspecte aux yeux du public. Le Peer-to-Peer peut se retrouver ainsi bloqué ou retardé afin d’accélérer la vitesse du réseau. Discriminer des applications peut limiter le développement futur des applications en restreignant l’innovation... Pourquoi des individus développeraient des applications qui seraient systématiquement discriminées ou taxées selon le bon vouloir des fournisseurs d’accès ? L’innovation serait-elle dictée par les FAI ?­­

Et la régulation au Canada ?

La situation du Canada permet-elle de déterminer si l'intervention des acteurs économiques et politiques pourrait favoriser une véritable neutralité du Net ? Dans son essai paru sur le site Web du  Commissariat à la protection de la vie privée du Canada, Stephane Leman Langlois (http ://iap.priv.gc.ca/index.php/essais/net-neutrality-and-deep-packet-inspection-discourse-and-practice/) commente les systèmes IAP que Procera, Nortel et Cisco ont implantés pour permettre aux FAI de contrôler les flux de données dans les heures de pointe. D’ailleurs, « L’Association canadienne des fournisseurs Internet (ACFI) a récemment intenté un recours contre Bell Canada, conjointement avec le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC), pour ce type de comportement (généralement appelé “lissage de trafic”) », rapporte l’auteur. Ainsi, on accuse les fournisseurs d’accès de vouloir utiliser les systèmes IAP pour leurs intérêts commerciaux en limitant l’accès technologies de voix sur IP (pour obliger les utilisateurs à utiliser leurs services de téléphonie traditionnels) ou en favorisant l’accès à des contenus/ services où des ententes commerciales existent. De plus, on y apprend que les systèmes IAP sont utilisés par le Centre de la sécurité des télécommunications Canada (CSTC) et les Forces canadiennes pour la surveillance militaire et la protection des sites Web des institutions gouvernementales canadiennes. Ils peuvent retracer tout contenu ou activité jugés des menaces nationales sur le Web. Ce sont d’ailleurs ces mêmes systèmes IAP qui permettent de retracer des activités de cybercriminalité, tels la pornographie juvénile et le terrorisme. Le gouvernement doit-il alors réglementer la neutralité uniquement pour les industries commerciales en favorisant les intérêts des industries gouvernementales ? Une régulation sélective serait-elle aussi une atteinte au principe de neutralité ?

Le (CRTC) a aussi commencé à réfléchir sur le problème. La politique réglementaire 2009-657 du CRTC (http ://www.crtc.gc.ca/fra/archive/2009/2009-657.htm) dicte des principes face à l’utilisation des pratiques de gestion du trafic d’internet (PGTI), telle la transparence, l’innovation, la clarté et la neutralité sur le plan de la concurrence. Ainsi, le CRTC permet l’utilisation des PGTI lorsqu’elles sont clairement expliquées au public et qu’elles visent un besoin spécifique sans être une discrimination injuste. La politique réglementaire 2011-291 des télécoms (http ://crtc.gc.ca/fra/archive/2011/2011-291.htm) énumère deux aspects qui laissent entrevoir une “solution” canadienne. D’abord, le conseil réitère que les services d’accès à bande-large doivent, entre autres, reposer sur le libre jeu du marché. De plus, le Conseil préconise une vitesse cible universelle : 5 Mbps pour le téléchargement (download) et 1 Mbps pour le téléversement (upload) pour l’ensemble des Canadiens. Le Conseil reconnaît donc l’importance du libre-marché mais également d’une vitesse minimale. Les fournisseurs d’accès vont-ils moduler un accès et une tarification autour de cette contrainte ?

Quelles seraient les conséquences économiques de la neutralité ?

L’article “Network Neutrality on the Internet : a two-sided market analysis” écrit par Nicholas Economides et Joachim Tag explore les conséquences économiques de la neutralité du Net. La section qui nous intéresse concerne les conséquences économiques dans le cas d’un duopole des FAI, puisque le marché canadien est dominé par de gros joueurs (Telus, Bell, Vidéotron, etc.). L’analyse est axée à savoir si le fournisseur de contenu privilégie d’obtenir des clients supplémentaires ou si c’est le client qui veut obtenir davantage de contenu. Cette interaction entre les deux variables dépend également si le marché est pleinement couvert, c’est-à-dire si les consommateurs sont pleinement sollicités par le service.

En l’absence de la neutralité, si le marché est pleinement couvert, les FAI et les consommateurs s’en tirent mieux que les fournisseurs de contenu. Les FAI pouvant obtenir un revenu de deux sources (consommateurs et fournisseurs de contenu), le tarif pour les consommateurs est susceptible de baisser afin d’aller chercher davantage de consommateurs auprès de la compétition. Sous la neutralité, si le marché est pleinement couvert, ce sont les fournisseurs de contenu et d’accès qui s’en tirent mieux. Le marché étant couvert et étant dans l’impossibilité de chercher un revenu auprès des fournisseurs de contenu, une baisse des tarifs pour accroître l’accès auprès des consommateurs n’est pas probable.

Sous la neutralité, si le marché des consommateurs n’est pas couvert, les fournisseurs de contenu obtiendront plus d’avantages que les FAI et les consommateurs, puisque les FAI devront tirer entièrement leurs revenus par la tarification auprès des consommateurs. Ces derniers auront donc un coût d’abonnement élevé, selon la compétition entre les FAI. En l’absence de neutralité, si les marchés ne sont pas couverts, le consommateur est le grand gagnant. Puisque la compétition pour obtenir des consommateurs sera plus vive entre les FAI et  les fournisseurs de contenu, les tarifs seront donc plus bas. Le FAI aura deux sources de revenus (consommateurs et fournisseurs de contenu), ce qui permet une possibilité d’expansion au niveau de l’accès. Le fournisseur de contenu s’en tire le moins bien. Il reste à voir quel sera le poids des arguments économiques dans le débat...

Pour soulever la réflexion,  Susan P. Crawford dans son essai (http ://iap.priv.gc.ca/index.php/essais/transport-and-tracking/) nous rappelle que « les fournisseurs d’accès Internet devraient être traités pour ce qu’ils sont : de simples exploitants d’un service de consommation courante. Agir autrement sème la confusion et va à l’encontre des attentes des consommateurs ainsi que d’ententes de communication tacites plus que centenaires. »