Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - écosystème

mercredi 09 mars 2011

Les trois économies du ebook

Je ne dirai jamais assez combien je suis redevable de la veille effectuée par Jose Afonso Furtado (ici). La majorité des billets de ce blogue sur l'actualité du numérique sont sans doute issus de son repérage. Merci donc à lui ! Dans la moisson d'hier, deux articles ont attiré mon attention car ils illustrent les dilemmes de l'industrie du livre dans son passage au numérique et expliquent sa résistance (pour la résistance du livre imprimé, voir aussi ici et ). Ils seront ici le prétexte pour avancer encore d'un petit pas dans l'analyse de l'économie du e-book, sans prétendre tout régler, les commentaires sont bienvenus.

“Ebooks: durability is a feature, not a bug | Technology | guardian.co.uk,” Mars 8, 2011, ici.

Morris Rosenthal, “Is Google Books Destroying Publisher Website Visibility?,” Self Publishing 2.0, Mars 8, 2011, .

Dans le premier article, l'éditorialiste, Cory Doctorw (par ailleurs responsable du blogue Boing Boing) s'insurge contre la prétention de HarperCollins à vendre aux bibliothèques des copies de livres numériques qui s'autodétruiraient au bout de 26 consultations. Il conclut (trad JMS) : Celui qui croit que cela pourrait arriver n'a jamais passé un peu de temps avec un bibliothécaire.

Dans le second billet, un petit éditeur numérique constate que son site devient invisible dans les recherches par Google, au profit principalement de Google-Books qui détient une copie de ses livres.

Pour bien interpréter toutes ces interrogations et hésitations dont nous n'avons ici que deux anecdotes parmi beaucoup, beaucoup d'autres, il faut revenir à la théorie du document (ici) que j'ai traduit en termes économiques pour l'exemple du livre dans le tableau ci-dessous :

Les_3_economies_du_livre.png

Un livre, quelque soit son format, a comme tout document trois dimensions indissociables, présentées sur le tableau en trois lignes. Et à chacune de ses dimensions est associée une économie qui privilégie un élément de valeur concurremment aux deux autres. Mais, il faut toujours avoir en mémoire que privilégier une dimension n'efface pas les deux autres qu'il faudra impérativement prendre en compte.

Si l'on raisonne par rapport à l'objet, la forme première ligne du tableau, alors nous sommes devant une marchandise ordinaire, même si elle a des caractéristiques originales, et une économie classique de vente de biens rivaux. L'édition s'est construite sur cette dimension. Elle a résolu le problème des deux autres dimensions d'une part par le droit de propriété intellectuelle (réduisant la non-rivalité de la deuxième dimension) et la saisonnalité des publications (pour gérer le temps de la troisième).

Maintenant si l'on raisonne par rapport au texte, nous sommes devant un bien non-rival. Seule une économie publique, collective peut se construire. Ce fut, et c'est encore, le domaine des bibliothèques qui mutualisent l'accès aux textes. Cette économie a réduit les difficultés liées aux deux autres dimensions par d'une part la réunion d'exemplaire (ici des prototypes) en un seul lieu et d'autre part les prêts ou consultations limitées dans le temps pour permettre le partage pour une collectivité donnée et limitée.

Concernant la troisième dimension, celle de la lecture, nous retombons dans une économie de biens (ou plutôt de services) rivaux, puisque l'attention du lecteur est limitée. Le livre imprimé gérant un temps long, n'était que peu concernée sinon du fait de la concurrence des autres médias sur le temps de loisir et donc de l'érosion lente de la lecture de livre. L'économie de l'attention a été exploitée à partir de la mise en place des médias modernes, presse d'abord, puis radio-télévision qui ont géré l'espace temps de «lecture» pour pouvoir le vendre à des annonceurs. Les choses ont changé sur le web qui est fondé sur une économie de l'attention à partir de l'activité de lecture elle-même (voir ici) et autorise aussi la diffusion de livres.

Beaucoup considèrent que le ebook, comme d'ailleurs l'ensemble des médias numériques, privilégierait la seconde dimension. Mais cette position suppose alors une économie publique ou au moins collective peu vraisemblable à l'échelle du web, sauf à refermer des écosystèmes sur des collectivités particulières capables de l'entretenir.

Les deux anecdotes citées en introduction illustrent les tâtonnements pour trouver d'autres voies. HarperCollins tente de décliner la première dimension sur les bibliothèques, ce qui est clairement absurde. La seule voie réaliste pour l'articulation entre l'édition numérique et les bibliothèques parait celle de la license sans restriction d'accès qui préserve le caractère de bien commun du livre à l'intérieur de la communauté desservie sans épuiser le marché pour l'éditeur à l'extérieur. Quant au positionnement des éditeurs par rapport à Google, il faut comprendre que ce dernier tend progressivement à accaparer l'économie de l'attention à son seul profit (ici). Google est un média qui devra bien un jour rémunérer les producteurs.. mais le plus tard et le moins possible.

dimanche 16 janvier 2011

On n'achète pas une bibliothèque comme un livre

François Bon vient de baisser de façon conséquente le prix des livres sur Publie.net. Un livre téléchargé chez lui coûte désormais 3,49 Euros contre 5,99 auparavant (et même un peu moins pour les Québécois exonérés de TVA). Parmi ses explications, la plus trivialement économique qui est sans doute secondaire pour lui, mais nous intéresse ici au premier chef est celle-ci :

En baissant de façon conséquente ce prix standard de 5,99 à 3,49 (et 2,99 pour les formes brèves), j’ai l’intuition que ce ne sera pas pénaliser les auteurs – au demeurant, même sur un téléchargement à 3,49, une fois enlevés les 57 cts de TVA, reste 1,46 à l’auteur en vente directe, et 0,85 en vente avec intermédiaire - , mais au contraire déplafonner notre distribution, passer à une autre échelle.

Cela m'a rappelé deux autres billets assez spectaculaires. Le premier d'un auteur de roman policier américain prolifique, Joe Konrath, qui explique le 22 septembre 2010 comment il a vendu 103.864 ebooks. Extraits (trad JMS) :

Aujourd'hui, je vends une moyenne 7.000 e-books auto-édités sur le Kindle. Ces chiffres concernent les 19 titres auto-publiés, bien que les six premiers comptent pour plus de 75%, en gros 5000 par mois.

Cela signifie que ces six ont une moyenne de 833 ventes, ou rapportent 1.700$ par mois, chacun. Cela équivaut à 20.400$ par an et par livre pour mes meilleures ventes.

Il poursuit son exposé détaillé en expliquant comment il est arrivé à ce chiffre. En résumé, il a choisi de s'auto-éditer en réduisant drastiquement le prix de vente de ses livres à 2,99$. De ce fait, ses droits en pourcentage ont augmenté car ils sont partagés en moins d'acteurs, et en même temps l'augmentation des exemplaires vendus augmente mécaniquement les revenus de façon spectaculairement plus importante que le manque à gagner de la baisse du prix.

Cette aventure débute à peine. À la fin de 2010 j'aurai gagné plus de 100.000 $ sur mes livres auto-édités, et ce n'est rien comparé à ce que j'attends pour 2011. Et j'y réussis sans tournée, sans promotion non-stop, sans dépenser beaucoup d'argent, et sans compter sur personne d'autre.

Sans doute même s'il est exemplaire en particulier par la forte activité sur le web qui favorise certainement l'accès à ses œuvres, le cas de J. Konrath ne peut être reproduit pour l'ensemble des auteurs. C'est un auteur reconnu, expérimenté à succès de littérature populaire. Mais au delà du cas particulier, l'exemple pose la question de ce que l'on vend, sans doute un livre, mais un livre dans un écosystème fort différent et par là même dans un système de valeur très différent.

Avant d'y venir, il est utile de consulter un troisième billet, celui d'Evil Genius qui s'appuyant sur les chiffres de J. Konrath propose un petit modèle économétrique, dont le schéma ci-dessous résume bien la conclusion.

Evil-Genius-12-01-2011.jpg

Bien sûr la construction du modèle est critiquable, ne s'appuyant que sur un exemple. Mais la démarche est utile et pourrait être menée de façon systématique avec les chiffres des grands acteurs. Le modèle est d'autant plus simple que les coûts variables de distribution dans le numérique sont très réduits. On peut même ajouter que la constitution de la maquette pour les livres récents ont été aussi très réduits par le numérique comme le montre l'étude de H Bienvault pour le MOTif.

En réalité ce modèle pose une question de fond qui est une petite révolution par rapport à la conception actuelle de la valeur éditoriale d'un livre. Il suppose de mesurer l'élasticité de la demande globale de livres par rapport à leur prix. Autrement dit, de supposer qu'un livre, ou plutôt un titre, est concurrent d'un autre en fonction de son prix, que les livres sont peu ou prou interchangeables.

On a tendance au contraire à penser qu'un livre, comme œuvre unique, est une sorte de monopole. On souhaite lire tel livre de tel auteur et on ne sera pas satisfait si on nous en propose un autre à la place. Et le droit d'auteur confère bien à ce dernier un monopole sur l'exploitation de son livre, qu'il peut ou non déléguer. Cette conception trouve sa traduction économique dans le modèle éditorial qui permet d'équilibrer le système global par une sorte de péréquation entre les revenus des titres à succès et ceux plus confidentiels. L'élasticité de la demande par rapport au prix serait faible dans le livre.

Mais l'arrivée du web et surtout la montée des tablettes modifient considérablement la donne et l'attitude du lecteur. Sur un Kindle ou un iPad, on n'achète pas un livre, on se constitue une bibliothèque. On peut lire un livre de la première à la dernière page, mais on en lit souvent plusieurs en même temps et on pourra y revenir à tout moment, à la bonne page ; ou encore on se contentera de feuilleter un grand nombre de livres, zappant de l'un à l'autre, faisant des recherches. Et tout cela en tout lieu, à tout moment, du fait de la portabilité de sa bibliothèque réduite à une tablette. Nous retrouvons un propos souvent tenu ici : le modèle du web est hybride entre celui de la bibliothèque et celui de la télévision.

Dès lors, sans doute le lecteur sera attiré par tel ou tel titre particulier, mais la valeur principale est constituée par l'ampleur et l'adaptation de la collection qu'il pourra constituer et par la vitesse et la commodité de l'accès aux pages. Cette donnée nouvelle modifie vraisemblablement considérablement la sensibilité au prix et donc l'élasticité de la demande, d'autant que le web tend à tirer les prix du contenu vers le bas par l'abondance des ressources accessibles gratuitement et que constituer une collection est un investissement de départ non négligeable pour un e-lecteur.

Conclusion si cette analyse est juste, F. Bon a eu bien raison de baisser drastiquement ses prix.

Codicille : cela pose aussi des questions sur la place et l'économie des ebooks dans les bibliothèques comme institution. Il faudrait que j'y revienne. Voir aussi la table ronde de la SACD du 17 janvier ici.

Actu du 21 janv 2011

Sur le contrat d'édition, voir la synthèse de M de Battisti.

mercredi 27 octobre 2010

Facebook et les déplacements de valeur

Après Apple et Google, voici donc le troisième billet illustrant la théorie du document sur la stratégie d'une firme : Facebook. Bien évidemment après la forme privilégée par Apple, le texte par Google, le réseau social s'appuiera principalement sur la troisième dimension : le médium.

Il est délicat de mesurer l'économie de Facebook, car la firme n'étant pas cotée en bourse on ne dispose pas de chiffres certifiés. L'année dernière, elle a annoncé qu'elle avait, pour la première fois, équilibré ses comptes sans autre précision. Les observateurs parlent d'un chiffre d'affaires entre 500 M et 1 Mds de $ en 2009 et qui pourrait osciller en 2010 entre 1 et 2 Mds de $. Ces chiffres, pour peu qu'ils soient exacts, paraissent impressionnants, pourtant ils sont moins élevés que Google dans le même délai :1,5 Mds après 5 ans et 3,2 l'année suivante (23,6 Mds de CA et 6,5 Mds de bénéfices en 2009), et finalement très modestes si l'on considère que Facebook.com a dépassé Google.com sur le trafic internet US en mars 2010 (Hitwise). Un calcul rapide et approximatif chiffre à 7,87 Mds de $ le chiffre d'affaires de Google.com sur le seul marché US pour l'année 2009.

Facebook est un immense succès public, mais n'a clairement pas encore réussi à monétiser son audience. Il suffit de comparer en les feuilletant les pages destinées aux annonceurs de Facebook (ici) avec celles de Google pour comprendre que l'on ne joue pas dans la même cour.

Une économie spéculative

D'autres chiffres astronomiques font du jeune fondateur Marc Zuckerberg un des hommes les plus riches du monde (Forbes), mais cette richesse est basée sur une appréciation des marchés financiers qui ont depuis longtemps perdu la mesure de l'économie réelle, tout particulièrement dans le numérique. Ils font un autre raisonnement déconnecté du chiffre d'affaires et des bénéfices de la firme, basé sur la capacité à revendre ses parts à un prix plus élevé que celui de leur achat initial.

Ainsi par exemple, un fonds de capital risque russe, Mail.ru, cherche aujourd'hui à valoriser sa participation dans Facebook en vendant à un prix élevé ses propres actions et ). On trouvera une seconde illustration dans l'exposé de la stratégie d'investissement dans Facebook d'un autre fond, GreenCrest Capital LLC, qui cherche à racheter des actions aux anciens employés du réseau (WSJ). Même si elles sont rapportés par un journal du groupe Murdoch, concurrent direct du réseau avec MySpace les explications sont éclairantes. Extraits (trad JMS) :

Puisque certains de ces fonds ne sont pas sanctionnés par les starts-up dans lesquelles ils ont investi, ils n'ont pas accès aux informations de gestion, financières et autres. Cela rend ces investissements risqués, disent des observateurs professionnels de l'investissement. Les investisseurs potentiels peuvent obtenir des compte-rendus du conseil d'administration et quelques informations financières limitées d'actionnaires vendeurs, mais pas beaucoup plus. (..)

Le prix des actions Facebook sur le marché secondaire a considérablement augmenté, dit M. Halpert (un des directeurs du fond), d'environ 5 $ un an et demi auparavant il est aujourd'hui à environ 70 $, avant le récent fractionnement d'actions de 1-pour-5, ce qui valoriserait de l'entreprise à 33 milliards de dollars. Cette évaluation serait l'ordre de grandeur pour les actions de Facebook sur le second marché, selon une personne proche de la négociation en cours sur ce service.

La réalité économique de Facebook est dans cette économie spéculative. Les chiffres exponentiels de son audience, complaisamment relayés, permettent de faire monter les enchères. On ne parle toujours pas d'introduction en bourse et on s'attend à une prochaine levée de fonds qui sera d'autant facilitée que sa valorisation sera élevée.

L'économie de Facebook signifie souvent l'économie générée par ceux qui utilisent le réseau comme plateforme pour développer leurs propres activités rémunératrices (VisualEconomics et pour la principale application Zynga ). Les chiffres présentés sont parfois aussi spectaculaires en terme d'audience, mais pratiquement jamais exprimés en chiffre d'affaires ou bénéfices. Il y a ainsi comme une connivence dans la surenchère spéculative entre le réseau et les producteurs d'application, l'écosystème.

Cette situation n'est pas sans rappeler le début du millénaire, juste avant l'éclatement de la bulle internet. Il ne faudrait pas pour autant sousestimer le succès public de Facebook ni dénier à cette économie spéculative la capacité à construire de la valeur. Contrairement aux starts-up de l'épisode malheureux précédent, les réseaux sociaux produisent une activité. Ainsi selon la dernière enquête IFOP, pratiquement tous les Français (98%) connaissent Facebook et 43% ont un compte (ici). Même si un pourcentage sensiblement moindre y est actif, bien des entreprises rêveraient d'un tel succès.

L'individu-document

Difficile alors de garder la tête froide et de produire une analyse lucide du phénomène. Sans prétendre y arriver complètement, je voudrais suggérer que la théorie du document peut donner quelques clés de compréhension.

Facebook, comme les autres réseaux sociaux, inverse les propriétés documentaires du web. Les humains n'y recherchent pas des documents, les documents ne sont plus que des vecteurs qui relient entre eux des humains ou d'autres entités personnalisées (marques). Ainsi le réseau polarise l'ordre documentaire sur sa troisième dimension : le médium.

Mieux, les techniques du web documentaire servent à indexer les individus pour les décrire et les repérer, non seulement dans leur « forme », c'est-à-dire leur identité et caractéristiques, mais aussi dans leur « texte », leurs comportements et intentions. On pourrait dire comme Olivier Ertzscheild « L’homme est un document comme un autre » (ici, voir aussi mon billet). Dès lors toute la productivité d'un système documentaire est déplacée sur un terrain, la communication entre les hommes, où elle était jusqu'à présent peu utilisée faute d'outils adéquats (courrier postal, téléphone..).

La radicalisation de l'homologie individu-document, modifie l'ordre traditionnel des documents qui est alors soumis à celui des individus. L'individu-document est moins stable que l'objet-document. La versatilité et la réactivité des clivages sociaux s’introduisent dans les arcanes des logiques documentaires, qui, si elles ne les ignoraient évidemment pas, avaient auparavant plus de recul et d’inertie. On pourrait dire que l'ordre documentaire s’apparente ici celui de la mémoire vive, avec ses emballements et ses oublis.

La valorisation économique de ce positionnement se cherche aujourd'hui sur deux marchés : la publicité et la revente des données comportementales. Sur l'un et l'autre elle rencontre des difficultés.

Facebook cherche à utiliser sa maîtrise du «graphe social», c'est à dire l'empreinte des liens entre les personnes, comme un avantage concurrentiel décisif pour valoriser la vente d'attention. Vous pouvez cibler votre publicité par géographie, sexe, âge, mots-clés, situation amoureuse, emploi, lieu de travail ou établissement scolaire. Lorsque vous choisissez vos critères de ciblage, Facebook affiche le nombre approximatif d’utilisateurs concernés, peut-on lire sur les pages réservées aux annonceurs. Ce ciblage peut faire rêver les annonceurs. Il suppose néanmoins que les membres du réseau aient renseigné de façon sincère ces critères et acceptent de partager ces informations, c'est à dire qu'ils se soient auto-documentarisés. Nombreuses ont été les tentatives de la firme pour «obliger» les membres à diffuser leurs profils et nombreuses ont été les polémiques. Il ne s'agit pas de maladresses, mais bien d'un tâtonnement pour trouver un équilibre acceptable entre la protection des individus et les nécessités du commerce. Reste à savoir s'il existe vraiment.

Les données comportementales sont récoltées par les traces de navigation des internautes. Il s'agit cette fois d'une documentarisation automatique. Un marché souterrain de ces données, mariant les premières et transversal aux réseaux s'est mis en place non sans ambiguïtés ().

Aujourd’hui le débat éthique est très vif. Jusqu’à présent seules les organisations policières confondaient l’ordre documentaire et l’ordre social pour contrôler ce dernier. Cela n'était acceptable qu'avec des normes sociales explicites et acceptées sous le contrôle strict d'un État démocratique (), sans pour autant éviter de nombreux dérapages. L'idéologie libertarienne des fondateurs de Facebook accentue encore le malaise ().

Même en faisant abstraction de ce débat, la valeur économique de cette stratégie n’est pas encore vraiment démontrée. On en perçoit les potentialités qui font rêver les uns, cauchemarder les autres. Certaines rentabilisations pointent, mais il n’est pas évident que l’homologie individu-document soit à terme éthiquement supportable et économiquement rentable.

Actu du 31 octobre 2010

Voir aussi : 1. “Social Media and Revenues: Where’s the Profit?,” Master of Media, Octobre 31, 2010, ici.

Actu du 22 novembre 2010

Pour s'interroger sur quelques conséquences de la redocumentarisation des humains par Facebook :

Zadie Smith, Generation Why?, The New York Review of Books, November 25, 2010

Critique en français ici

Actu du 18 déc 2010

Quelques éléments sur les revenus 2010 de Facebook dans Inside Facebook ici.

Voir aussi Numerama,(), très optimiste.. et maniant curieusement les chiffres.

Actu du 3 fév 2011

Voir aussi cette infographie de Google vs Facebook. Je ne suis pas sûr des chiffres financiers à vérifier ici

Actu du 31 déc 2010

Bonne analyse détaillant différents mode de calcul de la valorisation :

Robert Cyran et Rob Cox, “Will 2011 be the year that Facebook’s value gets real?,” Reuter Breakingviews, Décembre 28, 2010, ici.

mardi 08 juin 2010

«Industries du copyright» et fair use

La saison 2010 du cours sur l'économie du document est terminée depuis un moment déjà. L'ensemble est disponible ici, moins la partie d'interaction avec les étudiants, qui reste sur un serveur dédié. Néanmoins les billets rédigés par les étudiants et leur discussion sont accessibles (ici,, et ). L'été est là. Les billets vont donc s'espacer. En voici un, un peu plus long, pour la route.

Deux rapports américains de lobbyistes sont un bon prétexte pour revenir sur certaines notions du cours et faire quelques propositions pour affiner l'analyse. On me pardonnera le caractère abrupt de certaines affirmations. Nous sommes sur le blogue et non sur le cours ou encore moins dans une publication scientifique.

Stephen E. Siwek, Copyright Industries in the U.S. Economy: The 2003-2007 Report, International Intellectual Property Alliance (IIPA), 20 Juillet 2009. Pdf

Thomas Rogers et Andrew Szamosszegi, Fair Use in the US Economy, Economic Contribution of Industries Relying on Fair Use 2010 (Computer & Communications Industry Association, 2010). Pdf

L'un et l'autre rapports visent à démontrer, chiffres à l'appui, l'importance économique aux US des activités qui relèvent de la catégorie indiquée, afin d'influencer les décisions politiques. Le second répond au premier, dans la mesure où une défense trop tenace des industries du copyright peut entraver le développement de celles s'appuyant sur le fair use dont la vocation est justement d'échapper à la rigidité du premier. En réalité la controverse est plus subtile, nous le verrons.

Je ne reprendrai pas les chiffres évidemment favorables aux acteurs qu'ils défendent, mais plutôt le fond du raisonnement et ses conséquences. Les rapports s'appliquent à la situation des États-Unis puisque leur point de départ est la législation de ce pays, néanmoins on pourrait extrapoler le raisonnement général à l'évolution globale du Web, puisque les mêmes questions se posent ailleurs, même si les réponses peuvent différer, et surtout parce que la domination des firmes US sur le Web est massive, au moins pour les pays occidentaux.

Il n'est pas pertinent de parler d'industries du copyrignt et d'industries s'appuyant sur le fair use

Copyright et fair use sont des concepts juridiques. Même si ces notions régulent les activités économiques de notre domaine, il n'est, a priori, pas approprié de s'en servir comme critères pour construire une catégorisation des industries. En général, celle-ci s'appuie sur une production particulière générant une plus-value. Ainsi, on parle d'industries du livre, de la presse, de la télévision, des télécommunications, de l'internet. En effectuant des regroupements plus larges, on pourra parler d'industries culturelles, d'industries des médias ou d'industries du contenu ou du contenant. Mais, nous le savons, dès que l'on élargit les catégorisations deviennent déjà plus hasardeuses.

Parler d'industrie du copyright ou s'appuyant sur le fair use est sémantiquement étrange. On ne fonde pas une industrie sur un droit. Ce serait plutôt l'inverse, le droit vient encadrer l'activité économique et non la définir.

Pourtant pour la première, l'exemple vient de haut puisque c'est l'Organisation mondiale de la propriété intellectuelle qui a défini les règles pour mesurer l'apport des dites «industries du copyright (guide ici, autres études nationales ici et , ou encore en ligne en français la Belgique ou le Canada). Un des résultats du lobying des industries du copyright est bien évidemment l'extension continue de la durée de protection du droit d'auteur (voir à ce sujet le billet de M. Lebert ici).

De plus en plus on trouve le terme d'«industries créatives» pour signifier la même chose. C'est sans doute plus valorisant : l'innovation plutôt que la rente de la propriété intellectuelle. Mais l'ambiguïté n'est pas levée : on remplace la référence à une règle de droit par un processus. Pour montrer l'absurdité de la formulation, gommons l'aspect glamour : en parlant d'industrie de la copie ou de la reproduction on voit bien qu'on est dans une catégorisation peu efficiente. Malgré cela, les « industries créatives » font l'objet de nombreuses études contemporaines (voir à ce sujet cette note de l'Unesco et la critique argumentée de Gaétan Tremblay ). En particulier, ce dernier s'étonne de voir dans cette catégorie l'industrie des logiciels, il est vrai soumise au copyright mais à la logique bien différente de celle des industries culturelles.

La seconde a des parrains moins politiquement prestigieux. Le rapport sur les industries s'appuyant sur le fair use a été commandé par la ''Computer & Communications Industry Association'' dont le slogan est : Open Markets, Open Systems, Open Networks; Full, Fair and Open Concurrence (que l'on pourrait traduire par : « Des marchés ouverts, des systèmes ouverts, des réseaux ouverts pour une concurrence parfaite»). Les membres de la CCIA sont les principales entreprises commerciales du Web. Mais la justification du terme vient de décisions de la justice américaine qui s'est appuyée sur la doctrine du fair use pour autoriser une activité qui aurait pu être interprétée comme contraire aux exigences du copyright. Extrait du rapport (trad JMS) :

L'usage équitable (fair use) de matériels sous droit d'auteur et d'autres limitations ou exception sont une base fondamentales de l'économie de l'internet. Par exemple, une des forces qui permet le développement de l'internet comme outil de commerce et d'éducation est la possibilité pour l'usager de repérer l'information utile grâce à des moteurs de recherche largement accessibles. La cour a considéré que les principaux services fournis par les moteurs de recherche relevaient de l'usage équitable. Sans ces exceptions aux droits d'auteur permises par la doctrine de l'usage équitable, les entreprises de moteur de recherche et d'autres seraient dans l'incertitude face aux infractions, un frein significatif pour proposer ce service bien utile. Le résultat serait l'échec des objectifs d'enseignement et de la croissance du commerce facilités par l'internet.

D'autres activités importantes sont rendues possibles par l'usage équitable, parmi lesquelles le développement de logiciel qui, bien souvent demande des copies temporaires de programmes existants pour faciliter la programmation de l'interopérabilité, et l'hébergement de sites, qui pourrait rendre les usagers coupables d'infraction s'il n'y avait des exceptions ou des limitations. La doctrine de l'usage équitable autorise aussi les usagers de matériels sous droits d'auteur à faire des copies numériques de programmes pour leur usage personnel. Donc, grâce à l'usage équitable les usagers peuvent jouir de programmes sous droits d'auteur de façon différée et transférer le matériel d'un terminal à un autre, et faire des copies-cache temporaires de sites web sur la mémoire vive de leur ordinateur.L'utilité découlant de ces activités a donné naissance à des achats de consommation d'une large gamme de produits comme les enregistreurs vidéo numériques et lecteurs MP3, entrainant une activité économique supplémentaire aux États-Unis et dans tous les pays où les machines utilisées pour ces activités sont fabriqués. (p.13-14, les notes de l'original n'ont pas été incluses).

Le rapport indique par ailleurs (trad JMS) :

Exemples d'industries qui dépendent ou au profitent du fair use :

  • Les fabricants d'appareils grand public qui permettent aux personnes de copier des programmes sous droits d'auteur;
  • les établissements d'enseignement;
  • les développeurs de logiciels
  • et l'activité de recherche sur Internet et les hébergeurs de sites Web. (p.7)

Cet ensemble a une certaine cohérence dans la mesure où il regroupe des industriels ou des organismes orientés vers l'accès à l'information. Mais l'échantillon, présenté dans le corps du rapport, est trompeur car les activités considérées comme au cœur de cette catégorie sont listées en annexe. On y découvre que nombre d'entre elles sont clairement des industries de contenu, comme la presse, les industries du cinéma et de l'audiovisuel ou les industries de la musique enregistrée. Et bien évidemment, on trouve aussi l'industrie des logiciels qui, dans cette catégorie comme dans la précédente, gonfle les chiffres. Ainsi le rapport sur les industries s'appuyant sur le fair use inclut de nombreuses industries du copyright et il semble qu'un de ses objectifs soit de reconfigurer les coalitions traditionnelles.

Bref la catégorisation proposée relève surtout de la rhétorique et n'a pas grande valeur économique. Pourtant, elle n'est pas sans signification.

Économie du web

La plupart des observateurs qui étudient l'économie du web insistent sur l'«écosystème» de l'information qui s'y construit. Un des plus célèbres analystes est sans doute Yochaï Benckler qui souligne l'importance de la valeur créée par les interactions des internautes (ici). Cette valeur est bien difficile à mesurer économiquement et très dispersée en un très grand nombre de pôles. Les militants de l'open source et de l'open access y voient l'essence fondatrice du web. Mais comme le suggère le slogan du CCIA, la notion d'open est ambigüe. L'écosystème se construit aujourd'hui sur l'infrastructure de quelques firmes principales, celles justement qui sont membres de CCIA. Celles-là fournissent aux usagers un environnement de services informationnels le plus complet possible à l'aide de nombreux acteurs affermés qui constituent une nébuleuse autour de la firme dominante. Google, Apple, Facebook et aussi Microsoft montent ainsi chacun leur propre écosystème afin d'attirer le maximum d'internautes dans leur toile par les effets d'externalités.

Le terme d'écosystème est un peu trompeur car, si les services sont effectivement diversifiés, en interaction et montés par des acteurs variés, les rentrées financières sont concentrées chaque fois sur un seul marché et sur une seule firme alma mater de l'écosystème : la publicité en ligne pour Google et Facebook, la vente de matériel pour Apple, la vente de logiciel pour Microsoft. Les autres micro-acteurs dispersés de l'écosystème, reçoivent quelques compensations, symboliques ou financières, mais ils ne sont là que pour alimenter le marché principal. Pour ceux qui douteraient encore de la réalité de cette logique, il suffit d'observer les pions poussés par les principales firmes sur l'écosystème du cellulaire (mobile) dont on sait qu'il est le plus prometteur à court terme (voir le billet de D. Durand ici). J'ai montré dans un autre billet que la logique des écosystèmes suivait les trois dimensions du document ().

Le fair use prend alors une autre dimension. Il s'agit d'une des conditions du fonctionnement des écosystèmes. Pour que les interactions entre les micro-acteurs puissent avoir lieu, il faut des échanges possibles entre les acteurs. Ainsi les industries du contenu, habituées à dominer leur branche ne sont plus qu'un des éléments de l'écosystème, une branche dominée, alimentant comme les autres la firme principale. Leur insistance sur le respect du copyright doit se lire comme une défense, un peu désespérée, de leurs anciennes positions.

Par contre, la vente de contenant (matériels, abonnements au réseau) a explosé. Rien de nouveau vraiment ici, on connait cela depuis l'avènement de l'audiovisuel qui, le premier, a séparé l'industrie du contenu et du contenant, la seconde dominant la première au moins en début de cycle, voir l'article célèbre d'A. Odlyzko (ici). Les industriels des télécommunications, les fabricants de matériels, Apple et Microsoft sont sur ce créneau et leur intérêt pour le contenu et les services n'a pour objectif que l'alimenter le marché de leur métier de base.

Du point de vue des rentrées financières, la seule réelle nouveauté de l'économie du web est que l'accès aux informations et à la culture a trouvé moyen de se monétiser au travers de la publicité commerciale. C'est du point de vue économique la vraie innovation. Ce modèle d'affaires passe par le traitement des traces laissées par les utilisateurs. On trouve ici des gros joueurs : Google, Yahoo!, Facebook pour s'en tenir au marché nord-américain. En réalité, si une nouvelle industrie est bien née, c'est celle de l'accès qui s'appuie effectivement sur la doctrine du fair use. Même s'il s'agit d'un service, je crois que le terme d'industrie est approprié du fait de sa massification et de son automatisation.

Voilà donc qu'ironiquement le fair use, l'usage équitable destiné à favoriser la dissémination de la culture et de l'information en abaissant les barrières à son utilisation, devient la possibilité d'utiliser les traces des comportements d'usage pour vendre des produits. Il s'agit d'une curieuse dérivation du terme fair. On peut être légitimement inquiet pour l'utilisation des données privées.

Reste que nous ne sommes qu'au début de la structuration de l'industrie de l'accès et Il y a encore une bonne dose de burlesque dans cette construction cahotique (ici ou ). Des petits garçons, la bouche encore toute barbouillée de confiture, qui jurent que c'est une erreur qu'ils n'y sont pour rien, après avoir effrontément affirmé le contraire (ici et ). Ils ne sont pas méchants (don't be evil) ! Ils aiment leurs amis !

Le droit est là en général, et tout particulièrement le copyright et la doctrine du fair use, est là pour réguler les sociétés éviter les injustices au nom de l'intérêt général. Il est peut-être temps de réviser cette copie là.

Actu du 10 juin 2010

Pour l'écosystème d'Apple, voir l'intéressant calcul de D. Durand ici

Actu du 24 août 2010

Pour compléter ou même corriger mes propos un peu rapide sur les industries créatives et industries du copyright, lire l'intéressante synthèse des débats dans cette étude pour la commission européenne :

KEA European Affairs, The economy of culture in Europe (DGEC - Commission des Communautés européennes, Octobre 2006), ici

dimanche 09 août 2009

La martingale de Google

On a déjà beaucoup glosé sur Google comme moteur de recherche ou encore sur l'«écosystème» de Google, c'est à dire l'ensemble des services documentaires interconnectés qu'il propose afin de développer l'activité sur le Web, si possible à partir de ses sites. On sait aussi la firme très rentable et ses revenus provenant à 97% de la publicité. Mais on s'interroge peu sur la réussite de Google sur le marché publicitaire. Comment se fait-il qu'il séduise autant les annonceurs ?

La réussite de la firme tient en effet à une double innovation : Celle de son métier de base, la recherche d'information et tous ses à-côtés très suivis par les observateurs du Web ; mais aussi une rupture gagnante et plus méconnue avec les règles traditionnelles du marché publicitaire des médias qui lui a permis de rentabiliser de façon spectaculaire son cœur de métier selon les principes du marché bi-face (Wkp). Il manque aux services qui tiennent la vedette aujourd'hui sur le Web, Facebook ou Twitter, cette seconde dimension innovante. C'est pourquoi on peut douter de la pérennité de leur modèle actuel.

On le sait, la publicité chez Google repose sur l'achat de mots-clés, AdWords, qui détermine l'emplacement de l'affichage de l'annonce sur la page de requête de l'internaute ou sur celle des sites de son réseau correspondants à ces mots clés et sur le paiement par clic (PPC), contrairement au paiement par page-vue traditionnel de la publicité. Déjà ces procédures utilisent astucieusement le savoir-faire d'indexation de la firme. Elles sont généralement mises en avant pour expliquer l'insolente réussite de Google dans le domaine mais elles ne représentent pas la seule originalité, ni même peut-être la principale. Je crois que deux autres innovations se sont avérées décisives : l'utilisation encadrée des enchères et la prise en compte de la servuction dans la production d'une annonce. Cet ensemble présente une rupture radicale avec le marché publicitaire traditionnel.

Je ne parlerai pas ici de l'autre volet de l'activité publicitaire de Google, celui de régie : AdSense, sinon pour dire qu'il constitue aussi dans le chiffre d'affaires une part importante mais minoritaire et qui diminue régulièrement (ici) et que son objectif est aussi de soutenir l'affermage des sites extérieurs et leur permettant de trouver facilement un revenu.

Le jeu optimum des enchères

Il faut être prudent dans l'analyse car toutes les informations proviennent de la firme, une firme qui connait la valeur de l'information et en contrôle étroitement la circulation. Mais un article du numéro de juin de la revue de Wired éclaire crument le premier volet :

Steven Levy, “Secret of Googlenomics: Data-Fueled Recipe Brews Profitability,” Wired Magazine, juin 17, 2009, 108-115 ici

Selon le journaliste, c'est à partir d'une réflexion de Hal Varian, alors professeur d'économie à l'Université de Californie et aujourd'hui recruté par Google comme chief economist, que la firme s'est rendue compte, en 2002 alors qu'elle ne comptait que 200 employés, que son modèle d'affaires était basé principalement sur les enchères. À partir de ce moment là, la firme a fait le pari risqué de basculer la totalité de son système de vente des mots-clés sous le système qui n'était alors qu'expérimental des enchères. Varian, en effet, avait remarqué que le système répondait parfaitement aux questions posées par la théorie des jeux où un acteur ne prend de décision qu'en fonction de l'anticipation qu'il fait des décisions de ses concurrents (Wkp).

Une difficulté des enchères est que les clients ont peur de surenchérir trop fort et donc de payer un prix très au-delà de ce qu'ils auraient pu obtenir. L'idée simple d'abord développée chez Google est que chacun ne paiera que le prix de l'enchère de celui qui le suit plus un centime. L'enchérisseur n'a donc plus à craindre de jouer trop au-delà de ses concurrents. Le paradoxe est que cette procédure encourage l'augmentation des enchères.

Mais le système d'enchères de Google est en réalité plus complexe. L'enchère n'est pas le seul paramètre pour déterminer le gagnant, Google y ajoute un indicateur de qualité de l'annonce. Et le prix payé est calculé selon cette formule : Formule-prix-pub-Google.jpg P1 : Prix payé par l'annonceur - B2 : Enchère la plus haute la plus rapprochée - Q2 :Qualité de l'annonce de l'enchère la plus rapprochée - Q1 : Qualité de l'annonce du gagnant

Toute l'astuce est que par l'indicateur de qualité Google reste ainsi maître des règles du jeu. La qualité est en effet calculée par la firme elle-même. Elle repose principalement sur la pertinence de l'annonce par rapport au mot-clé sur lequel l'enchère porte, sur la qualité de la page de destination du lien et avant tout sur le pourcentage de clics sur une annonce donnée quand elle apparait sur une page. Extrait de la présentation de la firme sur l'indicateur de qualité (ici) :

Nous continuons à affiner les formules de calcul du niveau de qualité sur Google et le réseau de recherche, mais leurs principaux composants sont toujours plus ou moins les mêmes :

  • l'historique du taux de clics (CTR) du mot clé et de l'annonce correspondante sur Google. Remarquez que le taux de clics sur le réseau Google a une incidence sur le niveau de qualité sur le réseau Google uniquement (pas sur Google) ;
  • l'historique de votre compte, déterminé par le taux de clics de tous les mots clés et de toutes les annonces qu'il contient ;
  • l'historique du CTR des URL à afficher contenues dans le groupe d'annonces concerné ;
  • la qualité de votre page de destination ;
  • la pertinence du mot clé par rapport aux annonces de son groupe d'annonces ;
  • la pertinence du mot clé et de l'annonce correspondante par rapport à la requête de recherche ;
  • les performances de votre compte dans la zone géographique où l'annonce sera diffusée ;
  • d'autres facteurs de pertinence.

Pour plus de précision, on peut se reporter aussi à la vidéo où Hal Varian lui-même présente la formule (ici). Comme l'indique le journaliste de Wired, on peut reprocher à Google son arbitraire, mais pas son manque d'équité. En effet, tous les annonceurs sont soumis à la même formule qui a pour objectif de maximiser l'efficacité globale de la publicité affichée.

Et ce n'est pas tout, le succès de la firme a fait qu'il a fallu gérer des millions d'enchères et Google a inventé une nouvelle discipline, la «physique des clics», c'est-à-dire l'observation des clics sur les pages. Les chercheurs de Google ont, entre autres, construit le keyword pricing index, littéralement l'indice des prix des mots-clés, de la même façon que l'on calcule l'indice des prix de l'économie d'un pays à partir du panier de la ménagère. Il alerte la firme quand apparaissent des bulles anormales sur les prix, indication que les enchères ne fonctionnent pas correctement. La firme peut aussi corréler ces données avec celles de la température, du climat et aussi des recherches des internautes afin d'affiner ses connaissances et ses outils.

Elle utilise des dizaines de tableaux qui s'affichent en temps réel tout comme la bourse. Sur un tableau on peut surveiller les recherches, le montant de l'argent récolté, le nombre d'annonceurs, sur combien de mots-clés ils surenchérissent et le niveau de retour pour chaque annonceur. Ainsi Google, sous l'impulsion d'Hal Varian, s'est mis à recruter des économètres. L'évolution est là encore tout à fait comparable à celle qui a suivi l'informatisation des places boursières avec l'arrivée massive de mathématiciens-statisticiens à la recherche de martingales pour optimiser les gains dans ce maelstrom de cours d'actions en perpétuel mouvement.

Ainsi quand on parle d'«écosystème» pour Google, le préfixe «éco-» est plutôt celui d'économie que d'écologie : la firme a mis en place une véritable économie parallèle, autonome dont elle a fixé les règles et qu'elle contrôle étroitement. Dans cette économie ses vrais concurrents sont les indexeurs qui tentent de faire remonter les pages en optimisant au maximum leur repérage par les moteurs (SEO, Wkp), réduisant d'autant l'intérêt des liens sponsorisés.

L'Ikéa de la publicité

La seconde innovation sur laquelle je voudrais insister est l'utilisation du travail du client. Dans l'économie mise en place par la firme, la co-production avec le client est utilisée au maximum.

Ikéa, on le sait, a utilisé de façon massive la notion de servuction, c'est-à-dire, le travail avec le client. Ce dernier feuillette le catalogue, est obligé de suivre l'ensemble des produits exposés, les sélectionne et les transporte et, last but not least, construit lui-même les meubles qu'il a amené chez lui. L'ensemble a été étudié, séquence par séquence, de façon à exploiter au maximum l'activité du client. En contrepartie ce dernier dispose d'une grande liberté dans ses choix et d'un excellent rapport qualité-prix.

Mutatis mutandis, Google a utilisé la même technique pour le marché publicitaire. L'annonceur fait lui-même l'ensemble du travail qui conduira à la mise en ligne de sa publicité. Il serait ici beaucoup trop long de détailler l'ensemble des étapes, mais tout est fait pour que le client puisse optimiser l'efficacité de son message publicitaire.

Google, en plus des outils d'aide traditionnels (ici), a mis en place un centre de formation où l'on peut obtenir tous les détails sur la façon de mener une campagne publicitaire et même, si on le souhaite, passer un examen de professionnel de la publicité (). On observera facilement que, comme pour Ikéa, chacune des séquences a été soigneusement étudiée de façon à utiliser au maximum le travail de client, et de la même façon celui-ci y gagne en liberté et en rapport qualité-prix, mesurée ici en retour sur investissement.

Actu du 11 août 2009

À compléter par la lecture de l'excellent article :

Guy Hervier, “Google devient-il un problème ?,” ITR News.com, juillet 23, 2009, ici

Actu du 8 mars 2010

Lire aussi le très polémique, mais instructif :

Publié Par J-c Féraud, “« L’objectif de Google n’est pas d’afficher l’information la plus pertinente »,” Sur Mon Ecran Radar, Mars 8, 2010, ici.

Actu du 22 septembre 2010

Voir aussi :

“Publicité : les secrets de Google France « La Social Newsroom,” ici

- page 4 de 5 -