Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - loi modèle d'affaires

dimanche 09 août 2009

La martingale de Google

On a déjà beaucoup glosé sur Google comme moteur de recherche ou encore sur l'«écosystème» de Google, c'est à dire l'ensemble des services documentaires interconnectés qu'il propose afin de développer l'activité sur le Web, si possible à partir de ses sites. On sait aussi la firme très rentable et ses revenus provenant à 97% de la publicité. Mais on s'interroge peu sur la réussite de Google sur le marché publicitaire. Comment se fait-il qu'il séduise autant les annonceurs ?

La réussite de la firme tient en effet à une double innovation : Celle de son métier de base, la recherche d'information et tous ses à-côtés très suivis par les observateurs du Web ; mais aussi une rupture gagnante et plus méconnue avec les règles traditionnelles du marché publicitaire des médias qui lui a permis de rentabiliser de façon spectaculaire son cœur de métier selon les principes du marché bi-face (Wkp). Il manque aux services qui tiennent la vedette aujourd'hui sur le Web, Facebook ou Twitter, cette seconde dimension innovante. C'est pourquoi on peut douter de la pérennité de leur modèle actuel.

On le sait, la publicité chez Google repose sur l'achat de mots-clés, AdWords, qui détermine l'emplacement de l'affichage de l'annonce sur la page de requête de l'internaute ou sur celle des sites de son réseau correspondants à ces mots clés et sur le paiement par clic (PPC), contrairement au paiement par page-vue traditionnel de la publicité. Déjà ces procédures utilisent astucieusement le savoir-faire d'indexation de la firme. Elles sont généralement mises en avant pour expliquer l'insolente réussite de Google dans le domaine mais elles ne représentent pas la seule originalité, ni même peut-être la principale. Je crois que deux autres innovations se sont avérées décisives : l'utilisation encadrée des enchères et la prise en compte de la servuction dans la production d'une annonce. Cet ensemble présente une rupture radicale avec le marché publicitaire traditionnel.

Je ne parlerai pas ici de l'autre volet de l'activité publicitaire de Google, celui de régie : AdSense, sinon pour dire qu'il constitue aussi dans le chiffre d'affaires une part importante mais minoritaire et qui diminue régulièrement (ici) et que son objectif est aussi de soutenir l'affermage des sites extérieurs et leur permettant de trouver facilement un revenu.

Le jeu optimum des enchères

Il faut être prudent dans l'analyse car toutes les informations proviennent de la firme, une firme qui connait la valeur de l'information et en contrôle étroitement la circulation. Mais un article du numéro de juin de la revue de Wired éclaire crument le premier volet :

Steven Levy, “Secret of Googlenomics: Data-Fueled Recipe Brews Profitability,” Wired Magazine, juin 17, 2009, 108-115 ici

Selon le journaliste, c'est à partir d'une réflexion de Hal Varian, alors professeur d'économie à l'Université de Californie et aujourd'hui recruté par Google comme chief economist, que la firme s'est rendue compte, en 2002 alors qu'elle ne comptait que 200 employés, que son modèle d'affaires était basé principalement sur les enchères. À partir de ce moment là, la firme a fait le pari risqué de basculer la totalité de son système de vente des mots-clés sous le système qui n'était alors qu'expérimental des enchères. Varian, en effet, avait remarqué que le système répondait parfaitement aux questions posées par la théorie des jeux où un acteur ne prend de décision qu'en fonction de l'anticipation qu'il fait des décisions de ses concurrents (Wkp).

Une difficulté des enchères est que les clients ont peur de surenchérir trop fort et donc de payer un prix très au-delà de ce qu'ils auraient pu obtenir. L'idée simple d'abord développée chez Google est que chacun ne paiera que le prix de l'enchère de celui qui le suit plus un centime. L'enchérisseur n'a donc plus à craindre de jouer trop au-delà de ses concurrents. Le paradoxe est que cette procédure encourage l'augmentation des enchères.

Mais le système d'enchères de Google est en réalité plus complexe. L'enchère n'est pas le seul paramètre pour déterminer le gagnant, Google y ajoute un indicateur de qualité de l'annonce. Et le prix payé est calculé selon cette formule : Formule-prix-pub-Google.jpg P1 : Prix payé par l'annonceur - B2 : Enchère la plus haute la plus rapprochée - Q2 :Qualité de l'annonce de l'enchère la plus rapprochée - Q1 : Qualité de l'annonce du gagnant

Toute l'astuce est que par l'indicateur de qualité Google reste ainsi maître des règles du jeu. La qualité est en effet calculée par la firme elle-même. Elle repose principalement sur la pertinence de l'annonce par rapport au mot-clé sur lequel l'enchère porte, sur la qualité de la page de destination du lien et avant tout sur le pourcentage de clics sur une annonce donnée quand elle apparait sur une page. Extrait de la présentation de la firme sur l'indicateur de qualité (ici) :

Nous continuons à affiner les formules de calcul du niveau de qualité sur Google et le réseau de recherche, mais leurs principaux composants sont toujours plus ou moins les mêmes :

  • l'historique du taux de clics (CTR) du mot clé et de l'annonce correspondante sur Google. Remarquez que le taux de clics sur le réseau Google a une incidence sur le niveau de qualité sur le réseau Google uniquement (pas sur Google) ;
  • l'historique de votre compte, déterminé par le taux de clics de tous les mots clés et de toutes les annonces qu'il contient ;
  • l'historique du CTR des URL à afficher contenues dans le groupe d'annonces concerné ;
  • la qualité de votre page de destination ;
  • la pertinence du mot clé par rapport aux annonces de son groupe d'annonces ;
  • la pertinence du mot clé et de l'annonce correspondante par rapport à la requête de recherche ;
  • les performances de votre compte dans la zone géographique où l'annonce sera diffusée ;
  • d'autres facteurs de pertinence.

Pour plus de précision, on peut se reporter aussi à la vidéo où Hal Varian lui-même présente la formule (ici). Comme l'indique le journaliste de Wired, on peut reprocher à Google son arbitraire, mais pas son manque d'équité. En effet, tous les annonceurs sont soumis à la même formule qui a pour objectif de maximiser l'efficacité globale de la publicité affichée.

Et ce n'est pas tout, le succès de la firme a fait qu'il a fallu gérer des millions d'enchères et Google a inventé une nouvelle discipline, la «physique des clics», c'est-à-dire l'observation des clics sur les pages. Les chercheurs de Google ont, entre autres, construit le keyword pricing index, littéralement l'indice des prix des mots-clés, de la même façon que l'on calcule l'indice des prix de l'économie d'un pays à partir du panier de la ménagère. Il alerte la firme quand apparaissent des bulles anormales sur les prix, indication que les enchères ne fonctionnent pas correctement. La firme peut aussi corréler ces données avec celles de la température, du climat et aussi des recherches des internautes afin d'affiner ses connaissances et ses outils.

Elle utilise des dizaines de tableaux qui s'affichent en temps réel tout comme la bourse. Sur un tableau on peut surveiller les recherches, le montant de l'argent récolté, le nombre d'annonceurs, sur combien de mots-clés ils surenchérissent et le niveau de retour pour chaque annonceur. Ainsi Google, sous l'impulsion d'Hal Varian, s'est mis à recruter des économètres. L'évolution est là encore tout à fait comparable à celle qui a suivi l'informatisation des places boursières avec l'arrivée massive de mathématiciens-statisticiens à la recherche de martingales pour optimiser les gains dans ce maelstrom de cours d'actions en perpétuel mouvement.

Ainsi quand on parle d'«écosystème» pour Google, le préfixe «éco-» est plutôt celui d'économie que d'écologie : la firme a mis en place une véritable économie parallèle, autonome dont elle a fixé les règles et qu'elle contrôle étroitement. Dans cette économie ses vrais concurrents sont les indexeurs qui tentent de faire remonter les pages en optimisant au maximum leur repérage par les moteurs (SEO, Wkp), réduisant d'autant l'intérêt des liens sponsorisés.

L'Ikéa de la publicité

La seconde innovation sur laquelle je voudrais insister est l'utilisation du travail du client. Dans l'économie mise en place par la firme, la co-production avec le client est utilisée au maximum.

Ikéa, on le sait, a utilisé de façon massive la notion de servuction, c'est-à-dire, le travail avec le client. Ce dernier feuillette le catalogue, est obligé de suivre l'ensemble des produits exposés, les sélectionne et les transporte et, last but not least, construit lui-même les meubles qu'il a amené chez lui. L'ensemble a été étudié, séquence par séquence, de façon à exploiter au maximum l'activité du client. En contrepartie ce dernier dispose d'une grande liberté dans ses choix et d'un excellent rapport qualité-prix.

Mutatis mutandis, Google a utilisé la même technique pour le marché publicitaire. L'annonceur fait lui-même l'ensemble du travail qui conduira à la mise en ligne de sa publicité. Il serait ici beaucoup trop long de détailler l'ensemble des étapes, mais tout est fait pour que le client puisse optimiser l'efficacité de son message publicitaire.

Google, en plus des outils d'aide traditionnels (ici), a mis en place un centre de formation où l'on peut obtenir tous les détails sur la façon de mener une campagne publicitaire et même, si on le souhaite, passer un examen de professionnel de la publicité (). On observera facilement que, comme pour Ikéa, chacune des séquences a été soigneusement étudiée de façon à utiliser au maximum le travail de client, et de la même façon celui-ci y gagne en liberté et en rapport qualité-prix, mesurée ici en retour sur investissement.

Actu du 11 août 2009

À compléter par la lecture de l'excellent article :

Guy Hervier, “Google devient-il un problème ?,” ITR News.com, juillet 23, 2009, ici

Actu du 8 mars 2010

Lire aussi le très polémique, mais instructif :

Publié Par J-c Féraud, “« L’objectif de Google n’est pas d’afficher l’information la plus pertinente »,” Sur Mon Ecran Radar, Mars 8, 2010, ici.

Actu du 22 septembre 2010

Voir aussi :

“Publicité : les secrets de Google France « La Social Newsroom,” ici

lundi 10 novembre 2008

Polémique sur la rentabilité du cloud computing

Ce billet a été rédigé par Ruxandra Ionita, étudiante de l'école de bibliothéconomie et des sciences de l'information dans le cadre du cours BLT 6355- Économie du document.

Les analystes considèrent que cloud computing apporte un changement majeur dans la manière dont les compagnies se procurent les applications informatiques, la capacité informatique de traitement des données et les services informatiques.

La définition du cloud computing, un concept créé lors d'un Congrès en 2005, reste encore ambigüe (Cloud computing: Eyes on the Skies) mais se rapproche d'une nouvelle forme d'externalisation des technologies de l'information (Is Cloud Computing Ready For The Enterprise? rapport de Forrester Research). Une définition relativement large de l'expression associe cloud computing, cette métaphore du Web 2.0 (et +), à toute situation dont le traitement informatique est réalisé à distance plutôt que sur son propre ordinateur ou serveur local. Dans son article Web 2.0 and Cloud computing Tim O'Reilly identifie trois niveaux :

a/ l'infrastructure comme un service (hardware as a service), stockage de données et capacité de serveur sur demande (Amazon web services)

b/ diverses applications qui supportent le cycle de vie complet des applications web et services web depuis la conception jusqu'à la distribution (Platform-as-a-service ou PaaS ou Cloudware) mises a disposition entièrement sur Internet, comme Google App Engine ou Elastic Compute Cloud de Amazon (voir leur comparaison ici ) ou Salesforce avec des applications pour la gestion des relations client ou des applications comptables. Le marché cible est composé de développeurs, gestionnaires en technologies de l'information ou même d'utilisateurs finaux (Exemple: Starbucks a utilise la plateforme de Salesforce.com pour créer le site My Starbucks Idea Web). Les clients potentiels dans ce cas sont des développeurs.

c/ applications qui résident dans le nuage -distribuées sur l'Internet (Software-as-a-Service ou SaaS ou Cloud-based end-user applications) comme Facebook, Twitter, Flickr, Google, Amazon, iTunes ou Google Apps ou bien Software + Service de type Microsoft Online Services applications et services sur demande en ligne. Le marché dans ce cas est constitué par les utilisateurs finaux.

Nick Carr (Further musings on the Network Effect and the Cloud) ajoute un autre niveau:

d/ device layer, faisant référence aux appareils électroniques dont la vente dépendra de leur capacité à exploiter le «nuage» seulement en se branchant de manière transparente pour l'utilisateur final. Un exemple est le iPod. Ceci pourrait constituer un marché potentiel très important, comme l'histoire nous l'enseigne pour d'autres produits de cette gamme.

Ces niveaux ont des potentiels économiques, facteurs de compétitivité, marchés différents, qui peuvent se superposer. Les marchés s'articulent entre eux, il faut compter les compagnies qui produisent l'infrastructure comme Microsoft, Amazon ou Yahoo! mais qui sont un marché pour les équipements produits spécialement pour leurs plateformes par IBM, Dell ou Hewlett-Packard, par exemple.

Une polémique récente entre Tim O'Reilly et Nick Carr au sujet de la rentabilité des affaires issues du cloud computing a mis en évidence plusieurs enjeux économiques de cette industrie ainsi que les inconvénients de l'ambigüité des termes de ce domaine en effervescence. Elle fait suite aux articles de Hugh Macleod The Cloud's Best Kept Secret, convaincu du futur prometteur de l'industrie du Cloud computing et de Larry Ellison Ellison Shoots Hole In Cloud soutenant une thèse opposée.

O'Reilly, dans son article Web 2.0 and Cloud computing, a tenté de démontrer que les affaires basées sur le cloud computing ne peuvent pas produire un profit substantiel (sont toutes des low-margin business) ou ne conduisent pas au monopole sur le web. Dans son hypothèse il accorde à l'effet de réseau (network effect - concept de marketing) les crédits pour la dominance des compagnies/applications sur le web. Il considère celui-ci le facteur primordial de la Loi de puissance (loi de distribution notamment de la longue traîne). Il considère que sur le web les applications gagnent si elles s'améliorent quand sont utilisées par plus de monde (on the web the applications win if they get better the more people use them). D'après lui, comme justement une bonne partie des applications du Cloud computing ne disposent pas de cet atout, globalement le cloud computing ne pourra pas créer des bénéfices importants ou même des monopoles.

Il remarque néanmoins que des économies d'échelle pourraient être réalisées, avantageant des grands joueurs, mais cela assurera de minces revenus et non pas de gros profits, éventuellement les profits des volets rentables financeront les pertes causées par les applications de cloud computing. Une opportunité économique lui semble exister pour les plateformes des applications basées sur l'effet de réseau.

Dans sa riposte What Tim O'Reilly gets wrong about the cloud, Nick Carr argumente que l'effet de réseau n'est pas le seul facteur responsable du succès sur le web. Plusieurs compagnies produisant des applications ou services web doivent leurs succès aussi bien à d'autres facteurs.

Pour Google, par exemple, c'est la qualité du moteur de recherche - rapidité, pertinence des résultats, fidélisation des utilisateurs, un marketing et une extension et amélioration continue des services. D'autres compagnies à succès œuvrant sur le web s'apprête seulement maintenant à exploiter l'effet de réseau, comme Salesforce.com. D'autres applications sont très populaires grâce à leur conception et aux paramètres de réalisation et fonctionnement : elles sont gagnantes parce qu'elles répondent des besoins du marché (MapQuest, Yahoo Mail, Google Reader, etc.). Des applications bénéficiant de l'effet de réseau qui ne sont pas nécessairement dominantes existent aussi.

Nick Carr considère que le modèle de concentration du marché est particulièrement approprié à l'industrie du cloud computing émergeante, les facteurs suivant la caractérisant:

  1. Capital intensif : un capital important est nécessaire pour acquérir l'infrastructure, ce qui est une barrière à l'entrée de compagnies de petite taille
  2. Avantages d'échelle : économies dues au volume des grandes transactions et opérations considérant le coût des équipements, les ressources humaines et les fonds de roulement (argument qu'on le retrouve aussi dans le discours d'un joueur de l'industrie, Irving Wladawsky-Berger (IBM) qui voit deux facteurs clés menant à la supériorité du cloud computing par rapport aux applications traditionnelles: scalability (adaptation au changement de la demande) et high-quality-of-experience.
  3. Le facteur de diversité aide rendre la demande plus prédictive et stable.
  4. L'atout d'une expertise déjà en place pour des grands joueurs.
  5. Avantages de la marque et du marketing.
  6. Production de systèmes propriétaires.

Ainsi il suggère la possibilité de l'émergence de monopoles dans ce marché ou dans ses différents segments. Nick Carr reconnait donc l'importance de l'effet de réseau mais il voit également d'autres facteurs responsables de la dominance sur le web. Finalement, le succès sourira le plus probablement aux compagnies qui verront le nuage (cloud computing) avec les yeux des utilisateurs.

Comment redéfinir l'effet de réseau dans le nouveau contexte d'applications qui résident sur et sont distribuées via l'Internet ? L'effet réseau (network effect) signifie qu'un service (ou une application) voit sa valeur augmenter si plus de personnes l'utilisent, encourageant ainsi d'autres utilisateurs à le rejoindre, en économie on parlera d'externalité positive. Sur le web plusieurs types de services ou d'applications en bénéficient: services ou applications qui tirent profit du trafic des visiteurs ou membres soit par un ajout d'informations qui peuvent être partagées (Wikipédia ou Amazon Book Review), exploitées mutuellement (FaceBook), exploitées par les tiers (march publicitaire), une amélioration grâce à un algorithme valorisant le trafic (PageRank) ou à la rétroaction des utilisateurs, par exemple.

Tim O'Reilly propose redéfinir le concept d'effet de réseau dans le contexte du web, de l'élargir toutes les composantes de l'internet et tous les niveaux et finalement l'exploitation de l'intelligence collective devient elle-même un effet de réseau, l'ensemble réalisant un cumul en science des effets des réseaux. L'argument semble extrême.

Cependant, la rentabilité de cette industrie soulève des questionnements des joueurs et des observateurs. En chiffres, Merrill Lynch évalue le marché global annuel de cette industrie d'ici 5 ans à 95 milliards $ US, absorbant 12% du marché mondial du logiciel (dans How Cloud Computing Is Changing the World in Business Week). Globalement, le rapport de Forrester Research mentionné plus haut est positif par rapport a l'avenir du cloud computing.

L'ambigüité des définitions porte des confusions et la question centrale de la polémique est toujours en suspend: Quelle stratégie pour les joueurs du cloud computing?

lundi 03 novembre 2008

Kindle, aboutissement ou balbutiement

Ce billet a été rédigé par Éric Legendre, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Ça bouge beaucoup et rapidement du côté du livre numérique. Plus que jamais même depuis l'annonce par Amazon du lancement de sa liseuse électronique Kindle le 19 novembre dernier, il y a tout juste une année, ou presque (url).

Il est encore trop tôt pour dresser un quelconque bilan, mais on peut légitimement se demander cependant si Kindle préfigure vraiment un nouveau marché pour les publications écrites ?

On assiste actuellement à un certain renouveau dans le dossier (et dans cette guerre, il faut l'avouer !) avec la sortie de nouveaux appareils ainsi que de nouveaux modèles d'affaires. Du côté des liseuses électroniques, outre le Kindle d'Amazon, Sony par exemple propose son PRS505 depuis quelque temps (url), mais annonce déjà pour le 17 novembre prochain un nouveau modèle PRS700 avec de nouvelles fonctionnalités telle l'intégration d'un clavier numérique (style iPod et iPhone) et des capacités d'annotations, de surlignage et de recherche des textes (url). Contrairement au Kindle qui n'est toujours pas en vente au Canada, le Sony l'est ! Et contrairement au Kindle toujours, les liseuses de Sony et autres Cybook (url) et iLiad (url) permettent facilement de lire les documents sous format PDF.

Du côté des modèles économiques, l'avantage pour Amazon d'avoir ce qu'on appelle un modèle fermé (ou verrouillé), à l'instar du iPod et d'iTunes, lui a permis sans aucun doute — à court terme — d'intégrer le marché et d'assurer le rayonnement de l'appareil puisqu'il est lié aux ententes particulières entre Amazon et les éditeurs participants. De toute évidence — à long terme — la stratégie d'Amazon doit évoluer et s'ouvrir (url) + (url). Les quelques 194 000 ouvrages actuellement disponibles sous Kindle font bien pâle figure au côté des millions de Google Books, et plus que jamais suite à l'entente intervenue le 28 octobre dernier avec l'Association of American Publishers (bilan ici par exemple (url) ou chez l'Electronic Frontier Foundation (url) ou réaction ici (url)). En principe, rien n'empêche maintenant un fabricant de se lancer dans le développement d'une liseuse électronique (ou même une application) reprenant le système d'exploitation open source Android lancé par Google. De son côté, une jeune entreprise française comme Feedbooks peut proposer aux lecteurs son catalogue en presque tous les formats actuellement en vigueur (url).

L'auteur François Bon a rédigé beaucoup sur la question depuis les derniers mois et je crois qu'il est un des observateurs le plus au fait sur la question en ce moment. Cet automne, l'auteur et le site Publie.net faisaient paraître une « Adresse aux bibliothèques » (url) ainsi que « Publie.net bibliothèques : ce qu'on propose », deux textes importants établissant les premiers jalons d'une nouvelle offre numérique francophone, pourtant encore « à l'aube des possibles ». La particularité de cette offre est qu'elle émane du côté de l'édition et non du côté de la diffusion, de la distribution ou de la quincaillerie, et qu'elle prend pour acquis la multitude des formats de lecture (et n'est donc pas liée à un appareil précis) et tient en haute estime les particularités et avantages de la version électronique d'un ouvrage (typographie, hypertextualité, compléments à l'édition papier, etc.) avec un respect évident pour le lecteur... et l'auteur ! Ce qui n'est pas toujours le cas (url). François Bon annonce d'ailleurs dans son agenda (url) qu'il sera au Québec du 22 au 24 novembre prochain lors du Salon du livre de Montréal et fera une intervention sur les « enjeux de l'édition numérique ».

Le cœur du dossier est énorme et comprend des ramifications dans tous les sens. N'oublions pas que la chronologie du livre numérique date du début des années soixante-dix ! (url). Kindle est donc toujours à ses premiers balbutiements, mais tout bouge beaucoup plus rapidement en 2008 qu'en 1971 !

lundi 20 octobre 2008

Les libraires ont-ils un avenir ?

Ce billet a été rédigé par Jean-François Cusson, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Depuis quelques mois, une pétition circule en France pour promouvoir et défendre la loi sur le prix unique du livre (connue aussi comme la loi Lang, ou loi n° 81-766 du 10 août 1981). Les détails de la pétition, intitulée « Pour le livre » peuvent être consultés ici. Ce mouvement est apparu en réaction à la remise en question, au printemps 2008, de certaines dispositions de la loi à l’Assemblée Nationale française. Un bon résumé des évènements est disponible via le portail littéraire du Nouvel Observateur. Par ailleurs, un autre évènement a secoué dernièrement le monde du livre français : la levée, en cour de cassation, d’un jugement interdisant à la filière française du libraire en ligne Amazon d’offrir gratuitement à ses clients les frais de port sur leurs achats. Ces deux événements, bien qu’ils ne soient pas directement liés, illustrent bien les bouleversements importants qui affectent présentement le modèle économique du commerce du livre dans l’Hexagone. Ce rapide rappel de l’actualité française permet, par ricochet, d’aborder certaines problématiques qui touchent nos libraires québécois.

Le monde du livre québécois est en grande partie régie par la Loi sur le développement des entreprises québécoises dans le domaine du livre, communément appelée « loi 51 » (texte de la loi) Adopté en 1979, cette loi stipule, entre autre chose, que les organismes publics (comme les écoles, les bibliothèques publiques, les ministères, etc.) doivent effectuer leurs achats de livres auprès d’une librairie agréée. Je n’entrerai pas dans l’énumération des détails de l’agrément; il suffira ici de souligner qu’une librairie agréée doit posséder un fond important et diversifié et que les collectivités doivent effectuer leurs achats dans une librairie de leur région, sans pouvoir bénéficier de remise de prix.

Alors que la France a choisi d’encadrer le prix de vente des livres (mesure qui a par exemple pour effet d’empêcher les plus gros joueurs de vendre à perte pour attirer le client vers d’autres produits), le gouvernement québécois a plutôt opté pour une politique qui promeut la librairie et soutient sa présence à travers le territoire en grande partie à cause de l’obligation, pour les clients institutionnels, de la fréquenter. En d’autres mots, on pourrait dire que le modèle québécois propose une gestion de la demande, alors que le modèle français se concentre sur un encadrement de l’offre.

Il serait facile, partant de cette position quelque peu biaisée qui est la mienne, de déclarer le modèle québécois supérieur à celui de son homologue d’outre-Atlantique. Dans un premier temps, je me contenterai de produire quelques chiffres concernant la libraire indépendante (dont l’état me paraît un bon étalon pour mesurer la diversité et le dynamisme de l’économie du livre dans un contexte donné).

Au Québec, 31,8 % des ventes de livres ont été réalisées chez des libraires indépendants (statistique produite par l’Observatoire de la culture et des communications du Québec). La librairie indépendante française, quant à elle, occuperait un segment de 18,8% du marché (selon le Centre nationale du Livre). Il existerait donc un écart de 13 points entre les deux marchés. Pour ma part, j’en conclue que le modèle québécois est plus favorable aux petits commerçants que le modèle français. Ceci dit, la librairie indépendante française n’est pas si mal en point si on la compare avec son homologue américaine, qui n’occuperait plus que 3 à 9 % du marché selon Publisher Weekly (ici).

Cela ne veut pas dire que les libraires indépendants québécois ne soient pas menacés. En 2007, ils n’enregistraient que 0,9 % d’augmentation de leur chiffre d’affaires alors que les grandes chaînes (principalement les groupes Archambault et Renaud-Bray) affichaient une progression de 22,9 % ici). Face à cette perte de terrain, les libraires indépendants (unis sous la bannière LIQ) se sont regroupés pour mettre sur pied le portail livresquebecois.com, un site consacré à la promotion et à la diffusion du livre québécois. Comptant environ 25 000 titres, le catalogue du portail est directement lié au fond des librairies participantes. Lors de l’achat, l’internaute a la possibilité de verser un pourcentage des profits engendrés par la vente à la librairie de son choix ou de les répartir sur l’ensemble des librairies participantes.

A première vue, cela me semble une initiative intéressante, bien que je m’interroge sur sa viabilité sur le moyen et le long terme. Mise à part quelques petits encadrés publicitaires dans le quotidien Le Devoir, le portail ne semble bénéficier d’aucune promotion médiatique importante. Cette initiative m’apparaît plus comme une campagne de consolidation d’une clientèle existante que comme une véritable campagne de promotion adressée au grand public. J’ai essayé, sans succès, de communiquer avec la responsable des ventes pour avoir une idée des résultats préliminaires. Je reviendrai plus tard compléter ce billet si je devais recevoir une réponse dans les semaines à venir.

Par ailleurs, et pour revenir avec ma comparaison entre les deux modèles francophones, une rapide recherche sur Google suffit à démontrer le peu d’intérêt médiatique que suscite la librairie indépendante québécoise, en particulier lorsqu’on refait l’exercice avec son homologue français. Ce qui me ramène à mon interrogation de départ : la loi québécoise encadrant le commerce du livre est-elle mieux construite (ou meilleure ?) que son pendant français ? Ou s’agit-il au contraires de deux contextes tout à fait étranger l’un à l’autre, irréconciliables ? Parle-t-on moins, au Québec, du sort de la librairie indépendante parce qu’on considère que sa survie et son développement sont assurés par le cadre juridique existant ? Les menaces qui pèsent sur les librairies indépendantes sont-elles les mêmes au Québec qu'en France ?

jeudi 16 octobre 2008

Paul Krugman a-t-il toujours raison ?

(Repéré sur Numérama grâce à la veille de Silvère Mercier que je ne remercierai jamais assez pour son travail qui me sert tous les jours !)

Avant d'être récipiendaire du prix Nobel d'économie, Paul Krugman avait publié à la fin du printemps un éditorial dans le New-York Times, reprenant l'argument classique selon lequel les documents étant devenus des biens publics grâce au Web, un prix de marché n'était plus possible, par contre, il était possible d'utiliser la puissance de résonance pour valoriser des services associés. Il est présomptueux et imprudent de contredire un prix Nobel, mais après tout un blogue est là pour lancer des idées, même à contre-courant de la plupart des confrères. Et, quitte à prendre une volée de bois verts, j'affirme qu'en l'occurrence il se trompe. L'erreur est d'autant plus gênante que, son auteur ayant acquis l'autorité que lui confère le plus prestigieux des prix scientifiques, elle risque de passer pour une vérité incontestable.

Paul Krugman, “Bits, Bands and Books,” The New York Times, Juin 6, 2008.

Extraits (trad. JMS) :

En 1994, une de ces gourous, Esther Dyson, a fait une prédiction saisissante : la facilité avec laquelle le contenu numérique pouvait être copié et diffusé pourrait finir par obliger les entreprises qui vendent les produits de l’activité des créateurs à un prix très bas, ou même de les donner. Quel que soit le produit, logiciel, livre, musique, film, le coût de création devrait être récupérer indirectement. Les entreprises devraient «distribuer gratuitement la propriété intellectuelle pour vendre les services et des contacts». (..)

Évidemment, si les e-books deviennent la norme, l’industrie de l’édition telle que nous la connaissons pourrait dépérir complètement, Les livres pourraient servir principalement de matériel promotionnel pour d’autres activités des auteurs, comme des séances payantes de lecture. Bon, si cela a suffi à Charles Dickens, je suppose que cela me suffira.

Car la stratégie consistant à brader la propriété intellectuelle pour que les gens achètent tout ce qu’il y a autour ne marchera pas de façon équivalente pour tout. Pour s’en tenir à un exemple évident et douloureux : l’organisation de la presse, y compris ce journal, a passé des années à essayer de faire passer ses nombreux lecteurs en ligne par un paiement adéquat, avec un succès limité.

Mais, ils devront trouver la solution. Progressivement, tout ce qui peut être numérisé le sera, rendant la propriété intellectuelle toujours plus facile à copier et toujours plus difficile à vendre pour plus qu’un prix symbolique. Et nous devons trouver des modèles d’affaires et une économie qui tiennent compte de cette réalité.

La première erreur est de considérer que l'articulation entre le contenant et le contenu telle qu'elle est réalisée sur le Web et donc le partage de la valeur qui l'accompagne, est une donnée hors du champ de l'analyse et non un construit social significatif pour celle-ci. En réalité, l'abondance de biens informationnels gratuits valorise ceux qui vendent de l'accès, soit par des abonnements au réseau, soit par des machines. C'est une erreur de penser que les internautes ne dépensent rien pour ces produits, ils dépensent, et parfois beaucoup, en machines et abonnements, c'est à dire pour les contenants.

C'est aussi une erreur découlant de la précédente de penser que c'est la seule voie possible. Deux exemples démontreront le contraire :

  • Lorsque France-Télécom (à l'époque DGT) lança le Minitel et la télématique (Wkp), elle distribua gratuitement les terminaux en instaurant un système de micropaiement sur les services. Ce modèle d'affaires fut très rentable pour les producteurs de contenu (et, parait-il, il reste encore rentable dans quelques micro-créneaux). Cette stratégie est le parfait inverse de celle de Apple sur la musique avec le iPod.
  • La Corée du Sud avec le réseau Naver (ici) a mis en place un réseau payant, véritable place de marché où les transactions sur le contenu se font quotidiennement dans le respect de la propriété intellectuelle.

La stratégie de Kindle de Amazon va dans le même sens. Je suis moins sûr que P. Krugman qu'elle soit vouée à l'échec et, si elle l'était, cela viendrait moins d'une loi économique générale sur l'échange de contenus que d'une stratégie qui favorise, avec la complicité intéressée mais inconsciente des «gourous du Web», les industries du contenant.

La seconde erreur importante est de croire que le Web produit une rupture radicale par rapport à la situation antérieure. Il existait déjà des industries de contenu accessibles gratuitement aux documents facilement copiables, et pas des moindres : la radio et la télévision. Il existait aussi des institutions où les documents étaient partagés : les bibliothèques. Pour les unes et les autres, des modalités ont été trouvées, parfois après de laborieuses négociations, pour préserver la propriété intellectuelle et garantir un financement du contenu. On pourrait discuter de ce partage, mais c'est un autre débat.

Sans doute, le Web est un formidable outil de résonance, tout comme d'ailleurs la radio-télévision, mais rien n'interdit de trouver des modalités de rétribution des ayant-droits, sinon le dialogue de sourds qui s'est installé entre des détenteurs de droits, trop gourmands et incapables de comprendre l'organisation du Web-média, et les internautes militants incapables quant à eux d'imaginer que celui-ci puisse dépasser son adolescence rebelle. Refuser cette possibilité, c'est alors refuser la capacité au Web de devenir un média à part entière, tout en faisant le lit de quelques acteurs dominant qui accaparent à leur seul profit ou presque la vente d'attention créée par les contenus, au premier chef, bien sûr, Google.

Là encore, c'est donc une erreur que de croire que le Web tuera nécessairement les médias plus anciens, même si, clairement, le Web-média en prenant brutalement place parmi ceux-là réduit leur place et donc globalement leurs revenus, sans doute de façon inégale suivant les médias. Prenons là aussi deux exemples rapidement :

  • Dans la vidéo, malgré les téléchargements sauvages, la propriété intellectuelle continue de régler les positions sur le Web, comme le montrent les négociations engagées par YouTube avec les réseaux de télévision, les producteurs de séries ou encore les détenteurs de droits sportifs, ou comme le montrent les difficultés de la station Web Joost.
  • Dans la musique, l'annonce récente des résultats de l'expérience du groupe RadioHead où le paiement du téléchargement était laissé à la discrétion des internautes sont impressionnants. Au total, Radiohead a écoulé à ce jour 3 millions d'exemplaires de In Rainbows, sous forme de CD (1,75 million), de boîtiers de luxe vendus par correspondance (100 000) ou en téléchargement. Il faut y ajouter les droits sur les passages en radio et 1,2 millions de personnes à leurs spectacles. La résonance a été très forte, mais elle a aussi favorisé les formes les plus classiques de la vente de contenus.

Les étudiants du cours auront retrouvé le long de ce billet des éléments de la séquence 1 (l'argument de P. Krugman), de la séquence 2 (ma première réfutation) et de la séquence 3 (ma seconde réfutation).

Complément du 18 octobre 2008

Repéré grâce au commentaire de A. Pierrot, merci à lui :

PREMIERS RESULTATS : OBSERVATOIRE DES DEPENSES MEDIAS ET MULTIMEDIAS, Communiqué (Médiamétrie, Octobre 15, 2008).

Voici la répartition du budget d'un ménage français pour les médias et le multimédia sur une année en 2007-08. La dépense totale est de 2270 Euros et pour les familles ayant des enfants (11-24 ans) : 2920 Euros.

Édifiant..

- page 4 de 6 -