Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - écosystème

mercredi 27 octobre 2010

Facebook et les déplacements de valeur

Après Apple et Google, voici donc le troisième billet illustrant la théorie du document sur la stratégie d'une firme : Facebook. Bien évidemment après la forme privilégée par Apple, le texte par Google, le réseau social s'appuiera principalement sur la troisième dimension : le médium.

Il est délicat de mesurer l'économie de Facebook, car la firme n'étant pas cotée en bourse on ne dispose pas de chiffres certifiés. L'année dernière, elle a annoncé qu'elle avait, pour la première fois, équilibré ses comptes sans autre précision. Les observateurs parlent d'un chiffre d'affaires entre 500 M et 1 Mds de $ en 2009 et qui pourrait osciller en 2010 entre 1 et 2 Mds de $. Ces chiffres, pour peu qu'ils soient exacts, paraissent impressionnants, pourtant ils sont moins élevés que Google dans le même délai :1,5 Mds après 5 ans et 3,2 l'année suivante (23,6 Mds de CA et 6,5 Mds de bénéfices en 2009), et finalement très modestes si l'on considère que Facebook.com a dépassé Google.com sur le trafic internet US en mars 2010 (Hitwise). Un calcul rapide et approximatif chiffre à 7,87 Mds de $ le chiffre d'affaires de Google.com sur le seul marché US pour l'année 2009.

Facebook est un immense succès public, mais n'a clairement pas encore réussi à monétiser son audience. Il suffit de comparer en les feuilletant les pages destinées aux annonceurs de Facebook (ici) avec celles de Google pour comprendre que l'on ne joue pas dans la même cour.

Une économie spéculative

D'autres chiffres astronomiques font du jeune fondateur Marc Zuckerberg un des hommes les plus riches du monde (Forbes), mais cette richesse est basée sur une appréciation des marchés financiers qui ont depuis longtemps perdu la mesure de l'économie réelle, tout particulièrement dans le numérique. Ils font un autre raisonnement déconnecté du chiffre d'affaires et des bénéfices de la firme, basé sur la capacité à revendre ses parts à un prix plus élevé que celui de leur achat initial.

Ainsi par exemple, un fonds de capital risque russe, Mail.ru, cherche aujourd'hui à valoriser sa participation dans Facebook en vendant à un prix élevé ses propres actions et ). On trouvera une seconde illustration dans l'exposé de la stratégie d'investissement dans Facebook d'un autre fond, GreenCrest Capital LLC, qui cherche à racheter des actions aux anciens employés du réseau (WSJ). Même si elles sont rapportés par un journal du groupe Murdoch, concurrent direct du réseau avec MySpace les explications sont éclairantes. Extraits (trad JMS) :

Puisque certains de ces fonds ne sont pas sanctionnés par les starts-up dans lesquelles ils ont investi, ils n'ont pas accès aux informations de gestion, financières et autres. Cela rend ces investissements risqués, disent des observateurs professionnels de l'investissement. Les investisseurs potentiels peuvent obtenir des compte-rendus du conseil d'administration et quelques informations financières limitées d'actionnaires vendeurs, mais pas beaucoup plus. (..)

Le prix des actions Facebook sur le marché secondaire a considérablement augmenté, dit M. Halpert (un des directeurs du fond), d'environ 5 $ un an et demi auparavant il est aujourd'hui à environ 70 $, avant le récent fractionnement d'actions de 1-pour-5, ce qui valoriserait de l'entreprise à 33 milliards de dollars. Cette évaluation serait l'ordre de grandeur pour les actions de Facebook sur le second marché, selon une personne proche de la négociation en cours sur ce service.

La réalité économique de Facebook est dans cette économie spéculative. Les chiffres exponentiels de son audience, complaisamment relayés, permettent de faire monter les enchères. On ne parle toujours pas d'introduction en bourse et on s'attend à une prochaine levée de fonds qui sera d'autant facilitée que sa valorisation sera élevée.

L'économie de Facebook signifie souvent l'économie générée par ceux qui utilisent le réseau comme plateforme pour développer leurs propres activités rémunératrices (VisualEconomics et pour la principale application Zynga ). Les chiffres présentés sont parfois aussi spectaculaires en terme d'audience, mais pratiquement jamais exprimés en chiffre d'affaires ou bénéfices. Il y a ainsi comme une connivence dans la surenchère spéculative entre le réseau et les producteurs d'application, l'écosystème.

Cette situation n'est pas sans rappeler le début du millénaire, juste avant l'éclatement de la bulle internet. Il ne faudrait pas pour autant sousestimer le succès public de Facebook ni dénier à cette économie spéculative la capacité à construire de la valeur. Contrairement aux starts-up de l'épisode malheureux précédent, les réseaux sociaux produisent une activité. Ainsi selon la dernière enquête IFOP, pratiquement tous les Français (98%) connaissent Facebook et 43% ont un compte (ici). Même si un pourcentage sensiblement moindre y est actif, bien des entreprises rêveraient d'un tel succès.

L'individu-document

Difficile alors de garder la tête froide et de produire une analyse lucide du phénomène. Sans prétendre y arriver complètement, je voudrais suggérer que la théorie du document peut donner quelques clés de compréhension.

Facebook, comme les autres réseaux sociaux, inverse les propriétés documentaires du web. Les humains n'y recherchent pas des documents, les documents ne sont plus que des vecteurs qui relient entre eux des humains ou d'autres entités personnalisées (marques). Ainsi le réseau polarise l'ordre documentaire sur sa troisième dimension : le médium.

Mieux, les techniques du web documentaire servent à indexer les individus pour les décrire et les repérer, non seulement dans leur « forme », c'est-à-dire leur identité et caractéristiques, mais aussi dans leur « texte », leurs comportements et intentions. On pourrait dire comme Olivier Ertzscheild « L’homme est un document comme un autre » (ici, voir aussi mon billet). Dès lors toute la productivité d'un système documentaire est déplacée sur un terrain, la communication entre les hommes, où elle était jusqu'à présent peu utilisée faute d'outils adéquats (courrier postal, téléphone..).

La radicalisation de l'homologie individu-document, modifie l'ordre traditionnel des documents qui est alors soumis à celui des individus. L'individu-document est moins stable que l'objet-document. La versatilité et la réactivité des clivages sociaux s’introduisent dans les arcanes des logiques documentaires, qui, si elles ne les ignoraient évidemment pas, avaient auparavant plus de recul et d’inertie. On pourrait dire que l'ordre documentaire s’apparente ici celui de la mémoire vive, avec ses emballements et ses oublis.

La valorisation économique de ce positionnement se cherche aujourd'hui sur deux marchés : la publicité et la revente des données comportementales. Sur l'un et l'autre elle rencontre des difficultés.

Facebook cherche à utiliser sa maîtrise du «graphe social», c'est à dire l'empreinte des liens entre les personnes, comme un avantage concurrentiel décisif pour valoriser la vente d'attention. Vous pouvez cibler votre publicité par géographie, sexe, âge, mots-clés, situation amoureuse, emploi, lieu de travail ou établissement scolaire. Lorsque vous choisissez vos critères de ciblage, Facebook affiche le nombre approximatif d’utilisateurs concernés, peut-on lire sur les pages réservées aux annonceurs. Ce ciblage peut faire rêver les annonceurs. Il suppose néanmoins que les membres du réseau aient renseigné de façon sincère ces critères et acceptent de partager ces informations, c'est à dire qu'ils se soient auto-documentarisés. Nombreuses ont été les tentatives de la firme pour «obliger» les membres à diffuser leurs profils et nombreuses ont été les polémiques. Il ne s'agit pas de maladresses, mais bien d'un tâtonnement pour trouver un équilibre acceptable entre la protection des individus et les nécessités du commerce. Reste à savoir s'il existe vraiment.

Les données comportementales sont récoltées par les traces de navigation des internautes. Il s'agit cette fois d'une documentarisation automatique. Un marché souterrain de ces données, mariant les premières et transversal aux réseaux s'est mis en place non sans ambiguïtés ().

Aujourd’hui le débat éthique est très vif. Jusqu’à présent seules les organisations policières confondaient l’ordre documentaire et l’ordre social pour contrôler ce dernier. Cela n'était acceptable qu'avec des normes sociales explicites et acceptées sous le contrôle strict d'un État démocratique (), sans pour autant éviter de nombreux dérapages. L'idéologie libertarienne des fondateurs de Facebook accentue encore le malaise ().

Même en faisant abstraction de ce débat, la valeur économique de cette stratégie n’est pas encore vraiment démontrée. On en perçoit les potentialités qui font rêver les uns, cauchemarder les autres. Certaines rentabilisations pointent, mais il n’est pas évident que l’homologie individu-document soit à terme éthiquement supportable et économiquement rentable.

Actu du 31 octobre 2010

Voir aussi : 1. “Social Media and Revenues: Where’s the Profit?,” Master of Media, Octobre 31, 2010, ici.

Actu du 22 novembre 2010

Pour s'interroger sur quelques conséquences de la redocumentarisation des humains par Facebook :

Zadie Smith, Generation Why?, The New York Review of Books, November 25, 2010

Critique en français ici

Actu du 18 déc 2010

Quelques éléments sur les revenus 2010 de Facebook dans Inside Facebook ici.

Voir aussi Numerama,(), très optimiste.. et maniant curieusement les chiffres.

Actu du 3 fév 2011

Voir aussi cette infographie de Google vs Facebook. Je ne suis pas sûr des chiffres financiers à vérifier ici

Actu du 31 déc 2010

Bonne analyse détaillant différents mode de calcul de la valorisation :

Robert Cyran et Rob Cox, “Will 2011 be the year that Facebook’s value gets real?,” Reuter Breakingviews, Décembre 28, 2010, ici.

mardi 08 juin 2010

«Industries du copyright» et fair use

La saison 2010 du cours sur l'économie du document est terminée depuis un moment déjà. L'ensemble est disponible ici, moins la partie d'interaction avec les étudiants, qui reste sur un serveur dédié. Néanmoins les billets rédigés par les étudiants et leur discussion sont accessibles (ici,, et ). L'été est là. Les billets vont donc s'espacer. En voici un, un peu plus long, pour la route.

Deux rapports américains de lobbyistes sont un bon prétexte pour revenir sur certaines notions du cours et faire quelques propositions pour affiner l'analyse. On me pardonnera le caractère abrupt de certaines affirmations. Nous sommes sur le blogue et non sur le cours ou encore moins dans une publication scientifique.

Stephen E. Siwek, Copyright Industries in the U.S. Economy: The 2003-2007 Report, International Intellectual Property Alliance (IIPA), 20 Juillet 2009. Pdf

Thomas Rogers et Andrew Szamosszegi, Fair Use in the US Economy, Economic Contribution of Industries Relying on Fair Use 2010 (Computer & Communications Industry Association, 2010). Pdf

L'un et l'autre rapports visent à démontrer, chiffres à l'appui, l'importance économique aux US des activités qui relèvent de la catégorie indiquée, afin d'influencer les décisions politiques. Le second répond au premier, dans la mesure où une défense trop tenace des industries du copyright peut entraver le développement de celles s'appuyant sur le fair use dont la vocation est justement d'échapper à la rigidité du premier. En réalité la controverse est plus subtile, nous le verrons.

Je ne reprendrai pas les chiffres évidemment favorables aux acteurs qu'ils défendent, mais plutôt le fond du raisonnement et ses conséquences. Les rapports s'appliquent à la situation des États-Unis puisque leur point de départ est la législation de ce pays, néanmoins on pourrait extrapoler le raisonnement général à l'évolution globale du Web, puisque les mêmes questions se posent ailleurs, même si les réponses peuvent différer, et surtout parce que la domination des firmes US sur le Web est massive, au moins pour les pays occidentaux.

Il n'est pas pertinent de parler d'industries du copyrignt et d'industries s'appuyant sur le fair use

Copyright et fair use sont des concepts juridiques. Même si ces notions régulent les activités économiques de notre domaine, il n'est, a priori, pas approprié de s'en servir comme critères pour construire une catégorisation des industries. En général, celle-ci s'appuie sur une production particulière générant une plus-value. Ainsi, on parle d'industries du livre, de la presse, de la télévision, des télécommunications, de l'internet. En effectuant des regroupements plus larges, on pourra parler d'industries culturelles, d'industries des médias ou d'industries du contenu ou du contenant. Mais, nous le savons, dès que l'on élargit les catégorisations deviennent déjà plus hasardeuses.

Parler d'industrie du copyright ou s'appuyant sur le fair use est sémantiquement étrange. On ne fonde pas une industrie sur un droit. Ce serait plutôt l'inverse, le droit vient encadrer l'activité économique et non la définir.

Pourtant pour la première, l'exemple vient de haut puisque c'est l'Organisation mondiale de la propriété intellectuelle qui a défini les règles pour mesurer l'apport des dites «industries du copyright (guide ici, autres études nationales ici et , ou encore en ligne en français la Belgique ou le Canada). Un des résultats du lobying des industries du copyright est bien évidemment l'extension continue de la durée de protection du droit d'auteur (voir à ce sujet le billet de M. Lebert ici).

De plus en plus on trouve le terme d'«industries créatives» pour signifier la même chose. C'est sans doute plus valorisant : l'innovation plutôt que la rente de la propriété intellectuelle. Mais l'ambiguïté n'est pas levée : on remplace la référence à une règle de droit par un processus. Pour montrer l'absurdité de la formulation, gommons l'aspect glamour : en parlant d'industrie de la copie ou de la reproduction on voit bien qu'on est dans une catégorisation peu efficiente. Malgré cela, les « industries créatives » font l'objet de nombreuses études contemporaines (voir à ce sujet cette note de l'Unesco et la critique argumentée de Gaétan Tremblay ). En particulier, ce dernier s'étonne de voir dans cette catégorie l'industrie des logiciels, il est vrai soumise au copyright mais à la logique bien différente de celle des industries culturelles.

La seconde a des parrains moins politiquement prestigieux. Le rapport sur les industries s'appuyant sur le fair use a été commandé par la ''Computer & Communications Industry Association'' dont le slogan est : Open Markets, Open Systems, Open Networks; Full, Fair and Open Concurrence (que l'on pourrait traduire par : « Des marchés ouverts, des systèmes ouverts, des réseaux ouverts pour une concurrence parfaite»). Les membres de la CCIA sont les principales entreprises commerciales du Web. Mais la justification du terme vient de décisions de la justice américaine qui s'est appuyée sur la doctrine du fair use pour autoriser une activité qui aurait pu être interprétée comme contraire aux exigences du copyright. Extrait du rapport (trad JMS) :

L'usage équitable (fair use) de matériels sous droit d'auteur et d'autres limitations ou exception sont une base fondamentales de l'économie de l'internet. Par exemple, une des forces qui permet le développement de l'internet comme outil de commerce et d'éducation est la possibilité pour l'usager de repérer l'information utile grâce à des moteurs de recherche largement accessibles. La cour a considéré que les principaux services fournis par les moteurs de recherche relevaient de l'usage équitable. Sans ces exceptions aux droits d'auteur permises par la doctrine de l'usage équitable, les entreprises de moteur de recherche et d'autres seraient dans l'incertitude face aux infractions, un frein significatif pour proposer ce service bien utile. Le résultat serait l'échec des objectifs d'enseignement et de la croissance du commerce facilités par l'internet.

D'autres activités importantes sont rendues possibles par l'usage équitable, parmi lesquelles le développement de logiciel qui, bien souvent demande des copies temporaires de programmes existants pour faciliter la programmation de l'interopérabilité, et l'hébergement de sites, qui pourrait rendre les usagers coupables d'infraction s'il n'y avait des exceptions ou des limitations. La doctrine de l'usage équitable autorise aussi les usagers de matériels sous droits d'auteur à faire des copies numériques de programmes pour leur usage personnel. Donc, grâce à l'usage équitable les usagers peuvent jouir de programmes sous droits d'auteur de façon différée et transférer le matériel d'un terminal à un autre, et faire des copies-cache temporaires de sites web sur la mémoire vive de leur ordinateur.L'utilité découlant de ces activités a donné naissance à des achats de consommation d'une large gamme de produits comme les enregistreurs vidéo numériques et lecteurs MP3, entrainant une activité économique supplémentaire aux États-Unis et dans tous les pays où les machines utilisées pour ces activités sont fabriqués. (p.13-14, les notes de l'original n'ont pas été incluses).

Le rapport indique par ailleurs (trad JMS) :

Exemples d'industries qui dépendent ou au profitent du fair use :

  • Les fabricants d'appareils grand public qui permettent aux personnes de copier des programmes sous droits d'auteur;
  • les établissements d'enseignement;
  • les développeurs de logiciels
  • et l'activité de recherche sur Internet et les hébergeurs de sites Web. (p.7)

Cet ensemble a une certaine cohérence dans la mesure où il regroupe des industriels ou des organismes orientés vers l'accès à l'information. Mais l'échantillon, présenté dans le corps du rapport, est trompeur car les activités considérées comme au cœur de cette catégorie sont listées en annexe. On y découvre que nombre d'entre elles sont clairement des industries de contenu, comme la presse, les industries du cinéma et de l'audiovisuel ou les industries de la musique enregistrée. Et bien évidemment, on trouve aussi l'industrie des logiciels qui, dans cette catégorie comme dans la précédente, gonfle les chiffres. Ainsi le rapport sur les industries s'appuyant sur le fair use inclut de nombreuses industries du copyright et il semble qu'un de ses objectifs soit de reconfigurer les coalitions traditionnelles.

Bref la catégorisation proposée relève surtout de la rhétorique et n'a pas grande valeur économique. Pourtant, elle n'est pas sans signification.

Économie du web

La plupart des observateurs qui étudient l'économie du web insistent sur l'«écosystème» de l'information qui s'y construit. Un des plus célèbres analystes est sans doute Yochaï Benckler qui souligne l'importance de la valeur créée par les interactions des internautes (ici). Cette valeur est bien difficile à mesurer économiquement et très dispersée en un très grand nombre de pôles. Les militants de l'open source et de l'open access y voient l'essence fondatrice du web. Mais comme le suggère le slogan du CCIA, la notion d'open est ambigüe. L'écosystème se construit aujourd'hui sur l'infrastructure de quelques firmes principales, celles justement qui sont membres de CCIA. Celles-là fournissent aux usagers un environnement de services informationnels le plus complet possible à l'aide de nombreux acteurs affermés qui constituent une nébuleuse autour de la firme dominante. Google, Apple, Facebook et aussi Microsoft montent ainsi chacun leur propre écosystème afin d'attirer le maximum d'internautes dans leur toile par les effets d'externalités.

Le terme d'écosystème est un peu trompeur car, si les services sont effectivement diversifiés, en interaction et montés par des acteurs variés, les rentrées financières sont concentrées chaque fois sur un seul marché et sur une seule firme alma mater de l'écosystème : la publicité en ligne pour Google et Facebook, la vente de matériel pour Apple, la vente de logiciel pour Microsoft. Les autres micro-acteurs dispersés de l'écosystème, reçoivent quelques compensations, symboliques ou financières, mais ils ne sont là que pour alimenter le marché principal. Pour ceux qui douteraient encore de la réalité de cette logique, il suffit d'observer les pions poussés par les principales firmes sur l'écosystème du cellulaire (mobile) dont on sait qu'il est le plus prometteur à court terme (voir le billet de D. Durand ici). J'ai montré dans un autre billet que la logique des écosystèmes suivait les trois dimensions du document ().

Le fair use prend alors une autre dimension. Il s'agit d'une des conditions du fonctionnement des écosystèmes. Pour que les interactions entre les micro-acteurs puissent avoir lieu, il faut des échanges possibles entre les acteurs. Ainsi les industries du contenu, habituées à dominer leur branche ne sont plus qu'un des éléments de l'écosystème, une branche dominée, alimentant comme les autres la firme principale. Leur insistance sur le respect du copyright doit se lire comme une défense, un peu désespérée, de leurs anciennes positions.

Par contre, la vente de contenant (matériels, abonnements au réseau) a explosé. Rien de nouveau vraiment ici, on connait cela depuis l'avènement de l'audiovisuel qui, le premier, a séparé l'industrie du contenu et du contenant, la seconde dominant la première au moins en début de cycle, voir l'article célèbre d'A. Odlyzko (ici). Les industriels des télécommunications, les fabricants de matériels, Apple et Microsoft sont sur ce créneau et leur intérêt pour le contenu et les services n'a pour objectif que l'alimenter le marché de leur métier de base.

Du point de vue des rentrées financières, la seule réelle nouveauté de l'économie du web est que l'accès aux informations et à la culture a trouvé moyen de se monétiser au travers de la publicité commerciale. C'est du point de vue économique la vraie innovation. Ce modèle d'affaires passe par le traitement des traces laissées par les utilisateurs. On trouve ici des gros joueurs : Google, Yahoo!, Facebook pour s'en tenir au marché nord-américain. En réalité, si une nouvelle industrie est bien née, c'est celle de l'accès qui s'appuie effectivement sur la doctrine du fair use. Même s'il s'agit d'un service, je crois que le terme d'industrie est approprié du fait de sa massification et de son automatisation.

Voilà donc qu'ironiquement le fair use, l'usage équitable destiné à favoriser la dissémination de la culture et de l'information en abaissant les barrières à son utilisation, devient la possibilité d'utiliser les traces des comportements d'usage pour vendre des produits. Il s'agit d'une curieuse dérivation du terme fair. On peut être légitimement inquiet pour l'utilisation des données privées.

Reste que nous ne sommes qu'au début de la structuration de l'industrie de l'accès et Il y a encore une bonne dose de burlesque dans cette construction cahotique (ici ou ). Des petits garçons, la bouche encore toute barbouillée de confiture, qui jurent que c'est une erreur qu'ils n'y sont pour rien, après avoir effrontément affirmé le contraire (ici et ). Ils ne sont pas méchants (don't be evil) ! Ils aiment leurs amis !

Le droit est là en général, et tout particulièrement le copyright et la doctrine du fair use, est là pour réguler les sociétés éviter les injustices au nom de l'intérêt général. Il est peut-être temps de réviser cette copie là.

Actu du 10 juin 2010

Pour l'écosystème d'Apple, voir l'intéressant calcul de D. Durand ici

Actu du 24 août 2010

Pour compléter ou même corriger mes propos un peu rapide sur les industries créatives et industries du copyright, lire l'intéressante synthèse des débats dans cette étude pour la commission européenne :

KEA European Affairs, The economy of culture in Europe (DGEC - Commission des Communautés européennes, Octobre 2006), ici

dimanche 09 août 2009

La martingale de Google

On a déjà beaucoup glosé sur Google comme moteur de recherche ou encore sur l'«écosystème» de Google, c'est à dire l'ensemble des services documentaires interconnectés qu'il propose afin de développer l'activité sur le Web, si possible à partir de ses sites. On sait aussi la firme très rentable et ses revenus provenant à 97% de la publicité. Mais on s'interroge peu sur la réussite de Google sur le marché publicitaire. Comment se fait-il qu'il séduise autant les annonceurs ?

La réussite de la firme tient en effet à une double innovation : Celle de son métier de base, la recherche d'information et tous ses à-côtés très suivis par les observateurs du Web ; mais aussi une rupture gagnante et plus méconnue avec les règles traditionnelles du marché publicitaire des médias qui lui a permis de rentabiliser de façon spectaculaire son cœur de métier selon les principes du marché bi-face (Wkp). Il manque aux services qui tiennent la vedette aujourd'hui sur le Web, Facebook ou Twitter, cette seconde dimension innovante. C'est pourquoi on peut douter de la pérennité de leur modèle actuel.

On le sait, la publicité chez Google repose sur l'achat de mots-clés, AdWords, qui détermine l'emplacement de l'affichage de l'annonce sur la page de requête de l'internaute ou sur celle des sites de son réseau correspondants à ces mots clés et sur le paiement par clic (PPC), contrairement au paiement par page-vue traditionnel de la publicité. Déjà ces procédures utilisent astucieusement le savoir-faire d'indexation de la firme. Elles sont généralement mises en avant pour expliquer l'insolente réussite de Google dans le domaine mais elles ne représentent pas la seule originalité, ni même peut-être la principale. Je crois que deux autres innovations se sont avérées décisives : l'utilisation encadrée des enchères et la prise en compte de la servuction dans la production d'une annonce. Cet ensemble présente une rupture radicale avec le marché publicitaire traditionnel.

Je ne parlerai pas ici de l'autre volet de l'activité publicitaire de Google, celui de régie : AdSense, sinon pour dire qu'il constitue aussi dans le chiffre d'affaires une part importante mais minoritaire et qui diminue régulièrement (ici) et que son objectif est aussi de soutenir l'affermage des sites extérieurs et leur permettant de trouver facilement un revenu.

Le jeu optimum des enchères

Il faut être prudent dans l'analyse car toutes les informations proviennent de la firme, une firme qui connait la valeur de l'information et en contrôle étroitement la circulation. Mais un article du numéro de juin de la revue de Wired éclaire crument le premier volet :

Steven Levy, “Secret of Googlenomics: Data-Fueled Recipe Brews Profitability,” Wired Magazine, juin 17, 2009, 108-115 ici

Selon le journaliste, c'est à partir d'une réflexion de Hal Varian, alors professeur d'économie à l'Université de Californie et aujourd'hui recruté par Google comme chief economist, que la firme s'est rendue compte, en 2002 alors qu'elle ne comptait que 200 employés, que son modèle d'affaires était basé principalement sur les enchères. À partir de ce moment là, la firme a fait le pari risqué de basculer la totalité de son système de vente des mots-clés sous le système qui n'était alors qu'expérimental des enchères. Varian, en effet, avait remarqué que le système répondait parfaitement aux questions posées par la théorie des jeux où un acteur ne prend de décision qu'en fonction de l'anticipation qu'il fait des décisions de ses concurrents (Wkp).

Une difficulté des enchères est que les clients ont peur de surenchérir trop fort et donc de payer un prix très au-delà de ce qu'ils auraient pu obtenir. L'idée simple d'abord développée chez Google est que chacun ne paiera que le prix de l'enchère de celui qui le suit plus un centime. L'enchérisseur n'a donc plus à craindre de jouer trop au-delà de ses concurrents. Le paradoxe est que cette procédure encourage l'augmentation des enchères.

Mais le système d'enchères de Google est en réalité plus complexe. L'enchère n'est pas le seul paramètre pour déterminer le gagnant, Google y ajoute un indicateur de qualité de l'annonce. Et le prix payé est calculé selon cette formule : Formule-prix-pub-Google.jpg P1 : Prix payé par l'annonceur - B2 : Enchère la plus haute la plus rapprochée - Q2 :Qualité de l'annonce de l'enchère la plus rapprochée - Q1 : Qualité de l'annonce du gagnant

Toute l'astuce est que par l'indicateur de qualité Google reste ainsi maître des règles du jeu. La qualité est en effet calculée par la firme elle-même. Elle repose principalement sur la pertinence de l'annonce par rapport au mot-clé sur lequel l'enchère porte, sur la qualité de la page de destination du lien et avant tout sur le pourcentage de clics sur une annonce donnée quand elle apparait sur une page. Extrait de la présentation de la firme sur l'indicateur de qualité (ici) :

Nous continuons à affiner les formules de calcul du niveau de qualité sur Google et le réseau de recherche, mais leurs principaux composants sont toujours plus ou moins les mêmes :

  • l'historique du taux de clics (CTR) du mot clé et de l'annonce correspondante sur Google. Remarquez que le taux de clics sur le réseau Google a une incidence sur le niveau de qualité sur le réseau Google uniquement (pas sur Google) ;
  • l'historique de votre compte, déterminé par le taux de clics de tous les mots clés et de toutes les annonces qu'il contient ;
  • l'historique du CTR des URL à afficher contenues dans le groupe d'annonces concerné ;
  • la qualité de votre page de destination ;
  • la pertinence du mot clé par rapport aux annonces de son groupe d'annonces ;
  • la pertinence du mot clé et de l'annonce correspondante par rapport à la requête de recherche ;
  • les performances de votre compte dans la zone géographique où l'annonce sera diffusée ;
  • d'autres facteurs de pertinence.

Pour plus de précision, on peut se reporter aussi à la vidéo où Hal Varian lui-même présente la formule (ici). Comme l'indique le journaliste de Wired, on peut reprocher à Google son arbitraire, mais pas son manque d'équité. En effet, tous les annonceurs sont soumis à la même formule qui a pour objectif de maximiser l'efficacité globale de la publicité affichée.

Et ce n'est pas tout, le succès de la firme a fait qu'il a fallu gérer des millions d'enchères et Google a inventé une nouvelle discipline, la «physique des clics», c'est-à-dire l'observation des clics sur les pages. Les chercheurs de Google ont, entre autres, construit le keyword pricing index, littéralement l'indice des prix des mots-clés, de la même façon que l'on calcule l'indice des prix de l'économie d'un pays à partir du panier de la ménagère. Il alerte la firme quand apparaissent des bulles anormales sur les prix, indication que les enchères ne fonctionnent pas correctement. La firme peut aussi corréler ces données avec celles de la température, du climat et aussi des recherches des internautes afin d'affiner ses connaissances et ses outils.

Elle utilise des dizaines de tableaux qui s'affichent en temps réel tout comme la bourse. Sur un tableau on peut surveiller les recherches, le montant de l'argent récolté, le nombre d'annonceurs, sur combien de mots-clés ils surenchérissent et le niveau de retour pour chaque annonceur. Ainsi Google, sous l'impulsion d'Hal Varian, s'est mis à recruter des économètres. L'évolution est là encore tout à fait comparable à celle qui a suivi l'informatisation des places boursières avec l'arrivée massive de mathématiciens-statisticiens à la recherche de martingales pour optimiser les gains dans ce maelstrom de cours d'actions en perpétuel mouvement.

Ainsi quand on parle d'«écosystème» pour Google, le préfixe «éco-» est plutôt celui d'économie que d'écologie : la firme a mis en place une véritable économie parallèle, autonome dont elle a fixé les règles et qu'elle contrôle étroitement. Dans cette économie ses vrais concurrents sont les indexeurs qui tentent de faire remonter les pages en optimisant au maximum leur repérage par les moteurs (SEO, Wkp), réduisant d'autant l'intérêt des liens sponsorisés.

L'Ikéa de la publicité

La seconde innovation sur laquelle je voudrais insister est l'utilisation du travail du client. Dans l'économie mise en place par la firme, la co-production avec le client est utilisée au maximum.

Ikéa, on le sait, a utilisé de façon massive la notion de servuction, c'est-à-dire, le travail avec le client. Ce dernier feuillette le catalogue, est obligé de suivre l'ensemble des produits exposés, les sélectionne et les transporte et, last but not least, construit lui-même les meubles qu'il a amené chez lui. L'ensemble a été étudié, séquence par séquence, de façon à exploiter au maximum l'activité du client. En contrepartie ce dernier dispose d'une grande liberté dans ses choix et d'un excellent rapport qualité-prix.

Mutatis mutandis, Google a utilisé la même technique pour le marché publicitaire. L'annonceur fait lui-même l'ensemble du travail qui conduira à la mise en ligne de sa publicité. Il serait ici beaucoup trop long de détailler l'ensemble des étapes, mais tout est fait pour que le client puisse optimiser l'efficacité de son message publicitaire.

Google, en plus des outils d'aide traditionnels (ici), a mis en place un centre de formation où l'on peut obtenir tous les détails sur la façon de mener une campagne publicitaire et même, si on le souhaite, passer un examen de professionnel de la publicité (). On observera facilement que, comme pour Ikéa, chacune des séquences a été soigneusement étudiée de façon à utiliser au maximum le travail de client, et de la même façon celui-ci y gagne en liberté et en rapport qualité-prix, mesurée ici en retour sur investissement.

Actu du 11 août 2009

À compléter par la lecture de l'excellent article :

Guy Hervier, “Google devient-il un problème ?,” ITR News.com, juillet 23, 2009, ici

Actu du 8 mars 2010

Lire aussi le très polémique, mais instructif :

Publié Par J-c Féraud, “« L’objectif de Google n’est pas d’afficher l’information la plus pertinente »,” Sur Mon Ecran Radar, Mars 8, 2010, ici.

Actu du 22 septembre 2010

Voir aussi :

“Publicité : les secrets de Google France « La Social Newsroom,” ici

jeudi 23 avril 2009

Googopole à frange

Ce billet vient à la suite du précédent sur la révision de la séquence 2 du cours et plus précisément sur la nécessaire actualisation de la partie sur les marchés financiers du fait de la crise. S2 D18 à 23 08. Ces diapositives et leur commentaire sont à revoir. On trouvera ci-dessous quelques éléments pour la révision.

La notion d'oligopole à frange, indiquée dans la diapositive 23, est bien connue des économistes qui travaillent sur l'innovation. Elle signifie que quelques firmes, qui ont pris une position dominante sur un marché donné, laissent se développer dans leur frange un grand nombre de petites firmes innovantes. Ainsi le risque de l'innovation, difficile à assumer pour des entreprises ayant une position assise, est pris par d'autres. Le succès éventuel d'un plus petit sera racheté ou récupéré par les plus gros, les échecs sont nombreux mais ne mettent pas en péril les principaux acteurs de la branche. Les industries du contenu, industries de prototypes donc par nature innovantes, sont très souvent structurées ainsi. Autour des gros éditeurs, des majors de la musique ou de l'audovisuel, en passant par les grandes stations de télévision, on retrouve une multitudes de petits entrepreneurs qui n'ont d'autre choix que de prendre des risques et assurent ainsi une part de la vitalité et du renouvellement de la création. Les mécanismes financiers varient suivant les branches et surtout suivant les besoins en capitaux. Le budget de production d'un film n'est pas le même, en volume et structure, que celui d'un livre et les formes de dominations des gros sur les petits varient aussi, depuis la filialisation jusqu'à diverses formules d'articulation. Néanmoins on retrouve bien dans les industries du contenu le même type de dialectique entre une concentration de l'activité sur quelques firmes, souvent jusqu'à l'oligopole, et un foisonnement, un éclatement sur de très nombreux entrepreneurs, fragiles mais pleins d'idées.

Les industries du Web paraissent structurées suivant le même modèle, mais je voudrais suggérer dans ce billet que l'homologie n'est qu'apparente. Les relations entre l'oligopole et la frange y ont des caractéristiques originales. Celles-ci s'accusent en ces temps de crise et tout cela n'est pas sans conséquence en retour sur les industries de contenu. Je prendrai exemple principalement sur l'étude de la position hégémonique prise par Google.

Le développement de l'innovation sur le Web s'est beaucoup appuyé sur les fonds de capital-risque (venture capital), auxquels les industries de contenu, industries anciennes, ne font pas appel. Le principe de ce type d'investissement est bien expliqué dans un bulletin récent de l'ADIT (BE États-Unis 162, voir aussi TechCrunch). Ces fonds prennent un pari sur une entreprise, start-up ou jeune pousse, accompagnant sa montée en puissance jusqu'à sa mise en bourse. Il y eut un premier raté au tournant du millénaire, avec la bulle internet, comme c'est expliqué dans le cours (D20). C'est d'ailleurs à la même époque que la firme Google a pris son essor, ce qui montre bien le caractère limité et conjoncturel de la bulle d'alors.

Fondée en 1998, la firme obtient en juin 1999 25M $ de sociétés de capital-risque et fait son entrée en bourse en 2004. L'exemple est éloquent. Depuis en effet Google a pris la position hégémonique que l'on connait. Il suffit de lire la liste de ses acquisitions (wkp) pour constater que l'on est bien dans un processus d'oligopole (avec MSN, News-Corp, eBay, Amazon...) à frange. Notons que toutes les réussites concernent des sociétés qui ont développé une innovation qui a séduit un grand nombre d'internautes et un modèle d'affaires permettant de substantielles rentrées financières.

Une logique perverse

La situation a évolué récemment. Compte tenu de la crise financière actuelle dont l'origine n'est pas cette fois dans la branche numérique, le système de capital-risque est aujourd'hui grippé. Pour le numérique, la difficulté est néanmoins double : d'une part la crise financière réduit l'argent disponible (passé aux US de 30 à 10 Mds de $ en 2009) et rend aléatoire l'entrée en bourse à terme qui est pourtant l'objectif recherché ; d'autre part la valorisation des activités sur le Web a montré ses limites et donc y rend moins attrayant les investissements.

Depuis la bulle internet, il n'est pas sûr même que le débouché principal recherché par les jeunes pousses soit la bourse. Bon nombre de celles-ci souhaitent plutôt se faire racheter par ceux qui ont pris une position forte, difficile à concurrencer car nous sommes dans un processus où le gagnant prend tout (selon l'expression de Franck et Cook, amz).

Dès lors, l'objectif est moins de se rentabiliser sur un marché que de démontrer que l'application que l'on développe pourrait détruire le marché des firmes installées en détournant les internautes. C'est une version quelque peu pervertie de la fameuse création destructrice de Schumpeter (LSE). On détruit de la valeur économique, sans pour autant en construire vraiment par ailleurs. Nous sommes alors dans une logique bien différente de celle des industries du contenu où l'innovation des petites firmes fait découvrir de nouveaux auteurs, oeuvres ou thèmes qui se valorisent sur des marchés. Ici on cherche à capter l'attention des internautes, sans pour autant la revendre ou vendre l'objet de cette captation, mais juste pour menacer les plus installés donc les plus riches et récupérer un peu de leur richesse. En caricaturant, on pourrait dire qu'il s'agit d'un raisonnement mafieux. Cette économie spéculative ne peut évidemment fonctionner que si ceux que l'on menace ont les moyens financiers de se défendre. En réalité, voilà bien comment fonctionne l'économie du Web 2.0.

L'ironie du système est qu'il trouve un allié objectif chez les militants de la démocratie internet, prompts à se mobiliser pour défendre la gratuité sous toutes ses formes. Il trouve aussi un appui dans une sorte d'économie souterraine faite de nombreux petits acteurs, et même les individus, qui baissent leurs coûts de transaction et élargissent leur zône d'achalandage sans contrepartie gràce aux réseaux et aux plateformes mis à disposition.

Pour ceux qui ne seraient pas convaincus, je prendrai seulement deux exemples emblématiques : YouTube et FaceBook. Le premier a été racheté par Google 1,65 Mds de $ en 2006. Il est devenu le deuxième moteur de recherche aux US. Et pourtant, il n'arrive pas à se rentabiliser et pourrait perdre jusqu'à 470 M de $ selon de Crédit Suisse cette année (merci à D. Durand pour sa veille attentive sur ces questions). FaceBook, on le sait, est un énorme succès de fréquentation, il vient d'annoncer avoir atteint la barre de 200 millions d'utilisateurs. La firme a déjà levé pour 15 Mds de $ de capital risque et en chercherait de nouveau pour la même somme, non sans de grosses difficultés vu son absence totale de rentabilité et l'état de la bourse (TC).

Le rôle de Google

Revenons donc à Google. Pour bien comprendre son fonctionnement et la position particulière de la firme, il faut observer la structure de son chiffre d'affaires. Voici son évolution selon les derniers résultats du premier trimestre 2008 :

Chiffre d'affaires de Google 1er trim 2009 Diaporama complet ici

La première évidence bien connue des lecteurs de ce blogue est que, malgré ses tentatives de diversification, le chiffre d'affaires de Google est encore et toujours quasi exclusivement du à la publicité (98%). J'ai déjà eu l'occasion de faire remarquer (ici) combien l'évolution de sa structure signalait un recentrage progressif sur le métier originel de la firme, la recherche d'information financée principalement par adwords en vert plutôt que la régie publicitaire (adsense) en bleu. Je ne reviens pas non plus les conséquences pour les industries de contenu (par ex ici).

La baisse du chiffre d'affaires de Google début 2009 et qui semble devoir se confirmer au trimestre suivant même si elle reste relative va conduire les dirigeants à la prudence. Voir sur cette question le compte-rendu de Cnet-News (ici). La première conséquence sera d'accentuer encore la tendance précédemment citée.

Néanmoins, la firme dispose d'un énorme trésor de guerre qui l'autorise des investissements importants. Par ailleurs, compte-tenu de son succès financier, la position du titre de Google en bourse reste confortable, très supérieure à la moyenne du Nasdaq (actualiser D22).

Cours de l'action de Google vs MSN avril 2009

Dans ces conditions, il est probable que Google va accentuer encore sa domination sur le secteur en favorisant le développement d'une frange qui trouvera de moins en moins d'interlocuteurs vers qui se tourner et qui sera de plus en plus vassalisée.

La firme vient d'ailleurs de lancer son propre fond de capital risque et compterait investir 100M $ pour 2009 (BE États-Unis 161). Autre exemple, elle s'intéresse de près à Twitter, qui ne dispose lui non plus pas du moindre début d'un Business model.

Par ailleurs, Google serait "très, très heureux" d'aider Twitter ou d'autres sites Internet de "communication immédiate" à gagner de l'argent, a indiqué Eric Schmidt, en évoquant des pistes pour rentabiliser le site de micro-blogs. "Sans parler spécifiquement de Twitter", ces sites pourraient devenir "un moyen de canaliser des informations marketing", et à partir de ce moment-là, "d'accrocher des produits publicitaires", a-t-il relevé. Le Monde du 17-04-09, ici.

En complément voir l'intéressante analyse d'O. Ezratti qui montre la domination des capitaux publics dans le capital-risque en France.

Actu du 30-04 2009

Deux références complémentaires signalées par InternetActu. La première confirme en le précisant les difficultés économiques des sites de Crod Sourcing dues notamment au coût de la bande passante et à la difficulté de monétarisation :

Farhad Manjoo, La bande passante ne se trouve pas sous les sabots d'un cheval, Slate 22 avril 2009, ici

L'autre développe, à partir de l'exemple de l'iPhone, une idée complémentaire et non abordée ici, celle de l'écosystème. Une façon webilitiquement correcte de parler d'oligopole à frange, mais la domination s'y exerce différemment que dans l'analyse ci-dessus et il serait bon que j'y revienne à l'occasion :

Alexis Mons, Leçon d'économie systémique, 24 avril 2009, Groupe Reflect,.

Actu du 1-05-2009

Voir aussi dans la même logique, mais chez Amazon, le rachat de Lexcycle. Chez V Clayssen (ici et).

vendredi 05 septembre 2008

Le coeur du métier de Google

Ce billet a une suite ici.

Chacun s'accorde à penser que le moteur de recherche, couplé à la publicité sur les réponses aux requêtes représente le cœur du métier de Google. Chacun aussi convient que la sobriété de la page de recherche a été un facteur déterminant dans son succès. Dès lors, l'analyse de cette page où rien n'est laissé au hasard, et de son évolution, doit nous en apprendre beaucoup sur la stratégie de la firme. Je m'en tiendrai à un rapide survol de la palette des services présentés sur Google.com (ici, attention cette présentation est évolutive dans le temps et selon la situation du terminal d'interrogation), mais une analyse plus approfondie et un repérage des nuances entre les différentes versions nationales seraient aussi à mon avis riches d'enseignements.

Google-Page de requète

La première information qui saute aux yeux sur la page de ce jour est la mise en avant du nouveau navigateur Chrome, juste en dessous de la fenêtre de requête. Si quelqu'un en doutait encore, ce lancement est la priorité stratégique du moment. Il ne s'agit pas pour Google d'un service comme les autres : ce positionnement sur la page est tout-à-fait exceptionnel. Il semble le premier à avoir atteint ce niveau le premier, si l'on met à part des annonces liées à l'actualité (p. ex. Tsunami..), depuis le 4 décembre 2001 où la page a commencé à prendre une tournure définitive avec une série de services annoncés dans un bandeau supérieur, c'est à dire lorsque Google a commencé à rationaliser son portefeuille de services (complément du 8 oct 2008 : affirmation à nuancer, voir le complément du billet suivant ici). En réalité, cette annonce n'apparait pas sur le service intégré à Firefox (elle est remplacée par une incitation à télécharger les modules complémentaires de ce dernier), ce qui renforce encore l'idée d'une offensive visant Internet Explorer. Ce service, pour autant qu'il rencontre le succès, est une pièce essentielle de la stratégie Googleienne, la première donc à avoir été mise pratiquement au même niveau que le moteur sur la page. Cela devrait faire réfléchir.. pour le dire vite et toujours en cas de succès qui n'est évidemment pas encore acquis, le cœur du métier de Google pourrait bien passer d'un service de requêtes à un outil de navigation ou de gestion documentaire (le premier n'étant plus qu'un service complémentaire du second).

La deuxième information importante est le bandeau du haut qui met en avant quelques services de la palette de Google. Cet accent en fait en sorte les «services de base» de la firme, comme on dit en marketing, et la sélection n'est pas du tout anodine, encore moins son évolution dans le temps. On le sait, la firme dispose grâce à l'analyse des traces des requêtes d'une formidable base de données des intentions qui lui donne un avantage considérable par le repérage des tendances des pratiques des internautes et donc leur monétarisation possible. Les choix sur les services mis en avant sont donc hautement significatifs. La capacité d'innovation fascinante et le nombre impressionnant de services, complaisamment relayés par des groupies enthousiastes ou des Cassandres désespérés, ont tendance à laisser croire que la firme raisonnerait sur la base d'un écosystème informationnel où un battement d'aile de papillon d'un côté aurait d'importantes conséquences de l'autre. En réalité, sans douter de sa force globale, elle se conduit bien comme une firme ordinaire avec un portefeuille de services qui comprend, comme partout : des vaches-à-lait, des vedettes, des dilemmes et aussi des poids morts.

Nous avons ce jour dans les services de bases : les images, les cartes, les actualités, les courses (shopping) et la messagerie (Gmail). Il s'agit très vraisemblablement d'un mix entre les services les plus populaires et les plus stratégiques. On pourrait faire une analyse du positionnement de chacun d'entre eux et aussi de l'absence (sur cette première page) des autres. Je réserve celle-ci pour plus tard et me contenterai d'un bref constat analytique de l'évolution de cette liste, à partir d'un rapide balayage de l'historique des pages sur Internet Archive (ici),

Lorsqu'elle est apparue en décembre 2004, la liste comprenait : les images, les groupes (forum), l'annuaire, auxquels les actualités se sont ajoutées un mois plus tard. En mars 2004, il s'est ajouté Froogle, un comparateur de prix ancêtre de Shopping. En février 2005 Local, un service de recherche géographique sur les commerces et services de proximité préfiguration du service de cartes qui le remplace en avril 2006. En août 2006 est apparue la vidéo qui a pris la place du service des groupes et de Froogle. Le 17 mai 2007, la liste des services se déplace en haut et à gauche de la page pour dégager le service de requête et la messagerie (Gmail) apparait dans la liste. En novembre 2007, Produits (Products), qui sera renommé rapidement Shopping, remplace Vidéo.

On peut tirer quelques conclusions simples de cette petite énumération.

Google a rapidement relégué au second plan la fonction d'annuaire, sur laquelle Yahoo! au contraire a mis l'accent et celle des forums, on pourrait dire plus largement avec le vocabulaire d'aujourd'hui des réseaux sociaux. Puis après une première mise en vitrine a fait aussi disparaitre la vidéo. Il me semble que l'on peut voir là la marque d'une difficulté de monétarisation de ces services.

Inversement, les services de géographie et les courses se sont imposés progressivement. Il s'agit, à mon avis, d'une formule d'affaires tout-à-fait originale de ce média qui, contrairement à ce qui est souvent dit, s'inscrit clairement dans l'espace et pour des transactions de proximité au sens où elles concernent des objets qui atteindront le domicile des consommateurs. La monétisation est ici claire, par la publicité ou par les commissions. C'est donc un volet essentiel de la stratégie de Google, qui l'éloigne d'un service documentaire pour la rapprocher du e-commerce. Une diversification à souligner.

Il est aussi très notable que le service d'images soit resté aussi stable que le service central, marque sans doute d'une très forte popularité de ce service. De même, le service d'actualité, arrivé très tôt, est toujours là. Il est aussi très populaire et nous avons vu comment il était monétarisé (). Enfin, l'arrivée récente de la messagerie sur la page d'accueil pourrait être un autre symptôme de l'inflexion de la stratégie de la firme, notée au début du billet : navigation et messagerie sont en effet les deux services de bases de l'internet. Google a réussi à monétiser le premier par la publicité tout en le transformant en un ticket d'entrée pour ses services, et donc, sinon un verrouillage complet, du moins une orientation ferme et sans douleur de la navigation des internautes. Il est bien possible qu'il souhaite réitérer l'exploit avec le second.

La partie inférieure de la page mérite aussi une analyse, car elle en dit très long sur le modèle d'affaires développé par la firme. Mais c'est assez pour un samedi..

Complément du 9 septembre

L'annonce de Chrome a été retirée de la page à peine quelques jours après son lancement, ce qui relativise son positionnement. Nous en sommes encore à un service Dilemme.

- page 5 de 6 -