Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - économie de l'attention

mercredi 20 octobre 2010

Google et les déplacements de valeur

Tout comme Apple, la firme Google vient d'annoncer d'insolents résultats financiers. J'ai repris sur un schéma, à partir de ses bilans trimestriels (disponibles ici), l'évolution de son chiffre d'affaires depuis 2005 décomposé selon les revenus de la publicité issus de ses sites propres, de ceux issus de son réseau de partenaires (Adsense) et des revenus hors publicité.

Revenus-Google.png

On observe tout d'abord la forte croissance presque continue des revenus, avec juste un décrochage fin 2008, au plus fort de la crise. L'omniprésence du poids de la publicité est aussi manifeste. Elle représente toujours aujourd'hui 97% du total des revenus. L'analyse devient moins convenue lorsque l'on observe la différence de tracé des courbes des revenus Adsense (courbe jaune) et des revenus des sites de Google (courbe rose). Partant pratiquement du même point en 2005, celles-ci divergent de plus en plus. Les revenus de Adsense ont une croissance assez régulière, de l'ordre de 15% par trimestre, tandis que ceux des sites Google s'envolent avec une sensibilité plus forte à la conjoncture économique.

Un autre schéma peut nous permettre d'approfondir :

Adsense-Google.png

Dans ce schéma, j'ai consigné les bénéfices trimestriels de Google (violet), la part du revenu de Adsense qui reste à Google, c'est-à-dire la rémunération de son activité de régie (bleu). La courbe jaune représente les sommes redistribuées aux partenaires Adsense, c'est-à-dire les sites accueillant la publicité.

La remarque précédente est confirmée puisqu'on observe une différence forte entre l'évolution du bénéfice et celle de la rémunération de la régie (d'autant que pour mesurer le bénéfice induit par la régie, il faudrait encore déduire les frais de fonctionnement de cette dernière de son revenu), la régie pesant de moins en moins dans le bénéfice général. Mais le schéma souligne aussi un autre phénomène : autant le bénéfice général subit d'importantes fluctuations, jusqu'à chuter brutalement fin 2008, autant l'activité de régie apporte à la firme un revenu stable et régulier.

Ainsi, entre les deux activités économiques principales de Google, régie publicitaire et recherche financé par la publicité, la seconde s'affirme de plus en plus au cours des années. Pour le dire autrement, Google est de plus en plus un média à part entière, un média conquérant, ambitieux, mais à l'évidence un média encore économiquement fragile, soumis à des fluctuations.

Lorsque Google intervient comme régie publicitaire, il partage ses revenus avec ses partenaires selon une logique qui ne contredit pas vraiment celle des médias anciens, même si bien des modalités sont modifiées. Mais dans le second cas, le déplacement de valeur est radical : par la recherche, Google réoriente l'attention de l'internaute en réorganisant l'ordre documentaire tout en ponctionnant à son profit le marché publicitaire.

Le média-Google s'installe entre la radio-télévision, à qui il emprunte le marché bi-face et le réseau (internautes et annonceurs) et la bibliothèque à qui il emprunte la recherche et l'organisation documentaire. Mais il opère aussi une rupture entre les savoir-faire des uns et des autres par une utilisation inédite à ce niveau du traitement de la langue. Linguistique computationnelle et lexicométrie statistique sont ses compétences de bases qu’il a appliquées sur le web en le considérant comme un vaste texte, organisé par les liens entre les documents entre eux et la demande des internautes. Ce qui prime ici est la dimension intellectuelle, celle du texte et du contenu des documents, c'est-à-dire la deuxième dimension du document ().

La rupture est alors radicale vis-à-vis de la radio-télévision. Le traitement statistique de la langue est utilisé pour organiser le marché bi-face par la vente de mots-clés, associés à la signification de la requête et donc au texte, mais dissociés des documents comme objets contrairement aux médias précédents .

La rupture est tout aussi importante vis-à-vis des bibliothèques. En se positionnant sur la dimension texte, pour capter l'attention par la recherche, il a participé à la contestation de l’ordre documentaire ancien, celui des bibliothécaires et les documentalistes, par une intense « lecture industrielle » pour reprendre l'expression d'Alain Giffard (). La capacité de chercher transversalement dans l'ensemble des textes réduit, en effet, l’importance de leur classement antérieur et, modifiant notre système de mémoire externe collectif, participe au décadrage de doxas. Il est alors naturel que, nonobstant son caractère fortement capitaliste et les ambiguïtés du nouvel ordre documentaire qu’il installe, la firme ait une certaine connivence avec les militants d’un web libertaire dont le ressort est la remise en cause de l’ordre ancien fondé sur la maîtrise de la forme des documents.

Bien des éléments pourraient être ajoutés pour conforter l’accent mis sur cette deuxième dimension : La nécessité pour la firme de disposer de l’ensemble du web en mémoire-cache ; l’utilisation du fair-use aux États-Unis pour se dispenser du copyright et corrolairement les relations difficiles avec les ayant-droits ; Google-books ; YouTube ; la distribution gratuite du système Androïd sur les téléphones portables pour concurrencer l'imprimeur-libraire Apple ; ou, tout récemment, la « recherche instantanée » qui suggère le texte de la requête au fur et à mesure de la frappe en construisant en direct un ordre documentaire à partir d’un contenu, et j'en passe beaucoup. Le meilleur symbole du cœur de métier de la firme est sa page d'accueil, pratiquement inchangée depuis le lancement de la firme (ici, lire aussi les commentaires).

Actu 22 oct 2010

Intéressantes remarques sur la concurrence Apple/Google :

“THE GOOGLE INVESTOR: Android Has No Chance In The Near-Term Against The iPad,” Business Insider, Octobre 21, 2010, ici.

Actu du 25 octobre 2010

Voir aussi le billet de F. Cavazza, qui sous-estime à mon avis le poids de la forme :

FredCavazza, Google Chrome OS = iOS + iTunes, 15 octobre 2010 ici .

Actu du 19 déc 2010

Étude approfondie de la position dominante de Google en France :

Avis du 14 décembre 2010 sur le fonctionnement concurrentiel de la publicité en ligne (Ministère de l'économie, des finances et de l'emploi), ici.

Commenté notamment par Electron libre .

mardi 31 août 2010

Economie de surveillance

Le Wall Street Journal a publié cet été une série de cinq articles sur la surveillance et le repérage des internautes. Ces articles sont aussi importants par les informations qu’ils apportent, que par le statut du journal qui les publie.

1. Julia Angwin, “The Web's New Gold Mine: Your Secrets,” wsj.com, Juillet 30, 2010, rub. What They Know, ici.

2. Nick Wingfield, “Microsoft Quashed Effort to Boost Online Privacy,” wsj.com, Août 2, 2010, rub. What They Know, ici.

3. Justin Scheck, “Stalkers Exploit Cellphone GPS,” wsj.com, Août 3, 2010, rub. What They Know, ici.

4. Emily Steel et Julia Angwin, “On the Web's Cutting Edge, Anonymity in Name Only,” wsj.com, Août 4, 2010, rub. What They Know, ici.

5. Jessica E. Vascellaro, “Google Agonizes on Privacy as Ad World Vaults Ahead,” wsj.com, Août 10, 2010, rub. What They Know, ici.

Voici quelques notes et commentaires article par article. Attention, il s’agit de ma lecture et de mon interprétation des articles et non d’un compte-rendu fidèle, j’y ai ajouté commentaires, liens et réflexions de mon cru. Le sous-titre représente la principale leçon que j’en ai tirée.

1. L’économie souterraine du ciblage

Le WSJ s’intéresse dans cet article introductif aux logiciels espions.

Du côté technique, les initiés n’apprendront pas grand-chose. J’avais déjà rendu compte d'une enquête sur les 50 sites les plus populaires des US (là où on trouvera aussi le lien vers l'enquête de AT&T sur 1.000 sites populaires citée dans l'article). Le journal a fait une expérience similaire avec un ordinateur test. Il a constaté que les 50 sites les plus fréquentés avaient déposé 3184 éléments de surveillance au total, la plupart du temps sans prévenir, une douzaine de sites en a déposé plus de cent, Wikipédia aucun. Un petit 1/3 sont inoffensifs, par exemple pour se rappeler son mot de passe. Mais les logiciels espions ne s’en tiennent pas à des cookies et sont de plus en plus sophistiqués. Certains, par exemple, suivent ce que font les gens en temps réel, et évaluent instantanément le lieu, les revenus, les comportements d’achat et même les conditions médicales des personnes. Certains se réimplantent automatiquement quand les usagers cherchent à s’en débarrasser, notamment en profitant des fonctionnalités de Flash d’Adobe. La relation entre les profils et les noms des personnes n’est pas faite. Les profils sont, en toute rigueur, ceux des machines des utilisateurs.

Plus inédits sont les éléments, même partiels, donnés sur cette économie. Les profils des individus ainsi recueillis, constamment actualisés, sont achetés et vendus sur une sorte de bourse qui a pris son envol dans les derniers 18 mois. Le journal a ainsi identifié plus de 100 sociétés d’intermédiaires en concurrence sur les données comportementales et d’intérêts des individus. Parmi celles-ci la société BlueKai surveille, par exemple, les visiteurs de eBay.com ou de Expedia.com en temps réel et ces données sont revendues sur son site. Plus de 50 millions d’informations sur les habitudes de navigation des internautes sont vendues chaque jour à 1/10 de centime de $ pièce. On considère que la publicité ciblée a fait un chiffre d’affaires de 23 Milliards de $ l’année dernière.

Ces données peuvent être une rentrée supplémentaire pour des sites qui ne peuvent se financer complètement par la vente d’espace publicitaire. Il semble néanmoins que, naïfs, inconscients ou complices passifs, nombre de sites ne sont pas au courant des logiciels espions qu’ils transmettent et qui sont initiés par des entreprises-tiers d’un nouveau genre où règnent les statisticiens. Par ailleurs, si aux États-Unis l’utilisation des cookies est réglementée, les autres logiciels espions, bien plus intrusifs ne le sont pas, pas encore.

In fine, l’objectif est, bien sûr, de cibler au plus près le consommateur. Voici trois citations illustratives de l’objectif des responsables de ces sociétés : « Les annonceurs veulent accéder aux personnes, pas aux pages web » ; « Quand une publicité est correctement ciblée, elle cesse d’être une publicité pour devenir une importante information » ; « Nous dirigeons les gens vers différentes files de l’autoroute ». Mais, cette détermination a des limites. Il n’est pas sûr que nous voulions rester toujours dans les mêmes rails et nous sommes, comme tous les humains, heureusement versatiles.

2. L’importance du navigateur et des choix techniques

Un important débat a eu lieu à Microsoft au moment de la mise au point de Internet Explorer 8 entre les ingénieurs et les responsables de la stratégie. Les premiers avaient imaginé un navigateur qui protégeait par défaut la vie privée des internautes en les prévenant des logiciels intrusifs et leur donnant la possibilité de les bloquer. Mais suite à des pressions internes de nouveaux recrutés issus de la publicité sur le web et de la consultation des représentants de cette branche. La tendance a été renversée, rendant quasi-impossible cette protection, qui n’existe plus par défaut et qu’il faut réenclencher à chaque ouverture du navigateur.

L’épisode est intéressant à double titre. D’une part, il illustre combien la logique économique du web est radicalement différente de celle de l’économie classique des logiciels, culture initial de MSN, et repose exclusivement sur la publicité ciblée. D’autre part, il montre le rôle essentiel dans cette économie du navigateur dont les choix techniques ne sont pas gravés dans le marbre.

MSN, malgré tout, cherche encore à se démarquer de ses concurrents sur le web en appliquant une politique plus rigoureuse sur les données qu’il collecte, comme le montre cet article du journal de la firme : Lee Pender, “Privacy: What Does Microsoft Know About You?”, Redmondmag.com, Janvier 7, 2010, ici.

L’épisode peut aussi faire réfléchir à la stratégie de Mozilla avec Firefox, drapé dans la vertu du logiciel libre, mais ne défendant pas mieux les données privées..

3. Cellulaire ou mobile

En Amérique du nord, on dit « téléphone cellulaire », en Europe « téléphone mobile », ou plus rapidement cellulaire et mobile. La différence sémantique est ironique, l’un insiste sur le repérage, le quadrillage voire l’enfermement, tandis que l’autre pointe la liberté, le déplacement. Sans doute, il s’agit de l’envers et du revers d’une même médaille, mais le pile et le face sont pour le moins contrastés. Une même technologie, un même service est désigné selon les continents par des qualificatifs opposés. Ici, je garderai « cellulaire », plus représentatif des propos du WSJ. Les compagnies de téléphone savent, en effet, où se trouvent leurs abonnés à trente mètres près.

L’article met en balance deux conséquences de ce repérage : d’un côté il indique la possibilité de repérer des victimes d’accidents ou de délits ou encore de sécuriser les enfants, qui justifie officiellement la réglementation US d’installation d’une puce GPS dans tous les téléphones cellulaires ; mais il insiste surtout sur les dangers du harcèlement et de la surveillance domestique, multipliant les exemples de femmes battues, retrouvées par leur mari grâce au traçage familial de leur téléphone portable proposé aux abonnés d’un cellulaire. En réalité, les enjeux me paraissent ailleurs : sur la surveillance policière ou le contrôle social d’un côté, la publicité contextualisée, de l’autre

Un chercheur d’une société de sécurité informatique, Don Bailey d’ISec Partners, a montré qu’il suffisait du numéro de cellulaire de la personne, d’un ordinateur, de quelques connaissances sur la technologie des cellulaires pour surveiller n’importe qui. Pour les paranos ou les incrédules, toutes les explications du chercheur sont ici . Il y explique comment il est possible de savoir, pour quelques cents et, tout de même, avec quelques compétences informatiques : qui vous êtes, quels sont les membres de votre famille, vos amis, vos collègues, où vous êtes, où ils sont, ce que vous êtes probablement en train de faire, pourquoi.. et ce que vous allez probablement faire ensuite.

4. Anonymat et personnalisation

Cet article donne une illustration concrète de ce qu’il est possible aujourd’hui de faire avec les données collectées. Il prend l’exemple de la société (x+1) qui a trouvé son modèle d’affaires en 2008 après de nombreux déboires et changements auparavant.

En utilisant les bases de données construites comme indiqué dans le premier article, la société est capable instantanément de donner le profil de consommation de n’importe quel internaute. Ils n’ont pas a priori son nom, mais croisent les références des données, avec la propriété des maisons, le revenu familial, le statut familial, les restaurants habituels, entre autres. Et en utilisant les probabilités, ils font des hypothèses sur les penchants de l’internaute. Le directeur de la société indique : « Jamais, nous ne savons rien sur une personne ».

Sans doute, il leur arrive de se tromper, mais leurs propositions sont suffisamment fiables pour qu’ils aient trouvé un marché auprès des vendeurs de cartes de crédit qui évaluent ainsi en temps réel la fiabilité de leurs nouveaux clients. Comme le dit le journaliste : « en résumé, les sites web ont gagné la possibilité de décider si vous serez un bon consommateur ou non, avant même que vous ne leur disiez quoi que ce soit sur vous-même ». Les conseils d’Amazon à partir de leur base de données maison sont largement dépassés. Ces techniques ouvrent la possibilité de construire un commerce personnalisé où produits, services ou même prix sont proposés selon le profil de chacun.

Mais la préservation de l’anonymat est toute relative et, par ailleurs même si ces sociétés disent ne pas faire de discrimination selon les genres, les profils ethniques, les handicaps qui tombent sous le coup de la loi, de tels profilages peuvent conduire facilement à des dérives éthiques. Ainsi, comme le titre de l’article l’indique, cette économie du web est limite.

5. Contextuel ou comportemental

Le dernier article est celui qui m'a le plus intéressé. Il s'appuie sur un document interne de la société, remue-méninges qui montre les hésitations de Google pour l'exploitation des données qu'il récolte sur les internautes face à la montée de la concurrence. De part sa domination du marché de la publicité en ligne, la position de Google est déterminante à la fois vis-à-vis de ses concurrents et aussi vis-à-vis de l'évolution de la réglementation que chacun sent proche.

La firme détient par son moteur la plus grosse base de données sur les intentions des internautes, mais a résisté jusqu'à présent à surveiller ces derniers sans leur consentement pour préserver son image. Le savoir faire de Google est d'abord contextuel, une expertise de traitement des textes, aussi bien les requêtes des internautes que les documents publiés sur le web et non comportemental, une connaissance des réactions des personnes. Cette dernière expertise est celle de FaceBook ou des jeunes firmes présentés dans les autres articles de la série. D'un côté une expertise linguistique, de l'autre une expertise sociologique. C'est aussi dans ce contexte que l'on peut relire le slogan « don't be evil », on peut chez Google manipuler les mots, pas les personnes. Les débats internes à Google sur l'utilisation des cookies par exemple sont très vifs et ne sont pas sans rappeler les débats de MSN présentés dans un autre article de la série. Dans les deux cas le dilemme est le même : comment préserver la culture de l'entreprise tout en faisant face à la concurrence ?

Une animation très claire, qui accompagne l'article, montre combien aujourd'hui les données engrangées sont nombreuses, recueillies par diverses services de Google et sont encore cloisonnées pour leur exploitation publicitaire. Reste que l'article ne dit pas à quoi servent l'important stock de données collectées en dehors d'une utilisation pour la publicité, par exemple par la barre d'outil de Google.

Suite notamment à l'achat de Double-Click en 2007, à la montée de la concurrence dont Facebook, il semble que la position de la firme a évolué sur le cookies. D'ailleurs, l'enquête déjà citée () montrait que Google est très présent dans la surveillance. Une stratégie pour sortir du dilemme par le haut serait de devenir une bourse d'échanges de données ou une régie de publicité comportementale ciblée.

Actu 24 septembre 2010

Voir aussi :

The convergence of Google, government and privacy - O'Reilly Radar, ici.

Actu du 7 octobre 2010

Comme prévu, la régulation va très très vite dans ce domaine :

“Publicité ciblée : les Américains aussi se mettent à l'abri - Etreintes digitales,” ici.

Actu du 13 octobre 2010

Conformément à l'esprit français dans la continuité de la CNIL, l'argumentaire est plutôt mis ici sur l'éthique et non sur le commerce. Deux références :

Le livre de D. Kaplan, présentation ici

La signature de chartes sur le droit à l'oubli : pour la publicité ciblée (ici) et dans les sites collaboratifs (). Signatures refusées par Facebook et Google.. entre autres.

Dans ce domaine, l'autodiscipline est peu efficiente, seule compte la norme comme le propose Helen Bissenbaum ().

Actu du 18 oct 2010

Le WSJ continue à creuser le même sillon en en faisant une rubrique régulière What they know ici et notamment cet article :

Julia Angwin et Steve Stecklow, “'Scrapers\' Dig Deep for Data on Web,” wsj.com, Octobre 12, 2010, ici .

Actu du 26 octobre 2010

Voir ce nouvel article sur une levée de fonds de la société Cloudera.

Actu du 27 octobre 2010

A suivre :

“Confidentialité : Google poursuivi en justice aux Etats-Unis,” Le Monde, Octobre 27, 2010, ici.

mercredi 24 février 2010

Hyperconcurrence des médias : Les stations de télévision en péril ?

Ce billet a été rédigé par Anne-Marie Roy dans le cadre du cours SCI6355 sur l'économie du document de la maîtrise en sciences de l'information de l'EBSI.

L’ère numérique est également devenue l’ère de l’hyperconcurrence. En effet, la multitude de services, de technologies et de supports offerts afin de se procurer de l’information a grandement bouleversé le marché des télécommunications. C’est pourquoi l’on parle aujourd’hui de la notion d’hyperconcurrence. D’ailleurs, le Groupe de recherche sur les mutations du journalisme (GRMJ) est en train de développer un projet de recherche sur cette notion afin de mesurer l’impact de ce changement de paradigme sur le journalisme télévisé. Le groupe de recherche note que :

« La croissance de l'offre médiatique et l'intensification de la concurrence paraissent évidentes si l'on considère qu'en deux décennies l'offre de télévision dans un marché comme celui de la région de Montréal est passé de trois à plus de cinquante canaux. L'accès à l'information que permettent maintenant des technologies comme Internet, le satellite et, bientôt la « Web-TV », achèvent de projeter le citoyen-consommateur dans un nouvel univers médiatique. »

Vous pouvez lire l’énoncé complet du projet de recherche ici.

Dans ce contexte, comment les stations de télévision peuvent-elles répondre aux demandes des consommateurs qui recherchent plus de liberté dans la gestion de leur temps et de choix ?

La clé réside probablement dans l’adaptation. Les stations de télévision doivent s’adapter au numérique. C’est d’ailleurs pourquoi, plusieurs stations offrent de nombreux compléments et services en ligne par le biais des forums de discussion et de blogues complétant l’information télédiffusée. Plusieurs sites offrent même des rediffusions en ligne. Le site TOU.TV, qui met ligne plusieurs émissions francophones, semble être une bonne illustration de ce phénomène grandissant. L’intérêt de ce site est qu’il offre à la fois des séries d’archives et des séries actuellement en ondes.

Les auteurs du site entrent alors eux-mêmes en concurrence avec leurs propres diffusions télévisuelles. Cette concurrence affectera certainement les artistes qui, n’étant pas les maîtres du jeu, risquent de voir une baisse de leurs revenus. La crainte se fait déjà sentir comme en témoigne cet article de Cyberpresse : Avec Tou.tv, les artistes craignent une perte de revenus. De plus en plus, ces jeux de concurrence semblent se complexifier et soulever plusieurs problèmes.

Ainsi, je me demande si une simple adaptation sera suffisante pour assurer la pérennité des stations de télévision ? Devant l’essor d’un tel phénomène, devrait-on alors réglementer la web-télé ? Le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) se penche présentement sur la question. Le rapport De la télévision ou non? Trois types d’écran, une seule réglementation présente des conclusions où la réglementation propre à la télévision en terme de contenu serait amenée tranquillement à disparaître afin de permettre une ouverture plus grande à tous les diffuseurs et consommateurs dans un contexte numérique et d’assurer le dynamisme d’Internet. Ainsi, on favoriserait une déréglementation de la télévision au profit d’Internet. Cela risquerait d’amener plusieurs problèmes, notamment pour les artistes qui devraient alors seuls défendre leurs intérêts. À ce sujet, je vous suggère ce billet de Martin Lessard : Télévision sur Internet : "Peut-elle être assujettie aux mêmes règles que la télévision traditionnelle. J’en conclus donc que le marché tend plutôt vers une déréglementation qui ne se fera pas au profit des artisans de la télévision traditionnelle.

Finalement, la génération C, qui a grandi avec les technologies numériques et le web verra-t-elle encore des avantages au petit écran ? Comment les professionnels de la télédiffusion pourront-ils retenir l’attention de ces nouveaux consommateurs habitués à tout obtenir d’un seul clic ? Cette génération verra-t-elle la disparition de la diffusion traditionnelle ?

La valeur économique de nos traces sur le web : une question de dépendance mutuelle

Ce billet a été rédigé par Alejandro Labonne Reyes dans le cadre du cours SCI6355 sur l'économie du document de la maîtrise en sciences de l'information de l'EBSI.

En navigant sur le web, nous pouvons trouver beaucoup d’informations en ce qui concerne les traces que nous y laissons. Certains documents nous démontrent la facilité avec laquelle nous pouvons reconstruire l’identité de n’importe quel individu en utilisant ses traces (ici). D’autres sites nous donnent des instructions ou nous offrent de logiciels pour les effacer. Et même certains sites nous exhortent à en laisser plus (ici).

En somme, la plupart d’informations trouvées sur le web font le lien entre traces et vie privée. Peu d’information concerne l’aspect économique des nos traces sur le web. Pourquoi cela ? Quelle est la raison de cet oubli ? Puisque le web est gratuit nous ne nous sentons pas affectés par le côté économique du web sauf pour certains sites payants. La gratuité des services web : moteurs de recherche, courriel, stockage d’information, réseaux sociaux, etc. va de soi, nous n’y pensons plus. D’une certaine façon, elle est devenue anodine et sans importance. Nous sommes peu conscients de l’importance primordiale de cette gratuité dans les enjeux économiques du web.

La gratuite des services Web n’est pourtant pas banale, elle est calculée. Prenons l’exemple de Google. Comme d’autres acteurs sur le web, il nous propose une panoplie de services gratuits et efficaces. Grâce à ses services et leur gratuité, il capture notre attention. Attention qu’il va vendre aux annonceurs par le biais de services comme adsense. Ce modèle du marché du contenu et de l’attention n’a rien de nouveau, il a été utilisé par la télévision et la presse. Cependant, avec le web, le marché de l’attention et du contenu prend toute une autre tournure. Le modèle offert par Google serait en train de devenir le modèle néo-libéral par excellence et, à l’intérieur de ce modèle, nos traces sur le Web joueraient un rôle essentiel pour l’économie web.

Google incarne le modèle de l'économie néo-libérale par excellence car cette compagnie possède tous les aspects nécessaires pour établir et contrôler le prix des publicités sur le web sans aucun contrôle de l'État. En effet, Google détient la plupart du marché de l'accès et de la distribution de l'information numérique ainsi que de la mesure de l'audience (grâce à son Page Rank) et par conséquent, il peut fixer le prix des publicités de manière plus exacte que la concurrence. En effet, en 2006, 99% du chiffre d'affaires de Google provient de la publicité. Nous parlons d’un chiffre de 10 milliards de USD.

Tout ceci grâce à la gratuité et au souci d'efficacité avec lesquels Google a pu créer en nous, tous, une certaine dépendance (pour de meilleurs et plus rapides résultats de recherche) et parce que cette dépendance aux services de Google a effacé la concurrence et a détruit les barrières de protection que d'autres marchés du contenu (presse, radio, télévision) avaient érigées. (Sous cette perspective, la lutte entre Google et la Chine n'est pas exclusivement une lutte en faveur du droit à l'information, mais aussi au contrôle du marché de l'attention et de l'accès à l'information).

Au fil des années, grâce à nos constantes recherches sur son moteur de recherche, Google a construit toute une base de données sur nos comportements en tant que navigateurs sur le web. C’est sur cette base de données comportementales que le succès économique de Google repose. Le 11 mars 2009 Google annonçait qu’il commencerait à proposer un ciblage publicitaire sur la base du profil construit grâce à la navigation des internautes (ciblage comportemental).

Mais comme tout service web, Google pourrait aussi endurer des coups mortels à cause d’un autre modèle économique qui semble s’imposer de plus en plus, le modèle encouragé par Facebook. Dans un billet récent Didier Durand nous fait part des problèmes du modèle algorithmique de Google face au modèle de bouche à oreille de Facebook, particulièrement en ce qui concerne aux nouvelles sur le web. En ce sens, la dépendance que de manière très calculée Google suscite constamment chez nous pourrait aussi nous pousser ailleurs, si nous trouvons un Pusher du contenu numérique plus efficace, donc Google est condamné à toujours peaufiner ses algorithmes de recherche, à monter toujours la dose d’efficacité et d’exactitude pour nous maintenir dépendants. Mais jusqu’où ira-t-il ?

Seul le temps nous le dira.

Il nous reste au moins comme consolation savoir que Google est devenu aussi dépendant de nous : de nos traces, de chaque clic et de chaque recherche que nous faisons, comme nous le sommes de ses services.

mardi 16 février 2010

L’économie des liens de/à Wikipédia

Ce billet a été rédigé par Antonin Boileau dans le cadre du cours SCI6355 sur l'économie du document de la maîtrise en sciences de l'information de l'EBSI.

Le 15 janvier passé a été marqué par les réjouissances d’un important segment de la population internaute : les contributeurs et organisateurs de l’encyclopédie libre Wikipédia ont célébré le « Wikipedia Day » , qui correspond à la date de création de la première version (américaine) de l'encyclopédie en 2001. C’est donc le neuvième anniversaire de Wikipédia que fêtaient ses participants avec des rassemblements organisés à New York et à Bangalore durant le mois de janvier.

Le projet de l’encyclopédie est devenu assez bien connu du public, mais qu’en est-il de son aspect économique ? Il semble que trop souvent les observateurs et critiques concentrent leur attention sur le débat des notions de savoir ou d’autorité dans le contexte du Web. De fait, cette saturation de la bande au niveau de « l’économie de la cognition » de Wikipédia, laisse en plan les autres économies qui lui sont constitutives, soit celles de « l’attention » et du « don ». Je reprends ici les bases de recherche jetées par Jean-Michel Salaün dans un billet de 2007 sur ce même blogue, où il a positionné Wikipédia au carrefour de ces trois dimensions économiques.

Je profite donc de ce billet invité pour attirer l’attention sur la façon dont l’économie de l’attention et l’ouverture au Web plus large marquent le déroulement du projet de l’encyclopédie libre.

Il me paraît utile de rappeler tout d’abord comment Wikipédia s’insère dans l’une des économies de l’attention les plus importantes du Web actuel, celle de Google :

La blogosphère et la communauté du Web 2.0, toutes 2 en croissance exponentielle, génèrent de mois en mois un nombre de liens toujours plus colossaux vers les pages de Wikipedia. Le Pagerank de ces pages montent en proportion et les amène dorénavant en 1ère page des résultats des résultats organiques de Google: faites l'essai avec un ensemble de noms communs sur Google.com. (2007)

Ce billet du blogue de Didier Durand veut expliquer la présence presque constante de Wikipédia dans les premières (voire la première) pages de résultats du très connu moteur de recherche. D’autres commentateurs abondent dans ce sens, certains allant jusqu’à associer la montée en visibilité de l’encyclopédie au travail de référence par hyperlien d’une myriade de blogues et autres petits sites, qui de leur côté ne jouissent pas réciproquement des liens externes de Wikipédia. En effet, par une décision controversée de la direction de la Wikimedia Foundation en 2007, il est accolé aux liens sortants de l’encyclopédie un attribut HTML (rel="nofollow") qui assure l’absence de ces liens dans le calcul Pagerank de Google . Cette initiative, l’une de plusieurs prises dans le contexte de la lutte contre la récupération publicitaire (spamming) subreptice du projet, a été l’objet de plusieurs discussions au sein de Wikipédia en vue d’arriver à un consensus.

Mais si Wikipédia ne renvoie pas un peu de sa visibilité sous la forme de Pagerank aux sites externes, et lutte officiellement contre l’emploi de ses espaces d’édition à des fins promotionnelles, l’encyclopédie ne parvient tout de même pas à se garder complètement de participer dans une économie de l’attention aux multiples débouchés commerciaux. Dans un article du magazine Forbes, Don Steele, représentant la chaîne de télévision américaine Comedy Central, décrit Wikipédia comme l’un des principaux attracteurs de nouvelle clientèle pour le site Web de l’entreprise, avec plus de 250 pages de l’encyclopédie dédiées à une seule de leur série télévisée.

(Dans un article plus récent, Forbes relève l’existence d’un projet en cours d’essai chez Google visant à introduire des liens vers Wikipédia aux côtés de certains articles sur Google News. S’agit-il là d’un nouvel affront du moteur californien aux médias de la nouvelle écrite ?)

Dans une même ligne d’idée, on peut isoler d’autres instances de liens sortants de Wikipédia qui profitent à certains intéressés : plus de 20 000 liens vers les wikis de Wikia, l’annuaire Web commercial associé à Jimmy Wales et faisant affaire avec Adsense, la régie publicitaire de Google ; plus de 200 000 liens vers la banque de données cinématographique Internet Movie Database (acheté en 1998 par Amazon, qui est aussi un des appuis financiers de longue date de Wikia).

Malgré les mesures contre la promotion commerciale et l’autopromotion, Wikipédia n’est donc pas imperméable aux effets de la résonance induits par la popularité d’un produit ou d’un service. Si la couverture « encyclopédique » en paraît biaisée, je dirais que c’est davantage le fait de la résonance des pratiques internautes au niveau de la représentation de services Web externes au sein de Wikipédia, que du fait d’infiltrations opportunes par quelques agents mercantiles (qui existent néanmoins, exemple ).

- page 6 de 15 -