Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - "économie de l'attention"

samedi 06 juin 2009

Quels rapports entre Twitter et Wikipédia ?

Voici un graphique fort instructif. Il s'agit d'une enquête menée par un étudiant et un chargé de cours de Harvard, Bill Heil et Mikolaj Piskorski, dans le cadre d'un cours intitulé Competing with Social Networks (voir présentation ici) sur un échantillon de 300.000 utilisateurs de Twitter. Il n'est pas précisé si l'échantillon est uniquement américain, mais on peut le supposer. Le trait plein représente les utilisateurs de Twitter, le pointillé ceux de Wikipédia et les tirets ceux d'un réseau social. L'ordonnée représente en pourcentage le nombre de contributions et l'abscisse les utilisateurs classés par leur total de contributions, toujours en pourcentage.

Utilisateurs classés par nombre de contributions

Extrait du billet des auteurs (trad JMS) :

En particulier, les 10% des utilisateurs les plus prolifiques de Twitter postent plus de 90% des messages. Sur un réseau social classique, ces mêmes 10% ne proposent que 30% de la production totale. Pour mettre Twitter en perspective, il faut faire une analogie inattendue avec Wikipédia. Là, 15% des éditeurs des plus prolifiques alimentent 90% de la publication de Wikipédia. Autrement dit, la répartition des contributions sur Twitter est plus concentrée que sur Wikipédia, même si Wikipédia n'est pas un outil de communications. Ceci implique que Twitter ressemble plus à un outil de publication unidirectionnel qu'à un réseau de communication pair à pair.

Il faut rester prudent, car il y a peu d'informations sur la méthodologie employée, néanmoins ces résultats semblent confirmés par d'autres enquêtes, en particulier une étude de Purewire sur Twitter dont on trouvera le compte rendu sur ReadWriteWeb ou sur TechCrunch (ici et ).

Ainsi le Webmédia continue pas à pas sa structuration. Voici rapidement quelques leçons à partir des ressemblances et des différences entre le microblogging et l'encyclopédie collaborative. Pour Wikipédia, on pourra aussi consulter d'anciens billets sur les différentes dimensions de son économie (ici).

Les deux sont des innovations radicales, il est difficile de les comparer à des modèles existants. Les deux se structurent comme des médias unidirectionnels avec une minorité de contributeurs et un grand nombre de lecteurs. Les deux fonctionnent sur l'économie du don du côté des contributeurs, on pourrait dire une petite bourgeoisie intellectuelle avide de prendre la parole face aux médias traditionnels auxquels ils n'ont pas ou difficilement accès. Les deux aussi n'ont pas de modèle d'affaires et on peut penser que cette caractéristique est aussi un élément de leur succès d'usages, car ils ne sont pas (encore) soupçonnés d'intéressement occulte. Les deux enfin ont réussi à se positionner comme des joueurs importants dans l'économie de l'attention, au point d'intéresser le plus gros des acteurs, Google.

Du côté des différences, la première qui saute aux yeux et que l'un fonctionne sur le flux et l'immédiateté, tandis que l'autre fonctionne sur l'accumulation et le patrimoine. Le premier est plus proche du modèle de la radiotélévision, le second de celui de la bibliothéconomie dans le pentagone. La seconde différence est évidemment la longueur des messages. Twitter prend l'air du temps en jouant sur le signalement subjectif et sur l'horloge quotidienne, tandis que Wikipédia explique le monde dans de longs développements qu'il souhaite les plus neutres et exhaustifs possible. En ce sens ils sont parfaitement complémentaires. La troisième différence est que l'un a fait le choix clair du non-profit (Wikipédia) tandis que l'autre se positionne dans le secteur commercial en faisant appel à la récolte de fonds avec comme perspective vraisemblable le rachat.

jeudi 16 octobre 2008

Paul Krugman a-t-il toujours raison ?

(Repéré sur Numérama grâce à la veille de Silvère Mercier que je ne remercierai jamais assez pour son travail qui me sert tous les jours !)

Avant d'être récipiendaire du prix Nobel d'économie, Paul Krugman avait publié à la fin du printemps un éditorial dans le New-York Times, reprenant l'argument classique selon lequel les documents étant devenus des biens publics grâce au Web, un prix de marché n'était plus possible, par contre, il était possible d'utiliser la puissance de résonance pour valoriser des services associés. Il est présomptueux et imprudent de contredire un prix Nobel, mais après tout un blogue est là pour lancer des idées, même à contre-courant de la plupart des confrères. Et, quitte à prendre une volée de bois verts, j'affirme qu'en l'occurrence il se trompe. L'erreur est d'autant plus gênante que, son auteur ayant acquis l'autorité que lui confère le plus prestigieux des prix scientifiques, elle risque de passer pour une vérité incontestable.

Paul Krugman, “Bits, Bands and Books,” The New York Times, Juin 6, 2008.

Extraits (trad. JMS) :

En 1994, une de ces gourous, Esther Dyson, a fait une prédiction saisissante : la facilité avec laquelle le contenu numérique pouvait être copié et diffusé pourrait finir par obliger les entreprises qui vendent les produits de l’activité des créateurs à un prix très bas, ou même de les donner. Quel que soit le produit, logiciel, livre, musique, film, le coût de création devrait être récupérer indirectement. Les entreprises devraient «distribuer gratuitement la propriété intellectuelle pour vendre les services et des contacts». (..)

Évidemment, si les e-books deviennent la norme, l’industrie de l’édition telle que nous la connaissons pourrait dépérir complètement, Les livres pourraient servir principalement de matériel promotionnel pour d’autres activités des auteurs, comme des séances payantes de lecture. Bon, si cela a suffi à Charles Dickens, je suppose que cela me suffira.

Car la stratégie consistant à brader la propriété intellectuelle pour que les gens achètent tout ce qu’il y a autour ne marchera pas de façon équivalente pour tout. Pour s’en tenir à un exemple évident et douloureux : l’organisation de la presse, y compris ce journal, a passé des années à essayer de faire passer ses nombreux lecteurs en ligne par un paiement adéquat, avec un succès limité.

Mais, ils devront trouver la solution. Progressivement, tout ce qui peut être numérisé le sera, rendant la propriété intellectuelle toujours plus facile à copier et toujours plus difficile à vendre pour plus qu’un prix symbolique. Et nous devons trouver des modèles d’affaires et une économie qui tiennent compte de cette réalité.

La première erreur est de considérer que l'articulation entre le contenant et le contenu telle qu'elle est réalisée sur le Web et donc le partage de la valeur qui l'accompagne, est une donnée hors du champ de l'analyse et non un construit social significatif pour celle-ci. En réalité, l'abondance de biens informationnels gratuits valorise ceux qui vendent de l'accès, soit par des abonnements au réseau, soit par des machines. C'est une erreur de penser que les internautes ne dépensent rien pour ces produits, ils dépensent, et parfois beaucoup, en machines et abonnements, c'est à dire pour les contenants.

C'est aussi une erreur découlant de la précédente de penser que c'est la seule voie possible. Deux exemples démontreront le contraire :

  • Lorsque France-Télécom (à l'époque DGT) lança le Minitel et la télématique (Wkp), elle distribua gratuitement les terminaux en instaurant un système de micropaiement sur les services. Ce modèle d'affaires fut très rentable pour les producteurs de contenu (et, parait-il, il reste encore rentable dans quelques micro-créneaux). Cette stratégie est le parfait inverse de celle de Apple sur la musique avec le iPod.
  • La Corée du Sud avec le réseau Naver (ici) a mis en place un réseau payant, véritable place de marché où les transactions sur le contenu se font quotidiennement dans le respect de la propriété intellectuelle.

La stratégie de Kindle de Amazon va dans le même sens. Je suis moins sûr que P. Krugman qu'elle soit vouée à l'échec et, si elle l'était, cela viendrait moins d'une loi économique générale sur l'échange de contenus que d'une stratégie qui favorise, avec la complicité intéressée mais inconsciente des «gourous du Web», les industries du contenant.

La seconde erreur importante est de croire que le Web produit une rupture radicale par rapport à la situation antérieure. Il existait déjà des industries de contenu accessibles gratuitement aux documents facilement copiables, et pas des moindres : la radio et la télévision. Il existait aussi des institutions où les documents étaient partagés : les bibliothèques. Pour les unes et les autres, des modalités ont été trouvées, parfois après de laborieuses négociations, pour préserver la propriété intellectuelle et garantir un financement du contenu. On pourrait discuter de ce partage, mais c'est un autre débat.

Sans doute, le Web est un formidable outil de résonance, tout comme d'ailleurs la radio-télévision, mais rien n'interdit de trouver des modalités de rétribution des ayant-droits, sinon le dialogue de sourds qui s'est installé entre des détenteurs de droits, trop gourmands et incapables de comprendre l'organisation du Web-média, et les internautes militants incapables quant à eux d'imaginer que celui-ci puisse dépasser son adolescence rebelle. Refuser cette possibilité, c'est alors refuser la capacité au Web de devenir un média à part entière, tout en faisant le lit de quelques acteurs dominant qui accaparent à leur seul profit ou presque la vente d'attention créée par les contenus, au premier chef, bien sûr, Google.

Là encore, c'est donc une erreur que de croire que le Web tuera nécessairement les médias plus anciens, même si, clairement, le Web-média en prenant brutalement place parmi ceux-là réduit leur place et donc globalement leurs revenus, sans doute de façon inégale suivant les médias. Prenons là aussi deux exemples rapidement :

  • Dans la vidéo, malgré les téléchargements sauvages, la propriété intellectuelle continue de régler les positions sur le Web, comme le montrent les négociations engagées par YouTube avec les réseaux de télévision, les producteurs de séries ou encore les détenteurs de droits sportifs, ou comme le montrent les difficultés de la station Web Joost.
  • Dans la musique, l'annonce récente des résultats de l'expérience du groupe RadioHead où le paiement du téléchargement était laissé à la discrétion des internautes sont impressionnants. Au total, Radiohead a écoulé à ce jour 3 millions d'exemplaires de In Rainbows, sous forme de CD (1,75 million), de boîtiers de luxe vendus par correspondance (100 000) ou en téléchargement. Il faut y ajouter les droits sur les passages en radio et 1,2 millions de personnes à leurs spectacles. La résonance a été très forte, mais elle a aussi favorisé les formes les plus classiques de la vente de contenus.

Les étudiants du cours auront retrouvé le long de ce billet des éléments de la séquence 1 (l'argument de P. Krugman), de la séquence 2 (ma première réfutation) et de la séquence 3 (ma seconde réfutation).

Complément du 18 octobre 2008

Repéré grâce au commentaire de A. Pierrot, merci à lui :

PREMIERS RESULTATS : OBSERVATOIRE DES DEPENSES MEDIAS ET MULTIMEDIAS, Communiqué (Médiamétrie, Octobre 15, 2008).

Voici la répartition du budget d'un ménage français pour les médias et le multimédia sur une année en 2007-08. La dépense totale est de 2270 Euros et pour les familles ayant des enfants (11-24 ans) : 2920 Euros.

Édifiant..

mardi 11 septembre 2007

Création du Web-média destructrice de la presse

L'avenir de la presse continue de susciter bien des inquiétudes des deux côtés de l'Atlantique. Ce n'est pas nouveau et P. Lozeau les avait synthétisées ce printemps pour ce blogue dans un billet. Nous savons aussi qu'il faut nuancer sérieusement l'analyse (voir ici), si l'on raisonne à l'échelle de la planète. Mais le mouvement s'accélère et les observateurs multiplient les analyses.

Parmi les nombreuses alertes récentes, il faut de nouveau saluer du côté francophone la veille, fine intelligente et constante, d'E. Parody, partiale mais toujours documentée et analytique. Depuis la rentrée, trois billets au moins rencontrent directement les préoccupations de ce blogue :

  • Le risque induit par le préférence de Google-news pour les dépêches d'agence (ici)
  • La chute des effectifs des journaux (ici)
  • La difficile adaptation du modèle économique de la presse aux flux RSS (ici)

Sans revenir en détail sur ces points, je voudrais les mettre dans la perspective d'une analyse en modèles (voir ici pour la présentation des modèles) à partir de deux constats, tirés de deux publications récentes : le nouveau modèle du Web-média s'installe sans ménagement pour les anciens ; l'ancien modèle de la presse a une forte inertie.

L'insoutenable légèreté du Web-média

Un rapport récent de chercheurs de Harvard, au titre évocateur inspiré de Schumpeter (voir explication sur Wikipédia), fournit quelques indications sur l'évolution de l'audience des sites d'information :

Thomas E. Patterson, John F. Kennedy, Creative Destruction: An Exploratory Look at News on the Internet, Report from the Joan Shorenstein Center on the Press, Politics and Public Policy, Août 2007 Pdf

L'audience de 160 sites d'information a été suivie pendant un an. Extrait du résumé (trad JMS) :

Les sites des journaux nationaux au titre reconnu sont en croissance, tandis que ceux de beaucoup de journaux locaux ne le sont pas. Les sites des réseaux de télévision reconnus voient aussi croître leur traffic, tout comme ceux des stations locales de télévision et de radio. Cependant, les sites dépendant des organisations traditionnelles de nouvelles croissent moins vite que ceux des principaux diffuseurs de nouvelles non-traditionnels, comprenant les agrégateurs, les blogueurs, les moteurs de recherche et les offreurs de service.

Ainsi selon que l'on retienne les deux premières phrases ou la dernière, le verre serait à moité plein ou à moitié vide et on pourrait conclure à un relatif optimisme pour les médias traditionnels les plus reconnus à condition de rester vigilant. Cette conclusion est malheureusement erronée. La croissance de l'audience des médias traditionnels ne signifie pas une croissance parallèle de leurs rentrées publicitaires. La publicité a tendance à creuser les écarts, allant naturellement vers le média le plus porteur, c'est à dire vers celui auquel est attaché l'image la plus positive.

Mais il y a bien plus : les deux modèles sont antagoniques et, au moins jusqu'à qu'il soit stabilisé, le succès sur le marché de l'attention du plus jeune se fait au détriment de l'autre. Je n'y reviens pas, je l'ai déjà largement expliqué (ici) et les remarques d'E. Parody le soulignent assez, en montrant toute la difficulté à rendre compatible les deux modèles.

Pire encore : L'antagonisme ne se manifeste pas seulement sur les parts du marché publicitaire, mais aussi sur la structure du média lui-même. Je ne prendrai que l'exemple de Google-news. On oublie souvent que ce service ne rapporte rien directement à son promoteur. Il n'y pas, pour le moment, de publicité sur ce service. Là encore, l'analyse par modèles est éclairante.

Pour Google-news, la firme mère s'est inspirée du modèle de la bibliothéconomie pour la structure médiatique du service et pour sa régulation : une revue (ou «panorama» selon le terme consacré en documentation) de presse ; le fair-use même si celui-ci a rencontré quelques oppositions selon la position des acteurs et la législation particulière des pays. Cette inspiration était intéressante : en effet, il n'y a pas de concurrence commerciale de ce côté, puisque le modèle bibliothéconomique n'est pas financé par le marché. Cette position d'homologie n'est donc tenable pour Google-news qu'à condition de ne pas rentrer sur le marché publicitaire.

Par ailleurs, la firme rompt avec ce modèle primitif grâce à la performance de ses outils automatiques. La structure de coûts du service n'a rien à voir avec celle, très lourde, de la bibliothéconomie. Mieux encore Google-news paraît concrétiser un vieux rêve de complémentarité entre le modèle bibliothéconomique et celui de la presse, puisqu'il oriente l'audience vers les encarts publicitaires des sites d'information cette dernière. Ainsi, Google-news s'est assuré, malgré quelques réticences, une relative neutralité du côté de la presse.

On peut alors se poser la question de l'intérêt pour Google de monter un service qui lui coute de l'argent et favorise les rentrées financières de ses concurrents sur le marché publicitaire. Pour y répondre, il faut considérer que le modèle du Web-média n'est pas encore stabilisé et prendre très au sérieux la mention Béta qui est faite sur la page du service.

À court terme, il s'agit d'occuper le terrain afin de monter les barrières à l'entrée pour d'autres acteurs intéressés sur les services de recherche d'informations. Tout ce qui fragilise les concurrents rapporte indirectement à Google, puisqu'il est, par ailleurs et de très loin, leader du marché publicitaire sur le Web. À moyen terme néanmoins, Google-news pourrait être prisonnier de sa réussite et devra rémunérer certains contenus, ceux qui viennent de professionnels, sinon il tarira ses sources les plus fiables. On en voit les prémisses dans les négociations avec les agences de presse. Ceci impliquera aussi une rentabilisation directe du service et donc vraisemblablement l'entrée de la publicité dans le service. Mais en attendant, plus il fragilise les producteurs aujourd'hui, meilleure demain sera sa position pour négocier.

En réalité, la limite de l'exercice pourrait être le succès de la firme Google elle-même. Elle ne peut-être un modèle de média à un seul acteur. Et il est à prévoir que les réactions se feront de plus en plus vive, dénonçant le monopole, à l'instar de celles particulièrement virulentes d'O. Ertzscheid (voir, parmi d'autres, celle-là).

Le poids du Quotidien

Cette stratégie est d'autant plus payante que le modèle de la presse a une forte inertie, tout particulièrement pour la presse quotidienne. J.-M. Charon, qui reste son meilleur analyste francophone, le montre clairement dans un article récent :

Charon Jean-Marie, L'économie de l'information, Structures et stratégies des groupes de presse, p.73-78. in Information, médias et internet, Cahiers Français n°338, mai - juin 2007, La Documentation française, sommaire *

Je cite :

En presse écrite le rythme quotidien constitue une différence de nature, imposant à un journal de collecter, traiter, mettre en forme, le plus souvent imprimer, voire distribuer lui-même l'information. C'est dire que la presse quotidienne se caractérise par des entreprises plus lourdes, regroupant de nombreux employés et cadres, notamment commerciaux, ainsi que des ouvriers et techniciens de fabrication.

Une telle structure est sans doute un gage d'indépendance, éditoriale et économique, en période de vaches grasses, mais c'est une source de rigidités quand vient la disette. Et, pour la presse quotidienne dans le monde occidental, il semble que nous soyons entrés dans ce cycle. On peut donc y prévoir encore de forts mouvements de concentration et de rationalisation. Dès lors, la voie est dégagée pour les nouveaux entrants du Web-média.

J'ajoute pour conclure que le raisonnement en modèles est éclairant pour décrypter les relations difficiles entre la presse et le Web-média, mais il l'est tout autant pour les autres modèles de médias (bibliothèque, édition, radio-télévision), bien entendu en le déclinant selon les spécificités de chacun.

-* Curieux numéro d'une revue, justement réputée, sur les relations de la presse et de l'internet où le mot Google n'est, sauf lecture trop rapide de ma part, jamais écrit, où aucune Url n'est citée dans les références. Bref, une résurgence de l'ancien monde dont je ne sauverais personnellement que l'article en question. Sévère peut-être, mais l'enjeu, comme voudrais le montrer ce billet, est lourd.

dimanche 25 mars 2007

L’avenir de la bibliothèque est-elle dans le Web 2.0 ?

Ce billet a été rédigé par Sabiha Bejaoui et Sahar Mofidi, étudiantes de l'École de bibliothéconomie et des sciences de l'information dans le cadre du cours sur l'économie du document.

Le web 2.0 représente une modification profonde de l’environnement Internet et de la vie quotidienne. Comme le dit Pascal Krajewski : « Ainsi la réalité devient le web et le web devient le web 2.0 ». Le web 2.0 n’a pas encore trouvé une définition précise sur laquelle tous les auteurs se seraient mis d’accord. Certains le voient comme un phénomène et d’autres comme une philosophie ou une idéologie. Malgré cela, tous les auteurs s’entendent sur les principes et les outils du web 2.0. Les principes du web 2.0 stipulent que le surfeur consommateur et passif du web 1.0 devient contributeur, actif et producteur. Cela demande une implication plus forte de la part de l’usager qui va utiliser de différents outils tels que les fils RSS, les Blogues et les Tags.

Les outils 2.0 ont engendré de nouvelles façons de gérer l'information et de nouveaux concepts comme « Social Network », « Social Bookmark », «Customisation », « Sérendipité », « Folksonomie », etc.

Parmi les acteurs de ce phénomène 2.0 on trouve : Wikipédia, Flickr, Myspace, YouTube, Diigo, et bien d’autres sans que l'on puisse savoir quel sera la limite de cette liste.

La bibliothèque ne peut pas ignorer cette insistante technologie 2.0. Le qualificatif « 2.0 » a touché la bibliothèque et le bibliothécaire ou ses outils comme l'OPAC comme il a touché la culture et la science, l’OPAC. Le terme « bibliothèque 2.0» recouvre différentes définitions. Les points de recoupements de ces différentes définitions sont :

  1. L’utilisation des technologies 2.0 : outils du Web 2.0.
  2. L’approche participative et social : orientation vers une communauté fort active.

Nous pouvons dire alors que la bibliothèque 2.0 = le web 2.0 + la bibliothèque.

Les nombreux expériences et projets d’intégration de technologies du web 2.0 dans les bibliothèques montrent qu’il s’agit d’un outil parmi d’autres qui lui permet de réaliser ses objectifs, son orientation, sa mission et ses stratégies. Chaque bibliothèque doit s’adjoindre les technologies du web 2.0 qui lui conviennent et s’adaptent à son contexte. Ainsi, elle doit sélectionner les outils 2.0 en fonction de sa communauté, de l’approche qu’elle envisage pour atteindre ses objectifs et de ses ressources. Par exemple, une bibliothèque publique qui vise augmenter la fréquentation des jeunes, ceux qui l’ont abandonné au profit du Web, peut avoir recours aux Blogues, à MySpace ou au Tagging. Plusieurs autres exemples sont cités dans Library Garden et Bibliobsession propose des stratégies ou des façons de faire « vers des bibliothèques 2.0 ».

Cependant, nous voudrions attirer l'attention sur quelques avantages et inconvénients des bibliothèque 2.0 ou de l’intégration du web 2.0 dans les bibliothèques.

Les avantages sont de faire le marketing pour la bibliothèque, utiliser cette technologie générer de la valeur ajoutée, enrichir la collection de la bibliothèque et peut-être diminuer les coûts de développement de la collection.

Pour les inconvénients, nous pouvons parler des difficultés à surmonter pour conserver la qualité des services de la bibliothèque. La tendance web 2.0, malgré son étendue et sa tentation, est difficile à contrôler (Esclavage 2.0). C’est pour cela que nous entendons plutôt parler d’utiliser cette technologie pour la servuction (La création des services de la bibliothèque avec une forte implication du client placé au cœur de la présentation) et pas encore dans la partie construction (développement de la collection).