Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

mardi 03 avril 2007

"Quelques vraies données sur les usages du Web 2.0"

Repéré par Dany Bouchard, merci à lui.

Dans le cadre d'un projet de recherche nommé SPIRE, financé au Royaume-Uni par le JISC, D. White a mené une enquête sur les usages du Web 2.0. Le questionnaire a été diffusé au travers du site des cours en ligne de l'Université d'Oxford et a recueilli 1369 réponses. Une enquête complémentaire a été faite auprès des professeurs et tuteurs de l'université. L'importance de la population touchée donne une crédibilité aux résultats (le titre de mon billet est la traduction de celui de l'auteur de l'étude). On trouvera ici une synthèse sur une dizaine de pages qui fournit d'intéressants croisements des pratiques selon l'âge, le type d'usages, le statut des personnes, le niveau de formation, etc, d'où je tire le tableau ci-dessous.

‘David White, JISC funded ‘SPIRE’ project 2007’.

À noter la place essentielle de Wikipédia. J'y reviendrai dans les billets sur l'économie de ce service, dès que je trouve un moment pour les mettre en ligne.

vendredi 30 mars 2007

Économies de Wikipédia : cognition, attention, don

Le succès de Wikipédia auprès des internautes ne faiblit pas. Après être entrée selon Comscore dans le top 10 des sites les plus visités aux US en janvier, elle confirme sa position en février (milliers de visiteurs uniques) :

On retrouve les mêmes résultats au Royaume-Uni (10e) ou en France (8e). Ce succès est d'autant plus remarquable que, si l'on balaye les 50 premiers sites US de janvier, Wikipédia tient une place à part. Les autres sites appartiennent tous à une ou plusieurs des catégories suivantes : e-commerce, médias traditionnels, industrie des services informatiques, nouveaux acteurs commerciaux du Web 2.0.

Du point de vue économique, Wikipédia, ou sa maison mère Wikimédia, sont rétives à l'analyse.

Si l'on s'en tient à sa forme et son usage, on peut l'assimiler à une organisation documentaire, mariage de l'édition d'encyclopédie et de la mutualisation bibliothéconomique. Elle s'insère alors dans une économie globale de la cognition dont les piliers sont, dans nos sociétés, l'école et l'université. Mais elle s'est construite en dehors, parfois contre, ces institutions et son organisation du travail n'est pas en phase avec celles-là.

De nombreux observateurs en font une figure emblématique du "Web 2.0". Mais si l'économie du dit "Web 2.0" n'est pas stabilisée, elle s'oriente de plus en plus vers une économie de l'attention, variante de la publicité dans les médias traditionnels qui vise à valoriser la captation de l'internaute en favorisant une activité commerciale extérieure, ce que refuse Wikipédia et qui conduirait sans doute à des contradictions difficiles à gérer vis-à-vis de ses contributeurs.

Du côté des transactions, son activité s'apparente à une organisation non-gouvernementale (ONG). Elle en a bien des caractéristiques et pourtant sa vocation non-caritative est sensiblement différente de celle de ses consoeurs.

Mon hypothèse est que Wikipédia a trouvé un équilibre, pour le moment d'une stabilité remarquable, entre ces trois dimensions de son économie : la cognition, l'attention et le don. Je voudrais ici l'étayer par quelques arguments que l'on prendra seulement comme des pistes destinées à alimenter réflexions et discussions. L'ensemble sera étalé sur quatre billets successifs (quatre en comptant celui-ci) qui traiteront de Wikipédia et :

Une fois ces billets publiés, je reviendrai à celui-ci pour faire la synthèse et conclure. Ce billet sera donc actualisé dans quelques jours.

jeudi 22 février 2007

Naver, le gentil grand frère coréen

Que dirait-on si Google demandait notre numéro de carte d'identité, si on ne pouvait naviguer qu'à l'intérieur de son environnement, s'il fallait payer pour récupérer des services, de la musique, des fonds d'écran pour agrémenter son blog, si on pouvait tracer précisément tous ses visiteurs, si en un clic on pouvait copier la page d'un blog pour le mettre sur le sien.. ?

J'imagine les hurlements de la blogosphère occidentale ! Les polémiques, les appels au boycott ou au bombing, les rappels aux droits de l'homme, à la protection de la vie privée, à celle de la propriété intellectuelle, les accusations de monopole, de contrôle policier, de big brother..

C'est le cauchemar des internautes, depuis la Californie jusqu'aux frontières orientales de l'Europe. Et pourtant, c'est le fonctionnement quotidien, très largement accepté du principal moteur-agrégateur de Corée, celle du Sud : Naver. 30% des internautes coréens y ont leurs habitudes.

On trouve tout expliqué dans ce reportage vidéo (un peu long, la partie la plus intéressante est sur Naver, au centre du document) de l'excellent BlogdeBézier.

On peut considérer cet exemple d'un point de vue exotique pointant la Corée comme un cas à part, à la fois laboratoire et repoussoir. J'y vois plutôt la confirmation de la position du Web-média dans le pentagone, entre la radio-télévision et la bibliothèque, deux modèles inscrits dans leur territoire (géographique ou culturel), contrairement à l'idée, actuellement dominante en Occident, d'un Web universel.

samedi 10 février 2007

Micro/macro, don, libre accès et Web 2.0

À première vue, il y aurait un paradoxe entre l'explosion du Web 2.0 qui repose notamment sur la grande "générosité" des internautes, partageant leurs données, informations, impressions sans beaucoup de réticences et les limites actuelles du libre accès dans la science, pourtant antérieur au Web 2.0, qui peine à convaincre les auteurs d'articles à les déposer dans des "archives ouvertes".

Le paradoxe est d'autant plus grand qu'à l'échelle globale "macro", la science a tout à gagner à une ouverture de ses publications déjà par nature structurées et hiérarchisées, tandis que pour le Web 2.0, le bruit généré conduit à un chaos pas toujours vraiment productif.

Plusieurs explications sont avancées pour l'inertie des chercheurs : le manque d'information, les pressions des éditeurs, la résistance au changement, le conservatisme.. On pourrait aussi arguer que 15% de déposants c'est déjà un chiffre sans doute supérieur à la proportion d'internautes actifs dans le Web 2.0. Sans doute chacune a sa part, mais elles ne me convainquent pas. Les chercheurs forment une petite communauté, facile à toucher, autonome, très réactive et, parmi eux certains ont massivement investi le libre accès, mieux ils ont tout simplement inventé de Web à cette fin !

La véritable explication me parait ailleurs. Elle réside dans la différence du raisonnement économique, selon que l'on raisonne à l'échelle macro ou micro. En effet, à l'échelle micro, le raisonnement change de nature.

Pour le Web 2.0, un intéressant billet de Technologie Review est éclairant :

Samaritans with keyboards: On the Internet, helping strangers is a form of fun, Associated Press 10 janv 2007 (repéré par InternetActu)

Il reprend quelques réflexions et analyses de chercheurs s'étant interrogé sur les motivations individuelles du don sur le Web. La conclusion la plus édifiante est micro-économique. Extraits :

"It's not that human nature has changed, it's that the cost of participation has been dramatically lowered," Rheingold said. "If you're an expert on the prairie dogs of Nebraska, it's now very inexpensive for you to contribute your little piece of expertise." (..)

Patricia Wallace, author of The Psychology of the Internet, believes the anonymity of the online environment makes people more likely to take the risk of helping. She contrasts this to this to the act of helping out a real-life motorist who's asking for directions: "If you gave that person the wrong directions, he knows what you look like, who you are. He might drive back and say what kind of jerk you are."

On pourrait y ajouter le "don fortuit", celui que l'on fait en effaçant la frontière entre l'espace privé et l'espace public.

Maintenant comparons ces motivations avec la situation des chercheurs. Pour la première, en aucun cas le coût de participation du chercheur à la publication a changé : celui-ci repose sur la révision par les pairs dont l'obligation n'est pas différente dans le numérique que dans la publication traditionnelle. Par ailleurs, l'anonymat est exclu, sauf cas très particuliers, car il interdit la confrontation et la vérification des points de vue. De plus la publication étant liée à la carrière du chercheur, il ne tirerait plus de bénéfice de ses publications. Quant au don fortuit, il a peu de chances de fonctionner, les chercheurs voulant garder l'exclusivité de leurs travaux avant qu'ils ne soient arrêtés et bons pour la publication. Ainsi les raisons évoquées pour le Web 2.0 ne fonctionnent pas dans le libre accès.

Mais il y a pire, comme je l'ai montré dans un récent chapitre de livre.

Salaün, Jean-Michel. 2006. Économie du document - Pour des archithécaires. In Pérenniser le document numérique, 32-50. ADBS-Édition.

Extraits :

''Pour bien comprendre ce phénomène, il faut faire la différence entre l’édition (la sélection et la mise en forme d’un texte pour une revue) et la publication (la diffusion de ce texte édité). Dans l’économie ordinaire de la science, les chercheurs ont plus intérêt à être édités, c’est-à-dire à ce que leurs articles figurent dans des revues, qu’à être publiés, c’est-à-dire potentiellement lus au-delà d’un tout petit cercle d’initiés. L’objectif de l’édition est d’allonger leur bibliographie (liste de leurs travaux reconnus par leurs pairs) qui, ellemême, est l’élément central du dossier qui les suivra le long de leur carrière.

Ce point est d’autant plus crucial que les jeunes chercheurs sont le plus soumis à la loi, bien mal nommée, du publish or perish, tandis que ceux dont la carrière est faite pourront préférer une audience large, c’est-à-dire le libre accès, indépendamment d’une édition dans une revue. Sans doute peut-on objecter que le chercheur voudra être édité dans la revue la plus prestigieuse, celle qui a le plus haut « facteur d’impact » et qui est donc la plus lue. Mais cela ne change en rien son attitude initiale, guidée uniquement par le souci d’une révision de son texte par ses pairs en vue d’une acceptation qu’il pourra consigner dans sa bibliographie et absolument pas par la mise en libre accès de ce texte.

Toute la science est régulée par ce dispositif de révision par les pairs, mais on mesure souvent mal, en Europe, à quel point il fonde l’organisation de ses structures en Amérique du Nord. L’étalon du facteur d’impact, inventé par Eugene Garfield, permet de hiérarchiser les revues et, par voie de conséquence, les chercheurs dont les itinéraires sont, de ce côté-là de l’Atlantique, très individualisés et les universités en forte concurrence. Les financements des personnes, des travaux et des institutions dépendent largement de ce classement.''

Ainsi, vérité ou erreur d'un côté ou de l'autre de la frontière qui sépare grand public et science.. et vérité ou erreur selon l'échelle (macro ou micro) du raisonnement.

mercredi 31 janvier 2007

Longue traîne et Web-média

C. Anderson, le promoteur de la longue traîne, agacé par de nombreuses critiques qu'il considère comme infondées, a rédigé un billet dont on pourrait traduire le titre ainsi "La longue traîne pour les nuls". Il s'attache à répondre aux arguments les plus souvent formulés.

Ses commentaires me paraissent conforter la représentation de l'industrie de la mémoire sous forme de pentagone, et tout particulièrement l'idée qu'un Web-média se construit sous nos yeux sous forme d'un modèle intermédiaire entre celui de la bibliothèque (pour lequel la distribution des emprunts sous forme d'une longue traîne n'est vraiment pas une découverte, ni celle de la mutualisation et du partage) et celui de la télévision pour laquelle la problématique de l'attention est centrale. Le coeur du modèle est bien l'agrégation, la capacité de recherche et l'attention. Et nous assistons bien à la mise en place de firmes dominantes avec une syndication : monopole et réseau tout comme à la télévision et pour les bibliothèques.

Voici un extrait, traduit et résumé de deux arguments de C. Anderson :

  1. "Je suis dans la longue traîne et je ne suis pas encore riche. La théorie ne marche vraiment pas." L'argent dans la longue traîne vient principalement de l'agrégation, comme le montre eBay ou iTunes. Pour le producteur individuel, qui se trouve tout en bas, les forces qui ont créé le marché de la longue traîne - la démocratisation de l'accès au marché, les filtres puissants qui orientent la demande vers les niches - aident sans doute, mais même si vous doublez un petit chiffre, le chiffre restera petit. Ce qui est bien ce sont les retours non-monétaires, comme l'attention ou la réputation. Comment les convertir en rentrée d'argent ? Avez-vous essayé un concert ? (allusion à un précédent billet de C. Anderson sur la transformation du marché de la musique).
  2. "Vous avez dit que 57% des ventes d'Amazon étaient dans la longue traîne. C'est faux" Je sais. Cette partie de l'analyse dans l'article de 2004 qui se basait sur un travail du MIT paraît avoir sous-estimé la part des plus fortes ventes. Les analyses économiques ne sont pas parfaites. Les travaux ultérieurs montrent une part révisée à 25%, qui est le chiffre utilisé dans le livre et les autres écrits depuis deux années. Utilisez les plus récentes statistiques.

D. Durand qui commente le billet souligne de C. Anderson, lui aussi, la structuration sous forme d'oligopole construit par l'agrégation du travail bénévole mutualisé.

- page 13 de 15 -