Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 08 octobre 2009

Comment perdre un milliard de dollars ?

Voici un dialogue cité par CNET-News (ici repéré par D. Durand qui le commente), sorti tout droit d'un épisode de Ally Mc Beal quelque peu surréaliste. La scène se passe entre M. Schmidt et un avocat au cours d'une déposition faite en mai dernier par le directeur financier de Google dans le procès mettant en prise la société avec Viacom sur une question de droit d'exploitation de clip-vidéos (sur le procès voir ici).

Extraits (trad JMS) :

Stuart Jay Baskin, un avocat de Viacom : Alors pourquoi ne pas nous dire ce que vous vous rappelez avoir dit aux dirigeants (de Google) concernant cette estimation (de YouTube) ?

Schmidt: Je crois que YouTube devait valoir quelque chose autour de 600-700 millions de dollars.

Baskin: Et vous l'avez indiqué aux dirigeants ?

Schmidt: Oui.

Baskin: de Google ?

Schmidt: Oui.

(..)

Baskin: Et suis-je exact en disant que vous avez demandé aux dirigeants d'approuver un prix d'acquisition de 1,65 milliards de dollars ?

Schmidt: Oui.

Baskin: Je ne suis pas très bon en math, mais je crois que cela devrait faire quelque chose comme un milliard de plus que ce que vous pensiez que la société valait réellement.

Schmidt: C'est exact.

(..)

Baskin: Pouvez vous nous expliquer le raisonnement que vous avez tenu ?

Schmidt: Bien sûr. C'est une société qui avait un très petit revenu, avec une forte croissance des utilisateurs, une croissance bien plus forte que celle de Google-Vidéo qui était le service dont disposait Google. Et ils nous avaient prévenus qu'ils allaient être vendus, et nous pensions qu'ils allaient recevoir une offre d'un concurrent qui, à cause de la position de Google, serait bien supérieure à la valeur de la société. Dans le jeu de la négociation, il faut se rappeler que le prix n'est pas fixé par mon jugement ou par un modèle financier ou par l'actuel cash-flow. Il est fixé par ce que les gens sont prêts à payer. Et nous avons conclu finalement que 1,65 milliards incluait une prime pour une transaction rapide et nous assurer de pouvoir participer au succès d'audience de YouTube.

C'est donc un éclairage cru sur les valorisations actuelles des sociétés du numérique. À l'évidence, celles-ci n'ont rien à voir avec un raisonnement économique raisonnable (voir ici par ex pour FaceBook). Et je ne suivrai pas D. Durand quand il dit que l'audience capturée pourra se monétiser quand l'énigme de cette monétisation sera résolue. C'est un pari dangereux à ce niveau de transactions, rien ne dit qu'une solution sera trouvée. Elle n'a toujours pas été trouvée pour YouTube, malgré bien des tentatives et les conditions optimum et confortables pour sa recherche trois années, presque jour pour jour, après son acquisition par Google. Le même genre de pari a conduit au crack financier des banques qui au final aura fait beaucoup de dégâts.

mercredi 23 septembre 2009

Le codex inscriptible

Les commentaires d'un précédent billet sur une expérience de livre numérique inscriptible (ici) en sont restés à la question accessoire du titre anglais (Read/Write Book), que ses défenseurs justifiaient par une référence au code informatique. Ce dernier autoriserait des livres d'un genre nouveau et, pourrait-on dire, inédit, dont les principales caractéristiques originales seraient la possibilité d'intervenir sur le livre en modifiant son contenu (lire/écrire) et d'accéder à partir du livre à bien d'autres ressources (livre-réseau). Une petite histoire montrera que ces fonctionnalités ne sont pas réservées exclusivement au numérique et que l'intégrisme numérique peut faire parfois des dégats.

Suite à notre évaluation de l'année académique dernière à l'EBSI, nous avons décidé d'organiser une formation à l'utilisation des PowerPoints pour les professeurs. Elle a été menée tambour battant par un collègue d'une faculté voisine. Il nous a présenté en conclusion une réalisation pour laquelle il a obtenu un prix de pédagogie du ministère de l'Éducation. A priori rien d'original puisqu'il s'agit du polycopié de son cours, fourni sur un codex papier et sur Pdf aux étudiants. Mais celui-ci est inscriptible, des plages sont réservées pour des notes et des réponses des étudiants, et il autorise des liens avec des séquences Ppt sonorisés, des animations par exemple sur des courbes, des exercices et d'autres sources extérieures. Ainsi le professeur fait son cours en présentiel devant les étudiants qui prennent des notes et font les exercices directement sur le polycopié. Rentrés chez eux, ils disposent de la totalité du matériel du cours, personnalisés, y compris ses extensions en passant en ligne. Le fait d'avoir un codex n'est pas anodin, comme on va le voir.

Depuis l'année dernière, sa faculté, convertie à la modernité numérique, a décidé que l'ensemble du matériel pédagogique devrait être uniquement accessible sous format numérique. Le professeur a donc redécoupé en séquences et transformé son matériel pour ne plus fournir de papier aux étudiants. Mais dès la deuxième séance du cours, l'association des étudiants est arrivée avec une caisse comprenant les tirages papiers des fichiers, évidemment non reliés et en désordre pour les distribuer suite aux réclamations qu'elle avait reçues. Les étudiants trouvaient beaucoup plus confortables et sûr d'avoir un support papier pour suivre le cours. Après une vigoureuse protestation, le professeur qui ne manque pas d'énergie a pu revenir au codex originel. Il n'a pas pour autant renoncé au numérique qu'il manipule avec dextérité comme il nous en largement a fait la démonstration au cours de la formation.

Je crois qu'il faut se méfier des excès. Reconnaître les vertus du codex n'efface pas celles du numérique et vice-versa. Si le papier a des limites, le numérique a les siennes. Les meilleures réalisations sont celles qui savent utiliser au mieux les performances des différents supports.

vendredi 18 septembre 2009

Google Book et la BnF

Alain Pierrot (qu'il soit remercié) m'a fait parvenir le rapport d'audit de l'Inspection générale des finances en France, commandé conjointement par le Ministère du budget, des comptes publics et de la fonction public et le Ministère de la culture et de la communication, et rendu en janvier 2009. On pourra trouver ici. Nul doute qu'il sera abondamment commenté. Voir déjà À la Toison d'or ()

J'apprécie beaucoup les rapports de l'Igf qui fournissent de nombreuses informations et montrent toujours un grand souci du bien public.. et bien entendu des deniers de l'État. Celui-là est un modèle du genre. Il montre clairement les défis d'économie publique auxquels la BnF est confrontée en analysant aussi bien la valeur des collections, le climat social interne, la gestion du patrimoine immobilier, le développement de la bibliothèque numérique, la relance de la fréquentation, insistant chaque fois sur la mission de service public de la bibliothèque nationale. C'est un joli cas d'école qui me servira à coup sûr à l'avenir comme étude de cas pour la mise en pratique de la méthode d'analyse stratégique qui conclut le cours sur l'économie du document ().

Mais pour s'en tenir à une actualité chaude, voici les passages qui concernent les discussions entre la BnF et Google.

Extrait du rapport p.13-14 :

Le développement du numérique constitue ainsi un enjeu stratégique pour l’avenir de la bibliothèque, qui aura un impact sur l’ensemble de ses métiers. Il suppose donc de définir une structure cible d’emplois et de compétences à moyen terme et d’actualiser en conséquence la cartographie des métiers de la BnF, afin d’y intégrer son impact transversal. Pour autant, la stratégie de numérisation de la BnF, à vocation encyclopédique par sa volumétrie et ses critères de sélection, apparaît aujourd’hui peu adaptée dans le contexte de développement très rapide de la bibliothèque numérique du moteur de recherche Google. Alors même que ce dernier a déjà numérisé 7 millions d’ouvrages et compte au moins doubler ce chiffre dans les années à venir, la BnF est entrée dans une logique de numérisation « productiviste », qui la conduit à procéder à une sélection avant tout négative fondée sur la simple élimination des ouvrages impropres à la numérisation de masse, selon des critères essentiellement physiques et non en fonction de choix raisonnés de valorisation patrimoniale. En outre, le passage à une numérisation de masse depuis l’an dernier pose d’importants problèmes d’organisation interne à la bibliothèque, qui ne parvient pas à tenir le rythme prévu, alors même qu’un nombre important d’agents (plus de 60 ETP) est mobilisé à cet effet.

Or la BnF ne pourra pas concurrencer Google par le nombre, puisque sa bibliothèque numérique atteindra au mieux la taille du seul fonds ancien de la bibliothèque municipale de Lyon, que Google s’est engagé à numériser dans les années à venir, ce qui représente 5 % du nombre d’ouvrages disponibles sur Google Book Search. De surcroît, cette politique conduit la BnF à négliger la numérisation des collections de presse (malgré un plan spécifique, qui n’aura couvert que 2 % des collections de presse de la bibliothèque sur sept ans d’ici 2012) et de l’audiovisuel, supports pourtant éminemment fragiles7 et dont la consultation en ligne correspond à une attente forte du public.

2. La BnF doit passer d’une logique quantitative à une logique plus qualitative et partenariale, davantage tournée vers les urgences et les attentes du public

La bibliothèque devrait donc chercher à se différencier davantage par la qualité de sa bibliothèque numérique et l’accompagnement éditorial qu’elle peut proposer, à la différence de Google. La sortie d’une logique de masse permettrait en effet à la fois de renforcer la diversité documentaire de Gallica, de remédier aux dysfonctionnements induits par la logique actuelle de flux tendus et de libérer des crédits pour les réallouer à un nombre plus restreint d’ouvrages, mais mieux choisis et présentant une qualité de numérisation accrue.

Dès lors, il apparaît nécessaire de renforcer la logique de sélection qualitative, en ciblant davantage la numérisation sur les pièces les plus précieuses et distinctives de la BnF (ouvrages de la réserve, collections spécialisées), ainsi que sur les collections les plus demandées et/ou les supports les plus menacés, en particulier l’audiovisuel et la presse. Une telle évolution suppose entre autres d’étendre l’éligibilité des projets financés par les crédits du centre national du livre à l’ensemble des supports de la BnF, afin de renforcer la pertinence de la numérisation et de l’orienter en priorité vers les supports les plus fragiles et/ou les plus demandés.

Note 7 À titre d’illustration de cette fragilité, la BnF estime que 90 % des articles de presse relatifs à l’affaire Dreyfus ne sont plus immédiatement communicables au public du fait de leur état de dégradation.

Extrait de la réponse du président de la BNF sur ce point (p.11-12) :

S'agissant d'une possibilité d'ouvrir des discussions avec Google sur la numérisation d'une partie des collections de la BnF, il convient de rappeler que les contacts avec la firme californienne, comme avec Microsoft, ont été réguliers et pourraient connaître de nouveaux développements.

Il y a lieu également de souligner que le projet Google Book Search et Gallica ne sont pas concurrents mais complémentaires. Alors que le premier vise à constituer un gigantesque réservoir de données, Gallica entend développer une véritable bibliothèque, reposant sur une organisation du savoir, une diversité des fonds numérisés et une éditorialisation des contenus.

Microsoft s'étant retiré, une éventuelle coopération avec Google ne pourrait s'inscrire que dans le cadre suivant :

  • porter uniquement sur les œuvres du domaine public, compte tenu des différends opposant Google aux éditeurs, non encore réglés par le projet d'accord intervenu aux États-Unis :
  • venir en complément des programmes de numérisation de massa financés par le CNL, quitte à réorienter ces derniers, de manière à ne pas se placer dans une situation de dépendance ;
  • limiter les restrictions d'accès éventuelles aux seuls acteurs commerciaux, de manière à préserver Europeana et le réseau des bibliothèques numériques francophones.

Dans ce cadre, la BnF pourrait confier à Google la numérisation de la collection des doubles naguère conservée à Versailles et aujourd'hui stockée sur le site François-Mitterrand, ce qui aurait l'avantage de ne pas interférer avec le fonctionnement des départements puisque ces ouvrages ne sont pas communiqués, ainsi qu'une partie des microfilms de la presse du XXIème siècle.

En échange, Google serait prêt à confier à la BnF, en vue de leur intégration dans Gallica, les fichiers des ouvrages du domaine public de langue française déjà numérisés dans les bibliothèques américaines partenaires mais aussi de ceux qui seraient numérisés en Europe, par exemple, à la Bibliothèque municipale de Lyon.

Si tel était le cas, les programmes de numérisation de masse financés par le CNL (actuellement 100 000 documents par an jusqu'en 2010) pourraient voir leur voilure ajustée par la suite en ce qui concerne les collections de la BnF et pourraient s'ouvrir beaucoup plus largement aux autres bibliothèques françaises dans le cadre du futur schéma national numérique.

La stratégie à moyen terme pourrait donc être la suivante :

  • numérisation de masse des monographies et des périodiques de la BnF et de ses pôles associés financée par les crédits CNL et, de manière complémentaire, par Google,
  • numérisation d'envergure de la presse, pour laquelle un financement pérenne reste à trouver,
  • numérisation méthodique des collections uniques ou rares de la BnF (livres rares, manuscrits, estampes...) financée sur fonds propres de l'établissement ou sur subvention spécifique (y compris le CNL pour la réserve des livres rares).

Relevons rapidement plusieurs point :

  • De façon anecdotique, on peut sourire à voir le président de la BnF se comporter en Ministre de la culture et définir une politique nationale de numérisation. Plus encore à constater que la BnF récupèrerait des collections numérisées d'autres bibliothèques, américaines ou française (Lyon) via une firme privée (Google) sans même qu'il soit envisagé, ni obligatoire, de demander leur consentement.
  • Le processus de numérisation des collections comprend clairement aujourd'hui deux logiques : une industrielle, une manufacturière (plutôt qu'artisanale car on vise malgré tout les grands nombres). Savoir si ces deux logiques sont compatibles reste une question ouverte. L'expérience malheureuse de l'augmentation des cadences à la BnF montre en tous cas que les bibliothèques ne sont pas armées pour l'industriel. La BM de Lyon a fait le pari que Google saura faire du manufacturier en lui confiant ses collections précieuses. La BnF parait tentée de suivre la même voie.
  • Le financement public (ou la volonté publique) parait insuffisant(e) pour financer y compris les collections patrimoniales et ceci dans tous les pays. Le recours à Google dans ce contexte est peut-être inéluctable. Cette situation est exceptionnelle, due à la réussite insolente de la firme et à son cash-flow. Il est probable qu'elle ne se reproduise pas. Comme par définition la numérisation du patrimoine est aussi exceptionnelle et ne devrait pas en principe se reproduire, il y a là un effet d'aubaine fort.
  • Mais la stratégie de la firme est de viser l'industriel, c'est un peu comme une troisième édition du livre après l'originale puis le livre de poche. Et c'est un des enjeux de la discussion de la firme avec les éditeurs-auteurs aux US : Google renouera-t-il avec le métier d'imprimeur-libraire en réimprimant des livres à la carte ou les diffusant sous format numérique qui plus est en position de monopole sur certains créneaux (livres épuisés) ? Il est ironique que des bibliothèques aient été les involontaires complices de l'opération. Il serait juste qu'elles obtiennent en retour quelques compensations ou que soit clairement confié à Google une mission de service public comprenant des devoirs.
  • L'idée selon laquelle Google viserait à faire un vaste entrepôt de données alors que les bibliothèques seraient préoccupées de collection confond deux raisonnements : l'architecture informatique sera toujours au plus bas niveau un entrepôt de données et l'organisation des informations se trouve sur une couche supérieure. Rien n'empêche Google d'organiser, s'il le souhaite, des collections ou les bibliothèques de se servir des mêmes données pour le même objectif. Qui sait ce qui se passera demain ?
  • L'autre intérêt de la firme est de constituer un immense corpus de texte édité sur lequel il pourra et peut déjà faire tourner ses outils de traitement de la langue et de traçage des lecteurs. Sur ce point, la stratégie est plutôt défensive : occuper le terrain pour capter les internautes que commercialement offensive (pas ou peu de publicité contextuelle).
  • Tout cela me conforte encore dans la présentation des modèles de média sous forme de pentagone. Goggle Book s'est installé entre le modèle de la bibliothèque en récupérant ses collections et celui de la radio-TV par une logique de flux. Et elle cherche à se diversifier en se positionnant sur le modèle éditorial en bousculant ses acteurs. Voilà de quoi actualiser la séance correspondante du cours () pour un superbe exemple.

Actu du 12 oct 2009

Sergey Brin, “A Library to Last Forever,” The New York Times, Octobre 9, 2009, sec. Opinion ici.

mardi 08 septembre 2009

Accès libre : la fausse évidence du macro

Concernant l'accès libre à la science, (archives ouvertes, dépôts institutionnels, revues en accès libre) il y a une différence radicale selon que l'on raisonne globalement, à grande échelle, ou plus finement en prenant en compte les intérêts des différentes parties. Et cette différence conduit à des difficultés souvent mal comprises qui suscitent l'impatience des promoteurs de l'accès libre devant la lenteur de sa mise en place concrète de ce qui leur apparait comme une évidence. Deux rapports récents, aux conclusions radicalement différentes sinon opposées, illustrent une nouvelle fois le paradoxe.

Macro

Le premier a été commandé par le JISC. Il s'agit d'une modélisation macro des coûts et bénéfices d'un passage général au libre accès dans trois pays : le Royaume-Uni, le Danemark et les Pays-Bas.

John Houghton, Open Access – What are the economic benefits? A comparison of the United Kingdom, Netherlands and Denmark, 23 juin 2009 (Pdf). Présentation et analyse de JP Devroey sur Blogus operandi ici

Le rapport conclut à un intérêt économique global très important pour le modèle d'accès libre. Extrait des conclusions (trad JMS) :

  • L'accès libre ou le paiement de la publication par les auteurs (i.e. Gold OA) pourrait amener une économie d'environ 70 millions d'euros par an sur une base nationale pour le Danemark, 133 pour les Pays-Bas et 480 pour le Royaume Uni (au niveau des prix et de l'activité de 2007).
  • L'accès libre par auto-archivage sans annulation des abonnements (i.e. Green OA) pourrait économiser environ 30 millions au Danemark, 50 aux Pays-Bas et 125 au Royaume Uni.
  • L'accès libre par auto-archivage avec un service d'accès est plus spéculatif, mais un modèle de dépôts et de services pourrait produire des économies comparables à la publication en accès libre.

On peut discuter ces calculs, car ils supposent des approximations parfois larges. Néanmoins, il est vraisemblable que si d'un coup de baguette magique on pouvait changer l'ensemble du système, les économies globales pour la société seraient substantielles. Et ce genre d'études est toujours intéressant pour motiver des décideurs, au moins ceux qui ont le pouvoir de modifier les politiques, les bailleurs de fonds de la recherche qui souhaitent évidemment rentabiliser leurs investissements de façon optimale.

Mais son défaut est de faire fi de l'analyse des acteurs. Or, à moins de vouloir une science entièrement administrée, ce sont les chercheurs et leurs structures, complexes, entrelacées, souvent autogérées ou féodales qui auront le dernier mot. Et là, cela se complique..

Micro

Le second rapport est une étude plus modeste qui tente de repérer les coûts et bénéfices de huit revues américaines de sociétés savantes en SHS sur une période de trois ans (2005-07) :

Mary Wattman, The Future of Scholarly Journals Publishing Among Social Science and Humanities Associations, février 2009 Pdf

Sans doute l'étude ne prétend pas à une représentativité sur un si petit échantillon. Néanmoins, elle fournit d'intéressantes indications. Extraits du résumé (trad JMS) :

Le coût par page va de 184$ à 825$ (moy 526$). Lorsque les coûts variables d'impression sont retirés, ces coûts tombent entre 90 et 652$ (moy 350$).

Les coûts totaux ont augmenté d'environ 6% (370.000$) sur les 3 années de l'enquête. Les coûts de fabrication et de production des revues papier ont baissé légèrement malgré une petite augmentation du nombre de pages (+5,4%) et un accroissement de 1% de la distribution papier.

Les revenus ont augmenté de 800.000$. L'essentiel de cette augmentation provient des institutions.

Les revenus des abonnements institutionnels, incluant les licences de sites et de consortiums, procurent 58% des revenus totaux et 72% des revenus d'abonnements en 2007.

Les revenus provenant des abonnés institutionnels ont augmenté d'environ 12% pendant la période étudiée, la majorité de l'augmentation provenant des abonnements couplés, papier et numérique. La chute des abonnements papier uniquement est notable.

Globalement, (..) le solde positif a augmenté constamment durant la période étudiée, car les coûts étaient constamment tenus tandis que les revenus augmentaient.

Toute tentative de modèle alternatif d'affaires pour les revues en SHS, qui autoriserait un plus large accès au contenu scientifique, doit être, ou devenir, financièrement solide pour soutenir le développement de l'association et de la revue.

Le passage à un modèle de financement radicalement nouveau sous la forme d'un accès libre (auteur/producteur payant) dans lequel les coûts de publication des recherches seraient payés par les auteurs ou les agences de financement, et où les lecteurs auraient un accès en ligne gratuit, n'est aujourd'hui une solution raisonnable pour aucune des revues de ce groupe, compte tenu des coûts prévus. La provenance des ressources externes nécessaires pour un tel modèle n'est pas non plus claire et celles-ci pourraient bien être beaucoup moins accessibles que dans les disciplines STM.

Ces conclusions recoupent des remarques de couloir de collègues responsables de revues, étonnés et heureux des revenus inespérés provenant des portails de revues SHS en Amérique du nord. L'économie des revues SHS se modifie rapidement. Il n'est pas sûr que, contrairement à leurs espoirs, celle-ci aille dans le sens des promoteurs de l'open access.

La situation des revues en STM et la concentration des éditeurs dans ces disciplines sont très différentes, induisant des profits qu'il est juste de dénoncer avec force. Mais je suis persuadé que si l'on entrait plus finement dans l'analyse du jeu des pouvoirs internes à ces disciplines, on comprendrait mieux les résistances et les complicités entre éditeurs commerciaux et éditeurs scientifiques.

dimanche 06 septembre 2009

Google Book : l'État c'est moi

Nouvelle excellente initiative de Lionel Maurel qui a traduit un texte très éclairant de James Grimmelmann sur l'accord de Google avec les auteurs et éditeurs américains actuellement en procès suite à recours collectif bien paradoxal :

James Grimmelmann, “Google et l’armée des zombies orphelins” (Georgetown University Library, 2009), ici le texte original est .

Voici le dernier paragraphe :

Peut-être ce règlement aura-t-il quand même un effet positif pour la société : de bonnes choses sortent parfois des pratiques les plus corrompues. Mais nous devons bien être conscients que ce n’est pas de cette manière que les choses auraient dû se dérouler. Les parties ont atteint un résultat différent de celui que la société était en droit d’attendre. Peut-être notre système politique est-il trop grippé pour régler à la fois le problème de la recherche dans les livres et la question des œuvres orphelines ? Mais nous ne devrions pas pour autant renoncer à exiger mieux que cela ; nous ne pouvons pas nous contenter de baisser les bras en disant : « C’est toujours mieux que rien ».

On ne saurait mieux écrire que Google est en train de prendre des prérogatives régaliennes et que cela est dangereux pour la démocratie.

Actu du 8 septembre 2009

Voir aussi le communiqué en France de l'interassociation Archives, Bibliothèques Documentation (IABD), qui reprend un argumentaire comparable :

Non au Règlement Google Livres en France ici

Et cinq minutes plus tard :

Google renonce à inclure les ouvrages européens dans Google Livres, ZDNet ici

Ça brasse. Il se dessine de plus en plus nettement une différence de positions US/Europe.

- page 50 de 144 -