Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - résistance livre

vendredi 23 novembre 2007

La résistance du livre (3)

On le sait le buzz sur la tablette d'Amazon a été lancé par Newsweek qui en a fait sa couverture et un dossier sur l'évolution de la lecture. L'image ci-dessous a été détournée par Steve Lawson (ici).

Tous vos livres numériques nous appartiennent. Le texte dans l'écran disait à l'origine (trad JMS) : Les livres ne sont pas morts (ils deviennent seulement numériques).

Couverture originelle ici. Article éditorial de NW : The Future of Reading By Steven Levy NEWSWEEK Nov 17, 2007,

C'est une autre illustration de la résistance du livre évoquée et commentée ici et .

Actu du 30 nov : Voir le billet de Virginie Clayssen sur ce billet.

mardi 20 novembre 2007

La résistance du livre (2)

Le précédent billet sur le même sujet (ici) a été enrichi par un grand nombre de commentaires passionnants et passionnés, qui montrent la vivacité de la question. Pour bien comprendre ce nouveau billet, il est sans doute préférable de les avoir parcourus.

Parmi ceux-là et sans épuiser la richesse des autres, je reprendrai pour mémoire seulement celui de H. Guillaud, commenté lui-même, car il souligne une autre dimension importante de la question. Extrait :

La mémorisation visuelle et spatiale de sa bibliothèque physique n'est-elle pas en fait l'expression du "moteur de recherche" que nous devons déployer cognitivement pour y accéder, à cause de sa forme même ? Dans une bibliothèque physique, on recherche les emplacements : d'où l'importance prédominante de la requête spatiale et visuelle. Dans une bibliothèque numérique on recherche (avec la même difficulté parfois) les expressions, les mots clefs qui peuvent nous ramener à l'idée qu'on recherche pour l'avoir déjà lu. On sollicite certainement pas les mêmes aires de la mémoire et la bibliothèque physique est dans ce cadre là, peut-être plus pratique, parce qu'elle fait appel à des mémoires et des gestuelles différentes.

Cette remarque m'évoque la réflexion pédauquienne sur la redocumentarisation. Pour en comprendre la portée, il faut donc faire un petit détour par Roger (pour ceux qui n'en n'ont pas entendu parler, voir ici). Un livre, forme particulière de document, est documentarisé selon ses trois dimensions : sa forme (on le classe), son contenu, le texte (on l'indexe), sa fonction, le médium, la mise en relation (on l'inclue dans des dispositifs de partage). Chacune de ces dimensions a son importance et leur documentarisation permet un ordre documentaire qui évite le chaos (amoncellement de forme), la confusion ou la cacophonie (impossiblitité du sens) et l'oubli (perte ou confiscation). J'ai reproduit ces trois dimensions dans une diapositive qui me sert souvent :

Quel rapport avec la résistance du livre dira-t-on ? En réalité, Philippe Boisnard par exemple, dans ses commentaires insistant sur le touché ou la finitude d'une bibliothèque privé, privilégie la première dimension du livre, sa forme. Celle-ci, se concrétisant dans un objet, clos l'œuvre. Hubert Guillaud, soulignant les capacités de calcul linguistique des moteurs, met en avant sa seconde dimension, le texte. Le livre est alors pris dans un vaste ensemble dont les limites sont celles du web, c'est-à-dire quasi-infini. L'apport des commentateurs est notamment de montrer que ces deux dimensions technologiques (inscrites dans des artefacts construits par l'homme) ont leur correspondance dans des habiletés mnésiques humaines radicalement différentes : mémoire visuelle et mémoire linguistique ; et aussi dans des dispositifs différents, bibliothèque intime finie, bibliothèque de recherche infinie.

Cette différence n'est pas aussi sans poser de redoutables problèmes dans la transposition au numérique de documents inscrits dans une très longue histoire matérielle, comme l'a montré Paul Duguid ici, sur la numérisation des livres par Google.

Alors si on pousse le raisonnement en le caricaturant sans doute un peu, on pourrait conclure que réduire la résistance du livre conduit à l'effacement l'œuvre littéraire dans sa forme actuelle, une sorte de victoire à la Pyrrhus. Je dis cela sans nostalgie, je ne doute pas que d'autres formes d'œuvre surgiront alors.

Actu 2 heures plus tard F. Pisani fait lui aussi un second billet sur Kindle, la tablette d'Amazon avec des liens sur les débats en cours (ici). Voir aussi Mark Pilgrim, cité en commentaire .

samedi 17 novembre 2007

La résistance du livre

Puisque c'est le Salon du livre à Montréal, il est opportun de poursuivre l'interrogation sur ce support. J'ai, d'abord, été sensible à trois propos récents :

  • F. Pisani a donné un entretien sur l'avenir du livre.
  • Jeff Gomez a publié un livre papier au titre pour le moins paradoxal : Print is dead. Ici
  • Alain Giffard quant à lui s'interroge sur les effets de la Culture du libre sur la culture du livre, ici

Chacun à sa manière, avec sa position, son expérience, son analyse propre, des orientations parfois opposées, tire la même conclusion : le livre évolue, le livre doit s'adapter à la culture numérique. Mais si évidemment les médias anciens intègrent les formes nouvelles, la vrai question me parait inverse : pourquoi le livre résiste ?

Car le livre résiste. Il fut le premier dont le contenu à basculer sur le Web (le projet Gutenberg date de 1971). Il fut aussi le premier à disposer de terminaux dédiés (les tablettes eBooks sont bien antérieures au iPod). Sans doute certains secteurs n'ont pas résisté (encyclopédies, revues savantes), mais globalement et malgré les nombreuses Cassandres, le livre est encore là et bien là. Les principales maisons d'édition sont même plutôt prospères. Même si les tirages diminuent, le nombre de titres augmente.

Cette situation est d'autant plus étonnante que l'évolution sur la longue durée des pratiques de lecture ne sont pas encourageantes, que l'on raisonne par âge ou par génération, contrairement aux pratiques de la musique ou de l'audiovisuel, qui sont, elles, en forte croissance alors que leurs industries paraissent plus menacées (ici). Faut-il en conclure que les stratèges du livre sont plus habiles que leurs confrères ? Sans vexer personne, cela me semble une explication peu convaincante.

Sans prétendre avoir la totalité de la réponse, je crois que l'on a négligé jusqu'ici une dimension essentielle de l'explication : la mesure temporelle du livre, inscrite, cristallisée dans sa forme. Un lecteur qui parcourt un codex, lit et tourne les pages, a son attention accaparée par son activité. Autrement dit, un livre peut être mesuré autant par son nombre de pages que par son temps de lecture (qui variera selon l'habileté et la stratégie du lecteur). De ce point de vue, prenons un livre de 300 pages à 400 mots par page. Un lecteur moyen lisant 200 mots par minute, le livre représente, par exemple, 10 heures de temps de son lecteur.

Cette perspective permet de mieux comprendre la supériorité d'un livre papier sur le numérique, même sous forme de tablette, dans un grand nombre de genres. Elle permet aussi de comprendre pourquoi certaines pratiques de lecture sont, à l'inverse, plus adaptées au numérique. Elle permet enfin de comprendre notre attirance à détenir des livres et à les accumuler dans des bibliothèques personnelles, même à l'heure des mémoires numériques et des clés USB, alors que nous nous éloignons des CD audios. D'un point de vue plus théorique, elle autorise l'intégration de l'économie du livre dans l'économie de l'attention (mais je ne le développerai pas dans ce billet).

Contrairement à une idée reçue, on lit très bien sur une tablette, et ceci dès les premières tentatives (Cytale, Gemstar). J'en ai fait personnellement l'expérience et nous l'avions constaté, il y a déjà longtemps dans une expérience de prêts en bibliothèques (le rapport est ici. Pdf). On met souvent en avant comme avantage pour ces dernières, le fait que l'on dispose alors d'une bibliothèque portative, ou que l'on peut par les liens naviguer d'un texte à l'autre. Mais cet avantage n'est utile que pour un certain type de lecture, pas le plus courant, celui qui demande de passer d'un fragment de texte à un autre. Un livre traditionnel se lit tout seul, en continu du début à la fin. Il est exclusif et fini. Et son temps de lecture est long. L'accompagner d'une bibliothèque n'est en rien un avantage, c'est au contraire une source de distraction. Mieux, l'objet livre est une promesse pour le lecteur : la promesse d'un temps long de plaisir exclusif ou d'enrichissement offert par l'auteur. Comme bien des cadeaux, il gagne à être tangible, il a même son emballage la couverture. La tablette ou le eBook, en effaçant la promesse, réduit sa potentialité.

Mais dira-t-on le raisonnement est le même pour la musique ou la vidéo et pourtant les conséquences du numérique sont inverses. L'inversion résulte de la temporalité. Le temps de l'écoute de la musique ou de la vidéo est très court par rapport à celui du livre. Il est, au contraire, tout à fait avantageux de disposer une bibliothèque de morceaux musicaux dans son iPod. Dans le temps long de lecture d'un seul livre, nous pouvons écouter un très grand nombre de morceaux musicaux. Ici le numérique montre sa supériorité. Le même raisonnement vaut pour les livres qui se lisent par séquences comme les encyclopédies, pour lesquels le numérique est un avantage certain pour le lecteur.

Ainsi lorsque nous achetons des livres pour notre bibliothèque ou pour les offrir, nous achetons une promesse d'heures exclusives de plaisir. Une bibliothèque d'une centaine de livres est pour son propriétaire la promesse de mille heures de plaisir. Sa visibilité n'est pas anodine. En passant devant, il éprouve le frisson de cette promesse. Sa surface, son volume sont proportionnels au potentiel accumulé.

Alors, la littérature évoluera sans doute avec le numérique, mais sommes-nous vraiment prêts à renoncer à ces plaisirs anciens ?

Actu du 19-11-2007 Voir, a contrario, le lancement par Amazon de la prochaine version de tablette chez F. Pisani : Livre 2.0: nous y sommes presque, ici. Voir aussi Lorcan Dempsey et les liens qu'il donne, ici. Et plus de détails sur TechCrunch, .

mardi 23 octobre 2007

Le prix du grain

The Register signale (ici, repéré par Ratatium) une étude d'un consultant britannique sur la chute du marché du disque au Royaume-Uni. Extrait (trad JMS) :

Capgemini a calculé que, sur les 480 M de £ perdus par l'industrie depuis 2004, 368 découlaient du changement de format : principalement l'éclatement de l'album CD en une sélection de titres numériques à la carte. Pour le reste, la piraterie concernerait 18% des pertes.

L'étude pointe aussi la responsabilité des supermarchés qui ont cassé les prix. En l'absence de détail sur la méthode de calcul, il faut rester prudent sur ces chiffres et déductions, d'autant que les polémiques, souvent de mauvaise foi, vont bon train on le sait dans ce secteur. On en trouve d'ailleurs un exemple étonnant dans le même billet, qui cite un industriel :

« Ce qui déconnecte le modèle iTunes de la réalité, c'est que, historiquement, ce qui marche pour la propriété intellectuelle ce sont les prix en bloc (bundled price), ce qui ne marche pas c'est la granularité. Croyez-vous que Alan Edgar Poe aurait pu faire de l'argent, s'il avait vendu Le Corbeau séparément de 30 autres poèmes ? »

Le problème dans cette affirmation péremptoire est que Le Corbeau (ici), un des plus célèbres poèmes de la littérature anglophone, a été initialement publié dans un journal, The New York Mirror, où son auteur était critique (wkp). Il est difficile de prétendre qu'il a enrichi son auteur qui est plutôt considéré comme la figure de l'auteur romantique, mort dans la misère..

Néanmoins l'étude pointe une question de structure importante que l'on retrouve dans d'autres domaines, la Presse ou les revues scientifiques et le découpage en articles par exemple, et qui pourrait aussi être une explication de la relative résistance au numérique de l'édition de livres, rétifs à l'éclatement : quelle relation peut-on faire entre constitution des prix et granularité ?

En réalité, il n'y a pas une seule alternative pour la constitution des prix, mais trois options, et toute une gamme de possibilités intermédiaires. Il ne s'agit pas de choisir entre la vente d'albums ou de morceaux pour la musique, de journaux ou d'articles pour la presse ou encore d'abonnements de revues ou d'achats à l'article pour la science, mais entre ces options et une troisième : la rentabilisation de la collection par un ticket d'entrée payé a priori.

Et, pour compliquer encore le tableau, je rappelle que nous sommes dans un secteur de double marché : biens (en direction du lecteur, auditeur) et attention (en direction de l'annonceur).

Le grand changement du numérique est d'avoir transformé radicalement la structure des coûts, dans la distribution, bien sûr, mais aussi, et c'est souvent oublié, dans le traitement du document, et donc la possibilité de le repérer. La baisse des coûts de distribution ouvre la porte à la vente par morceaux, mais celle des coûts de traitement et de repérage ouvre la voie à la rentabilisation des collections. Si on ajoute maintenant la question des coûts de transaction : négociation avec les clients, gestion et sécurisation des flux monétaires, repérages des identités, etc. On se rend compte de l'intérêt de la valorisation de la collection, plutôt que de la multiplicité de micropaiements dans nombre de cas. C'est aussi une des explications de la préférence pour le marché des annonceurs : il y a moins d'acheteurs, donc moins de coûts de transaction.

Ces éléments expliquent, à mon avis, les évolutions récentes de la Presse sur le Net avec l'accès gratuit aux archives du NYT, ou encore les multiples tentatives d'accès direct à des catalogues musicaux. Voilà ce qui fait aussi la fortune de Elsevier dans le secteur de l'édition scientifique. J'ai emprunté le schéma ci-dessous à une intéressante brochure distribuée par Livre-Hebdo à la dernière foire du livre de Francfort (repéré par Bibliofrance).

Le classement 2007 de l’édition mondiale produit par Livres Hebdo (France) et publié en partenariat avec Buchreport (Allemagne), Publishers Weekly (Etats-Unis), Publishing Today (Chine) et Svensk Bokhandel (Suède), Pdf.

On voit donc dans ce schéma, et dans l'ensemble de la brochure, à la fois la réussite des éditeurs scientifiques qui ont investi dans le numérique et la vente de licence pour l'accès direct à d'énormes collections et la résistance des éditeurs de livres traditionnels, pour lesquels le Web n'est sans doute qu'une occasion de développer leur marketing. Pour ces derniers, comme je l'indiquais plus haut, découper un livre traditionnel n'a pas grand sens, dès lors le marché à l'unité est protégé car les prix restent élevés.

samedi 10 février 2007

Micro/macro, don, libre accès et Web 2.0

À première vue, il y aurait un paradoxe entre l'explosion du Web 2.0 qui repose notamment sur la grande "générosité" des internautes, partageant leurs données, informations, impressions sans beaucoup de réticences et les limites actuelles du libre accès dans la science, pourtant antérieur au Web 2.0, qui peine à convaincre les auteurs d'articles à les déposer dans des "archives ouvertes".

Le paradoxe est d'autant plus grand qu'à l'échelle globale "macro", la science a tout à gagner à une ouverture de ses publications déjà par nature structurées et hiérarchisées, tandis que pour le Web 2.0, le bruit généré conduit à un chaos pas toujours vraiment productif.

Plusieurs explications sont avancées pour l'inertie des chercheurs : le manque d'information, les pressions des éditeurs, la résistance au changement, le conservatisme.. On pourrait aussi arguer que 15% de déposants c'est déjà un chiffre sans doute supérieur à la proportion d'internautes actifs dans le Web 2.0. Sans doute chacune a sa part, mais elles ne me convainquent pas. Les chercheurs forment une petite communauté, facile à toucher, autonome, très réactive et, parmi eux certains ont massivement investi le libre accès, mieux ils ont tout simplement inventé de Web à cette fin !

La véritable explication me parait ailleurs. Elle réside dans la différence du raisonnement économique, selon que l'on raisonne à l'échelle macro ou micro. En effet, à l'échelle micro, le raisonnement change de nature.

Pour le Web 2.0, un intéressant billet de Technologie Review est éclairant :

Samaritans with keyboards: On the Internet, helping strangers is a form of fun, Associated Press 10 janv 2007 (repéré par InternetActu)

Il reprend quelques réflexions et analyses de chercheurs s'étant interrogé sur les motivations individuelles du don sur le Web. La conclusion la plus édifiante est micro-économique. Extraits :

"It's not that human nature has changed, it's that the cost of participation has been dramatically lowered," Rheingold said. "If you're an expert on the prairie dogs of Nebraska, it's now very inexpensive for you to contribute your little piece of expertise." (..)

Patricia Wallace, author of The Psychology of the Internet, believes the anonymity of the online environment makes people more likely to take the risk of helping. She contrasts this to this to the act of helping out a real-life motorist who's asking for directions: "If you gave that person the wrong directions, he knows what you look like, who you are. He might drive back and say what kind of jerk you are."

On pourrait y ajouter le "don fortuit", celui que l'on fait en effaçant la frontière entre l'espace privé et l'espace public.

Maintenant comparons ces motivations avec la situation des chercheurs. Pour la première, en aucun cas le coût de participation du chercheur à la publication a changé : celui-ci repose sur la révision par les pairs dont l'obligation n'est pas différente dans le numérique que dans la publication traditionnelle. Par ailleurs, l'anonymat est exclu, sauf cas très particuliers, car il interdit la confrontation et la vérification des points de vue. De plus la publication étant liée à la carrière du chercheur, il ne tirerait plus de bénéfice de ses publications. Quant au don fortuit, il a peu de chances de fonctionner, les chercheurs voulant garder l'exclusivité de leurs travaux avant qu'ils ne soient arrêtés et bons pour la publication. Ainsi les raisons évoquées pour le Web 2.0 ne fonctionnent pas dans le libre accès.

Mais il y a pire, comme je l'ai montré dans un récent chapitre de livre.

Salaün, Jean-Michel. 2006. Économie du document - Pour des archithécaires. In Pérenniser le document numérique, 32-50. ADBS-Édition.

Extraits :

''Pour bien comprendre ce phénomène, il faut faire la différence entre l’édition (la sélection et la mise en forme d’un texte pour une revue) et la publication (la diffusion de ce texte édité). Dans l’économie ordinaire de la science, les chercheurs ont plus intérêt à être édités, c’est-à-dire à ce que leurs articles figurent dans des revues, qu’à être publiés, c’est-à-dire potentiellement lus au-delà d’un tout petit cercle d’initiés. L’objectif de l’édition est d’allonger leur bibliographie (liste de leurs travaux reconnus par leurs pairs) qui, ellemême, est l’élément central du dossier qui les suivra le long de leur carrière.

Ce point est d’autant plus crucial que les jeunes chercheurs sont le plus soumis à la loi, bien mal nommée, du publish or perish, tandis que ceux dont la carrière est faite pourront préférer une audience large, c’est-à-dire le libre accès, indépendamment d’une édition dans une revue. Sans doute peut-on objecter que le chercheur voudra être édité dans la revue la plus prestigieuse, celle qui a le plus haut « facteur d’impact » et qui est donc la plus lue. Mais cela ne change en rien son attitude initiale, guidée uniquement par le souci d’une révision de son texte par ses pairs en vue d’une acceptation qu’il pourra consigner dans sa bibliographie et absolument pas par la mise en libre accès de ce texte.

Toute la science est régulée par ce dispositif de révision par les pairs, mais on mesure souvent mal, en Europe, à quel point il fonde l’organisation de ses structures en Amérique du Nord. L’étalon du facteur d’impact, inventé par Eugene Garfield, permet de hiérarchiser les revues et, par voie de conséquence, les chercheurs dont les itinéraires sont, de ce côté-là de l’Atlantique, très individualisés et les universités en forte concurrence. Les financements des personnes, des travaux et des institutions dépendent largement de ce classement.''

Ainsi, vérité ou erreur d'un côté ou de l'autre de la frontière qui sépare grand public et science.. et vérité ou erreur selon l'échelle (macro ou micro) du raisonnement.

page 3 de 3 -