Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

jeudi 28 août 2008

L'antagonisme diffusion/accès dans la télévision

J'ai déjà eu l'occasion d'expliquer pourquoi, d'un point de vue économique, les logiques de la diffusion et de l'accès étaient antagoniques et créaient des tensions fortes aujourd'hui (voir ici et ). Deux informations récentes soulignent que ces tensions s'exacerbent dans la télévision. Elles permettent aussi de mieux repérer les différences entre les supports écrits et audiovisuel.

YouTube paradoxalement non rentable

La première est la confirmation des difficultés de Google à monétiser YouTube, malgré l'évident succès d'audience du service. On trouvera un résumé de la question dans un article du Monde, et plus précis et plus actuel, dans les billets réguliers de D. Durand sur le sujet :

Jeff Segal, “YouTube et Facebook font des bénéfices anémiques,” Le Monde, Août 25, 2008, ici.

Didier Durand, “Media & Tech | Youtube: très visité mais pas payé!,” Media & Tech, juin 27, 2008, .

J'en retiens les leçons suivantes :

  • La vente d'espaces publicitaires sur une multitude de programmes très courts est délicate. Le nombre disperse l'audience et la rend peu prévisible. Le format réduit la place du message publicitaire.
  • Il n'y a pas ou peu, semble-t-il, de synergie avec le moteur et donc pas non plus de retombées significatives indirectes par l'augmentation des requêtes et donc des rentrées publicitaires (Adwords).
  • Les coûts de stockage et de diffusion sont lourds. Le dernier chiffre annoncé, sans doute sous-estimé était de 1M de $ par jour.
  • Les principaux problèmes ne semblent pas, ou plus, relever des relations avec les télévisions ou le cinéma. Même s'il reste encore des négociations en cours et du piratage à éliminer. YouTube est une trop formidable caisse de résonance pour être réellement menacé.

Wizzgo, un symptôme

L'autre évènement a eu lieu en France et concerne un procès, gagné par le groupe de télévision M6 contre une jeune entreprise, Wizzgo, qui offrait un service cassant le flot des programmes. L'idée était d'offrir au téléspectateur la possibilité de se reconstruire son propre programme par un enregistrement présélectionné d'émissions, une sorte de super-magnétoscope. On trouvera chez Calamo un bon résumé du problème et une analyse détaillée de la controverse juridique :

Calamo, “Wizzgo stoppé net ?,” Post Scriptum, Août 19, 2008, ici.

Le service devait se rentabiliser par la publicité, mais il est évidemment impossible de savoir s'il aurait pu devenir viable. Néanmoins, on peut déjà faire les observations suivantes :

  • Au delà des interprétations juridiques, la multiplication explosive des chaînes, alliée aux développements informatiques ainsi qu'aux pratiques des internautes verra immanquablement apparaître tôt ou tard des services comparables, officiels ou sauvages.
  • Il s'agit ici de casser un flux pour le recomposer. Ainsi on ébranle rien de moins que la fonction pivot d'une chaîne de télévision : le programmateur dont la mission est de faire coïncider au mieux le déroulement des émissions avec la disponibilité des téléspectateurs.

La création de richesse par l'accès

La comparaison avec YouTube permet d'ajouter quelques leçons. L'un et l'autre créent de la richesse à partir de fonctions documentaires.

Pour ce dernier, la construction du service ressemble à celle d'une collection de bibliothèque : on réunit dans un même lieu des documents dispersés et on fournit à l'usager un outil de recherche. La différence tient à ce que la collection n'est pas construite à l'initiative d'un acquéreur, mais grâce aux dons spontanés.

Wizzgo agissait plutôt comme un documentaliste faisant une revue de presse. Il redécoupe l'offre de diffusion de plusieurs médias pour en reconstruire une personnalisée. La différence tient à ce que le système est piloté directement par l'usager, sans médiateur.

Alors, faut-il en conclure comme Eolas, cité par Calamo :

Certains modèles du « web 2.0 » reposent « je le crains, sur des mythes, le principal étant celui de la création de richesse à partir d'une matière première qui serait gratuite », et sans redistribution vers les « fournisseurs ». ?

Sans doute, il y a beaucoup de mythes dans le Web 2.0 et aussi de naïvetés juridiques et économiques. Néanmoins, il faut aussi admettre que la logique de l'accès est créatrice de valeur et qu'aujourd'hui elle a trouvé dans certains secteurs les moyens de sa rémunération. À l'évidence, cette rentabilité n'a pas été trouvée, encore, pour l'audiovisuel.

Par ailleurs, l'antagonisme diffusion/accès est encore fort, même s'il s'atténue (YouTube). On ne peut construire un modèle économique de l'accès sur une logique de diffusion. Il faut trouver un compromis entre les deux.

S'il y a beaucoup de mythes dans le Web 2.0, il y a aussi beaucoup de préjugés chez les médias traditionnels, à commencer par croire que l'on peut retarder l'expression d'une demande explosive.

mercredi 27 août 2008

Les manuels numériques plus chers que le papier..

La problématique des manuels numériques dans les premiers cycles universitaires est une question chaude. Après les revues scientifiques et parallèlement aux cours en ligne, en effet, la seconde publication académique à être touchée par la numérisation est le manuel de premier cycle qui se trouve pris entre deux logiques, parfois complices, parfois opposées : celle de l'éditeur et celle du professeur. Et les stratégies observées dans le premier domaine sont aussi à l'œuvre dans le second, tant du côté d'éditeurs commerciaux soucieux d'en retirer un profit maximum que d'universitaires militants pour l'accès libre.

Ces derniers ont aux États-Unis leur site Web (Make Textbooks affordable ici), avec vidéo sur YouTube etc. Ils viennent de publier une étude sur les coûts payés par les étudiants pour les manuels numériques :

Nicole Allen, Course Correction. How Digital Textbooks Are Off Track, And How to Set Them Straight (The Student PIRGs, Août 2008), rapport ici, présentation . Repéré grâce à H. Guillaud dans un commentaire ()

L'étude est sans doute de parti pris, puisque commanditée par un groupe de pression. Il n'empêche, ses résultats et son argumentaire sont bien intéressants. Extrait de la synthèse (trad JMS) :

Les manuels numériques doivent répondre à trois critères - abordables, accessibles et imprimable

Tout d'abord, les manuels numériques doivent être meilleur marché que les livres traditionnels. Pour être une solution aux coûts élevés, des manuels numériques doivent coûter moins chers que les livres traditionnels. Cela signifie que les manuels numériques doivent avoir un prix inférieur au coût net de l'achat d'un manuel - le prix d'achat moins le montant que les étudiants peuvent s'attendre à recevoir pour les vendre à la librairie.

Deuxièmement, les manuels numériques doivent être faciles et peu coûteux à imprimer. L'impression rend les manuels numériques pratiques pour les étudiants dont les styles de lecture et d'apprentissage sont différents. Bien qu'il n'existe pas un format valable pour tous, les étudiants semblent avoir une préférence générale pour les livres imprimés depuis les écrans d'ordinateur.

  • Le confort de lecture des étudiants sur un écran varie considérablement chez les étudiants interrogés. 33% se disaient confortables, 22% non et 45% entre les deux.
  • 75% des étudiants enquêtés ont dit préférer un livre imprimé et 60% qu'ils achèteraient une copie imprimée bon marché, même si le livre électronique était gratuit.

Troisièmement, les manuels numériques doivent être accessibles. Les étudiants doivent pouvoir y accéder en ligne, les stocker pour une utilisation hors ligne, et en garder une copie pour un usage futur. D'abord c'est justice. Une fois un manuel acheté, il doit être à eux, ils doivent pouvoir le garder et y avoir accès où ils veulent et quand ils veulent. Ensuite, toute restriction d'accès rend impraticable les livres numériques pour un grand nombre d'étudiants qui ont déjà un accès limité aux ordinateurs et/ou à l'internet.

  • 45% des étudiants enquêtés ont dit avoir un accès limité à l'ordinateur qui devrait leur causer quelque difficulté pour utiliser un livre numérique.
  • 71% ont dit avoir gardé au moins un manuel de référence pour l'avenir.

La suite, un peu convenue, montre que les éditeurs aujourd'hui ne répondent pas à ces exigences, en particulier que les manuels numériques reviennent in fine plus cher à l'étudiant que les manuels papiers, compte tenu des éléments ci-dessus, et qu'ils sont difficiles d'accès. Les auteurs plaident alors pour un accès ouvert et un partage de ressources.

dimanche 24 août 2008

Utilisation équitable

Un rapport canadien complète et nuance l'analyse de F. Benhamou rappelée au billet précédent :

Guiseppina D’Agostino, L’Utilisation équitable après l’affaire CCH (Patrimoine canadien, Juin 2007), ici. repéré par Culture Libre

Le rapport fait une comparaison entre l'évolution des systèmes d'utilisation équitable (fair use, fair dealing) du Royaume-Uni, des États-Unis et du Canada. Ajoutons que le rapport a un an et vient seulement d'être rendu public en plein été.. et qu'il ne doit pas vraiment conforter l'opinion très étriquée du gouvernement conservateur actuel en matière de culture. Extrait :

Les vraies différences reposent dans les préoccupations de politiques entretenues par les tribunaux de chaque pays. Au Canada, il est clair que le changement a pour objet de mieux défendre les droits des utilisateurs afin d’assurer un « équilibre » en matière de droit d’auteur. Toutefois, comme il a été souligné, il n’est pas du tout clair quelle est la place des créateurs à ce chapitre, et qui plus est, les créateurs sont trop souvent confondus avec les titulaires de droits. Et cela ne coïncide pas avec la réalité des pratiques en matière de droit d’auteur. Peut-être qu’au R.-U., où l’exploitation à des fins commerciales est au premier plan des préoccupations judiciaires, il est permis d’avancer que les intérêts des titulaires de droits sont prépondérants. Aux É.-U., la balance penche d’un côté à l’autre parmi les diverses parties prenantes. Au niveau inférieur, il est difficile de remédier à ces préoccupations en matière de politique avec certitude. Le meilleur remède pourrait être l’opinion publique (ce qui a fonctionné au Canada pour faire avancer les droits des utilisateurs) ainsi que le besoin de formuler des pratiques exemplaires correspondantes.

Mais revenons à F. Benhamou. L'extrait du rapport du CAE, cité dans le billet précédent , indiquait :

La fonction du droit d’auteur est d’empêcher ces comportements de « passagers clandestins » par la création d’un monopole de l’auteur (ou des ayants-droit) sur sa création. Telle est la fonction d’incitation à la création, à l’innovation, à la prise de risque du droit d’auteur. Mais ce monopole a un revers : il implique une moindre diffusion, puisqu’il établit un prix – éventuellement élevé – là où pouvait régner la gratuité ou la quasi-gratuité. Le mode de résolution de cette tension entre incitation et diffusion réside dans le caractère temporaire du droit conféré.

Sans doute telle est bien la fonction du droit d'auteur, mais il faut nuancer cette affirmation sur le caractère temporaire du droit comme seul mode de résolution de la tension. Elle est strictement exacte en France où la notion d'utilisation équitable est absente. Dans les pays où elle est implanté, cette dernière est une autre modalité de résolution de la tension. Aux US, certains ont pu même parler d'«industries du fair-use» (voir ici) et c'est sur cette base que Google se défend contre ceux qui l'attaque au nom de la propriété intellectuelle. La nuance on l'aura compris n'est pas anodine, elle est une des clés du succès de la Silicon Valley.

Pour aller plus loin, sur la comparaison US/France :

Alain Marter et Jean-Michel Salaün, “Propriété intellectuelle et bibliothèques françaises : Leçons américaines et opportunités européennes,” BBF, no. 3 (1998): 12-16. ici

Sur les procès faits à Google :

Jérome Constant, Denis Madelaine, et Carine Sébast, Les rapports de Google avec la justice, Synthèse documentaire (Paris: INTD-CNAM, Mai 20, 2008), .

Actu du 28 août 2008

Culture libre signale (ici) un article de Wired () sur un important jugement en Californie qui indique qu'avant d'intenter des poursuites concernant un site de partage de vidéos un plaignant doit s'informer des droits de l'usager (fairuse).

Complément du 30 août 2008

Pour le point de vue européen sur les exceptions au droit d'auteur, on pourra consulter le Livre vert récemment publié :

Livre Vert - Le droit d'auteur dans l'économie de la connaissance (Bruxelles: Commission des Communautés européennes, juillet 16, 2008), ici.

Celui-ci fait l'objet d'une consultation jusqu'au 30 novembre.

jeudi 21 août 2008

Livres téléchargeables au bout de 10 ans.. logique

Lu dans le dernier rapport du Conseil d'Analyse Économique français qui réunit les meilleurs économistes de l'Hexagone :

Proposition 1. On pourrait considérer qu’après dix ans, un livre puisse être numérisé et téléchargeable (sous réserve des accords des ayants droit). Le manque à gagner, a priori faible, serait reversé par le ministère de la Culture aux éditeurs et aux auteurs au prorata des téléchargements ou des ventes effectives des dix premières années.

Daniel Cohen et Thierry Verdier, La mondialisation immatérielle (Paris: Conseil d'Analyse Économique, Août 2008), ici.

Pour comprendre la proposition, il faut lire l'intéressante contribution de Françoise Benhamou sur l'économie du livre, en particulier les pages 92-96. Extraits :

Le tableau 8 fait état des ventes des livres (tous circuits de distribution confondus) parus lors de la rentrée littéraire d’automne 2005. Les livres ont été classés dans trois groupes distincts en fonction du nombre total des ventes sur le dernier trimestre 2005 :

  • groupe 1 : faibles ventes : de 1 à 799 exemplaires vendus ;
  • groupe 2 : ventes moyennes : de 800 à 4 999 exemplaires vendus ;
  • groupe 3 : fortes ventes : plus de 5 000 exemplaires vendus.

On voit que 16 % des titres (les titres du groupe 3) représentent 83 % des ventes. Pour 43 % des titres, les ventes moyennes s’établissent à 293 exemplaires, tandis qu’elles se montent en moyenne pour l’ensemble des titres à 5 903 exemplaires, avec un maximum de 253 068 ventes et un minimum d’une seule vente… (..)

La fonction du droit d’auteur est d’empêcher ces comportements de « passagers clandestins » par la création d’un monopole de l’auteur (ou des ayants-droit) sur sa création. Telle est la fonction d’incitation à la création, à l’innovation, à la prise de risque du droit d’auteur. Mais ce monopole a un revers : il implique une moindre diffusion, puisqu’il établit un prix – éventuellement élevé – là où pouvait régner la gratuité ou la quasi-gratuité. Le mode de résolution de cette tension entre incitation et diffusion réside dans le caractère temporaire du droit conféré. Or l’histoire du droit d’auteur montre que l’on assiste à un allongement progressif de sa durée (tableau 9) ; on peut en déduire que, dans le conflit entre efficacité statique (rémunération de la création) et efficacité dynamique (diffusion), c’est la première qui s’est montrée gagnante tout au long de l’histoire. (..)

Dans leur note sur le passage de cinquante à soixante-dix années pour le droit d’auteur aux États-Unis, les 17 économistes cités plus haut mentionnaient la perte de bien-être social qui pourrait en résulter. Les coûts additionnels n’étaient pas en mesure de compenser les avantages, très peu importants, en termes d’incitation à l’innovation : les auteurs montraient que, compte tenu de la faiblesse des retombées économiques des oeuvres de l’esprit après cinquante années, tabler sur un effet incitatif du passage de cinquante à soixante-dix ans n’était pas fondé. En revanche, les coûts de transaction générés pouvaient être élevés (recherche des ayants droit, négociation des autorisations et des paiements), et la perte pour le consommateur pouvait être grande. On ajoutera que la disponibilité des oeuvres sur Internet, alors qu’elles ne sont plus disponibles dans le monde physique, peut constituer une chance, certes minime, de « résurrection » des oeuvres.

Salutaire en ces périodes de crispations. Néanmoins, il reste une question importante : si on autorise la mise en ligne des livres au bout de dix ans, qui les mettra en ligne à partir de quel fichier ?

Le rapport analyse aussi la mondialisation (vue de France) de la musique, du cinéma et de la TV, pour ce qui nous intéresse plus directement ici.

Actu du lendemain

Voir aussi nuance et complément au billet suivant .

Pour un «réseau de confiance» de l'accès aux images

André Gunthert reproduit une version préparatoire des recommandations issues du colloque "Scholarly Publishing and the Issues of Cultural Heritage, Fair Use, reproduction fees and Copyrights", Max Planck Institute for the History of Science, Berlin, 11 janvier 2008.

Début (trad JMS) :

Les pratiques éditoriales des sciences exactes et des sciences humaines divergent rapidement. Les premières basculent vers des formes internationales de publications électroniques, abandonnant le monde traditionnel de l'imprimé. Aujourd'hui, les sciences humaines sont mal préparées pour adopter les nouvelles pratiques de publications que promeuvent celles-ci, malgré le potentiel qu'elles ouvrent pour des travaux inédits aussi bien dans un domaine que dans l'autre.

Les scientifiques en SHS, particulièrement ceux qui s'intéressent aux images sont confrontés à des restrictions multiples. Un entrelacement confus de politique d'accès aux images, à leur reproduction, et au droit de citation dans le patrimoine culturel est de nature à entraver la recherche et la publication dans les sciences humaines.

Pour des raisons variées, de nombreux musées, bibliothèques, entrepôts d'images réduisent leur accès aux collections d'images. Par exemple, les conservateurs ont peur des fraudes ou des attributions erronées s'ils ouvrent librement l'accès à leurs images et entrepôts patrimoniaux.

Pour encourager la créativité en sciences humaines et pour favoriser une meilleure connaissance du patrimoine culturel, les conservateurs et les scientifiques doivent travailler ensemble d'une façon nouvelle. Dit simplement, nous avons besoin d'une politique de libre accès aux images qui ne sont pas couvertes par le droit d'auteur.

Les recommandations qui suivent lancent un défi autant aux chercheurs qu'aux responsables d'entrepôts d'images. L'objectif de ce document est de construire un Réseau de confiance à l'ère numérique.

Joli projet. La suite :

André Gunthert, “Best Practices for Access to Images: Recommendations for Scholarly Use and Publishing,” Actualités de la Recherche en histoire visuelle, 22août 2008, ici.

Voir aussi sur la même thématique, la version préliminaire de son article :

André Gunthert, “La publication scientifique en ligne face aux lacunes du droit français,” Actualités de la Recherche en histoire visuelle, Août 22, 2008, .

- page 68 de 144 -