Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - web média

lundi 20 octobre 2008

Quelle place pour la TV sur le Web ?

Je n'ai pas vraiment le temps de commenter, mais une fois de plus l'actualité se télescope et, me semble-t-il, confirme les thèses défendues ici d'une diversité des conséquences du numérique sur les différents médias.

  • Un article de Business Week nous apprend que les observateurs du marché publicitaire révisent tous à la baisse leur prévision sur la vidéo en ligne :

Liz Gannes, “Where's the Money in Online Video?,” BusinessWeek: Technology, Juin 10, 2008. repéré par AFP-MediaWatch ici.
Chapô de l'article (trad JMS) : Les revenus seront proches de zéro pendant un moment et les analystes réduisent leurs prévisions de croissance fondées sur d'autres facteurs que sur l'économie américaine en difficulté.

  • Le gouvernement français lance un «plan numérique 2012» (discours de présentation du secrétaire d'État Éric Besson le 20 octobre 2008) dont une bonne part est consacré au passage de la télévision au numérique.
  • Le Conseil de la radiodiffusion et des télécommunications canadiennes lance pour sa part (ici, repéré par M. Lessard ) une consultation publique sur la radiodiffusion sur internet avant d'entreprendre une audience publique en février prochain. Pour avancer la réflexion, il a mis en ligne une intéressante étude :

Eli M. Noam, De la télévision ou non? Trois types d’écran, une seule réglementation (CRTC, juillet 11, 2008). Repéré grâce à M. Lessard ici.

Résumé (extrait)

  1. Contenu. Mise en œuvre de deux méthodes d’harmonisation :
    1. Réglementer toutes les activités associées à du contenu télévisuel de la même manière et selon les mêmes principes.
    2. Réglementer toutes les activités associées à du contenu néomédiatique selon les normes habituellement appliquées aux médias au Canada.
  2. Véhicules de télédiffusion.
    1. S’attendre à ce la réglementation des nouveaux modes de télédiffusion soit commandée par la dynamique des relations qui s’établiront entre les fournisseurs de véhicules de télédiffusion – en télécommunication, en câblodistribution ou dans le domaine du sans fil.
    2. Garantir un accès payant au contenu vidéo diffusé sur plateformes Internet et mobile du même type que celui offert par les entreprises de télédiffusion classiques.
    3. Permettre aux fournisseurs de mener leurs propres activités en matière d’offre de contenu.
  3. Financement. Viser un contenu canadien précis et l’atteinte d’autres objectifs relativement aux nouveaux véhicules de télédiffusion en se dotant d’un mécanisme de financement reposant sur une surcharge imposée aux fournisseurs de services Internet semblable à celle que paient les câblodistributeurs et les fournisseurs de services par satellite, ainsi qu’en mettant sur pied un fonds d’affectation spéciale relatif au spectre.

jeudi 16 octobre 2008

Paul Krugman a-t-il toujours raison ?

(Repéré sur Numérama grâce à la veille de Silvère Mercier que je ne remercierai jamais assez pour son travail qui me sert tous les jours !)

Avant d'être récipiendaire du prix Nobel d'économie, Paul Krugman avait publié à la fin du printemps un éditorial dans le New-York Times, reprenant l'argument classique selon lequel les documents étant devenus des biens publics grâce au Web, un prix de marché n'était plus possible, par contre, il était possible d'utiliser la puissance de résonance pour valoriser des services associés. Il est présomptueux et imprudent de contredire un prix Nobel, mais après tout un blogue est là pour lancer des idées, même à contre-courant de la plupart des confrères. Et, quitte à prendre une volée de bois verts, j'affirme qu'en l'occurrence il se trompe. L'erreur est d'autant plus gênante que, son auteur ayant acquis l'autorité que lui confère le plus prestigieux des prix scientifiques, elle risque de passer pour une vérité incontestable.

Paul Krugman, “Bits, Bands and Books,” The New York Times, Juin 6, 2008.

Extraits (trad. JMS) :

En 1994, une de ces gourous, Esther Dyson, a fait une prédiction saisissante : la facilité avec laquelle le contenu numérique pouvait être copié et diffusé pourrait finir par obliger les entreprises qui vendent les produits de l’activité des créateurs à un prix très bas, ou même de les donner. Quel que soit le produit, logiciel, livre, musique, film, le coût de création devrait être récupérer indirectement. Les entreprises devraient «distribuer gratuitement la propriété intellectuelle pour vendre les services et des contacts». (..)

Évidemment, si les e-books deviennent la norme, l’industrie de l’édition telle que nous la connaissons pourrait dépérir complètement, Les livres pourraient servir principalement de matériel promotionnel pour d’autres activités des auteurs, comme des séances payantes de lecture. Bon, si cela a suffi à Charles Dickens, je suppose que cela me suffira.

Car la stratégie consistant à brader la propriété intellectuelle pour que les gens achètent tout ce qu’il y a autour ne marchera pas de façon équivalente pour tout. Pour s’en tenir à un exemple évident et douloureux : l’organisation de la presse, y compris ce journal, a passé des années à essayer de faire passer ses nombreux lecteurs en ligne par un paiement adéquat, avec un succès limité.

Mais, ils devront trouver la solution. Progressivement, tout ce qui peut être numérisé le sera, rendant la propriété intellectuelle toujours plus facile à copier et toujours plus difficile à vendre pour plus qu’un prix symbolique. Et nous devons trouver des modèles d’affaires et une économie qui tiennent compte de cette réalité.

La première erreur est de considérer que l'articulation entre le contenant et le contenu telle qu'elle est réalisée sur le Web et donc le partage de la valeur qui l'accompagne, est une donnée hors du champ de l'analyse et non un construit social significatif pour celle-ci. En réalité, l'abondance de biens informationnels gratuits valorise ceux qui vendent de l'accès, soit par des abonnements au réseau, soit par des machines. C'est une erreur de penser que les internautes ne dépensent rien pour ces produits, ils dépensent, et parfois beaucoup, en machines et abonnements, c'est à dire pour les contenants.

C'est aussi une erreur découlant de la précédente de penser que c'est la seule voie possible. Deux exemples démontreront le contraire :

  • Lorsque France-Télécom (à l'époque DGT) lança le Minitel et la télématique (Wkp), elle distribua gratuitement les terminaux en instaurant un système de micropaiement sur les services. Ce modèle d'affaires fut très rentable pour les producteurs de contenu (et, parait-il, il reste encore rentable dans quelques micro-créneaux). Cette stratégie est le parfait inverse de celle de Apple sur la musique avec le iPod.
  • La Corée du Sud avec le réseau Naver (ici) a mis en place un réseau payant, véritable place de marché où les transactions sur le contenu se font quotidiennement dans le respect de la propriété intellectuelle.

La stratégie de Kindle de Amazon va dans le même sens. Je suis moins sûr que P. Krugman qu'elle soit vouée à l'échec et, si elle l'était, cela viendrait moins d'une loi économique générale sur l'échange de contenus que d'une stratégie qui favorise, avec la complicité intéressée mais inconsciente des «gourous du Web», les industries du contenant.

La seconde erreur importante est de croire que le Web produit une rupture radicale par rapport à la situation antérieure. Il existait déjà des industries de contenu accessibles gratuitement aux documents facilement copiables, et pas des moindres : la radio et la télévision. Il existait aussi des institutions où les documents étaient partagés : les bibliothèques. Pour les unes et les autres, des modalités ont été trouvées, parfois après de laborieuses négociations, pour préserver la propriété intellectuelle et garantir un financement du contenu. On pourrait discuter de ce partage, mais c'est un autre débat.

Sans doute, le Web est un formidable outil de résonance, tout comme d'ailleurs la radio-télévision, mais rien n'interdit de trouver des modalités de rétribution des ayant-droits, sinon le dialogue de sourds qui s'est installé entre des détenteurs de droits, trop gourmands et incapables de comprendre l'organisation du Web-média, et les internautes militants incapables quant à eux d'imaginer que celui-ci puisse dépasser son adolescence rebelle. Refuser cette possibilité, c'est alors refuser la capacité au Web de devenir un média à part entière, tout en faisant le lit de quelques acteurs dominant qui accaparent à leur seul profit ou presque la vente d'attention créée par les contenus, au premier chef, bien sûr, Google.

Là encore, c'est donc une erreur que de croire que le Web tuera nécessairement les médias plus anciens, même si, clairement, le Web-média en prenant brutalement place parmi ceux-là réduit leur place et donc globalement leurs revenus, sans doute de façon inégale suivant les médias. Prenons là aussi deux exemples rapidement :

  • Dans la vidéo, malgré les téléchargements sauvages, la propriété intellectuelle continue de régler les positions sur le Web, comme le montrent les négociations engagées par YouTube avec les réseaux de télévision, les producteurs de séries ou encore les détenteurs de droits sportifs, ou comme le montrent les difficultés de la station Web Joost.
  • Dans la musique, l'annonce récente des résultats de l'expérience du groupe RadioHead où le paiement du téléchargement était laissé à la discrétion des internautes sont impressionnants. Au total, Radiohead a écoulé à ce jour 3 millions d'exemplaires de In Rainbows, sous forme de CD (1,75 million), de boîtiers de luxe vendus par correspondance (100 000) ou en téléchargement. Il faut y ajouter les droits sur les passages en radio et 1,2 millions de personnes à leurs spectacles. La résonance a été très forte, mais elle a aussi favorisé les formes les plus classiques de la vente de contenus.

Les étudiants du cours auront retrouvé le long de ce billet des éléments de la séquence 1 (l'argument de P. Krugman), de la séquence 2 (ma première réfutation) et de la séquence 3 (ma seconde réfutation).

Complément du 18 octobre 2008

Repéré grâce au commentaire de A. Pierrot, merci à lui :

PREMIERS RESULTATS : OBSERVATOIRE DES DEPENSES MEDIAS ET MULTIMEDIAS, Communiqué (Médiamétrie, Octobre 15, 2008).

Voici la répartition du budget d'un ménage français pour les médias et le multimédia sur une année en 2007-08. La dépense totale est de 2270 Euros et pour les familles ayant des enfants (11-24 ans) : 2920 Euros.

Édifiant..

samedi 04 octobre 2008

«Le marché des médias devient un marché de consommation comme les autres», vraiment ?

Voilà des réflexions tout à fait en phase avec le cours de cette semaine sur le pentagone (voir ici) :

Éric Scherer, “Fin de la TV et crise terminale des quotidiens d’information,” MediaWatch, Octobre 4, 2008, .

Extrait :

« Fin de la TV » : en fait, c’est plutôt de « la fin du broadcasting et de la mort de la grille des programmes » dont il s’agit, a précisé Veron, ce matin à l’occasion lors d’un Colloque au Sénat pour les 20 ans de la revue Hermès.

Jusqu’ici, le producteur de contenus TV était dans la situation incroyablement confortable de pouvoir programmer à la fois l’offre et la demande. Désormais, le marché des médias devient un marché de consommation comme les autres, avec « la mise à mort de la grille des programmes », où « la programmation de la production est passée du producteur au récepteur ». Et « en Argentine, quand un jeune couple s’installe, il n’achète plus de téléviseurs ».

«Crise terminale des quotidiens d’informations » : « elle s’est déroulée encore plus vite qu’on ne le pensait il y a 10 ans ». « La proportion de personnes qui lisent chaque jour un quotidien a diminué de moitié ces dernières années, pour ne représenter plus que 7% en Argentine ». « Ils vont disparaître et très bientôt, il n’y aura plus de gens qui lisent des journaux tous les jours. »

Dans certains pays, le lien le matin avec le journal était aussi fort qu’avec le JT du soir. « C’est en train de se décomposer totalement. Ca s’est cassé ces 5 dernières années ».

La question est bien de savoir si, comme parait le constater en Argentine Eliseo Veron, le pentagone est en train de s'effondrer au profit du Web-média ou si les différents médias vont coexister une fois la redistribution terminée. Car il y a une erreur dans son raisonnement : le marché des médias n'est pas devenu un marché de consommation comme un autre. Il n'y a pas dans le Web-média un lien direct entre la consommation d'un document et une transaction financière. Si le marché de l'attention domine, il faudra toujours la capter et il n'est pas sûr alors que, pour l'audiovisuel, les bonnes recettes de la programmation ne restent pas les plus efficaces. La difficulté de rentabilisation de YouTube n'est pas anodine.

vendredi 03 octobre 2008

Quel auditoire pour la conférence d'Hervé ?

Suite à mon dernier billet (ici), plusieurs commentateurs ont fait des suggestions pour la mise en ligne de la conférence de Hervé Le Crosnier. Je voudrais d'abord les remercier, leur indiquer que le service informatique de l'EBSI avait déjà étudié ces possibilités, et aussi les rassurer. La conférence est, en effet, maintenant en ligne et vous pouvez la consulter :

Hervé Le Crosnier Web-Documents, réseaux sociaux et extraction sémantique : de la conversation à la bibliothèque, conférence donnée à l'école de bibliothéconomie et des sciences de l'information le 11 septembre 2008 ici. (message perso aux étudiants du cours : ne vous précipitez pas sur le visionnement, il est au programme dans 15 jours..)

En réalité le problème n'était pas tant de trouver une alternative externe pour diffuser la conférence, il en a plusieurs en effet, que de s'interroger sur l'opportunité et les conséquences d'un tel choix. Ce petit épisode nous a fait bien réfléchir. Et je crois qu'il y a deux dimensions à la réponse, une politique ou stratégique et une autre tactique.

La première a été soulignée par le commentaire de Hervé au billet précédent. Les universités (individuellement ou en coopération) doivent-elles abandonner la maitrise de la diffusion des savoirs ? À la réflexion, cette question est relative. On n'a pas attendu le numérique, loin de là, pour confier cette diffusion à des opérateurs privés, à commencer par les éditeurs de livres, qui mutadis mutandis ne font pas vraiment dans ce qu'on appelle aujourd'hui l'accès ouvert. Pourquoi en serait-il différemment sur un autre support ? Sans doute, la problématique est plus profonde, parce que les positions industrielles sont très puissantes et parce qu'elle dépasse la simple diffusion. Mais, il s'agit alors de bien autre chose que la question première de la mise en ligne d'une conférence.

La seconde dimension est plus tactique et, dans ce cas précis pour moi au moins, plus intéressante. Aller à la facilité en externalisant la diffusion de la conférence, c'est ne pas réfléchir à la réalité de notre objectif. Il ne s'agit pas de maitriser le système de diffusion, mais de maitriser la relation avec notre cible ou le contact avec ceux qui vont visionner la conférence. Déposer la vidéo sur YouTube, par exemple, aurait sûrement fortement élargi son audience, mais est-ce vraiment ce que nous souhaitons ? Pas sûr. Il est parfois préférable de toucher un auditoire plus restreint pour être mieux compris et mieux entendu. Il est aussi préférable de garder le lien étroit entre l'EBSI et la conférence. Nous ne cherchons pas à rivaliser avec les médias de masse, chacun sa mission. Nous n'avons pas non plus les moyens de gérer une trop large notoriété.

J'ai un peu la même attitude avec ce blogue. Sans doute je suis content s'il a du succès et s'il est lu en particulier par des lecteurs que je ne connais pas ou pas encore, mais pas trop. Je préfère un lectorat quantitativement modeste, mais de qualité. Je ne serai pas capable de gérer un vaste auditoire et la parole débridée qui l'accompagne. C'est pourquoi je reste très parcimonieux sur les référencements. Je n'ai pas dans les bandeaux de tous côtés toute la quincaillerie des blogueurs geeks, je ne suis pas sur les réseaux sociaux, ni abonné à twitter, etc.

C'est tout le paradoxe de proposer des documents «dans le ciel» comme dirait S. Harnad. Tout le monde peut les lire. Mais ici l'objectif n'est pas que tout le monde les lise, mais plutôt que les quelques individus dispersés, peut-être inconnus, intéressants et intéressés à ces sujets, puissent les lire et qu'ainsi ils entrent en contact avec nous. Alors, je crois qu'il est plus efficace de garder la maîtrise de ces outils, même si l'on se prive d'une expérimentation des soubresauts du Web2.0.

H. Simon parle des limites de l'attention. Celles-ci valent dans les deux sens, pour le destinataire, mais aussi pour l'émetteur. Et je crois que la meilleure politique, c'est de connaitre ses limites pour exploiter au mieux ses potentialités. C'est plus difficile quand apparemment les barrières tombent.

Belle mise en abîme en tous cas avec le sujet de la conférence de Hervé !

mercredi 17 septembre 2008

Wikipapier et les sept piliers

Le lancement par Bertelsmann d’une version papier de Wikipédia a été le premier sujet de discussion du forum des étudiants du cours en ligne. L’exercice consistait à analyser le projet de l’éditeur, présenté dans un précédent billet (ici) grâce aux éléments apportés par le premier cours ().

Comme l’actualité nous rattrape et que le livre est maintenant sorti (), je reproduis ci-dessous la synthèse de la discussion en reprenant, dans l’ordre, les «piliers» présentés dans le cours.

  • Pilier 1 : la non-rivalité a permis de proposer une encyclopédie gratuite en ligne à tous les internautes. C’est un apport essentiel de Wikipédia. Mais celle-ci interdit en réalité sa valorisation pour les producteurs. Le passage sous format papier, redonnant quelques caractéristiques rivales d’une marchandise ordinaire, permet cette valorisation. Pour vous en convaincre, je vous suggère la lecture de ce billet ci-dessous qui est un autre exemple du même processus (La publication par P. Assouline des commentaires de son blogue). La différence entre les rémunérations est frappante.

Nicolas Kayser-Bril, “Brèves de blog: Une nouvelle forme de monétisation?,” Window on the Media, Septembre 11, 2008, ici.

  • Pilier 2 : le cout de la première copie de Wikipédia est dérisoire comme rappelé dans le billet, du fait de l’appel au bénévolat et d’une économie du don. Ceci amène à une situation étrange pointée par H. Le Crosnier où 90.000 auteurs sont répertoriés sur 27 pages, sans évidemment bénéficier de la moindre rémunération, ni en argent, ni même en prestige. Dans ce processus Bertelsmann sort grand gagnant puisqu’il n’a assumé aucun coût de création et paie des droits minimes. Même s’il faut prendre en compte les coûts d'édition (mise en page, correction..), les risques de l’édition papier deviennent très réduits.
  • Pilier 3 : Bertelsmann ne publie évidemment pas la totalité du site, mais simplement certains articles dument validés. La publication papier stabilise le contenu et lui confère un statut plus fort, encore souligné, comme cela est suggéré dans le billet, par l’aura du livre. Il y a là une tentative intéressante d’appuyer la valeur du contenu sur l’apport symbolique des deux supports.
  • Pilier 4 : Les liens et la possibilité de navigation à l’intérieur de Wikipédia en ligne sont une réelle valeur ajoutée par rapport au papier. Le numérique permet une utilisation optimale de la plasticité des informations. Mais celle-ci est-elle valorisée pour les producteurs de contenu ? En réalité, elle ne bénéficie qu’au lecteur, la production de Wikipédia étant bénévole et quasiment anonyme. Il ne faut évidemment pas négliger ce bénéfice, important pour la société dans son ensemble, mais l’absence d’économie du contenu fait de l’expérience Wikipédia, une expérience unique, peu reproductible. L’intérêt de la plasticité est aussi qu’elle permet d’utiliser les fonctionnalités différentes de différents supports et dispositifs pour un même contenu. Il s’agit bien de deux produits différents. Il s'agit néanmoins de la même marque et des mêmes éléments de contenu dont seulement les fonctionnalités et la plasticité seront différentes. Le livre papier a aussi des avantages fonctionnels qui expliquent sa résistance, alors même qu’il est sur le déclin depuis de longues années. Il est vrai que le pari n’est pas gagné puisque, justement malgré la résistance globale du livre papier, le marché des encyclopédies, lui, s’est écroulé face au numérique. Mais dans ce cas précis le risque financier est maigre (voir Pilier 2). La mise en abime, grâce à la plasticité, est encore plus fascinante puisque le livre est aussi consultable sur Google-books, comme le signale Olivier (ici).
  • Pilier 5 : la notoriété capitalisée par Wikipédia autour de sa marque sert à lancer le produit papier. Si des lecteurs achètent le livre, ce sera grâce à cette dernière. Inversement, comme indiqué dans le billet, Wikipédia bénéficie de la reconnaissance officielle et non-négligeable compte-tenu des polémiques à son sujet, d’un éditeur.
  • Pilier 6 : Par sa position dans l’audience captée sur le Web, Wikipédia pourrait valoriser une vente d’attention. Elle n’a pas fait ce choix qui risquerait peut-être de tarir l’ardeur de ses bénévoles. Néanmoins, l’attention ainsi captée ne peut non plus être valorisée par un autre acteur, sinon au niveau des requêtes par un moteur de recherche. D’un point de vue marchand, il y a là une destruction nette de valeur. Ironiquement, celle-ci peut-être en partie récupérée via Google-books. Wikipédia se positionne alors comme un «bien public», hors économie marchande et en concurrence avec cette dernière.
  • Pilier 7 : En choisissant les thèmes les plus consultés, Bertelsmann se positionne dans la partie gauche de la courbe, ce qui est tout à fait en cohérence avec une économie éditoriale. Il y a là la possibilité d’une complémentarité entre la version papier et la version en ligne qui autorise une consultation de l’ensemble des articles, y compris les moins populaires. De ce point de vue, la version en ligne est proche d’une économie de bibliothèque. La bibliothèque est en effet la première structure à avoir utilisé l’économie de la longue traîne. Bien avant que C. Anderson propose ce nom, les bibliothécaires avaient repérés cette distribution de la demande chez leur lecteur. Et on peut même faire l’hypothèse que c’est parce que les coûts de stockage, classement, distribution des documents peu demandés étaient trop lourds qu’un marché n’a pu se développer dans ce domaine avant l’arrivée du numérique.

- page 18 de 38 -