Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

lundi 10 novembre 2008

Les contradictions de l'«User Created Content» à la Commission européenne

À signaler ce billet de Éric Scherer sur MediaWatch (8 nov 2008) dont le titre ne rend pas justice du contenu : Bruxelles alignera-t-il les blogueurs sur les journalistes ?. Il s'agit bien plus que du sort des blogueurs, dont la problématique est ici plutôt marginale. En réalité, l'auteur rend compte d'une séance de travail de la Commission européenne sur l'User Created Content, UCC, qui a réuni des gros du domaine (Google, DailyMotion, Facebook vs Disney, Philips, juristes) sur la base d'un rapport d'experts.

Les débats, qui pointent nombre de questions pertinentes et chaudes même dans cette présentation rapide, montrent très clairement l'antagonisme entre une logique de la diffusion et une logique de l'accès vu dans la séquence 3 du cours. Le rapport, objet du débat, sera intéressant à lire quand il sera disponible.

Polémique sur la rentabilité du cloud computing

Ce billet a été rédigé par Ruxandra Ionita, étudiante de l'école de bibliothéconomie et des sciences de l'information dans le cadre du cours BLT 6355- Économie du document.

Les analystes considèrent que cloud computing apporte un changement majeur dans la manière dont les compagnies se procurent les applications informatiques, la capacité informatique de traitement des données et les services informatiques.

La définition du cloud computing, un concept créé lors d'un Congrès en 2005, reste encore ambigüe (Cloud computing: Eyes on the Skies) mais se rapproche d'une nouvelle forme d'externalisation des technologies de l'information (Is Cloud Computing Ready For The Enterprise? rapport de Forrester Research). Une définition relativement large de l'expression associe cloud computing, cette métaphore du Web 2.0 (et +), à toute situation dont le traitement informatique est réalisé à distance plutôt que sur son propre ordinateur ou serveur local. Dans son article Web 2.0 and Cloud computing Tim O'Reilly identifie trois niveaux :

a/ l'infrastructure comme un service (hardware as a service), stockage de données et capacité de serveur sur demande (Amazon web services)

b/ diverses applications qui supportent le cycle de vie complet des applications web et services web depuis la conception jusqu'à la distribution (Platform-as-a-service ou PaaS ou Cloudware) mises a disposition entièrement sur Internet, comme Google App Engine ou Elastic Compute Cloud de Amazon (voir leur comparaison ici ) ou Salesforce avec des applications pour la gestion des relations client ou des applications comptables. Le marché cible est composé de développeurs, gestionnaires en technologies de l'information ou même d'utilisateurs finaux (Exemple: Starbucks a utilise la plateforme de Salesforce.com pour créer le site My Starbucks Idea Web). Les clients potentiels dans ce cas sont des développeurs.

c/ applications qui résident dans le nuage -distribuées sur l'Internet (Software-as-a-Service ou SaaS ou Cloud-based end-user applications) comme Facebook, Twitter, Flickr, Google, Amazon, iTunes ou Google Apps ou bien Software + Service de type Microsoft Online Services applications et services sur demande en ligne. Le marché dans ce cas est constitué par les utilisateurs finaux.

Nick Carr (Further musings on the Network Effect and the Cloud) ajoute un autre niveau:

d/ device layer, faisant référence aux appareils électroniques dont la vente dépendra de leur capacité à exploiter le «nuage» seulement en se branchant de manière transparente pour l'utilisateur final. Un exemple est le iPod. Ceci pourrait constituer un marché potentiel très important, comme l'histoire nous l'enseigne pour d'autres produits de cette gamme.

Ces niveaux ont des potentiels économiques, facteurs de compétitivité, marchés différents, qui peuvent se superposer. Les marchés s'articulent entre eux, il faut compter les compagnies qui produisent l'infrastructure comme Microsoft, Amazon ou Yahoo! mais qui sont un marché pour les équipements produits spécialement pour leurs plateformes par IBM, Dell ou Hewlett-Packard, par exemple.

Une polémique récente entre Tim O'Reilly et Nick Carr au sujet de la rentabilité des affaires issues du cloud computing a mis en évidence plusieurs enjeux économiques de cette industrie ainsi que les inconvénients de l'ambigüité des termes de ce domaine en effervescence. Elle fait suite aux articles de Hugh Macleod The Cloud's Best Kept Secret, convaincu du futur prometteur de l'industrie du Cloud computing et de Larry Ellison Ellison Shoots Hole In Cloud soutenant une thèse opposée.

O'Reilly, dans son article Web 2.0 and Cloud computing, a tenté de démontrer que les affaires basées sur le cloud computing ne peuvent pas produire un profit substantiel (sont toutes des low-margin business) ou ne conduisent pas au monopole sur le web. Dans son hypothèse il accorde à l'effet de réseau (network effect - concept de marketing) les crédits pour la dominance des compagnies/applications sur le web. Il considère celui-ci le facteur primordial de la Loi de puissance (loi de distribution notamment de la longue traîne). Il considère que sur le web les applications gagnent si elles s'améliorent quand sont utilisées par plus de monde (on the web the applications win if they get better the more people use them). D'après lui, comme justement une bonne partie des applications du Cloud computing ne disposent pas de cet atout, globalement le cloud computing ne pourra pas créer des bénéfices importants ou même des monopoles.

Il remarque néanmoins que des économies d'échelle pourraient être réalisées, avantageant des grands joueurs, mais cela assurera de minces revenus et non pas de gros profits, éventuellement les profits des volets rentables financeront les pertes causées par les applications de cloud computing. Une opportunité économique lui semble exister pour les plateformes des applications basées sur l'effet de réseau.

Dans sa riposte What Tim O'Reilly gets wrong about the cloud, Nick Carr argumente que l'effet de réseau n'est pas le seul facteur responsable du succès sur le web. Plusieurs compagnies produisant des applications ou services web doivent leurs succès aussi bien à d'autres facteurs.

Pour Google, par exemple, c'est la qualité du moteur de recherche - rapidité, pertinence des résultats, fidélisation des utilisateurs, un marketing et une extension et amélioration continue des services. D'autres compagnies à succès œuvrant sur le web s'apprête seulement maintenant à exploiter l'effet de réseau, comme Salesforce.com. D'autres applications sont très populaires grâce à leur conception et aux paramètres de réalisation et fonctionnement : elles sont gagnantes parce qu'elles répondent des besoins du marché (MapQuest, Yahoo Mail, Google Reader, etc.). Des applications bénéficiant de l'effet de réseau qui ne sont pas nécessairement dominantes existent aussi.

Nick Carr considère que le modèle de concentration du marché est particulièrement approprié à l'industrie du cloud computing émergeante, les facteurs suivant la caractérisant:

  1. Capital intensif : un capital important est nécessaire pour acquérir l'infrastructure, ce qui est une barrière à l'entrée de compagnies de petite taille
  2. Avantages d'échelle : économies dues au volume des grandes transactions et opérations considérant le coût des équipements, les ressources humaines et les fonds de roulement (argument qu'on le retrouve aussi dans le discours d'un joueur de l'industrie, Irving Wladawsky-Berger (IBM) qui voit deux facteurs clés menant à la supériorité du cloud computing par rapport aux applications traditionnelles: scalability (adaptation au changement de la demande) et high-quality-of-experience.
  3. Le facteur de diversité aide rendre la demande plus prédictive et stable.
  4. L'atout d'une expertise déjà en place pour des grands joueurs.
  5. Avantages de la marque et du marketing.
  6. Production de systèmes propriétaires.

Ainsi il suggère la possibilité de l'émergence de monopoles dans ce marché ou dans ses différents segments. Nick Carr reconnait donc l'importance de l'effet de réseau mais il voit également d'autres facteurs responsables de la dominance sur le web. Finalement, le succès sourira le plus probablement aux compagnies qui verront le nuage (cloud computing) avec les yeux des utilisateurs.

Comment redéfinir l'effet de réseau dans le nouveau contexte d'applications qui résident sur et sont distribuées via l'Internet ? L'effet réseau (network effect) signifie qu'un service (ou une application) voit sa valeur augmenter si plus de personnes l'utilisent, encourageant ainsi d'autres utilisateurs à le rejoindre, en économie on parlera d'externalité positive. Sur le web plusieurs types de services ou d'applications en bénéficient: services ou applications qui tirent profit du trafic des visiteurs ou membres soit par un ajout d'informations qui peuvent être partagées (Wikipédia ou Amazon Book Review), exploitées mutuellement (FaceBook), exploitées par les tiers (march publicitaire), une amélioration grâce à un algorithme valorisant le trafic (PageRank) ou à la rétroaction des utilisateurs, par exemple.

Tim O'Reilly propose redéfinir le concept d'effet de réseau dans le contexte du web, de l'élargir toutes les composantes de l'internet et tous les niveaux et finalement l'exploitation de l'intelligence collective devient elle-même un effet de réseau, l'ensemble réalisant un cumul en science des effets des réseaux. L'argument semble extrême.

Cependant, la rentabilité de cette industrie soulève des questionnements des joueurs et des observateurs. En chiffres, Merrill Lynch évalue le marché global annuel de cette industrie d'ici 5 ans à 95 milliards $ US, absorbant 12% du marché mondial du logiciel (dans How Cloud Computing Is Changing the World in Business Week). Globalement, le rapport de Forrester Research mentionné plus haut est positif par rapport a l'avenir du cloud computing.

L'ambigüité des définitions porte des confusions et la question centrale de la polémique est toujours en suspend: Quelle stratégie pour les joueurs du cloud computing?

dimanche 09 novembre 2008

iTunes : leader pour longtemps encore?

Ce billet a été rédigé par Anthony Hunziker, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Le rapport mis en ligne par André Nicolas intitulé « État des lieux de l’offre de musique numérique au 1er semestre 2008 » confirme la suprématie de iTunes sur ce marché. Avec les catalogues des majors et ceux de plusieurs indépendants, le music store d’Apple possède le plus important catalogue de musique en ligne. Dans un article paru en avril 2008 sur le site Numérama, Steve Jobs avait même la simple prétention d’être le premier vendeur de musique au monde, devançant pour la première fois l’industrie des CDs. Sans preuves irréfutables toutefois, il est impossible de l’affirmer. Toujours est-il qu’iTunes se porte bien, même très bien. Mais pour combien de temps encore? Même en étant leader de sa spécialité, iTunes est-il aujourd’hui bien adapté aux marchés de la musique et aux attentes des utilisateurs?

Le rapport de Monsieur Nicolas, sur lequel je vais me baser pour cette réflexion, analyse sous forme de tableaux l’offre de 100 services de musique en ligne, dont des boutiques généralistes ou spécialisées, des portails, des radios et streaming, des sites communautaires et des sites divers. A la suite de cette analyse voici quelques points que j’aimerais relever car concernant particulièrement iTunes.

Une des premières tendances à ressortir est l’importance que les usagers attachent aux services disponibles en ligne et à leur liberté dans l’appropriation des contenus. Il ressort que, d’un côté, les téléchargements sont toujours très content centric. La majorité des œuvres en ligne sont protégées par des DRM. iTunes en est un exemple criant. Son système de gestion des DRM nommé FairPlay fait couler beaucoup d’encre (si je puis dire) car réduisant passablement le contrôle des usagers qui ne peuvent lire les fichiers d’iTunes qu’avec le logiciel d’Apple ou sur les iPods de cette même marque. Ce système a même été déclaré illicite par la Norvège au début de l’année 2007 (ici). Depuis, Steve Jobs plaide en faveur de l’abandon des DRM. La firme va d’ailleurs dans ce sens avec iTunes Plus, toujours en 2007, qui propose des morceaux libres de DRM du label britannique EMI. Reste que la majorité des morceaux en vente sur iTunes sont toujours protégés par cette mesure de sécurité. Le rapport Nicolas est très clair sur ce sujet : l’abandon des DRM se généralise. Apple semble maintenant se diriger fermement dans cette direction (ici) et l’abandon des DRM n’est apparemment plus qu’une question de temps.

A. Nicolas dans son rapport affirme également que « …la musique en ligne ne peut se développer qu’avec une offre musicale d’une qualité sonore semblable au précédents formats comme le vinyle ou le CD et sans usage bridé ». On observe également une monté en puissance des fichiers HD (Haute Définition) dans les divers services de musique en ligne et surtout dans les réseaux P2P. L’introduction de ces fichiers HD dans les réseaux d’échanges gratuits constitue une sérieuse concurrence pour les services payants, la plupart du temps en retard sur ce format. Les utilisateurs ne voient d’ailleurs souvent pas encore les avantages des plates-formes payantes par rapport aux réseaux gratuits. Néanmoins, Apple va également dans le sens d’un développement de la qualité sonore en introduisant des fichiers lossless (fichier sonore sans perte) dans iTunes Music Store.

Le côté encore assez classique d'iTunes, calqué sur le modèle prénumérique dans l'exploitation maximale des Hits au détriment des œuvres plus risquées, pourrait lui être défavorable à l'avenir. Benjamin Labarthe-Piol dans sa thèse de 2005 constatait que les biens des Stars étaient encore consommées en priorité, ce qui justifierait la tactique classique d’iTunes. Mais depuis, le rapport Nicolas montre l’intérêt vif que portent les usagers d’aujourd’hui à la découverte de nouveaux talents et à l’autoproduction par les succès des sites communautaires comme MySpace. iTunes n’est à ma connaissance pas encore très investie dans ces domaines. D’une manière générale, cette absence du côté « social » et communautaire chez iTunes important pour les usagers pourrait bien faire baisser à l’avenir le capital sympathie pour cette plateforme. On ne distinguerait alors pas effectivement d’énormes différences entre les politiques des Majors et celle d’iTunes si ce n’est que le pouvoir de distribution et de promotion s’est déplacé vers le vendeur final. Dans cette optique, iTunes s’accrocherait peut-être à un modèle qui n’a plus de raison d’être.

lundi 03 novembre 2008

Kindle, aboutissement ou balbutiement

Ce billet a été rédigé par Éric Legendre, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Ça bouge beaucoup et rapidement du côté du livre numérique. Plus que jamais même depuis l'annonce par Amazon du lancement de sa liseuse électronique Kindle le 19 novembre dernier, il y a tout juste une année, ou presque (url).

Il est encore trop tôt pour dresser un quelconque bilan, mais on peut légitimement se demander cependant si Kindle préfigure vraiment un nouveau marché pour les publications écrites ?

On assiste actuellement à un certain renouveau dans le dossier (et dans cette guerre, il faut l'avouer !) avec la sortie de nouveaux appareils ainsi que de nouveaux modèles d'affaires. Du côté des liseuses électroniques, outre le Kindle d'Amazon, Sony par exemple propose son PRS505 depuis quelque temps (url), mais annonce déjà pour le 17 novembre prochain un nouveau modèle PRS700 avec de nouvelles fonctionnalités telle l'intégration d'un clavier numérique (style iPod et iPhone) et des capacités d'annotations, de surlignage et de recherche des textes (url). Contrairement au Kindle qui n'est toujours pas en vente au Canada, le Sony l'est ! Et contrairement au Kindle toujours, les liseuses de Sony et autres Cybook (url) et iLiad (url) permettent facilement de lire les documents sous format PDF.

Du côté des modèles économiques, l'avantage pour Amazon d'avoir ce qu'on appelle un modèle fermé (ou verrouillé), à l'instar du iPod et d'iTunes, lui a permis sans aucun doute — à court terme — d'intégrer le marché et d'assurer le rayonnement de l'appareil puisqu'il est lié aux ententes particulières entre Amazon et les éditeurs participants. De toute évidence — à long terme — la stratégie d'Amazon doit évoluer et s'ouvrir (url) + (url). Les quelques 194 000 ouvrages actuellement disponibles sous Kindle font bien pâle figure au côté des millions de Google Books, et plus que jamais suite à l'entente intervenue le 28 octobre dernier avec l'Association of American Publishers (bilan ici par exemple (url) ou chez l'Electronic Frontier Foundation (url) ou réaction ici (url)). En principe, rien n'empêche maintenant un fabricant de se lancer dans le développement d'une liseuse électronique (ou même une application) reprenant le système d'exploitation open source Android lancé par Google. De son côté, une jeune entreprise française comme Feedbooks peut proposer aux lecteurs son catalogue en presque tous les formats actuellement en vigueur (url).

L'auteur François Bon a rédigé beaucoup sur la question depuis les derniers mois et je crois qu'il est un des observateurs le plus au fait sur la question en ce moment. Cet automne, l'auteur et le site Publie.net faisaient paraître une « Adresse aux bibliothèques » (url) ainsi que « Publie.net bibliothèques : ce qu'on propose », deux textes importants établissant les premiers jalons d'une nouvelle offre numérique francophone, pourtant encore « à l'aube des possibles ». La particularité de cette offre est qu'elle émane du côté de l'édition et non du côté de la diffusion, de la distribution ou de la quincaillerie, et qu'elle prend pour acquis la multitude des formats de lecture (et n'est donc pas liée à un appareil précis) et tient en haute estime les particularités et avantages de la version électronique d'un ouvrage (typographie, hypertextualité, compléments à l'édition papier, etc.) avec un respect évident pour le lecteur... et l'auteur ! Ce qui n'est pas toujours le cas (url). François Bon annonce d'ailleurs dans son agenda (url) qu'il sera au Québec du 22 au 24 novembre prochain lors du Salon du livre de Montréal et fera une intervention sur les « enjeux de l'édition numérique ».

Le cœur du dossier est énorme et comprend des ramifications dans tous les sens. N'oublions pas que la chronologie du livre numérique date du début des années soixante-dix ! (url). Kindle est donc toujours à ses premiers balbutiements, mais tout bouge beaucoup plus rapidement en 2008 qu'en 1971 !

Musique : désintermédiation ou médiation alternative

Ce billet a été rédigé par Alban Berson, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Anarchy in the U.K ! Ces dernières semaines, au Royaume-Uni, une coalition d’artistes s’est élevée contre la toute puissance des majors. Leurs revendications portent sur la renégociation des contrats qui les lient à leurs maisons de disques (voir cet article de Numerama). Selon la Featured Artist Coalition, qui compte dans ses rangs quelques grands noms de la musique britannique tels Radiohead ou The Verve, le modèle économique en vigueur dans lequel les majors sont propriétaire des droits sur les enregistrements au prétexte qu’elles assurent les indispensables phases de promotion et de diffusion de la musique n’a plus sa place dans un contexte numérique. En effet, les changements de format et le Web allègent tant les phases de promotion et de diffusion autrefois si lourdes qu’on peut aujourd’hui se poser ces questions : Les artistes peuvent-ils se passer des maisons de disques pour promouvoir et distribuer leur musique ? Et si la réponse est oui, en partie au moins, pourquoi les maisons de disques devenues moins indispensables devraient-elles conserver des prérogatives qu’elles devaient à la prépondérance de leur rôle dans ce domaine ?

Dans une thèse fort intéressante déjà citée sur ce blogue (ici), Benjamin Labarthe-Piol questionne ce phénomène qu’il appelle désintermédiation. Je me base, dans ce billet, sur les développements du chapitre V de cette thèse consacrés au rôle des artistes dans la réorganisation de la chaîne de valeur musicale (p. 216-230) ainsi que sur les travaux de Halonen-Akatwikuka et Regner (ici) et en lie les conclusions avec l’actualité récente au Royaume-Uni.

Dans la phase de promotion, le Web et les nouveaux formats ont changé la donne en conférant aux œuvres musicales des qualités propres aux documents numériques. La facilité de repérage de l’information permet une plus grande exposition, et la reproductibilité à l’infini et sans coût du document facilite le sampling, c'est-à-dire la mise à disposition gratuite d’échantillons musicaux permettant à l’auditeur d’expérimenter le contenu musical en vue d’un éventuel achat. Ces possibilités inédites rendent les intermédiaires tels que les radios (en grande partie contrôlées par les majors) moins incontournables et conduisent à des exemples d’autopromotion tels que celui du groupe Wilco décrit dans la thèse susmentionnée :

Après avoir enregistré l’album Yankee Hotel Foxtrot pour sa maison de disques, cette dernière estime que son potentiel commercial est faible et refuse de le commercialiser. Le groupe décide alors de racheter les droits sur l’album pour $50 000 puis de le distribuer gratuitement en streaming à partir de son site et sur les réseaux P2P afin de faire connaître les nouveaux titres. Le succès de l’opération est immédiat. Selon un des membres du groupe, le site reçoit 3,5 millions de clics et une audience de 200 000 visiteurs. Cela permet au groupe de signer un nouveau contrat avec une maison de disques. L’album se vend à 440 000 exemplaires, soit le meilleur résultat du groupe.

L’exemple est significatif de la situation de 2002 : On remarquera que l’autopromotion par le Web se présente comme une alternative à un lancement traditionnel compromis et que la promotion sans intermédiaire aura été employée pour provoquer un effet de rebond permettant au groupe de revenir dans le giron d’une maison de disque. Ainsi, selon cet exemple, on assiste moins à un cas de désintermédiation définitive dans la phase de promotion de la musique enregistrée qu’à l’apparition d’une possibilité de repêchage, d’un plan B, pour les artistes exclus du système promotionnel. Autrement dit, au moment du succès de Wilco en 2002, la possibilité d’autopromotion entraîne une diminution non négligeable de la dépendance des artistes à l’égard des maisons de disques sans remettre fondamentalement en question le modèle en vigueur et l’hégémonie des majors. Une porte s’entrouvre, néanmoins.

De même que la promotion, la distribution est le rôle par excellence des maisons de disque depuis leur origine. Mais depuis une dizaine d’années, la majeure partie des musiciens possède un site Web officiel. La tentation est donc grande, pour les artistes, d’offrir sur leur site des services d’achat de musique à leurs fans et de se passer des labels, d’autant plus que ce mode de distribution peu coûteux permet d’atteindre le seuil de rentabilité plus rapidement que dans le cadre d’une distribution assurée par un tiers : Pour un profit supérieur, l’enregistrement peut être vendu moins cher, ce qui, a fortiori, tend à augmenter la masse des ventes. Cependant, le travail et l’expertise des maisons de disques dans le domaine permettent une plus grande visibilité des artistes et de leurs produits. Cela se vérifie particulièrement dans le cas des stars. À titre d’exemple, la tentative de désintermédiation effectuée par Prince s’est soldée par un tel échec qu’un retour au bon vieux système de distribution en magasin s’est avéré indispensable à l’artiste pour franchir la barre des 100.000 ventes pourtant peu élevée pour un musicien de son statut. En revanche, en termes d’effet sur le volume des ventes, la désintermédiation, si elle n’offre pas d’exemple d’un groupe de garage élevé au rang de vedette, ne semble pas non plus nuire aux artistes quasi-anonymes : Peu visibles avant le Web, ils le demeurent en ligne. Pour une vue d’ensemble, je reprends, en l’adaptant, un tableau de Benjamin Labarthe-Piol :

Effets de la désintermédiation sur les ventes de disques

L’expérience montre que la promotion et la diffusion de musique enregistrée sans l’intermédiaire des majors ne sont pas adaptées aux stars qui sont littéralement le produit du système mis en place par les maisons de disques. Cependant, comme le montrent Halonen-Akatwikuka et Regner, les stars peuvent d’une certaine façon participer à la désintermédiation en jouant un rôle d’intermédiaire alternatif dans la phase de promotion d’artistes moins connus : c’est ce que ces auteurs appellent le mentor. En effet nous sommes ici dans une économie de l’attention. Or, les stars jouissent d’un capital de notoriété important dont elles peuvent faire bénéficier d’autres artistes. L’exemple type de cette pratique est la façon dont les grands groupes de rap offrent des premières parties de concert à des jeunes talents, collaborent ponctuellement avec eux pour une chanson ou leur « dédicacent » des morceaux (pratique consistant pour le groupe « mentor » à mentionner le nom d’un groupe méconnu dans le texte d’une chanson). Mais nous ne sommes pas ici dans le mécénat ou l’altruisme : L’activité de promotion du mentor est rémunérée par un intéressement sur les ventes du protégé qui, lui, achète l’attention suscitée par le mentor. (On se souviendra du Pilier 6)

Le mentor, ce nouvel intervenant dans l’industrie musicale, pourrait bien influer sur la fronde qui se déroule actuellement au Royaume-Uni. En effet, la simple apparition d’un intermédiaire alternatif fragilise la position des majors déjà vacillantes. En outre, dans l’hypothèse d’un succès généralisé de la promotion par les mentors, si l’on suit l’axiome de Halonen-Akatwikuka et Regner selon lequel le copyright doit être attribué à l’acteur le plus indispensable de l’industrie, les majors se trouveraient encore moins en situation de revendiquer ce droit de propriété. Ainsi, sans doute les artistes engagés dans la Featured Artist Coalition sont en campagne pour récupérer leur copyright auprès des majors affaiblies par le Web, mais peut-être les plus importants de ces groupes (Iron Maiden, Robbie Williams, et bien d’autres) sentent-ils aussi venir l’opportunité d’endosser un nouveau rôle au sein de l’industrie musicale. Un nouveau rôle potentiellement très lucratif, isn’it ?

- page 15 de 23 -