Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - économie de l'attention

lundi 06 avril 2009

La messe des données

Une façon d'enrichir le cours sur l'économie des documents est de prendre quelques évènements significatifs de l'actualité et de les passer au prisme des notions développées. J'ai l'ambition de permettre le décryptage des mouvements qui agitent le monde documentaire. Un repérage critique à l'avantage d'en faire la démonstration ou, inversement, de repérer des failles à réparer.

Pour éviter de trop longs développements, je coderai les références au cours de la façon suivante : SxDyA08, x étant le numéro de la séquence, y le numéro de la diapositive, A08 signifie qu'il s'agit de la version de l'automne 08. Par exemple, S1D7A08 fait référence à la diapositive 7 «Pilier2. Le prototype» que l'on trouve dans la séquence 1 du cours de l'automne 08. Pour la retrouver et écouter son commentaire, il suffira de suivre le lien qui conduit à la partie du diaporama concernée et de se rendre à la diapositive en question par son numéro : S1D7A08. Il est probable qu'avec le temps les liens vont se casser, mais d'ici là j'aurai peut-être trouvé une formule plus simple.

Illustration de la Séquence 1 : Particularités économiques du document publié

Commençons donc par la séquence 1 sur les particularités économiques du document avec un document emblématique : le discours de Tim Berners-Lee au congrès TED pour Technology, Entertainment, Design en février 2009 (le discours est sous-titré en français).

L'argumentaire de TBL pour «libérer les données» s'appuie clairement sur les particularités économiques de l'information : la non destruction qui permet à tous de se resservir des mêmes données sans les altérer ; le prototype, les données ne sont produites qu'une fois pour être partagées ; la plasticité qui permet de construire de nouvelles informations par la combinaison et le calcul des anciennes ; l'interprétation qui autorise l'utilisation des mêmes données à des fins diverses ; la résonance par les effets de réseau (S1D6,7,8,9,12A08).

Mais il en laisse de côté deux, et cet oubli n'est pas sans signification : l'expérience et l'attention (S1D10,11A08). En réalité , l'économie marchande de l'information est construite sur ces deux particularités là qui sont synonymes de rareté. C'est parce que l'on ne connait pas un document avant de l'avoir lu que l'on peut le vendre. C'est parce que l'attention est limitée que l'on peut la capter au profit d'annonceurs intéressés (S1D13A08).

Le discours de TBL est donc un discours d'économie publique. Cela est particulièrement flagrant dans les exemples qu'il prend : données gouvernementales, données scientifiques, Wikipédia. Mais cela peut être trompeur et ambigu quand il évoque les données privées, les traces de navigation ou encore les réseaux sociaux. Prenons l'exemple de Google qui s'est construit sur l'architecture de l'ancien Web, celui que TBL appelle le «Web des documents». Google a fait sa fortune en «libérant les documents», mais en enchaînant les données. C'est parce Google garde les données brutes, tout particulièrement celles sur les pratiques de navigation, mais aussi celles par exemple sur la géolocalisation, qu'il peut construire son marché de l'attention en détruisant celui des anciens médias. Il est tout à fait intéressant de voir que le déplacement du verrouillage était suggéré, il y a 10 ans dans le manuel de Shapiro et Varian (S1D16A08), Hal Varian qui est aujourd'hui Chief economist chez Google.

Quelques mots, enfin, sur la forme du discours qui est en cohérence avec les constatations précédentes, TBL semble avoir adopté le style du prêche Hi-Tech californien, dont Steve Jobs est la star inégalable (voir ici, l'introduction du iPhone) et qui n'est pas sans rappeler celui des pasteurs baptistes (p. ex ici), à la différence près que pour les gourous Hi-Tech, il n'y a pas d'enfer. La motivation est le bien de l'humanité sans la peur de la damnation. Nous sommes dans le «bien public» dans tous les sens du terme.

Cette forme n'est pas anodine, il s'agit de faire partager une utopie quasi-religieuse, ici une communion, au sens propre, des données, qu'il faut libérer pour sauver le monde. Je le dis en souriant mais sans vraie ironie. P. Flichy (, S2D41A08), parmi d'autres, a montré combien l'imaginaire était important pour l'innovation et combien il était présent dans le développement de l'internet.

Et après tout, le bien de l'humanité n'est pas une mauvaise motivation, optimiste mais peut-être angélique puisqu'elle gomme des volets importants du développement du numérique et des réseaux : les limites qui permettent justement la construction du marché, et aussi qui favorisent sa partie noire, obscure qui explose, elle aussi, le contrôle, la manipulation, l'escroquerie, le vol, le détournement, le mensonge, etc.

Par ailleurs, il y aurait bien des choses à dire sur le fait que TBL n'évoque pas le Web sémantique du moins dans ce prêche où le mot n'est pas prononcé. Passer du Web sémantique au Web des données n'est pas innocent. J'y reviendrai peut-être à l'occasion quand j'en serai à la révision de la séquence sur la redocumentatisation (ici).

Actu du 7 janvier 2010

Voir aussi l'importance de l'accessibilité des données dans cet article du NYT :

John Markoff, “A Deluge of Data Shapes a New Era in Computing,” The New York Times, Décembre 15, 2009, sec. Science, ici.

Actu du 12 mars 2010

Un an plus tard, TBL récidive avec, cette fois une démonstration par l'exemple d'utilisations, notamment sur des cartes, des données en accès libre ici.

mercredi 01 avril 2009

Structure du cours (révision)

Comme l'année dernière, je démarre une série de billets sur la révision du cours Économie du document. Je commence par sa structure, puis j'entrerai dans le détail de chaque section.

Rappel : le cours est consultable ici, son évaluation rédigée par Vincent Audette-Chapdelaine

La structure générale est bonne et a fait ses preuves, aussi bien dans le plan du cours que dans les modalités de transmission du contenu ou encore dans les contrôles (ici). Néanmoins certaines modalités peuvent être affinées. Le souci reste toujours le même : assurer la transmission la plus efficace pour les étudiants dans une économie de moyens maîtrisable par un professeur et son auxiliaire.

Forum

Il y a eu des échanges nombreux et nourris entre les étudiants, mais le statut des lieux d'échanges n'était pas toujours clair dans leur tête entre le forum fermé et les commentaires sur les billets du blogue. Il serait préférable sans doute de distinguer quatre lieux :

  • Échanges directs entre étudiants, en dehors du professeur qui peut tout au plus suggérer leur utilité. FaceBook ou toute plateforme sociale parait l'outil le plus adapté.
  • Forum sur les thématiques du cours, synonyme de la discussion en classe. Dès lors, le mieux est que la discussion soit amorcée directement dans le cours. Peut-être dans un clip vidéo très court à la fin du cours ? Mais il est indispensable de prévoir une règle du jeu : p ex deux étudiants désignés interviennent obligatoirement pour chaque session, et tous doivent intervenir au moins deux fois dans l'une ou l'autre session pour laquelle ils ne sont pas désignés.
  • Discussion sur les billets des étudiants, uniquement sur le blogue avec la même règle d'intervention.
  • Commentaire libre sur le blogue. 2 au minimum en dehors des billets d'étudiants.

Bien entendu, le professeur peut aussi répondre à des questions directes, soit sur le forum, soit par courriel au choix de l'étudiant.

Cours enregistré

La formule est intéressante par sa souplesse de réalisation, mais doit être affinée. Même si je reste sceptique face aux discours assimilant le jeu et la pédagogie, maintenant que j'ai l'expérience de l'outil il serait utile de rendre l'énonciation moins monocorde pour maintenir l'attention. On peut penser à des ruptures de ton, à un appel plus systématique à des vidéos extérieures, mais aussi à des Quizz pour vérifier que certaines notions essentielles ont bien été assimilées.

De plus, il faut inventer une méthode simple pour actualiser les parties du cours qui le méritent sans avoir à tout reprendre. Il faudra peut-être diviser le cours en éléments génériques à évolution lente (p ex tous les 3 ans) et éléments à reprendre chaque année, avec un protocole simple.

Enfin, j'étais au départ sceptique sur le clip vidéo d'introduction. Il semble pourtant apprécié des étudiants, sans doute parce qu'il a bien joué son rôle pour humaniser la relation au cours. Néanmoins, il mériterait aussi d'être un peu plus travaillé, par ex en accrochant la thématique du cours à un élément d'actualité traité par ailleurs dans un billet du blogue. Il y a là un jeu à explorer entre la vidéo sur le blogue et l'accès au cours.

Bibliographie

L'utilisation de Zotero est très efficace. La question ici est dans le choix des meilleurs textes et surtout dans leur lecture effective par les étudiants. Ceux-ci doivent sans doute être plus systématiquement articulés avec le cours enregistré, faire l'objet de question dans les quizz par exemple et sans doute de rebond dans les discussions sur le forum.

Étude de cas

Malgré quelques réticences au départ chez certains, l'étude de cas a bien fonctionné. Même si on peut, comme toujours, s'interroger sur l'inégalité des investissements dans les travaux de groupe, la reprise de questions sur le cas dans l'examen final a obligé chacun à s'y investir. Il faut peut-être simplement réviser un peu son calendrier.

Reste que la rédaction d'un cas est un lourd travail et il y a là une réelle difficulté car il est nécessaire de renouveler les problématiques et terrains. Peut-être pourrait-on imaginer, comme cela existe en gestion, une banque de cas mutualisés entre les formations francophones ?

Contrôles

Les contrôles ont très bien fonctionné alors même que c'est une des parties les plus délicates de l'enseignement à distance. En réalité, il suffit d'inventer des modalités appropriées.

mercredi 04 mars 2009

Révision complète de la maîtrise en sciences de l'information

La maîtrise en sciences de l'information de l'EBSI a été entièrement révisée pour la rentrée 2009.

Extrait d'un article paru dans Forum, le journal de l'Université de Montréal, le 9 février 2009 :

La MSI, c'est la maitrise en sciences de l'information, qui peut conduire aux professions de bibliothécaire et d'archiviste, mais également à une panoplie de nouveaux métiers: architecte de l'information, administrateur de bases de données, édimestre, analyste stratégique, etc. En Amérique du Nord, l'EBSI est la seule école francophone à décerner ce diplôme agréé par l'American Library Association.

Pour Jean-Michel Salaün, la récente crise économique révèle à quel point les professionnels de l'information ont une mission sociale de taille. «Jusqu'à présent, ce qui dirigeait le monde, c'était la partie financière de l'économie, indique-t-il. On voit aujourd'hui qu'on est dans une impasse de ce côté-là. Est-ce que demain, ce qu'il nous faudra, ce ne sera pas justement une organisation différente de l'information, la mise en relation des connaissances, l'innovation en général?» C'est avec cette philosophie, calquée sur celle des information-schools américaines, que l'EBSI a procédé à la révision complète de son programme phare.

Le nouveau programme compte dorénavant 51 crédits (un cours de 45 heures équivaut à 3 crédits) au lieu de 54 et s’articule dans une structure beaucoup plus souple. Ainsi, les cours obligatoires du tronc commun passent de 9 à 6 et les options de l'orientation professionnelle sont abolies. Un étudiant pourra maintenant suivre 9 cours supplémentaires (au lieu de 3) qu’il puisera dans la banque de cours disponibles et définir ainsi lui-même son propre profil d’étude.

Le nouveau programme comprend trois orientations : une orientation professionnelle qui réunit traditionnellement la très grande majorité des étudiants, une orientation internationale (un an d'échange avec HEG-ID à Genève sur un programme de gestion) et une orientation recherche (mémoire). La description du nouveau programme est accessible ici.

Suite à la révision à laquelle l'ensemble du département a activement participé, nous avons créé 9 cours, apporté des modifications majeures à 7 cours, des modifications mineures à 25 cours et nous en avons aboli 12. Enfin, 20 cours n’ont subi aucun changement. On trouvera ici la présentation de l'ensemble des cours proposés. Les horaires des sessions d'automne 2009 et d'hiver 2010 sont aussi consultables (ici et , les cours de maîtrise sont ceux siglés SCI). Attention ces horaires peuvent encore subir des modifications consécutives au budget ou aux disponibilités des chargés de cours.

Les demandes d'inscriptions sont ouvertes. Attention, la dernière limite est le 1er mai pour des dossiers reçus complets et le programme étant contingenté, il est prudent de ne pas attendre pour enregistrer son dossier. On trouvera ici les modalités à suivre. J'attire l'attention des candidats français éventuellement intéressés sur la tarification particulière à laquelle ils ont droit. L'Université de Montréal facture pour les Français des frais d'incription similaires à ceux des Québécois. Cela est certes plus couteux qu'une université de l'Hexagone, mais sans concurrence avec le moindre établissement nord-américain.

Enfin je signale que le premier cours optionnel de la nouvelle maîtrise se tiendra dans nos locaux cet été du 13 au 24 juillet. Il s'agit du cours de Bruno Bachimont sur les Archives audiovisuelles et numériques, réalisé en collaboration avec l'Institut National de l'Audiovisuel en France. On en trouvera un avant gout grâce aux clips enregistrés l'année dernière (ici).

lundi 03 novembre 2008

Musique : désintermédiation ou médiation alternative

Ce billet a été rédigé par Alban Berson, étudiant de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document.

Anarchy in the U.K ! Ces dernières semaines, au Royaume-Uni, une coalition d’artistes s’est élevée contre la toute puissance des majors. Leurs revendications portent sur la renégociation des contrats qui les lient à leurs maisons de disques (voir cet article de Numerama). Selon la Featured Artist Coalition, qui compte dans ses rangs quelques grands noms de la musique britannique tels Radiohead ou The Verve, le modèle économique en vigueur dans lequel les majors sont propriétaire des droits sur les enregistrements au prétexte qu’elles assurent les indispensables phases de promotion et de diffusion de la musique n’a plus sa place dans un contexte numérique. En effet, les changements de format et le Web allègent tant les phases de promotion et de diffusion autrefois si lourdes qu’on peut aujourd’hui se poser ces questions : Les artistes peuvent-ils se passer des maisons de disques pour promouvoir et distribuer leur musique ? Et si la réponse est oui, en partie au moins, pourquoi les maisons de disques devenues moins indispensables devraient-elles conserver des prérogatives qu’elles devaient à la prépondérance de leur rôle dans ce domaine ?

Dans une thèse fort intéressante déjà citée sur ce blogue (ici), Benjamin Labarthe-Piol questionne ce phénomène qu’il appelle désintermédiation. Je me base, dans ce billet, sur les développements du chapitre V de cette thèse consacrés au rôle des artistes dans la réorganisation de la chaîne de valeur musicale (p. 216-230) ainsi que sur les travaux de Halonen-Akatwikuka et Regner (ici) et en lie les conclusions avec l’actualité récente au Royaume-Uni.

Dans la phase de promotion, le Web et les nouveaux formats ont changé la donne en conférant aux œuvres musicales des qualités propres aux documents numériques. La facilité de repérage de l’information permet une plus grande exposition, et la reproductibilité à l’infini et sans coût du document facilite le sampling, c'est-à-dire la mise à disposition gratuite d’échantillons musicaux permettant à l’auditeur d’expérimenter le contenu musical en vue d’un éventuel achat. Ces possibilités inédites rendent les intermédiaires tels que les radios (en grande partie contrôlées par les majors) moins incontournables et conduisent à des exemples d’autopromotion tels que celui du groupe Wilco décrit dans la thèse susmentionnée :

Après avoir enregistré l’album Yankee Hotel Foxtrot pour sa maison de disques, cette dernière estime que son potentiel commercial est faible et refuse de le commercialiser. Le groupe décide alors de racheter les droits sur l’album pour $50 000 puis de le distribuer gratuitement en streaming à partir de son site et sur les réseaux P2P afin de faire connaître les nouveaux titres. Le succès de l’opération est immédiat. Selon un des membres du groupe, le site reçoit 3,5 millions de clics et une audience de 200 000 visiteurs. Cela permet au groupe de signer un nouveau contrat avec une maison de disques. L’album se vend à 440 000 exemplaires, soit le meilleur résultat du groupe.

L’exemple est significatif de la situation de 2002 : On remarquera que l’autopromotion par le Web se présente comme une alternative à un lancement traditionnel compromis et que la promotion sans intermédiaire aura été employée pour provoquer un effet de rebond permettant au groupe de revenir dans le giron d’une maison de disque. Ainsi, selon cet exemple, on assiste moins à un cas de désintermédiation définitive dans la phase de promotion de la musique enregistrée qu’à l’apparition d’une possibilité de repêchage, d’un plan B, pour les artistes exclus du système promotionnel. Autrement dit, au moment du succès de Wilco en 2002, la possibilité d’autopromotion entraîne une diminution non négligeable de la dépendance des artistes à l’égard des maisons de disques sans remettre fondamentalement en question le modèle en vigueur et l’hégémonie des majors. Une porte s’entrouvre, néanmoins.

De même que la promotion, la distribution est le rôle par excellence des maisons de disque depuis leur origine. Mais depuis une dizaine d’années, la majeure partie des musiciens possède un site Web officiel. La tentation est donc grande, pour les artistes, d’offrir sur leur site des services d’achat de musique à leurs fans et de se passer des labels, d’autant plus que ce mode de distribution peu coûteux permet d’atteindre le seuil de rentabilité plus rapidement que dans le cadre d’une distribution assurée par un tiers : Pour un profit supérieur, l’enregistrement peut être vendu moins cher, ce qui, a fortiori, tend à augmenter la masse des ventes. Cependant, le travail et l’expertise des maisons de disques dans le domaine permettent une plus grande visibilité des artistes et de leurs produits. Cela se vérifie particulièrement dans le cas des stars. À titre d’exemple, la tentative de désintermédiation effectuée par Prince s’est soldée par un tel échec qu’un retour au bon vieux système de distribution en magasin s’est avéré indispensable à l’artiste pour franchir la barre des 100.000 ventes pourtant peu élevée pour un musicien de son statut. En revanche, en termes d’effet sur le volume des ventes, la désintermédiation, si elle n’offre pas d’exemple d’un groupe de garage élevé au rang de vedette, ne semble pas non plus nuire aux artistes quasi-anonymes : Peu visibles avant le Web, ils le demeurent en ligne. Pour une vue d’ensemble, je reprends, en l’adaptant, un tableau de Benjamin Labarthe-Piol :

Effets de la désintermédiation sur les ventes de disques

L’expérience montre que la promotion et la diffusion de musique enregistrée sans l’intermédiaire des majors ne sont pas adaptées aux stars qui sont littéralement le produit du système mis en place par les maisons de disques. Cependant, comme le montrent Halonen-Akatwikuka et Regner, les stars peuvent d’une certaine façon participer à la désintermédiation en jouant un rôle d’intermédiaire alternatif dans la phase de promotion d’artistes moins connus : c’est ce que ces auteurs appellent le mentor. En effet nous sommes ici dans une économie de l’attention. Or, les stars jouissent d’un capital de notoriété important dont elles peuvent faire bénéficier d’autres artistes. L’exemple type de cette pratique est la façon dont les grands groupes de rap offrent des premières parties de concert à des jeunes talents, collaborent ponctuellement avec eux pour une chanson ou leur « dédicacent » des morceaux (pratique consistant pour le groupe « mentor » à mentionner le nom d’un groupe méconnu dans le texte d’une chanson). Mais nous ne sommes pas ici dans le mécénat ou l’altruisme : L’activité de promotion du mentor est rémunérée par un intéressement sur les ventes du protégé qui, lui, achète l’attention suscitée par le mentor. (On se souviendra du Pilier 6)

Le mentor, ce nouvel intervenant dans l’industrie musicale, pourrait bien influer sur la fronde qui se déroule actuellement au Royaume-Uni. En effet, la simple apparition d’un intermédiaire alternatif fragilise la position des majors déjà vacillantes. En outre, dans l’hypothèse d’un succès généralisé de la promotion par les mentors, si l’on suit l’axiome de Halonen-Akatwikuka et Regner selon lequel le copyright doit être attribué à l’acteur le plus indispensable de l’industrie, les majors se trouveraient encore moins en situation de revendiquer ce droit de propriété. Ainsi, sans doute les artistes engagés dans la Featured Artist Coalition sont en campagne pour récupérer leur copyright auprès des majors affaiblies par le Web, mais peut-être les plus importants de ces groupes (Iron Maiden, Robbie Williams, et bien d’autres) sentent-ils aussi venir l’opportunité d’endosser un nouveau rôle au sein de l’industrie musicale. Un nouveau rôle potentiellement très lucratif, isn’it ?

mardi 28 octobre 2008

Google it!

Ce billet a été rédigé par Elena-Daniela Mihu, étudiante de l'École de bibliothéconomie et de sciences de l'information dans le cadre du cours Économie du document. Il vient compléter mon précédent billet.

Google est devenu le moteur de recherche par excellence qui offre ses services gratuitement à tous ses utilisateurs. C’est au moins ce que la plupart des internautes pensent. Les frais versés au fournisseur afin d’avoir l’accès à Internet ainsi que les frais d’électricité sont connus par tout le monde et il n’y a pas de doute sur cette question. Qu’est-ce qui se passe une fois que l’internaute est rendu sur la toile? L’accès devient-il illimité et gratuit ? Oui, l’utilisateur peut accéder à toutes les pages livrées par sa recherche sans rien payer, enfin pas immédiatement…

Google est une compagnie qui s’est spécialisée dans la recherche, celle-ci représentant actuellement la fonction la plus utile sur Internet. Dès son début les dirigeants ont su que « plus c’est utilisé, plus c’est utile » et plus ça rapporte. Olivier Bomsel (Itw) précise, dans son livre intitulé Gratuit! Du déploiement de l’économie numérique (2007, France : Éditions Gallimard Collection Folio Actuel), que Google, en adoptant une utilité principale comme la recherche, ne fait que maîtriser les effets de réseau en s’assurant une position de leader sur les marchés. Il est très évident que leur recette est gagnante, fait qui est aussi soutenu à chaque année par le rapport annuel de l’entreprise, reproduit et interprété sur le site de Znet.

Le succès de Google repose sur deux éléments : un algorithme de recherche extrêmement efficace et une exploitation intelligente du fonctionnement des effets de réseau.

En quoi Google innove-t-il par rapport aux concurrents ? Google fait partie de la catégorie des marchés à deux versants ou à double face. On comprend par cela que la compagnie finance par la publicité les résultats de la recherche effectuée par l’utilisateur. Rien de nouveau jusqu’ici car le même modèle a été déjà utilisé par les journaux, les compagnies de cartes de crédit, etc. L’attention de ce type de marché est concentrée sur les deux acteurs : le lecteur et l’annonceur, autrement dit l’utilisateur et le commerçant.

Ce que Google apporte de nouveau, et qui explique son succès financier aussi, c’est l’implantation d’un marché publicitaire accessible à tous les annonceurs. Yahoo! propose également des services très variés et gratuits à ses utilisateurs mais c’est une plateforme dont les espaces publicitaires coûtent très cher aux annonceurs. Ce sont des espaces publicitaires réservés aux marques qui ont un certain pouvoir financier. Google exploite ce qu’on appelle CPC (coût par clic), une méthode dont la rémunération dépend du résultat de la recherche. Avec cette innovation Google gagne de son côté les petits annonceurs. Le plus important dans cette méthode n’est pas le pouvoir financier mais la qualité de l’annonce. Ceux qui réussissent à gagner l’attention du consommateur seront les plus avantagés. Ce système financier n’encourage pas les annonceurs payant le plus cher pour une annonce mais ceux qui arrivent à capter l’attention des utilisateurs. Google a gagné sa notoriété non seulement auprès de petits annonceurs mais aussi auprès des utilisateurs qui peuvent profiter d’un outil de qualité sans se faire envahir par les annonces publicitaires.

Je me demande si dans un avenir proche toute cette gratuité offerte avec autant de générosité pourrait nuire à l’utilisateur en suivant cette remarque d’Olivier Bomsel qui nous invite à réfléchir : Il n’y a pas de miracle. Rien n’est jamais gratuit. Soit d’autres paient pour vous, soit on paie pour autre chose, soit on paiera après. Mieux vaut explorer le mécanisme du gratuit avant de l’accepter. (ici)

Voir aussi :

Girard, Bernard. 2006. Une révolution du management : le modèle Google. France : Éditions M2.

- page 8 de 15 -