Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - attention

jeudi 23 avril 2009

Googopole à frange

Ce billet vient à la suite du précédent sur la révision de la séquence 2 du cours et plus précisément sur la nécessaire actualisation de la partie sur les marchés financiers du fait de la crise. S2 D18 à 23 08. Ces diapositives et leur commentaire sont à revoir. On trouvera ci-dessous quelques éléments pour la révision.

La notion d'oligopole à frange, indiquée dans la diapositive 23, est bien connue des économistes qui travaillent sur l'innovation. Elle signifie que quelques firmes, qui ont pris une position dominante sur un marché donné, laissent se développer dans leur frange un grand nombre de petites firmes innovantes. Ainsi le risque de l'innovation, difficile à assumer pour des entreprises ayant une position assise, est pris par d'autres. Le succès éventuel d'un plus petit sera racheté ou récupéré par les plus gros, les échecs sont nombreux mais ne mettent pas en péril les principaux acteurs de la branche. Les industries du contenu, industries de prototypes donc par nature innovantes, sont très souvent structurées ainsi. Autour des gros éditeurs, des majors de la musique ou de l'audovisuel, en passant par les grandes stations de télévision, on retrouve une multitudes de petits entrepreneurs qui n'ont d'autre choix que de prendre des risques et assurent ainsi une part de la vitalité et du renouvellement de la création. Les mécanismes financiers varient suivant les branches et surtout suivant les besoins en capitaux. Le budget de production d'un film n'est pas le même, en volume et structure, que celui d'un livre et les formes de dominations des gros sur les petits varient aussi, depuis la filialisation jusqu'à diverses formules d'articulation. Néanmoins on retrouve bien dans les industries du contenu le même type de dialectique entre une concentration de l'activité sur quelques firmes, souvent jusqu'à l'oligopole, et un foisonnement, un éclatement sur de très nombreux entrepreneurs, fragiles mais pleins d'idées.

Les industries du Web paraissent structurées suivant le même modèle, mais je voudrais suggérer dans ce billet que l'homologie n'est qu'apparente. Les relations entre l'oligopole et la frange y ont des caractéristiques originales. Celles-ci s'accusent en ces temps de crise et tout cela n'est pas sans conséquence en retour sur les industries de contenu. Je prendrai exemple principalement sur l'étude de la position hégémonique prise par Google.

Le développement de l'innovation sur le Web s'est beaucoup appuyé sur les fonds de capital-risque (venture capital), auxquels les industries de contenu, industries anciennes, ne font pas appel. Le principe de ce type d'investissement est bien expliqué dans un bulletin récent de l'ADIT (BE États-Unis 162, voir aussi TechCrunch). Ces fonds prennent un pari sur une entreprise, start-up ou jeune pousse, accompagnant sa montée en puissance jusqu'à sa mise en bourse. Il y eut un premier raté au tournant du millénaire, avec la bulle internet, comme c'est expliqué dans le cours (D20). C'est d'ailleurs à la même époque que la firme Google a pris son essor, ce qui montre bien le caractère limité et conjoncturel de la bulle d'alors.

Fondée en 1998, la firme obtient en juin 1999 25M $ de sociétés de capital-risque et fait son entrée en bourse en 2004. L'exemple est éloquent. Depuis en effet Google a pris la position hégémonique que l'on connait. Il suffit de lire la liste de ses acquisitions (wkp) pour constater que l'on est bien dans un processus d'oligopole (avec MSN, News-Corp, eBay, Amazon...) à frange. Notons que toutes les réussites concernent des sociétés qui ont développé une innovation qui a séduit un grand nombre d'internautes et un modèle d'affaires permettant de substantielles rentrées financières.

Une logique perverse

La situation a évolué récemment. Compte tenu de la crise financière actuelle dont l'origine n'est pas cette fois dans la branche numérique, le système de capital-risque est aujourd'hui grippé. Pour le numérique, la difficulté est néanmoins double : d'une part la crise financière réduit l'argent disponible (passé aux US de 30 à 10 Mds de $ en 2009) et rend aléatoire l'entrée en bourse à terme qui est pourtant l'objectif recherché ; d'autre part la valorisation des activités sur le Web a montré ses limites et donc y rend moins attrayant les investissements.

Depuis la bulle internet, il n'est pas sûr même que le débouché principal recherché par les jeunes pousses soit la bourse. Bon nombre de celles-ci souhaitent plutôt se faire racheter par ceux qui ont pris une position forte, difficile à concurrencer car nous sommes dans un processus où le gagnant prend tout (selon l'expression de Franck et Cook, amz).

Dès lors, l'objectif est moins de se rentabiliser sur un marché que de démontrer que l'application que l'on développe pourrait détruire le marché des firmes installées en détournant les internautes. C'est une version quelque peu pervertie de la fameuse création destructrice de Schumpeter (LSE). On détruit de la valeur économique, sans pour autant en construire vraiment par ailleurs. Nous sommes alors dans une logique bien différente de celle des industries du contenu où l'innovation des petites firmes fait découvrir de nouveaux auteurs, oeuvres ou thèmes qui se valorisent sur des marchés. Ici on cherche à capter l'attention des internautes, sans pour autant la revendre ou vendre l'objet de cette captation, mais juste pour menacer les plus installés donc les plus riches et récupérer un peu de leur richesse. En caricaturant, on pourrait dire qu'il s'agit d'un raisonnement mafieux. Cette économie spéculative ne peut évidemment fonctionner que si ceux que l'on menace ont les moyens financiers de se défendre. En réalité, voilà bien comment fonctionne l'économie du Web 2.0.

L'ironie du système est qu'il trouve un allié objectif chez les militants de la démocratie internet, prompts à se mobiliser pour défendre la gratuité sous toutes ses formes. Il trouve aussi un appui dans une sorte d'économie souterraine faite de nombreux petits acteurs, et même les individus, qui baissent leurs coûts de transaction et élargissent leur zône d'achalandage sans contrepartie gràce aux réseaux et aux plateformes mis à disposition.

Pour ceux qui ne seraient pas convaincus, je prendrai seulement deux exemples emblématiques : YouTube et FaceBook. Le premier a été racheté par Google 1,65 Mds de $ en 2006. Il est devenu le deuxième moteur de recherche aux US. Et pourtant, il n'arrive pas à se rentabiliser et pourrait perdre jusqu'à 470 M de $ selon de Crédit Suisse cette année (merci à D. Durand pour sa veille attentive sur ces questions). FaceBook, on le sait, est un énorme succès de fréquentation, il vient d'annoncer avoir atteint la barre de 200 millions d'utilisateurs. La firme a déjà levé pour 15 Mds de $ de capital risque et en chercherait de nouveau pour la même somme, non sans de grosses difficultés vu son absence totale de rentabilité et l'état de la bourse (TC).

Le rôle de Google

Revenons donc à Google. Pour bien comprendre son fonctionnement et la position particulière de la firme, il faut observer la structure de son chiffre d'affaires. Voici son évolution selon les derniers résultats du premier trimestre 2008 :

Chiffre d'affaires de Google 1er trim 2009 Diaporama complet ici

La première évidence bien connue des lecteurs de ce blogue est que, malgré ses tentatives de diversification, le chiffre d'affaires de Google est encore et toujours quasi exclusivement du à la publicité (98%). J'ai déjà eu l'occasion de faire remarquer (ici) combien l'évolution de sa structure signalait un recentrage progressif sur le métier originel de la firme, la recherche d'information financée principalement par adwords en vert plutôt que la régie publicitaire (adsense) en bleu. Je ne reviens pas non plus les conséquences pour les industries de contenu (par ex ici).

La baisse du chiffre d'affaires de Google début 2009 et qui semble devoir se confirmer au trimestre suivant même si elle reste relative va conduire les dirigeants à la prudence. Voir sur cette question le compte-rendu de Cnet-News (ici). La première conséquence sera d'accentuer encore la tendance précédemment citée.

Néanmoins, la firme dispose d'un énorme trésor de guerre qui l'autorise des investissements importants. Par ailleurs, compte-tenu de son succès financier, la position du titre de Google en bourse reste confortable, très supérieure à la moyenne du Nasdaq (actualiser D22).

Cours de l'action de Google vs MSN avril 2009

Dans ces conditions, il est probable que Google va accentuer encore sa domination sur le secteur en favorisant le développement d'une frange qui trouvera de moins en moins d'interlocuteurs vers qui se tourner et qui sera de plus en plus vassalisée.

La firme vient d'ailleurs de lancer son propre fond de capital risque et compterait investir 100M $ pour 2009 (BE États-Unis 161). Autre exemple, elle s'intéresse de près à Twitter, qui ne dispose lui non plus pas du moindre début d'un Business model.

Par ailleurs, Google serait "très, très heureux" d'aider Twitter ou d'autres sites Internet de "communication immédiate" à gagner de l'argent, a indiqué Eric Schmidt, en évoquant des pistes pour rentabiliser le site de micro-blogs. "Sans parler spécifiquement de Twitter", ces sites pourraient devenir "un moyen de canaliser des informations marketing", et à partir de ce moment-là, "d'accrocher des produits publicitaires", a-t-il relevé. Le Monde du 17-04-09, ici.

En complément voir l'intéressante analyse d'O. Ezratti qui montre la domination des capitaux publics dans le capital-risque en France.

Actu du 30-04 2009

Deux références complémentaires signalées par InternetActu. La première confirme en le précisant les difficultés économiques des sites de Crod Sourcing dues notamment au coût de la bande passante et à la difficulté de monétarisation :

Farhad Manjoo, La bande passante ne se trouve pas sous les sabots d'un cheval, Slate 22 avril 2009, ici

L'autre développe, à partir de l'exemple de l'iPhone, une idée complémentaire et non abordée ici, celle de l'écosystème. Une façon webilitiquement correcte de parler d'oligopole à frange, mais la domination s'y exerce différemment que dans l'analyse ci-dessus et il serait bon que j'y revienne à l'occasion :

Alexis Mons, Leçon d'économie systémique, 24 avril 2009, Groupe Reflect,.

Actu du 1-05-2009

Voir aussi dans la même logique, mais chez Amazon, le rachat de Lexcycle. Chez V Clayssen (ici et).

lundi 06 avril 2009

La messe des données

Une façon d'enrichir le cours sur l'économie des documents est de prendre quelques évènements significatifs de l'actualité et de les passer au prisme des notions développées. J'ai l'ambition de permettre le décryptage des mouvements qui agitent le monde documentaire. Un repérage critique à l'avantage d'en faire la démonstration ou, inversement, de repérer des failles à réparer.

Pour éviter de trop longs développements, je coderai les références au cours de la façon suivante : SxDyA08, x étant le numéro de la séquence, y le numéro de la diapositive, A08 signifie qu'il s'agit de la version de l'automne 08. Par exemple, S1D7A08 fait référence à la diapositive 7 «Pilier2. Le prototype» que l'on trouve dans la séquence 1 du cours de l'automne 08. Pour la retrouver et écouter son commentaire, il suffira de suivre le lien qui conduit à la partie du diaporama concernée et de se rendre à la diapositive en question par son numéro : S1D7A08. Il est probable qu'avec le temps les liens vont se casser, mais d'ici là j'aurai peut-être trouvé une formule plus simple.

Illustration de la Séquence 1 : Particularités économiques du document publié

Commençons donc par la séquence 1 sur les particularités économiques du document avec un document emblématique : le discours de Tim Berners-Lee au congrès TED pour Technology, Entertainment, Design en février 2009 (le discours est sous-titré en français).

L'argumentaire de TBL pour «libérer les données» s'appuie clairement sur les particularités économiques de l'information : la non destruction qui permet à tous de se resservir des mêmes données sans les altérer ; le prototype, les données ne sont produites qu'une fois pour être partagées ; la plasticité qui permet de construire de nouvelles informations par la combinaison et le calcul des anciennes ; l'interprétation qui autorise l'utilisation des mêmes données à des fins diverses ; la résonance par les effets de réseau (S1D6,7,8,9,12A08).

Mais il en laisse de côté deux, et cet oubli n'est pas sans signification : l'expérience et l'attention (S1D10,11A08). En réalité , l'économie marchande de l'information est construite sur ces deux particularités là qui sont synonymes de rareté. C'est parce que l'on ne connait pas un document avant de l'avoir lu que l'on peut le vendre. C'est parce que l'attention est limitée que l'on peut la capter au profit d'annonceurs intéressés (S1D13A08).

Le discours de TBL est donc un discours d'économie publique. Cela est particulièrement flagrant dans les exemples qu'il prend : données gouvernementales, données scientifiques, Wikipédia. Mais cela peut être trompeur et ambigu quand il évoque les données privées, les traces de navigation ou encore les réseaux sociaux. Prenons l'exemple de Google qui s'est construit sur l'architecture de l'ancien Web, celui que TBL appelle le «Web des documents». Google a fait sa fortune en «libérant les documents», mais en enchaînant les données. C'est parce Google garde les données brutes, tout particulièrement celles sur les pratiques de navigation, mais aussi celles par exemple sur la géolocalisation, qu'il peut construire son marché de l'attention en détruisant celui des anciens médias. Il est tout à fait intéressant de voir que le déplacement du verrouillage était suggéré, il y a 10 ans dans le manuel de Shapiro et Varian (S1D16A08), Hal Varian qui est aujourd'hui Chief economist chez Google.

Quelques mots, enfin, sur la forme du discours qui est en cohérence avec les constatations précédentes, TBL semble avoir adopté le style du prêche Hi-Tech californien, dont Steve Jobs est la star inégalable (voir ici, l'introduction du iPhone) et qui n'est pas sans rappeler celui des pasteurs baptistes (p. ex ici), à la différence près que pour les gourous Hi-Tech, il n'y a pas d'enfer. La motivation est le bien de l'humanité sans la peur de la damnation. Nous sommes dans le «bien public» dans tous les sens du terme.

Cette forme n'est pas anodine, il s'agit de faire partager une utopie quasi-religieuse, ici une communion, au sens propre, des données, qu'il faut libérer pour sauver le monde. Je le dis en souriant mais sans vraie ironie. P. Flichy (, S2D41A08), parmi d'autres, a montré combien l'imaginaire était important pour l'innovation et combien il était présent dans le développement de l'internet.

Et après tout, le bien de l'humanité n'est pas une mauvaise motivation, optimiste mais peut-être angélique puisqu'elle gomme des volets importants du développement du numérique et des réseaux : les limites qui permettent justement la construction du marché, et aussi qui favorisent sa partie noire, obscure qui explose, elle aussi, le contrôle, la manipulation, l'escroquerie, le vol, le détournement, le mensonge, etc.

Par ailleurs, il y aurait bien des choses à dire sur le fait que TBL n'évoque pas le Web sémantique du moins dans ce prêche où le mot n'est pas prononcé. Passer du Web sémantique au Web des données n'est pas innocent. J'y reviendrai peut-être à l'occasion quand j'en serai à la révision de la séquence sur la redocumentatisation (ici).

Actu du 7 janvier 2010

Voir aussi l'importance de l'accessibilité des données dans cet article du NYT :

John Markoff, “A Deluge of Data Shapes a New Era in Computing,” The New York Times, Décembre 15, 2009, sec. Science, ici.

Actu du 12 mars 2010

Un an plus tard, TBL récidive avec, cette fois une démonstration par l'exemple d'utilisations, notamment sur des cartes, des données en accès libre ici.

mercredi 01 avril 2009

Structure du cours (révision)

Comme l'année dernière, je démarre une série de billets sur la révision du cours Économie du document. Je commence par sa structure, puis j'entrerai dans le détail de chaque section.

Rappel : le cours est consultable ici, son évaluation rédigée par Vincent Audette-Chapdelaine

La structure générale est bonne et a fait ses preuves, aussi bien dans le plan du cours que dans les modalités de transmission du contenu ou encore dans les contrôles (ici). Néanmoins certaines modalités peuvent être affinées. Le souci reste toujours le même : assurer la transmission la plus efficace pour les étudiants dans une économie de moyens maîtrisable par un professeur et son auxiliaire.

Forum

Il y a eu des échanges nombreux et nourris entre les étudiants, mais le statut des lieux d'échanges n'était pas toujours clair dans leur tête entre le forum fermé et les commentaires sur les billets du blogue. Il serait préférable sans doute de distinguer quatre lieux :

  • Échanges directs entre étudiants, en dehors du professeur qui peut tout au plus suggérer leur utilité. FaceBook ou toute plateforme sociale parait l'outil le plus adapté.
  • Forum sur les thématiques du cours, synonyme de la discussion en classe. Dès lors, le mieux est que la discussion soit amorcée directement dans le cours. Peut-être dans un clip vidéo très court à la fin du cours ? Mais il est indispensable de prévoir une règle du jeu : p ex deux étudiants désignés interviennent obligatoirement pour chaque session, et tous doivent intervenir au moins deux fois dans l'une ou l'autre session pour laquelle ils ne sont pas désignés.
  • Discussion sur les billets des étudiants, uniquement sur le blogue avec la même règle d'intervention.
  • Commentaire libre sur le blogue. 2 au minimum en dehors des billets d'étudiants.

Bien entendu, le professeur peut aussi répondre à des questions directes, soit sur le forum, soit par courriel au choix de l'étudiant.

Cours enregistré

La formule est intéressante par sa souplesse de réalisation, mais doit être affinée. Même si je reste sceptique face aux discours assimilant le jeu et la pédagogie, maintenant que j'ai l'expérience de l'outil il serait utile de rendre l'énonciation moins monocorde pour maintenir l'attention. On peut penser à des ruptures de ton, à un appel plus systématique à des vidéos extérieures, mais aussi à des Quizz pour vérifier que certaines notions essentielles ont bien été assimilées.

De plus, il faut inventer une méthode simple pour actualiser les parties du cours qui le méritent sans avoir à tout reprendre. Il faudra peut-être diviser le cours en éléments génériques à évolution lente (p ex tous les 3 ans) et éléments à reprendre chaque année, avec un protocole simple.

Enfin, j'étais au départ sceptique sur le clip vidéo d'introduction. Il semble pourtant apprécié des étudiants, sans doute parce qu'il a bien joué son rôle pour humaniser la relation au cours. Néanmoins, il mériterait aussi d'être un peu plus travaillé, par ex en accrochant la thématique du cours à un élément d'actualité traité par ailleurs dans un billet du blogue. Il y a là un jeu à explorer entre la vidéo sur le blogue et l'accès au cours.

Bibliographie

L'utilisation de Zotero est très efficace. La question ici est dans le choix des meilleurs textes et surtout dans leur lecture effective par les étudiants. Ceux-ci doivent sans doute être plus systématiquement articulés avec le cours enregistré, faire l'objet de question dans les quizz par exemple et sans doute de rebond dans les discussions sur le forum.

Étude de cas

Malgré quelques réticences au départ chez certains, l'étude de cas a bien fonctionné. Même si on peut, comme toujours, s'interroger sur l'inégalité des investissements dans les travaux de groupe, la reprise de questions sur le cas dans l'examen final a obligé chacun à s'y investir. Il faut peut-être simplement réviser un peu son calendrier.

Reste que la rédaction d'un cas est un lourd travail et il y a là une réelle difficulté car il est nécessaire de renouveler les problématiques et terrains. Peut-être pourrait-on imaginer, comme cela existe en gestion, une banque de cas mutualisés entre les formations francophones ?

Contrôles

Les contrôles ont très bien fonctionné alors même que c'est une des parties les plus délicates de l'enseignement à distance. En réalité, il suffit d'inventer des modalités appropriées.

mercredi 04 mars 2009

Révision complète de la maîtrise en sciences de l'information

La maîtrise en sciences de l'information de l'EBSI a été entièrement révisée pour la rentrée 2009.

Extrait d'un article paru dans Forum, le journal de l'Université de Montréal, le 9 février 2009 :

La MSI, c'est la maitrise en sciences de l'information, qui peut conduire aux professions de bibliothécaire et d'archiviste, mais également à une panoplie de nouveaux métiers: architecte de l'information, administrateur de bases de données, édimestre, analyste stratégique, etc. En Amérique du Nord, l'EBSI est la seule école francophone à décerner ce diplôme agréé par l'American Library Association.

Pour Jean-Michel Salaün, la récente crise économique révèle à quel point les professionnels de l'information ont une mission sociale de taille. «Jusqu'à présent, ce qui dirigeait le monde, c'était la partie financière de l'économie, indique-t-il. On voit aujourd'hui qu'on est dans une impasse de ce côté-là. Est-ce que demain, ce qu'il nous faudra, ce ne sera pas justement une organisation différente de l'information, la mise en relation des connaissances, l'innovation en général?» C'est avec cette philosophie, calquée sur celle des information-schools américaines, que l'EBSI a procédé à la révision complète de son programme phare.

Le nouveau programme compte dorénavant 51 crédits (un cours de 45 heures équivaut à 3 crédits) au lieu de 54 et s’articule dans une structure beaucoup plus souple. Ainsi, les cours obligatoires du tronc commun passent de 9 à 6 et les options de l'orientation professionnelle sont abolies. Un étudiant pourra maintenant suivre 9 cours supplémentaires (au lieu de 3) qu’il puisera dans la banque de cours disponibles et définir ainsi lui-même son propre profil d’étude.

Le nouveau programme comprend trois orientations : une orientation professionnelle qui réunit traditionnellement la très grande majorité des étudiants, une orientation internationale (un an d'échange avec HEG-ID à Genève sur un programme de gestion) et une orientation recherche (mémoire). La description du nouveau programme est accessible ici.

Suite à la révision à laquelle l'ensemble du département a activement participé, nous avons créé 9 cours, apporté des modifications majeures à 7 cours, des modifications mineures à 25 cours et nous en avons aboli 12. Enfin, 20 cours n’ont subi aucun changement. On trouvera ici la présentation de l'ensemble des cours proposés. Les horaires des sessions d'automne 2009 et d'hiver 2010 sont aussi consultables (ici et , les cours de maîtrise sont ceux siglés SCI). Attention ces horaires peuvent encore subir des modifications consécutives au budget ou aux disponibilités des chargés de cours.

Les demandes d'inscriptions sont ouvertes. Attention, la dernière limite est le 1er mai pour des dossiers reçus complets et le programme étant contingenté, il est prudent de ne pas attendre pour enregistrer son dossier. On trouvera ici les modalités à suivre. J'attire l'attention des candidats français éventuellement intéressés sur la tarification particulière à laquelle ils ont droit. L'Université de Montréal facture pour les Français des frais d'incription similaires à ceux des Québécois. Cela est certes plus couteux qu'une université de l'Hexagone, mais sans concurrence avec le moindre établissement nord-américain.

Enfin je signale que le premier cours optionnel de la nouvelle maîtrise se tiendra dans nos locaux cet été du 13 au 24 juillet. Il s'agit du cours de Bruno Bachimont sur les Archives audiovisuelles et numériques, réalisé en collaboration avec l'Institut National de l'Audiovisuel en France. On en trouvera un avant gout grâce aux clips enregistrés l'année dernière (ici).

mercredi 14 janvier 2009

Plans et sites de cours de l'EBSI

L'EBSI a développé une nouvelle page de présentation de ses cours. On y trouve en accès libre tous les plans de cours normalisés (presque tous, les derniers seront disponibles courant février) et les sites associés, qui eux sont parfois réservés aux étudiants inscrits aux cours.

La normalisation des plans de cours a été rendue possible grâce à une base de données, développée par la professeure Christine Dufour, dans laquelle chaque professeur actualise son plan avant l'ouverture de la session. Outre son efficacité pour normaliser la présentation, la base de données permet une évaluation du programme par une comparaison des objectifs des cours, un repérage des redondances, des lacunes ou encore de la cohérence de l'avancement des connaissances transversalement grâce à la possible et simple correspondance des calendriers ou encore une mesure de la charge de travail des étudiants par la comparaison des travaux demandés dans une session.

Le site présente les cours actuellement dispensés. Mais la base de données nous est aussi très utile pour la répartition et le montage des cours de la maîtrise révisée (liste) qui s'ouvre à l'automne 2009. Les inscriptions sont d'ailleurs ouvertes pour les intéressés : Présentation de la nouvelle maîtrise, modalités d'inscription. Attention, le programme est contingenté, il ne faut pas trop tarder pour déposer son dossier.

- page 13 de 27 -