Economie du document (Bloc-notes de Jean-Michel Salaün)

Repérage de données sur l'économie des documents dans un environnement numérique

Aller au contenu | Aller au menu | Aller à la recherche

Recherche - économie de l'attention

mercredi 14 octobre 2009

Cultures de l'écran

Le Ministère de la Culture vient de publier sa grande enquête sur les pratiques culturelles effectuée en 2008. L'intérêt de cette série d'enquêtes est sa complétude par le nombre de questions posées et par la taille de l'échantillon, mais aussi la possible analyse historique puisque que l'enquête est renouvelée tous les 8 ans depuis 1973 maintenant. Pour la première fois en 2008, elle comprend donc les effets du numérique.

Tous les chiffres détaillés sont accessibles ici. Le rapport est vendu en librairie. Une synthèse est proposée en ligne :

Olivier Donnat, “Les pratiques culturelles des Français à l’ère numérique - Éléments de synthèse 1997-2008,” Culture études DEPS Ministère de la Culture et de la Communication, no. 5 (2009), Pdf.

La principale leçon de mon point de vue tient dans ce tableau qui montre l'évolution inverse de la pratique de la télévision et de l'internet selon le sexe, l'âge, le niveau d'instruction (attention il s'agit du bac français, cad fin du secondaire français) et la CSP. Autrement dit, l'écran occupe toujours principalement le temps de loisir depuis le milieu du siècle dernier, mais il ne s'agit plus toujours du même écran, ni a fortiori de la même pratique, de la même gestion de son temps. D'un point de vue économique, il reste que les deux médias sont, ou sont perçus comme, gratuits et financés exclusivement par la publicité et l'abonnement. Dans les deux cas, l'économie de l'attention est en cause.

Pratiques-culturelles-DEPS-2008.jpg

Il est tout à fait passionnant aussi de comparer ces résultats avec l'analyse générationnelle publiée par le même service et dont j'ai parlé dans un précédent billet (). Pour la lecture la tendance à la baisse constatée se poursuit. Des différences néanmoins apparaissent dans la musique et le cinéma avec une montée des productions américaines et aussi dans les pratiques amateurs.

Extraits :

Incontestablement, ces résultats traduisent un puissant effet générationnel : depuis maintenant plusieurs décennies, les jeunes voyagent plus que ne le faisaient leurs aînés, ils sont plus nombreux à avoir vécu à l’étranger, à écouter de la musique anglo-saxonne ou à regarder des séries américaines en version originale. Bref ces générations ont eu accès précocement à la culture américaine sous toutes ses formes, des produits les plus standardisés aux oeuvres les plus confidentielles que s’échangent fans et amateurs, et ont grandi dans des univers culturels largement globalisés où la langue anglaise règne en maître. Dès lors, comment s’étonner que leur rapport à la production française soit différent de celui de leurs aînés ? (..)

Le développement du numérique et de l’internet ont profondément transformé le paysage des pratiques en amateur, en favorisant l’émergence de nouvelles formes d’expression mais aussi de nouveaux modes de diffusion des contenus culturels autoproduits dans le cadre du temps libre. Les changements ont été particulièrement spectaculaires dans le cas de la photographie ou de la vidéo dont la pratique a presque entièrement basculé dans le numérique en moins d’une décennie. La diffusion des ordinateurs dans les foyers a également renouvelé les manières de faire de l’art en amateur dans les domaines de l’écriture, de la musique ou des arts graphiques.

Voici enfin l'intéressante conclusion d'O. Donnat sur les générations :

  • La génération née avant la Seconde Guerre mondiale a grandi dans un monde où rien ne venait contester la suprématie de l’imprimé, elle a découvert la télévision à un âge déjà avancé et est restée assez largement à l’écart du boom musical et a fortiori de la révolution numérique.
  • La génération des baby-boomers a été la première à profiter de l’ouverture du système scolaire et du développement des industries culturelles et conserve aujourd’hui encore certaines traces de l’émergence au cours des années 1960 d’une culture juvénile centrée sur la musique.
  • La génération des personnes dont l’âge se situe entre 30 et 40 ans a bénéficié de l’amplification de ces mêmes phénomènes – massification de l’accès à l’enseignement supérieur et diversification de l’offre culturelle – et, surtout, a vécu enfant ou adolescent la profonde transformation du paysage audiovisuel au tournant des années 1980 : elle est la génération du second âge des médias, celui des radios et des télévisions privées, du multiéquipement et des programmes en continu, ce qui lui a permis de se saisir assez largement des potentialités offertes par la culture numérique.
  • Enfin, la génération des moins de 30 ans a grandi au milieu des téléviseurs, ordinateurs, consoles de jeux et autres écrans dans un contexte marqué par la dématérialisation des contenus et la généralisation de l’internet à haut débit : elle est la génération d’un troisième âge médiatique encore en devenir.

Actu du 8 janvier 2010

Voir aussi :

L'entretien avec O. Donnat sur Bambou .

samedi 06 juin 2009

Quels rapports entre Twitter et Wikipédia ?

Voici un graphique fort instructif. Il s'agit d'une enquête menée par un étudiant et un chargé de cours de Harvard, Bill Heil et Mikolaj Piskorski, dans le cadre d'un cours intitulé Competing with Social Networks (voir présentation ici) sur un échantillon de 300.000 utilisateurs de Twitter. Il n'est pas précisé si l'échantillon est uniquement américain, mais on peut le supposer. Le trait plein représente les utilisateurs de Twitter, le pointillé ceux de Wikipédia et les tirets ceux d'un réseau social. L'ordonnée représente en pourcentage le nombre de contributions et l'abscisse les utilisateurs classés par leur total de contributions, toujours en pourcentage.

Utilisateurs classés par nombre de contributions

Extrait du billet des auteurs (trad JMS) :

En particulier, les 10% des utilisateurs les plus prolifiques de Twitter postent plus de 90% des messages. Sur un réseau social classique, ces mêmes 10% ne proposent que 30% de la production totale. Pour mettre Twitter en perspective, il faut faire une analogie inattendue avec Wikipédia. Là, 15% des éditeurs des plus prolifiques alimentent 90% de la publication de Wikipédia. Autrement dit, la répartition des contributions sur Twitter est plus concentrée que sur Wikipédia, même si Wikipédia n'est pas un outil de communications. Ceci implique que Twitter ressemble plus à un outil de publication unidirectionnel qu'à un réseau de communication pair à pair.

Il faut rester prudent, car il y a peu d'informations sur la méthodologie employée, néanmoins ces résultats semblent confirmés par d'autres enquêtes, en particulier une étude de Purewire sur Twitter dont on trouvera le compte rendu sur ReadWriteWeb ou sur TechCrunch (ici et ).

Ainsi le Webmédia continue pas à pas sa structuration. Voici rapidement quelques leçons à partir des ressemblances et des différences entre le microblogging et l'encyclopédie collaborative. Pour Wikipédia, on pourra aussi consulter d'anciens billets sur les différentes dimensions de son économie (ici).

Les deux sont des innovations radicales, il est difficile de les comparer à des modèles existants. Les deux se structurent comme des médias unidirectionnels avec une minorité de contributeurs et un grand nombre de lecteurs. Les deux fonctionnent sur l'économie du don du côté des contributeurs, on pourrait dire une petite bourgeoisie intellectuelle avide de prendre la parole face aux médias traditionnels auxquels ils n'ont pas ou difficilement accès. Les deux aussi n'ont pas de modèle d'affaires et on peut penser que cette caractéristique est aussi un élément de leur succès d'usages, car ils ne sont pas (encore) soupçonnés d'intéressement occulte. Les deux enfin ont réussi à se positionner comme des joueurs importants dans l'économie de l'attention, au point d'intéresser le plus gros des acteurs, Google.

Du côté des différences, la première qui saute aux yeux et que l'un fonctionne sur le flux et l'immédiateté, tandis que l'autre fonctionne sur l'accumulation et le patrimoine. Le premier est plus proche du modèle de la radiotélévision, le second de celui de la bibliothéconomie dans le pentagone. La seconde différence est évidemment la longueur des messages. Twitter prend l'air du temps en jouant sur le signalement subjectif et sur l'horloge quotidienne, tandis que Wikipédia explique le monde dans de longs développements qu'il souhaite les plus neutres et exhaustifs possible. En ce sens ils sont parfaitement complémentaires. La troisième différence est que l'un a fait le choix clair du non-profit (Wikipédia) tandis que l'autre se positionne dans le secteur commercial en faisant appel à la récolte de fonds avec comme perspective vraisemblable le rachat.

mercredi 03 juin 2009

17769

Voici le premier message envoyé le 17 septembre 1993 sur Biblio-fr :

Je le renvoie a toute la liste (i.e. a l'adresse biblio-fr@univ-rennes1.fr)

Nous devrions le recevoir tous les deux. Merci de m'ecrire directement un message indiquant que vous l'avez bien recu.

Herve Le Crosnier LeCrosnier@unicaen.fr

Ils étaient donc deux ce jour là. 17769, c'est le nombre d'abonnés (sousestimé, car je suivais par exemple la liste sans y être abonné par les archives) à ce jour, le jour de l'arrêt de la liste, annoncé par ses promoteurs, Hervé Le Crosnier et Sara Aubry. Sur l'importance de cette liste pour la profession, sur son intérêt, la page d'histoire écrite, je n'ai rien à ajouter à leurs explications données dans le dernier (provisoirement) message (ici), sinon un immense merci pour le travail accompli et l'énergie dépensée. Le bénéfice fut immense pour tous.

Mais tout de même, 17769 lecteurs spécialisés c'est un joli capital en terme d'économie de l'attention. Faut-il le jeter aux orties ? Sans penser évidemment à une exploitation commerciale totalement perpendiculaire au projet, ne peut-on pas imaginer une valorisation professionnelle d'un tel réseau de diffusion ?

Je blasphème ?

lundi 25 mai 2009

Economie de l'attention et université

Nous avons tenu récemment notre réunion annuelle de bilan à l'EBSI. Le bilan comprend, entre autres, un examen des avis et questions posés par les étudiants de maîtrise. Parmi celles-là, il était suggéré d'aller vers l'exigence d'un portable par étudiant à la fois pour l'apprentissage des logiciels spécialisés et pour le suivi des cours par une navigation collective sur Internet, comme c'est le cas chez notre voisin HEC.

En réalité, la discussion avec les professeurs et les professionnels a souligné plusieurs problèmes. Certains sont particuliers à une école comme l'EBSI. D'autres plus transversaux. Le grand nombre de logiciels spécialisés que les étudiants doivent manipuler au cours de leur apprentissage poserait des problèmes insolubles en terme de licence et plus encore en terme de maintenance de chaque appareil individuel. Mais l'échange le plus intéressant a été le plus général.

Les professeurs ont partagé leur expérience quant à l'attention des étudiants dans le couplage cours/ordinateur. En résumé, il apparait que les étudiants ne peuvent porter leur attention que sur une seule chose à la fois : soit ils regardent et manipulent leur ordinateur, soit ils écoutent le professeur et prennent des notes. Et même, le bruit de la prise de note sur un clavier actuel est réellement perturbante pour les voisins, y compris le professeur.

On retrouve exactement la même problématique sur InternetActu où Hubert Guillaud fait la synthèse de plusieurs analyses sur l'économie de l'attention à l'université, (en particulier celle de Howard Rheingold, ) :

Sommes nous multitâches ? (1/2) : comment apprendre à maîtriser notre attention ? ici

Dans un ancien billet, j'ai écrit :

« Je ne crois pas à la fin du cours traditionnel, dispensé devant des étudiants (tout comme je ne crois pas à la fin du codex). Ces dispositifs ont fait la preuve de leur efficacité depuis des millénaires. Prétendre que des étudiants ne sont plus capables, ou simplement moins capables qu'autrefois, d'y soutenir leur attention est une spéculation qui mérite démonstration. Sans doute il y a nombre de questions à se poser en ce sens et nombre de techniques pédagogiques à réviser, mais prendre l'affirmation pour un acquis est dangereux.. et bien peu scientifique. »

« Les terminaux mobiles (cellulaires, blackberries, PC portables), sont des concurrents directs des professeurs sur la captation de l'attention en cours si l'on donne accès au réseau dans les amphithéâtres, car ils permettent d'échapper électroniquement au dispositif physique. L'université ne doit pas si facilement abandonner ses dispositifs traditionnels. En effet, le risque est que l'attention perdue ne se reporte pas sur l'apprentissage, mais sur bien d'autres activités qui permettent de dégager du temps de cerveau disponible pour des annonceurs. Le cerveau des étudiants est comme celui de chaque humain, facilement distrait. »

Et je me trouve conforté par Minh Thi Trinh de l'EBSI, merci à elle, qui m'a signalé une recherche récente sur l'attention des étudiants en classe faite à l'Université Brunel, au Royaume-Uni (UK) :

Mark S Young and alii, Student Pay Attention!

L'objectif de l'étude était de mesurer l'efficacité des cours traditionnels. Elle a montré notamment une baisse d'attention généralisée entre 10 et 30 mn de cours. Extraits de la conclusion (trad JMS) :

Les résultats de cette étude suggèrent que la concentration des étudiants décroit au cours d'un cours écouté de façon passive de la même manière que celle d'un opérateur humain de surveillance d'un équipement automatisé, avec de graves implications pour l'apprentissage et la performance. Les recommandations en termes de maintien de l'attention et de la concentration sont également analogues - au lieu d'intercaler des périodes de contrôle manuel (Parasuraman et al., 1996), on peut faire de courtes pauses ou de nouvelles activités visant à rétablir temporairement l'attention à un niveau normal. (..)

Alors que les groupes de discussions et autres sessions interactives ont des avantages clairs, ils ont aussi des inconvénients tels que la diminution du temps du cours, la réduction de l'exactitude et de la maîtrise du cours (Huxham, 2005; Lammers et Murphy, 2002). (..) Bien que nous ayons pris une interprétation « stricte » de l'apprentissage actif, les résultats de notre étude montrent qu'une vraie interactivité n'est pas nécessairement un critère d'approfondissement de l'apprentissage, ce qui suggère qu'une définition plus large de l'apprentissage actif comme « un processus d'engagement dans l'apprentissage à la fois au niveau cognitif et affectif » (Fry et al., 2003: 432) est probablement plus appropriée.

Sur cette base, simplement casser la baisse de vigilance peut être tout aussi efficace.

Ajout du 28 mai 2009

Voir aussi le deuxième volet de la synthèse d'H. Guillaud (ici) qui traite notamment des vertus de la distraction et ne m'a pas vraiment convaincu.

Ajout du 13 juin 2009

voir aussi :

Staphen Mahar, "The dark side of custom animation" in Int. J. Innovation and Learning, 2009, 6, 581-592 présentation ici

et Les nouveaux médias , un plus pour la mémorisation ?, Les Cahiers pédagogiques n 474 Par Éric Jamet

jeudi 23 avril 2009

Googopole à frange

Ce billet vient à la suite du précédent sur la révision de la séquence 2 du cours et plus précisément sur la nécessaire actualisation de la partie sur les marchés financiers du fait de la crise. S2 D18 à 23 08. Ces diapositives et leur commentaire sont à revoir. On trouvera ci-dessous quelques éléments pour la révision.

La notion d'oligopole à frange, indiquée dans la diapositive 23, est bien connue des économistes qui travaillent sur l'innovation. Elle signifie que quelques firmes, qui ont pris une position dominante sur un marché donné, laissent se développer dans leur frange un grand nombre de petites firmes innovantes. Ainsi le risque de l'innovation, difficile à assumer pour des entreprises ayant une position assise, est pris par d'autres. Le succès éventuel d'un plus petit sera racheté ou récupéré par les plus gros, les échecs sont nombreux mais ne mettent pas en péril les principaux acteurs de la branche. Les industries du contenu, industries de prototypes donc par nature innovantes, sont très souvent structurées ainsi. Autour des gros éditeurs, des majors de la musique ou de l'audovisuel, en passant par les grandes stations de télévision, on retrouve une multitudes de petits entrepreneurs qui n'ont d'autre choix que de prendre des risques et assurent ainsi une part de la vitalité et du renouvellement de la création. Les mécanismes financiers varient suivant les branches et surtout suivant les besoins en capitaux. Le budget de production d'un film n'est pas le même, en volume et structure, que celui d'un livre et les formes de dominations des gros sur les petits varient aussi, depuis la filialisation jusqu'à diverses formules d'articulation. Néanmoins on retrouve bien dans les industries du contenu le même type de dialectique entre une concentration de l'activité sur quelques firmes, souvent jusqu'à l'oligopole, et un foisonnement, un éclatement sur de très nombreux entrepreneurs, fragiles mais pleins d'idées.

Les industries du Web paraissent structurées suivant le même modèle, mais je voudrais suggérer dans ce billet que l'homologie n'est qu'apparente. Les relations entre l'oligopole et la frange y ont des caractéristiques originales. Celles-ci s'accusent en ces temps de crise et tout cela n'est pas sans conséquence en retour sur les industries de contenu. Je prendrai exemple principalement sur l'étude de la position hégémonique prise par Google.

Le développement de l'innovation sur le Web s'est beaucoup appuyé sur les fonds de capital-risque (venture capital), auxquels les industries de contenu, industries anciennes, ne font pas appel. Le principe de ce type d'investissement est bien expliqué dans un bulletin récent de l'ADIT (BE États-Unis 162, voir aussi TechCrunch). Ces fonds prennent un pari sur une entreprise, start-up ou jeune pousse, accompagnant sa montée en puissance jusqu'à sa mise en bourse. Il y eut un premier raté au tournant du millénaire, avec la bulle internet, comme c'est expliqué dans le cours (D20). C'est d'ailleurs à la même époque que la firme Google a pris son essor, ce qui montre bien le caractère limité et conjoncturel de la bulle d'alors.

Fondée en 1998, la firme obtient en juin 1999 25M $ de sociétés de capital-risque et fait son entrée en bourse en 2004. L'exemple est éloquent. Depuis en effet Google a pris la position hégémonique que l'on connait. Il suffit de lire la liste de ses acquisitions (wkp) pour constater que l'on est bien dans un processus d'oligopole (avec MSN, News-Corp, eBay, Amazon...) à frange. Notons que toutes les réussites concernent des sociétés qui ont développé une innovation qui a séduit un grand nombre d'internautes et un modèle d'affaires permettant de substantielles rentrées financières.

Une logique perverse

La situation a évolué récemment. Compte tenu de la crise financière actuelle dont l'origine n'est pas cette fois dans la branche numérique, le système de capital-risque est aujourd'hui grippé. Pour le numérique, la difficulté est néanmoins double : d'une part la crise financière réduit l'argent disponible (passé aux US de 30 à 10 Mds de $ en 2009) et rend aléatoire l'entrée en bourse à terme qui est pourtant l'objectif recherché ; d'autre part la valorisation des activités sur le Web a montré ses limites et donc y rend moins attrayant les investissements.

Depuis la bulle internet, il n'est pas sûr même que le débouché principal recherché par les jeunes pousses soit la bourse. Bon nombre de celles-ci souhaitent plutôt se faire racheter par ceux qui ont pris une position forte, difficile à concurrencer car nous sommes dans un processus où le gagnant prend tout (selon l'expression de Franck et Cook, amz).

Dès lors, l'objectif est moins de se rentabiliser sur un marché que de démontrer que l'application que l'on développe pourrait détruire le marché des firmes installées en détournant les internautes. C'est une version quelque peu pervertie de la fameuse création destructrice de Schumpeter (LSE). On détruit de la valeur économique, sans pour autant en construire vraiment par ailleurs. Nous sommes alors dans une logique bien différente de celle des industries du contenu où l'innovation des petites firmes fait découvrir de nouveaux auteurs, oeuvres ou thèmes qui se valorisent sur des marchés. Ici on cherche à capter l'attention des internautes, sans pour autant la revendre ou vendre l'objet de cette captation, mais juste pour menacer les plus installés donc les plus riches et récupérer un peu de leur richesse. En caricaturant, on pourrait dire qu'il s'agit d'un raisonnement mafieux. Cette économie spéculative ne peut évidemment fonctionner que si ceux que l'on menace ont les moyens financiers de se défendre. En réalité, voilà bien comment fonctionne l'économie du Web 2.0.

L'ironie du système est qu'il trouve un allié objectif chez les militants de la démocratie internet, prompts à se mobiliser pour défendre la gratuité sous toutes ses formes. Il trouve aussi un appui dans une sorte d'économie souterraine faite de nombreux petits acteurs, et même les individus, qui baissent leurs coûts de transaction et élargissent leur zône d'achalandage sans contrepartie gràce aux réseaux et aux plateformes mis à disposition.

Pour ceux qui ne seraient pas convaincus, je prendrai seulement deux exemples emblématiques : YouTube et FaceBook. Le premier a été racheté par Google 1,65 Mds de $ en 2006. Il est devenu le deuxième moteur de recherche aux US. Et pourtant, il n'arrive pas à se rentabiliser et pourrait perdre jusqu'à 470 M de $ selon de Crédit Suisse cette année (merci à D. Durand pour sa veille attentive sur ces questions). FaceBook, on le sait, est un énorme succès de fréquentation, il vient d'annoncer avoir atteint la barre de 200 millions d'utilisateurs. La firme a déjà levé pour 15 Mds de $ de capital risque et en chercherait de nouveau pour la même somme, non sans de grosses difficultés vu son absence totale de rentabilité et l'état de la bourse (TC).

Le rôle de Google

Revenons donc à Google. Pour bien comprendre son fonctionnement et la position particulière de la firme, il faut observer la structure de son chiffre d'affaires. Voici son évolution selon les derniers résultats du premier trimestre 2008 :

Chiffre d'affaires de Google 1er trim 2009 Diaporama complet ici

La première évidence bien connue des lecteurs de ce blogue est que, malgré ses tentatives de diversification, le chiffre d'affaires de Google est encore et toujours quasi exclusivement du à la publicité (98%). J'ai déjà eu l'occasion de faire remarquer (ici) combien l'évolution de sa structure signalait un recentrage progressif sur le métier originel de la firme, la recherche d'information financée principalement par adwords en vert plutôt que la régie publicitaire (adsense) en bleu. Je ne reviens pas non plus les conséquences pour les industries de contenu (par ex ici).

La baisse du chiffre d'affaires de Google début 2009 et qui semble devoir se confirmer au trimestre suivant même si elle reste relative va conduire les dirigeants à la prudence. Voir sur cette question le compte-rendu de Cnet-News (ici). La première conséquence sera d'accentuer encore la tendance précédemment citée.

Néanmoins, la firme dispose d'un énorme trésor de guerre qui l'autorise des investissements importants. Par ailleurs, compte-tenu de son succès financier, la position du titre de Google en bourse reste confortable, très supérieure à la moyenne du Nasdaq (actualiser D22).

Cours de l'action de Google vs MSN avril 2009

Dans ces conditions, il est probable que Google va accentuer encore sa domination sur le secteur en favorisant le développement d'une frange qui trouvera de moins en moins d'interlocuteurs vers qui se tourner et qui sera de plus en plus vassalisée.

La firme vient d'ailleurs de lancer son propre fond de capital risque et compterait investir 100M $ pour 2009 (BE États-Unis 161). Autre exemple, elle s'intéresse de près à Twitter, qui ne dispose lui non plus pas du moindre début d'un Business model.

Par ailleurs, Google serait "très, très heureux" d'aider Twitter ou d'autres sites Internet de "communication immédiate" à gagner de l'argent, a indiqué Eric Schmidt, en évoquant des pistes pour rentabiliser le site de micro-blogs. "Sans parler spécifiquement de Twitter", ces sites pourraient devenir "un moyen de canaliser des informations marketing", et à partir de ce moment-là, "d'accrocher des produits publicitaires", a-t-il relevé. Le Monde du 17-04-09, ici.

En complément voir l'intéressante analyse d'O. Ezratti qui montre la domination des capitaux publics dans le capital-risque en France.

Actu du 30-04 2009

Deux références complémentaires signalées par InternetActu. La première confirme en le précisant les difficultés économiques des sites de Crod Sourcing dues notamment au coût de la bande passante et à la difficulté de monétarisation :

Farhad Manjoo, La bande passante ne se trouve pas sous les sabots d'un cheval, Slate 22 avril 2009, ici

L'autre développe, à partir de l'exemple de l'iPhone, une idée complémentaire et non abordée ici, celle de l'écosystème. Une façon webilitiquement correcte de parler d'oligopole à frange, mais la domination s'y exerce différemment que dans l'analyse ci-dessus et il serait bon que j'y revienne à l'occasion :

Alexis Mons, Leçon d'économie systémique, 24 avril 2009, Groupe Reflect,.

Actu du 1-05-2009

Voir aussi dans la même logique, mais chez Amazon, le rachat de Lexcycle. Chez V Clayssen (ici et).

- page 7 de 15 -